Au Canada et dans le monde entier, les innovations technologiques transforment les milieux de travail. Le numérique, les nouvelles technologies et l’intelligence artificielle (IA) se répandent rapidement dans notre société, y compris dans les services publics et les milieux de travail du secteur public, et leur utilisation est appelée à croître rapidement.

Les répercussions de l’IA et des technologies numériques dépendent de l’utilisation qui en est faite. Celles-ci ont effectivement le potentiel d’enrichir la vie des travailleuses et travailleurs et de les aider à fournir des services publics de qualité dans la mesure où l’IA est supervisée par l’humain.

Autrement, l’IA et les innovations numériques pourraient avoir des effets préjudiciables sur la qualité des emplois et les droits des travailleuses et travailleurs : surveillance du personnel, iniquité des décisions d’embauche et de licenciement, accélération du rythme de travail, exposition à de nouveaux risques professionnels. Certains systèmes d’IA peuvent même mener à de la discrimination envers des groupes d’équité, en défavorisant les femmes, les personnes autochtones, noires et racisées, celles occupant un emploi précaire, ainsi que les travailleuses et travailleurs migrants.

Les travailleuses et travailleurs ont le pouvoir de définir la façon dont l’IA est utilisée. Nous devons veiller à ce que nos conventions collectives et les lois régissant ces technologies protègent les salarié(e)s et les services publics. Ce sont nos emplois, nos droits et les services que nous fournissons qui sont en jeu. Les membres du SCFP trouveront dans ce guide des pistes pour comprendre cette vague de changements technologiques et s’y adapter.

Télécharger une version imprimable

Les changements technologiques, ça concerne les syndicats

L’IA a déjà fait sa place dans plusieurs milieux de travail du SCFP et finira par se répandre dans tous les secteurs. Il est donc important que les travailleuses et travailleurs aient leur mot à dire sur la mise en place et l’utilisation de ces systèmes dans nos milieux de travail. Le SCFP aborde l’IA comme n’importe quelle nouveauté technologique : en s’intéressant à ses répercussions sur les emplois et les droits de ses membres et sur les services publics fournis par ces travailleuses et travailleurs.

Le SCFP conçoit des ressources pour aider ses membres à :

  • comprendre ce qu’est l’IA;
  • repérer l’utilisation de nouvelles technologies en milieu de travail;
  • se protéger des risques que posent les systèmes de gestion des ressources humaines propulsés par l’IA;
  • renforcer nos conventions collectives afin de protéger nos droits et les services publics.

Les autorités tardent à réglementer ces nouvelles technologies. De toute évidence, nous devrons user de notre pouvoir collectif pour construire l’avenir que nous voulons.

Fonctionnement de l’IA

Le terme « intelligence artificielle » fait référence à des systèmes informatiques automatisés qui, à l’aide de données et de codes de programmation, peuvent accomplir une tâche ou résoudre un problème. Ces systèmes sont fort variés et font appel à l’intervention humaine à divers degrés. Certains nécessitent une supervision humaine, mais d’autres, comme les systèmes d’apprentissage automatique, possèdent une grande autonomie. Contrairement aux premières formes d’automatisation où les machines et les robots étaient programmés pour effectuer des tâches précises, certains systèmes d’IA ont la capacité d’apprendre par eux-mêmes et de s’adapter au fil du temps. Ces systèmes peuvent donc fonctionner en dehors des instructions prédéfinies et évoluer sans intervention humaine.

Pour fonctionner, les systèmes d’IA ont besoin d’une ressource essentielle : les données. Grâce à des ensembles complexes de règles et de commandes informatiques, appelés des algorithmes, ces systèmes peuvent exécuter de nombreuses tâches : classer des données, établir des tendances et des liens dans les données, générer des prédictions, etc. Les algorithmes permettent d’identifier des objets, de lire et de résumer des textes, de répondre à des questions, de faire des recommandations ou de générer du contenu (comme des textes, des images, de la musique ou des vidéos).

 

Données personnelles : du carburant pour les systèmes d’IA

Notre monde est de plus en plus numérique. Le volume de données recueillies sur notre quotidien a explosé. Nous générons en continu un flot de données susceptibles d’alimenter les algorithmes et les systèmes d’IA : nombre de pas en une journée, temps passé sur notre téléphone, fréquence et lieux d’utilisation de nos cartes d’accès au travail.

Car l’IA est alimentée par les données — sous forme de textes, de chiffres, d’images, de vidéos, de contenu audio – que nous produisons chaque jour dans le cadre de nos fonctions professionnelles, par exemple :

  • feuilles de temps;
  • nombre de tâches que nous accomplissons dans un quart de travail;
  • contenu de nos courriels;
  • lieu où se trouve notre véhicule;
  • conversations téléphoniques avec la clientèle;
  • déplacements sur notre lieu de travail.

Notre vie privée fait en plus l’objet d’une surveillance constante et là encore, on recueille nos données : historiques d’achat et de navigation, messages publiés sur les réseaux sociaux, etc. Lorsque ces données viennent alimenter les systèmes d’IA, les employeurs et les sociétés privées qui développent ces systèmes ou y ont recours peuvent faire ce qu’ils veulent de cette ressource précieuse, et cela vaut également pour la manière dont ces données sont stockées et utilisées.

Les systèmes d’IA apprennent aussi de notre façon de travailler. Un membre du SCFP du domaine du sous-titrage, par exemple, s’est rendu compte qu’il entraînait un programme à son insu en corrigeant ses erreurs. On entraîne des robots conversationnels au moyen d’enregistrements d’appels et de véritables courriels pour leur apprendre à imiter le service à la clientèle. Des pratiques qui laissent présager des suppressions d’emplois et des licenciements.

Les innovations numériques comme l’IA s’implantent plus vite que les gouvernements n’arrivent à les réglementer. En tant que travailleuses et travailleurs, nous devons user de notre pouvoir pour encadrer l’utilisation des systèmes d’IA dès maintenant avec l’outil que nous connaissons le mieux : nos conventions collectives.

 

L’intelligence artificielle dans nos milieux de travail

Dans le secteur du service à la clientèle, de plus en plus d’employeurs cherchent à remplacer l’humain par des agents conversationnels. On se sert de l’IA pour automatiser le traitement des demandes de renseignements et pour aider les citoyen(ne)s à trouver des services publics ou des programmes de soutien, ou à prendre un rendez-vous médical, par exemple. Dans le secteur des services sociaux, on utilise l’IA pour classer les cas par ordre de priorité et prendre des décisions concernant les ressources, comme l’aide au revenu.   

L’IA est une priorité pour les employeurs, qui créent de nouveaux services et postes de direction centrés sur cette technologie. Les gouvernements cherchent à accélérer sa diffusion en accordant des subventions aux entreprises ou aux municipalités qui l’adoptent.

Mais n’oublions pas que cette percée technologique s’accompagne de nouvelles possibilités, mais aussi de risques. Certes, l’IA est porteuse de promesses.  Elle peut accomplir des tâches dangereuses ou difficiles pour l’humain. Elle peut aussi automatiser des tâches de base et ainsi permettre au personnel d’effectuer des tâches plus gratifiantes. Elle peut également améliorer l’accès aux services publics, par exemple pour les personnes en situation de handicap, grâce à la synthèse vocale.

Cela étant dit, l’IA recèle également des risques, dont la déqualification des emplois et la perte de satisfaction professionnelle. L’IA ne saurait se substituer au contact humain dans un contexte de services publics. Avec une IA conversationnelle, on dit adieu à l’interaction de personne à personne, au regard et au jugement humains qui sont au cœur d’un service public attentionné. L’utilisation d’une telle technologie pourrait porter préjudice aux services publics en réduisant la transparence et la responsabilisation, ainsi que l’autonomie et les rapports humains. En fin de compte, c’est la façon dont les systèmes d’IA sont conçus et utilisés qui déterminera si ces technologies seront bénéfiques ou néfastes pour notre société.

La qualité des systèmes d’IA est égale à la qualité de leur programmation et des données utilisées pour les alimenter. Il suffit que les données soient inexactes ou incomplètes, ou que des erreurs s’introduisent dans le code de programmation pour que les outils d’IA produisent des prédictions erronées, des recommandations douteuses ou des résultats de piètre qualité. Par ailleurs, les systèmes d’IA peuvent reproduire les préjugés présents dans les données qui les alimentent. Par exemple, si les données utilisées pour entraîner ces systèmes comportent des préjugés envers les personnes qui fournissent ou utilisent les services et qui présentent certaines caractéristiques particulières (p. ex. : langue, dialecte, genre, handicap), les systèmes pourraient produire du contenu et des décisions discriminatoires. Ce danger guette tout particulièrement les membres des groupes d’équité. C’est pourquoi le SCFP réclame que cette technologie fasse l’objet d’une surveillance publique rigoureuse, fondée sur la transparence et des mesures de responsabilisation strictes.

L’incidence de l’IA dépend de ce pour quoi elle est conçue, de la façon dont nous l’utilisons et des raisons pour lesquelles nous y avons recours. Si les employeurs s’en servent pour réduire leurs coûts de main-d’œuvre plutôt que pour améliorer la qualité ou l’accessibilité des services publics, l’IA aura pour effet d’éroder le niveau de vie et la sécurité d’emploi de nos membres. Là où l’IA peut éliminer des tâches, faire baisser le niveau d’études exigé ou automatiser les processus décisionnels, elle peut aussi entraîner une baisse des salaires, des pertes d’emploi et une précarisation du travail, avec des effets disproportionnés sur les travailleuses et travailleurs des groupes d’équité.

Enfin, une poignée de géants technologiques dominent le marché du développement de l’IA, ce qui fait en sorte que le secteur public dépendra de plus en plus de sociétés privées. Cette situation soulève également de sérieuses questions sur le contrôle public de données personnelles cruciales et sur l’accès du secteur privé à celles-ci.

 

Algorithmes et gestion

On a désormais recours à l’IA pour automatiser la gestion des ressources humaines et superviser les équipes à distance. Les employeurs se tournent vers les entreprises privées afin de s’outiller en systèmes de gestion algorithmique pour :

  • trier les candidatures;
  • mener des entretiens d’embauche;
  • évaluer et recommander des candidatures;
  • attribuer les tâches et répartir le travail;
  • planifier les horaires de travail et les effectifs;
  • évaluer le rendement et la productivité;
  • déterminer les besoins en formation;
  • décider de la prise de mesures disciplinaires.

Ces systèmes algorithmiques sont entraînés à l’aide de données sur les employé(e)s recueillies par des moyens de surveillance. Ces données sont traitées par les algorithmes, qui produisent des recommandations pour l’employeur. Celles-ci peuvent inclure des suggestions de candidat(e)s à embaucher ou d’avis disciplinaires à émettre, et des propositions de modifications aux heures ou aux flux de travail.

Les municipalités utilisent l’IA pour définir les calendriers et les itinéraires de collecte des déchets et de déneigement. Trajets parcourus par les véhicules, durée des trajets, consommation de carburant, habitudes de freinage et d’accélération, vitesse, plaintes de résident(e)s, données en temps réel sur la météo et la circulation : tout est intégré dans un algorithme qui détermine les meilleurs itinéraires.

Un système algorithmique pourrait très bien recommander des objectifs de rendement susceptibles d’intensifier la charge de travail, de causer des situations dangereuses ou d’être carrément déraisonnables. En effet, ces systèmes sont incapables de prendre en compte les circonstances et les limites humaines, ce qui peut les amener à tirer des conclusions injustes sur le rendement d’un(e) employé(e).

 

Il est donc important que les conventions collectives comportent des clauses exigeant des employeurs qu’ils soient transparents avec le personnel en ce qui a trait à l’utilisation de l’IA dans la prise de décisions clés le concernant. Les employeurs se doivent d’informer les travailleuses et travailleurs sur le fonctionnement des systèmes de gestion algorithmique. Malheureusement, il arrive trop souvent que les employeurs ne comprennent pas eux-mêmes les rouages obscurs de l’algorithme du programme informatique utilisé. De plus, on ne peut pas exclure la possibilité que des employeurs tentent de se soustraire à leurs obligations pour les erreurs ou les bogues informatiques de ces systèmes.

Comme ils sont entraînés avec des données historiques, les systèmes de gestion algorithmique pourraient également creuser les inégalités déjà présentes dans les milieux de travail. Par exemple, certains algorithmes utilisés pour le recrutement de personnel font appel à la reconnaissance vocale. Si l’IA est entraînée avec des données provenant de personnes ayant des accents précis, elle pourrait contribuer à des inégalités à l’embauche en interprétant avec moins de précision la voix des personnes qui ne parlent pas dans leur langue maternelle.

En outre, les employeurs pourraient se servir des données recueillies dans le cadre professionnel pour faire obstacle aux activités syndicales. La surveillance et la collecte de données en continu par les systèmes de gestion algorithmique pourraient informer les employeurs d’activités syndicales et leur permettre de s’ingérer dans une campagne d’adhésion ou un mouvement de mobilisation pour un vote de grève, par exemple.

Protection des emplois et des services

Les travailleuses et travailleurs ne pourront profiter des avantages de l’IA que si de solides protections juridiques et contractuelles sont en place pour les salarié(e)s et leurs syndicats, et que ceux-ci ont voix au chapitre de l’utilisation de cette technologie au travail.

Les syndicats doivent négocier tout ce qui a trait aux conditions de travail et à la sécurité d’emploi dans les milieux de travail susceptibles d’être touchés par l’utilisation de l’IA. À ce titre, le SCFP est en train de préparer des clauses à intégrer aux conventions collectives afin de protéger les droits et la sécurité d’emploi de ses membres. Il n’existe pas de « clause IA » universelle. Les sections locales doivent adopter une approche globale pour profiter des opportunités et surmonter les défis que présente l’IA pour les travailleuses et travailleurs ainsi que pour les services publics.

Le SCFP plaide également en faveur de meilleures protections législatives auprès des différents paliers de gouvernement, dont des amendements substantiels au projet de loi C-27 édictant la Loi sur l’intelligence artificielle et les données du gouvernement fédéral.

La législation fédérale régissant l’IA doit s’appliquer à toutes les entités gouvernementales et sociétés d’État, sans exception. Elle devra prendre en compte les dommages collectifs et sociétaux que pourraient causer les systèmes d’IA. Son application devrait être assurée par un commissariat indépendant plutôt que par un organe gouvernemental. Enfin, la législation devrait protéger les droits des travailleuses et travailleurs en obligeant les employeurs à informer les syndicats et à négocier avec eux avant toute introduction de l’IA dans un milieu de travail.