Vos droits
bab449ae-2477-46b3-8fca-27c4c5741bd6
https://www.lacsc.be/vos-droits
true
Actualité
59ea6a04-d5cb-49bb-86bf-262457cb04b8
https://www.lacsc.be/actualite
true
Services
c7cddb17-187f-45c2-a0e2-74c299b8792b
https://www.lacsc.be/services
true
S'affilier
abbb02d8-43dd-44b5-ae75-3cd90f78f043
https://www.lacsc.be/affiliation
true
La CSC
c62ac78b-1aa2-4cb9-a33b-59e6fc085fb4
https://www.lacsc.be/la-csc
true
Contact
7f7bdd4f-c079-401e-a1bf-da73e54f00c2
https://www.lacsc.be/contactez-nous/pagecontact
true
Je m'affilie

L’intelligence artificielle dans la gestion du personnel - A quels risques ?

Selon le discours désormais bien connu des milieux (pro-)patronaux, la transition numérique aurait bouleversé le monde du travail. Dans les secteurs concernés, les salariés seraient désormais autonomes, dégagés des questions vulgaires d’horaires de travail et d’astreintes, occupés dans le cadre d’un contrat de travail quasi commercial, entre « égaux », et bénéficiant de formes de rémunération alternatives, « à la carte », de préférence nettes de cotisations sociales et d’impôt. Ce discours ne doit pas faire illusion.

 

La transition numérique participe, en réalité, d’un nouvel essor de l’état de subordination : mise en concurrence aiguë des entreprises et des salariés entre eux, augmentation intense de la charge mentale du travail liée au management par objectifs (et souvent à distance), situations anxiogènes incitant les salariés à rester connectés en permanence, surveillance informatique, collecte de données personnelles, caméras sur les lieux de travail, géolocalisations diverses, empiètement sur la vie privée, explosion des risques dits psychosociaux et de burn-out… A force de stress et de sous-effectifs, les licenciements, mises en inaptitude, petites morts sociales, ruptures provoquées dites « de commun accord » deviennent monnaie courante. 

Le Droit de l’employé a interrogé un militant syndical cadre, occupé dans une entreprise d’ingénierie informatique, à propos du rôle de l’intelligence artificielle (IA) dans les nouvelles formes de surveillance et de subordination au travail, des risques sociaux engendrés et des moyens pour y faire face.

Le développement de l’IA a-t-il un impact potentiel sur la surveillance et l’évaluation de la main-d’œuvre ? 
Clairement. Certains traitements sont possibles via l’IA et ne le seraient pas humainement. Par exemple, il est possible de déduire certains schémas de comportement d’une personne à partir d’une grande quantité de données récoltées sur celle-ci, principalement via les GAFAM1. L’IA permet également de récolter et d’analyser ces données en permanence, ce qui ne serait pas non plus faisable humainement. Comme le déclarait le CEO d’IBM en 2019 : « l'intelligence artificielle d'IBM peut prédire avec 95% de précision quels travailleurs sont sur le point de quitter leur emploi. »

Les algorithmes de gestion de la performance sont utilisés en Europe ?
Ce sont évidemment les sociétés américaines qui ont commencé à utiliser ce type d’algorithmes pour des raisons culturelles (notamment la croyance que l’efficience d’un tout est fondamentalement « la somme » des efficiences individuelles). Mais aujourd’hui, cette culture a percolé dans beaucoup d’entreprises européennes, qui ont trouvé un intérêt à pouvoir traiter un grand nombre de données de performance afin d’être plus précis (et donc plus confiant) sur l’évaluation de la performance obtenue. Mais encore faut-il avoir creusé suffisamment la notion même de performance ! Cette notion est très discutable, et son traitement automatisé peut mener à de grandes erreurs. 

Quels sont les risques que cela soulève ?
Il y a, d’une part, les risques liés à la quantité d’informations récoltées en permanence, qui génère un sentiment d’asservissement, d’insécurité, voire de harcèlement sur le lieu de travail. D’autre part, il y a les risques liés aux erreurs diverses qui se cumulent tout au long de la chaîne (récolte, analyse, interprétation, utilisation des résultats) et qui peuvent mener non seulement à une sous-efficacité au niveau de l’entreprise, mais aussi à des injustices plus ou moins graves au niveau des personnes. Il faut se rappeler qu’il est impossible, même pour une IA, de déterminer les intentions d’une personne : elle ne peut qu’évaluer une probabilité d’intention, ce qui peut être suffisant au niveau économique et commercial, mais pas au niveau juridique.

Jugez-vous ces risques minimes, acceptables, élevés ou inacceptables ? 
L’importance des risques et la gravité de l’impact dépendent essentiellement de la personne qui fixe les missions de suivi, d’évaluation et de surveillance. C’est toujours une personne humaine qui décide d’utiliser l’IA comme un outil ou comme une arme. Selon que le traitement est destiné à vérifier l’exécution du contrat de travail, à mesurer la performance ou à contrôler/surveiller le travailleur, les risques sociaux grandissent. 
Prenons l’exemple d’une entreprise qui engage un vendeur pour démarcher des clients potentiels. Elle crée une banque de données opérationnelle qui contient le nom du client potentiel, l’adresse, la date et l’heure de la visite du vendeur. Cela permet à l’employeur de vérifier si le vendeur fait son travail (intérêt légitime) et s’il optimise ses trajets (performance). Avec ces informations, l’employeur pourrait remarquer (avec une IA ou non) que le vendeur visite les clients de la côte le vendredi. Le chef du vendeur pourrait décider de faire sa réunion hebdomadaire à Ostende plutôt qu’à Bruxelles (optimisation de gestion), mais il pourrait aussi se demander si le vendeur passe ses week-ends à la mer et y programme ses visites du vendredi par conflit d’intérêt (intrusion dans la vie privée du vendeur). C’est pourquoi il faut constamment veiller à ce que les informations légitimement recueillies ne soient pas utilisées à d’autres fins que celles qui ont justifié leur récolte et qui ont été communiquées au travailleur.

Que faire pour minimiser les risques ?
Aujourd’hui, le RGPD2 est le principal rempart contre l’utilisation de l’IA en tant qu’arme contre les employés. L’obligation de justifier toute récolte de données personnelles au regard des principes de transparence, finalité et proportionnalité limite la profondeur avec laquelle une IA peut profiler quelqu’un. Le RGPD (article 22.1) limite en outre le profilage lui-même. 

Cependant, cela ne suffit pas. Pour minimiser les risques, il est important de négocier avec la personne qui « décide où tombe la bombe » plutôt qu’avec la personne qui la fabrique. C’est au niveau de la direction que des décisions éthiques doivent être prises et communiquées pour limiter la surveillance et l’usage de l’IA dans la gestion du personnel. Ces décisions concernent avant tout la finalité et la transparence des traitements ; puis l’exactitude, la minimisation, la durée de conservation, l’intégrité et la confidentialité des données personnelles. Il est nécessaire que les représentants du personnel négocient ces sujets à ce niveau-là.

 

1Acronymes désignant les cinq plus grandes multinationales du numérique : Google, Apple, Facebook, Amazon, Microsoft

2Règlement général pour la protection des données personnelles.

 

 

 


Le logiciel Watson, développé par IBM, permet d’identifier avec une grande précision les travailleurs susceptibles de démissionner dans un avenir proche, afin qu’ils puissent être ciblés pour une formation supplémentaire, une promotion ou une augmentation de salaire. Lorsqu’un plan de licenciement collectif est envisagé, il peut fournir des recommandations sur les travailleurs à tenter de garder dans l’entreprise. Les entreprises de call centers, qui disposent de paramètres clairs de productivité, utilisent des logiciels de mesure et d’évaluation de la production individuelle des travailleurs. Certains logiciels, tels que Call Miner, Cogito ou Voici, réalisent des analyses vocales des travailleurs afin de leur donner un retour d’information en temps réel sur le fait qu’ils parlent trop vite, qu’ils semblent trop fatigués ou insuffisamment empathiques, ou pour offrir d’autres conseils du type de ceux que des responsables humains auraient habituellement donnés. Plus généralement, de nombreux logiciels, tels que My Analytics, Workplace Analytics, Work Smart,  Time Doctor, Teramind, permettent à toute entreprise d’enregistrer certains gestes informatiques, par équipe (anonymement) ou par employé (individuellement) : à quel moment les employés se connectent et se déconnectent, quels logiciels sont ouverts sur leur ordinateur, sur quels documents ont-ils travaillé, quels sites internet ont-ils visité, combien de temps par jour consacrent-ils aux réunions, ont-ils « clavardé » pendant les réunions, ont-ils été absents du bureau, qu’affiche leur écran… afin de produire des recommandations visant à rendre le travail plus productif. 

 


Propos recueillis par Jean-François Libotte 

 

Votre centrale sur les réseaux sociaux