Vos droits
bab449ae-2477-46b3-8fca-27c4c5741bd6
https://www.lacsc.be/vos-droits
true
Actualité
59ea6a04-d5cb-49bb-86bf-262457cb04b8
https://www.lacsc.be/actualite
true
Services
c7cddb17-187f-45c2-a0e2-74c299b8792b
https://www.lacsc.be/services
true
S'affilier
abbb02d8-43dd-44b5-ae75-3cd90f78f043
https://www.lacsc.be/affiliation
true
La CSC
c62ac78b-1aa2-4cb9-a33b-59e6fc085fb4
https://www.lacsc.be/la-csc
true
Contact
7f7bdd4f-c079-401e-a1bf-da73e54f00c2
https://www.lacsc.be/contactez-nous/pagecontact
true
Je m'affilie

L’Intelligence Artificielle danger ou opportunité pour les travailleurs?

L’introduction de changements radicaux se fait idéalement en concertation

Ces derniers mois, ChatGPT a ravivé les craintes de pertes d’emplois dues à l’automatisation. Les journaux parlent maintenant de coupes sombres sur le marché du travail pour les personnes hautement qualifiées et les professions créatives. Mais toutes les fois qu’il tonne, la foudre ne tombe pas. « Les changements peuvent être bons ou mauvais. Mais si on tente d’ignorer les changements par peur, il est nettement plus probable que les choses tournent mal », explique Rob Heyman du Centre flamand de connaissances sur les données et la société (Vlaams Kenniscentrum voor Data en Maatschappij).

« Une machine capable d’écrire ses propres textes signe la fin de toutes les tâches. C’est du moins ce que tout le monde pense. Mais quand on examine les choses de plus près, on s’aperçoit que ce n’est pas le cas. L’intelligence artificielle a besoin d’instructions. Il faut expliquer à ChatGPT la forme et le contenu souhaités pour l’article. Et le résultat n’est pas toujours bon du premier coup. Il faut alors préciser ce qui doit encore être réécrit. Le travail n’a donc pas disparu, mais on dispose d’un outil supplémentaire. Et il faudra avoir des compétences pour accompagner l’Intelligence Artificielle (IA). »

La grande différence par rapport aux vagues précédentes de numérisation c’est que cette fois, les emplois hautement qualifiés sont également dans le collimateur.

Rob Heyman : « En effet, il s’agit à présent de reconnaissance de textes et de formes. Cela peut sembler un peu lugubre, mais je me réjouis que l’IA ait désormais des implications pour tout le monde. J’espère que cela nous permettra d’y réfléchir plus collectivement. Aujourd’hui, même les fonctions managériales sont concernées. Tout le monde devra avoir les compétences nécessaires pour gérer l’IA. Et ce ne sera pas donné à tout le monde. »

« Il y a cependant un avantage : cela implique beaucoup de savoir-faire en ce qui concerne le fonctionnement des processus. Or, ce sont bien sûr les personnes qui effectuent actuellement les tâches qui le possèdent. L’IA doit être alimentée par des données labellisées. ChatGPT, par exemple, a analysé une quantité massive de textes tirés d’Internet pour apprendre quels mots utiliser et comment écrire un texte. Mais parmi les textes analysés, on trouve aussi des propos vulgaires.  Il a donc fallu des personnes pour labelliser les données et indiquer à ChatGPT quels mots étaient ou non appropriés.
L’intelligence artificielle utilisée pour détecter des cancers à partir de photos a eu besoin de milliers de clichés labellisés par des médecins. L’IA nécessite toujours un apport actif de connaissances. Et le monde continue à évoluer. Les systèmes d’IA ont donc toujours besoin d’être évalués et d’être alimentés en nouvelles données par des humains. »

Et ChatGPT ne peut évidemment pas écrire cet article, car il n’a pas eu cette conversation.

Rob Heyman : « Mais il peut aider. Imaginons que la reconnaissance de textes fonctionne déjà si bien que l’IA puisse effectuer la transcription de manière totalement satisfaisante. Elle éliminerait ainsi tous les “euh” et les structures de phrases étranges, et mettrait le texte au propre. Cela vous dérangerait-il alors ? Ce serait pratique, non ? Vous pourriez travailler beaucoup plus vite. Tout le monde n’y serait-il pas gagnant ? »

Cela reste quelque peu ambivalent, car si, en raison de ce gain d’efficacité, on me demande d’écrire un deuxième article en parallèle, je risque de perdre un peu de sérénité dans mon travail.

Rob Heyman : « C’est plus une question de productivité et de limites à ne pas dépasser. »

Peut-être faut-il encadrer cette évolution ?

Rob Heyman : « Le cadre légal à cet égard figure dans la CCT 39 sur l’introduction de nouvelles technologies sur le lieu de travail. Cela doit faire l’objet d’une concertation. Malheureusement, la pratique est souvent différente. Les employeurs préfèrent parfois éviter cette discussion, car ils ne veulent pas réveiller le chat qui dort. Pourtant, tôt ou tard, le chat finit par se réveiller. Il est donc préférable de le faire à temps. Il est alors possible d’intervenir avant de consentir à de grosses dépenses. Une concertation est donc aussi bénéfique pour les employeurs. L’introduction de changements radicaux émanant de la hiérarchie est toujours un pari. Il s’agit généralement d’investissements considérables. Il faut donc espérer un rendement suffisant. Il est dès lors préférable de consulter les personnes concernées et de leur demander ce qu’elles en pensent. Quels sont les bénéfices pour elles ? En quoi cela améliore-t-il leur travail ? Si elles n’y voient pas d’intérêt, le risque d’échec est élevé. »

Les syndicats ont-ils un rôle à jouer ?

Rob Heyman : « Absolument ! C’est sur cet aspect que nous essayons d’agir avec le Kenniscentrum Data & Maatschappij. Nous connaissons les technologies auxquelles nous allons être confrontés. Nous devons donc imaginer ce que donnera leur utilisation au travail. Toutes les parties concernées doivent anticiper ensemble ce qui pourrait mal se passer et chercher des solutions pour y remédier. Mais cela nécessite de mettre en place une vision. Or, les syndicats ne s’en préoccupent pas assez. Ils avancent à tâtons. C’est dommage. Ils devraient aussi participer aux prises de décisions pour contribuer en temps opportun à l’orientation à donner à cette innovation afin que chacun y trouve son compte. »

L’intelligence artificielle dans la politique RH

L’IA permet de collecter et d’analyser des données en continu. Cela peut créer au travail un sentiment d’insécurité, voire d’intimidation. Le risque d’accumulation d’erreurs dans les chaînes d’information est en effet toujours présent. Cela peut non seulement se révéler inefficace, mais aussi créer des injustices à l’égard des travailleurs individuels.

Le CEO d’IBM a déclaré en 2019 que l’IA peut prédire avec une précision de 95 % les travailleurs qui sont sur le point de quitter leur emploi. Pourtant, elle ne peut jamais déterminer les intentions exactes d’une personne, seulement prédire une « probabilité ».

Beaucoup de choses dépendent de la personne qui assure le suivi, l’évaluation et la surveillance. C’est toujours un humain qui décide d’utiliser l’IA. Les risques diffèrent aussi en fonction des objectifs de l’analyse effectuée grâce à l’IA. Si le but est d’évaluer les performances, on peut se demander dans quelle mesure le traitement automatisé des données fournit des informations exactes. Mais s’il s’agit de contrôler le travailleur, les risques augmentent encore.

À l’heure actuelle, le RGPD constitue la principale protection contre l’utilisation abusive de l’intelligence artificielle. Cette législation exige des employeurs qu’ils justifient la collecte de données à caractère personnel, en adhérant aux principes de transparence, de finalité et de proportionnalité. Si on a recours à l’IA, il est toutefois important que les représentants du personnel puissent conclure des accords au niveau de la direction afin de limiter son utilisation dans la gestion du personnel. 

Votre centrale sur les réseaux sociaux