CSE Central Malakoff Humanis : L’introduction de l’intelligence artificielle au sein de l’organisation du travail

Encore marginale, la négociation collective d’entreprise sur l’IA progresse de manière notable depuis quelques temps.

Mentionner l’IA dans les négociations devra garantir que ces technologies soient mieux adaptées aux besoins des travailleurs, en plus d’assurer la sécurité de l’emploi et le développement des compétences.

Les discussions sur l’IA se concentrent principalement sur les enjeux d’emploi ; Cette surreprésentation reflète les inquiétudes et les interrogations concernant la préservation des emplois dans un contexte de transition digitale

Il sera crucial d’élargir le dialogue aux transformations du travail induites par l’IA ; les enjeux de discrimination, de handicap, d’emploi des seniors, de télétravail et de déconnexion, de formation ou encore de conditions de travail seront également à aborder par les négociateurs.

L’IA générative s’impose aujourd’hui comme un levier pour les entreprises cherchant à innover, améliorer leur efficacité et se démarquer dans un marché hautement compétitif. Capable d’automatiser des tâches répétitives, d’analyser des données complexes à grande échelle, et de prendre des décisions informées en temps réel, cette technologie va transformer en profondeur les processus métiers.

Face au déploiement de cette technologie, les enjeux de formations en matière d’intelligence artificielle doivent être cœur des priorités de l’entreprise.

Toutefois, notre organisation tient à rappeler certaines limites relatives aux pratiques d’IA au travail ; en effet l’UE, à travers son règlement européen sur l’intelligence artificielle du 13 juin 2024, impose des limites strictes sur certaines utilisations jugées dangereuses ou contraires aux droits fondamentaux des travailleurs.

Un exemple frappant de système prohibé concerne l’utilisation de techniques subliminales. Ces systèmes, qui manipulent le comportement des employés à leur insu, pourraient par exemple influencer leurs décisions par des messages invisibles intégrés dans des environnements virtuels ou via des interfaces homme-machine. L’objectif, souvent caché, est de fausser les décisions des travailleurs en leur imposant des choix qu’ils n’auraient pas pris en toute conscience. Cela peut entraîner des répercussions graves, qu’elles soient d’ordre psychologique (pression induite) ou financier (acceptation de conditions défavorables).

L’exploitation des vulnérabilités des travailleurs constitue une autre interdiction majeure. Cibler des salariés en situation de précarité économique ou appartenant à des minorités avec des systèmes d’IA qui influencent leurs choix professionnels, pourrait altérer leur capacité à négocier des conditions de travail justes, ou même les amener à accepter des emplois mal rémunérés ou peu sécurisés. L’objectif de ces pratiques, bien que parfois non intentionnel, est souvent de tirer parti de la faiblesse sociale ou économique des individus.

Un autre domaine sensible est celui des systèmes d’évaluation émotionnelle. Un exemple d’utilisation interdite serait une entreprise qui tente d’évaluer le niveau d’engagement, d’implication ou de stress des employés lors d’une réunion, en analysant leurs expressions faciales en temps réel via des caméras. De telles pratiques, bien que présentées comme des outils d’amélioration de la performance, posent des risques sérieux en matière de discrimination et d’intrusion dans la vie privée.

Les systèmes de classification sociale qui attribuent des scores aux employés en fonction de leur comportement ou de leurs interactions sociales, sont également interdits. Ces systèmes pourraient, ainsi, suivre les interactions d’un employé avec ses collègues sur une longue

période, pour en déduire un score de « coopération » ou de « productivité ». Ces scores pourraient ensuite être utilisés pour accorder ou refuser des promotions, ce qui engendre des risques de traitement discriminatoire ou injustifié, déconnecté du contexte initial dans lequel ces données ont été recueillies.

Il convient de placer des garde-fous autour de l’utilisation des technologies d’IA en milieu de travail, afin de garantir que les droits des travailleurs ne soient pas sacrifiés au profit de l’efficacité ou du contrôle des performances.

Le syndicat CGT Malakoff Humanis s’abstiendra lors de la consultation.

Mots-Clés : # # #
Imprimer cet article Télécharger cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.