Lumière sur … l’IA et le devoir de vigilance

Lumière sur le devoir de vigilance
Et si le « Rana Plaza » du numérique se jouait aujourd’hui avec l’IA ?

La loi française sur le devoir de vigilance[1], ainsi que plus récemment, la directive CS3D[2], imposent aux grandes entreprises de prévenir les atteintes graves aux droits humains, à la santé, à la sécurité des personnes, et à l’environnement, qui pourraient survenir du fait de leurs activités ou de celles de leurs partenaires. Cette obligation est notamment matérialisée à travers l’élaboration et la publication d’un plan de vigilance.

Pourtant, dans son rapport « Intelligence artificielle et devoir de vigilance : il y a intérêt à agir », diffusé au mois de septembre 2024, l’association « Intérêt à Agir » met en avant l’usage croissant de l’intelligence artificielle par les grandes entreprises (françaises), tout en constatant un manque d’intégration des risques sociaux et environnementaux liés à l’intelligence artificielle dans leur plan de vigilance. 

Après avoir ainsi étudié les plans de vigilance de 11 grandes entreprises françaises, cette association souligne les enjeux éthiques de la chaîne de production de l’intelligence artificielle, notamment l’exploitation des travailleurs et l’impact environnemental de l’extraction des métaux rares, nécessaires à la fabrication des semi-conducteurs des « data centers ». 

Les fournisseurs d’IA ont en effet recours à une multitude de personnes humaines pour réaliser les tâches de collecte et de nettoyage des données[3] : « dataworkers», « Clickworkers » ou encore « Turkers » sont autant de noms qui désignent les ouvriers de la donnée. Or cette forme de travail, organisée par l’intermédiaire de plateformes de travail numérique, le « crowdsourcing », peut interroger quant aux conditions de travail de ces personnes, situées aux 4 coins du globe.  

« L’ironie du sort veut que l’intelligence artificielle telle qu’elle est actuellement utilisée serve une finalité éloignée des objectifs intellectuels et pratiques qui étaient initialement les siens en tant que discipline et qui consistaient à créer des systèmes entièrement automatisés capables de résoudre des problèmes que seuls les humains pouvaient jusqu’alors solutionner » (Les plateformes de travail numérique et l’avenir du travail : pour un travail décent dans un monde en ligne. Genève, Bureau internationale du Travail, 2019)

Déjà en 2019, le BIT avait publié les résultats d’une enquête sur ce sujet, et il en ressortait un état édifiant : niveau de rémunération, amplitude horaire, absence ou mauvaise couverture de protection sociale… (Les plateformes de travail numérique et l’avenir du travail : pour un travail décent dans un monde en ligne. Genève, Bureau internationale du Travail, 2019)

C’est pourtant la catastrophe du Rana Plaza en 2013, bâtiment qui abritait des ateliers de confection pour des marques internationales, qui a déclenché une prise de conscience mondiale sur les conditions de travail dans l’industrie textile et a poussé les entreprises et les gouvernements à renforcer les normes de sécurité et de vigilance dans les chaînes d’approvisionnement.

10 ans plus tard, l’histoire semble se répéter dans l’industrie de l’IA, de manière plus invisible, mais tout aussi pernicieuse, alors que la prévention des atteintes graves aux droits humains et aux libertés fondamentales, à la santé et à la sécurité des personnes, et à l’environnement, devrait être prises en compte dans la chaîne de valeur des grandes entreprises, et cela, tant que l’IA ne pourra pas se passer de l’homme…

———-

Sources :

[1] Loi n° 2017-399 du 27 mars 2017, relative au devoir de vigilance des sociétés mères et des entreprises donneuses d’ordre.

[2] Directive (UE) 2024/1760 du 13 juin 2024 sur le devoir de vigilance des entreprises en matière de durabilité.

[3] Winston Maxwell. Le contrôle humain des systèmes algorithmiques – Un regard critique sur l’exigence d’un « humain dans la boucle ». Droit. Université́ Paris 1 Panthéon- Sorbonne, 2022. tel-04010389.