
Le coût humain de l’IA
17 décembre 2025
On parle beaucoup de ce que l’IA «peut faire», mais rarement de ce qu’elle exige. Derrière les interfaces lisses et les discours marketing, l’IA dépend d’une chaîne de travail humaine massive, mondialisée et souvent exploitée. En marge de la pièce Boîte noire, nous vous proposons un regard sur une industrie au coût humain et environnemental exorbitant, soigneusement dissimulé.
Des travailleur·euses fantômes
L’IA dite «intelligente» repose sur une main-d’œuvre invisible, précaire et sous-payée, souvent composée de réfugié·es ou de personnes vivant dans des pays à faible revenu pour qui ce travail est l’un des seuls moyens de survivre.
Du contenu parfois explosif
Ces travailleur·euses prennent des décisions des centaines de fois par jour:
- «Est-ce une chemise noire à rayures blanches ou une chemise blanche à rayures noires?»
- «Un bol est-il décoratif s’il est rempli de fruits?»
- «De quelle couleur est l’imprimé léopard?»
Chaque choix alimente les modèles d’IA.
Mais les contenus ne sont pas toujours aussi anodins. Souvent, les travailleur·euses sont exposé·es à du contenu violent, sexuellement explicite ou choquant.
L’exploitation au coeur du système
Les géants de la tech externalisent les tâches les plus pénibles vers des pays à faible revenu, où les protections du travail sont quasi inexistantes et les salaires, misérables. Moins de 2$ de l’heure: c’est le salaire de travailleur·euses kényan·es employé·es par OpenAI pour analyser du contenu violent et sexuel afin de rendre ChatGPT «moins toxique».
L’exposition répétée à ces contenus peut avoir des effets psychologiques graves, qui ne sont ni documentés, ni pris en charge.
Le mot d’ordre: productivité
Chaque travailleur·euse doit compléter un volume élevé de micro-tâches dans des délais serrés, sous peine d’être pénalisé·es ou exclu·es des plateformes.
Le microtravail entretient volontairement la précarité : tâches morcelées, horaires sporadiques, rémunération fluctuante, compétition mondiale permanente. Le système maintient l’opacité et dédouane les entreprises de leurs responsabilités envers les travailleur·euses.
Le modèle économique des géants de la tech repose sur cette exploitation. L’IA ne serait pas fonctionnelle sans ce travail humain massif, mais les entreprises effacent volontairement le rôle de ces travailleur·euses dans leur discours pour entretenir le mythe d’une IA autonome et préserver leur image.
Et maintenant: que fait-on, collectivement, face à cette réalité?
En tant que citoyen·nes, spectateur·ices, utilisateur·ices et travailleur·euses du numérique, nous pouvons:
- Exiger la transparence: qui entraîne les modèles? Dans quelles conditions?
- Soutenir les mouvements qui défendent les droits des travailleur·euses numériques.
- Revendiquer des normes publiques pour encadrer l’IA sur le travail humain et l’impact écologique.
- Refuser l’illusion d’une technologie «propre»: demander des comptes, des audits, des chiffres.
- Multiplier les espaces de conversation dans nos institutions culturelles, nos écoles, nos milieux de travail pour politiser un sujet que l’industrie cherche à dépolitiser.
L’IA n’est ni magique, ni immatérielle
Elle a un prix humain, social, environnemental.
Et c’est en le mettant en lumière que nous pouvons commencer à le remettre en question et agir collectivement.

Ressources
- AI Now Institute publie des rapports sur la gouvernance et la transparence de l’IA.
https://ainowinstitute.org/ - AlgorithmWatch surveille les impacts sociaux des technologies automatisées.
https://algorithmwatch.org/en/ - Fairwork a élaboré un ensemble de principes visant à encadrer l’utilisation équitable des systèmes d’IA au travail et utilise ces principes pour surveiller et évaluer le déploiement des systèmes d’IA sur les lieux de travail à travers le monde.
https://fair.work/en/fw/princi... - L’Obvia identifie les enjeux sociétaux de l’intelligence artificielle et du numérique, et contribue à des solutions qui placent les êtres vivants et la biosphère au centre de leur cycle de développement et d’utilisation. L’organisme a publié en 2025 un rapport intitulé «Imaginer un dialogue citoyen sur l’IA dans les services publics: recommandations pour une gouvernance fondée sur la transparence et la confiance.» https://doi.org/10.61737/LPLW5...
Sources
- «Combien d’humains faut-il pour créer une IA?» Josh Dzezia, L’actualité, 31 janvier 2024 https://lactualite.com/techno/...
- «Refugees Help Power Machine Learning Advances at Microsoft, Facebook, and Amazon, Phil Jones, Rest of World, 22 septembre 2021 https://restofworld.org/2021/r...
- «Exclusive: Open AI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic», Billy Perrigo, Time Magazine, 18 janvier 2023
https://time.com/6247678/opena... - «Miceli Milagros, Gebru, Timnit. The Exploited Labor Behind Artificial Intelligence», Noema Magazine, Adrienne Williams, 13 octobre 2022
https://www.noemamag.com/the-e...



