Aller à la navigation Aller au contenu
Duceppe
Thématiques

Le coût humain de l’IA

17 décembre 2025

On parle beaucoup de ce que l’IA «peut faire», mais rarement de ce qu’elle exige. Derrière les interfaces lisses et les discours marketing, l’IA dépend d’une chaîne de travail humaine massive, mondialisée et souvent exploitée. En marge de la pièce Boîte noire, nous vous proposons un regard sur une industrie au coût humain et environnemental exorbitant, soigneusement dissimulé.

Des travailleur·euses fantômes

L’IA dite «intelligente» repose sur une main-d’œuvre invisible, précaire et sous-payée, souvent composée de réfugié·es ou de personnes vivant dans des pays à faible revenu pour qui ce travail est l’un des seuls moyens de survivre.

Du contenu parfois explosif

Ces travailleur·euses prennent des décisions des centaines de fois par jour:

  • «Est-ce une chemise noire à rayures blanches ou une chemise blanche à rayures noires?»
  • «Un bol est-il décoratif s’il est rempli de fruits?»
  • «De quelle couleur est l’imprimé léopard?»

Chaque choix alimente les modèles d’IA.

Mais les contenus ne sont pas toujours aussi anodins. Souvent, les travailleur·euses sont exposé·es à du contenu violent, sexuellement explicite ou choquant.

L’exploitation au coeur du système

Les géants de la tech externalisent les tâches les plus pénibles vers des pays à faible revenu, où les protections du travail sont quasi inexistantes et les salaires, misérables. Moins de 2$ de l’heure: c’est le salaire de travailleur·euses kényan·es employé·es par OpenAI pour analyser du contenu violent et sexuel afin de rendre ChatGPT «moins toxique».

L’exposition répétée à ces contenus peut avoir des effets psychologiques graves, qui ne sont ni documentés, ni pris en charge.

Le mot d’ordre: productivité

Chaque travailleur·euse doit compléter un volume élevé de micro-tâches dans des délais serrés, sous peine d’être pénalisé·es ou exclu·es des plateformes.

Le microtravail entretient volontairement la précarité : tâches morcelées, horaires sporadiques, rémunération fluctuante, compétition mondiale permanente. Le système maintient l’opacité et dédouane les entreprises de leurs responsabilités envers les travailleur·euses.

Le modèle économique des géants de la tech repose sur cette exploitation. L’IA ne serait pas fonctionnelle sans ce travail humain massif, mais les entreprises effacent volontairement le rôle de ces travailleur·euses dans leur discours pour entretenir le mythe d’une IA autonome et préserver leur image.

Et maintenant: que fait-on, collectivement, face à cette réalité?

En tant que citoyen·nes, spectateur·ices, utilisateur·ices et travailleur·euses du numérique, nous pouvons:

  • Exiger la transparence: qui entraîne les modèles? Dans quelles conditions?
  • Soutenir les mouvements qui défendent les droits des travailleur·euses numériques.
  • Revendiquer des normes publiques pour encadrer l’IA sur le travail humain et l’impact écologique.
  • Refuser l’illusion d’une technologie «propre»: demander des comptes, des audits, des chiffres.
  • Multiplier les espaces de conversation dans nos institutions culturelles, nos écoles, nos milieux de travail pour politiser un sujet que l’industrie cherche à dépolitiser.

L’IA n’est ni magique, ni immatérielle

Elle a un prix humain, social, environnemental.

Et c’est en le mettant en lumière que nous pouvons commencer à le remettre en question et agir collectivement.

Dans la pièce Boîte noire, Madeleine Sarr et Victor Andres Trelles Turgeon incarnent Andrés et Laïla, des personnages qui traitent 10 heures par jour des milliers de données pour entraîner les algorithmes de la compagnie fictive Essor.

Ressources 

  • AI Now Institute publie des rapports sur la gouvernance et la transparence de l’IA.
    https://ainowinstitute.org/
  • AlgorithmWatch surveille les impacts sociaux des technologies automatisées.
    https://algorithmwatch.org/en/
  • Fairwork a élaboré un ensemble de principes visant à encadrer l’utilisation équitable des systèmes d’IA au travail et utilise ces principes pour surveiller et évaluer le déploiement des systèmes d’IA sur les lieux de travail à travers le monde.
    https://fair.work/en/fw/princi...
  • L’Obvia identifie les enjeux sociétaux de l’intelligence artificielle et du numérique, et contribue à des solutions qui placent les êtres vivants et la biosphère au centre de leur cycle de développement et d’utilisation. L’organisme a publié en 2025 un rapport intitulé «Imaginer un dialogue citoyen sur l’IA dans les services publics: recommandations pour une gouvernance fondée sur la transparence et la confiance.» https://doi.org/10.61737/LPLW5...

Sources