Suivez-nous

Technologies

ChatGPT est d’abord l’histoire d’un esclavage humain

Des Kényans ont été payés deux dollars de l’heure pour permettre la création de la base de données de ChatGPT.

Avatar photo

Publié il y a

le

ChatGPT est aussi l'histoire d'un esclavage humain

Pour nettoyer le chatbot, OpenAI, la société américaine qui a développé cette IA, s’est tourné vers Sama, une entreprise africaine qui étiquette les contenus violents sur Internet. Selon Time.com, Sama aurait exploité plus de 50 000 personnes pour remplir tous les contrats. Le site du Time a révélé que des travailleurs externalisés kenyans gagnant moins de deux dollars de l’heure sont à l’origine de l’intelligence artificielle de ChatGPT. C’est l’esclavage 3.0, celui qui permet aux industries tech de grappiller des milliards de dollars.

Le ChatGPT d’Open AI ne fait pas exception. La machine ingénieuse qui écrit comme un humain fonctionne grâce aux étiqueteuses, elles sont le nouveau visage du sale boulot, composé d’employés invisibles qui cataloguent viols, pédophilie, suicides, violences, inceste et haine neuf heures par jour pour faire le ménage de l’intelligence artificielle de tout le mal du monde.

ChatGPT a été génial dès le début, mais il y avait un problème. Au milieu de ses tensions musculaires, il y avait des commentaires violents, sexistes et racistes. D’autre part, elle a été formée avec des centaines de milliards de mots récupérés sur le Web. Pour cela, elle était si bonne et pour la même raison, elle a écrit des mots comme «vaff *** ulo», «neg * o» et ainsi de suite. Avant de le montrer au monde, il fallait donc «filtrer» l’IA, et pour ce faire, un mécanisme de sécurité supplémentaire basé sur l’intelligence artificielle était nécessaire.

Comment ChatGPT a été construit

OpenAi reprend donc le playbook de Facebook, qui avait déjà abordé le problème plus tôt. La solution est assez simple, pour apprendre à l’IA ce qu’il faut censurer, il suffit de la nourrir d’exemples étiquetés de violence, de discours de haine et d’abus sexuels. Ainsi, en novembre 2021, OpenAI envoie des milliers de fragments de texte à une société de sous-traitance au Kenya, Sama, qui est soudainement confrontée à tous les maux du Web : pédophilie, meurtre, suicide, torture, automutilation et inceste.

Ce n’est pas la première fois pour Sama, ajoute NetCost : il a déjà travaillé avec Google, Meta et Microsoft. Il s’agit officiellement d’une entreprise « d’intelligence artificielle éthique » qui a aidé à sortir plus de 50 000 personnes de la pauvreté, au Kenya, en Ouganda et en Inde. En réalité, à l’intérieur de Sama, les travailleurs sont payés entre 1,32 et 2 dollars pour mettre la main sur des contenus horribles.

Que dit ChatGPT  sur la question, s’interroge France24.com. Réponse de l’outil: «Sama est connu pour son modèle d’entreprise sociale qui vise à offrir des opportunités de travail aux personnes vivant dans la pauvreté, en particulier les femmes, dans les pays en développement.» Mais faut-il vraiment croire tout ce que dit une intelligence artificielle?

Populaires