Technologies
ChatGPT est d’abord l’histoire d’un esclavage humain
Des Kényans ont été payés deux dollars de l’heure pour permettre la création de la base de données de ChatGPT.

Pour nettoyer le chatbot, OpenAI, la société américaine qui a développé cette IA, s’est tourné vers Sama, une entreprise africaine qui étiquette les contenus violents sur Internet. Selon Time.com, Sama aurait exploité plus de 50 000 personnes pour remplir tous les contrats. Le site du Time a révélé que des travailleurs externalisés kenyans gagnant moins de deux dollars de l’heure sont à l’origine de l’intelligence artificielle de ChatGPT. C’est l’esclavage 3.0, celui qui permet aux industries tech de grappiller des milliards de dollars.
Le ChatGPT d’Open AI ne fait pas exception. La machine ingénieuse qui écrit comme un humain fonctionne grâce aux étiqueteuses, elles sont le nouveau visage du sale boulot, composé d’employés invisibles qui cataloguent viols, pédophilie, suicides, violences, inceste et haine neuf heures par jour pour faire le ménage de l’intelligence artificielle de tout le mal du monde.
ChatGPT a été génial dès le début, mais il y avait un problème. Au milieu de ses tensions musculaires, il y avait des commentaires violents, sexistes et racistes. D’autre part, elle a été formée avec des centaines de milliards de mots récupérés sur le Web. Pour cela, elle était si bonne et pour la même raison, elle a écrit des mots comme «vaff *** ulo», «neg * o» et ainsi de suite. Avant de le montrer au monde, il fallait donc «filtrer» l’IA, et pour ce faire, un mécanisme de sécurité supplémentaire basé sur l’intelligence artificielle était nécessaire.
Comment ChatGPT a été construit
OpenAi reprend donc le playbook de Facebook, qui avait déjà abordé le problème plus tôt. La solution est assez simple, pour apprendre à l’IA ce qu’il faut censurer, il suffit de la nourrir d’exemples étiquetés de violence, de discours de haine et d’abus sexuels. Ainsi, en novembre 2021, OpenAI envoie des milliers de fragments de texte à une société de sous-traitance au Kenya, Sama, qui est soudainement confrontée à tous les maux du Web : pédophilie, meurtre, suicide, torture, automutilation et inceste.
Ce n’est pas la première fois pour Sama, ajoute NetCost : il a déjà travaillé avec Google, Meta et Microsoft. Il s’agit officiellement d’une entreprise « d’intelligence artificielle éthique » qui a aidé à sortir plus de 50 000 personnes de la pauvreté, au Kenya, en Ouganda et en Inde. En réalité, à l’intérieur de Sama, les travailleurs sont payés entre 1,32 et 2 dollars pour mettre la main sur des contenus horribles.
Que dit ChatGPT sur la question, s’interroge France24.com. Réponse de l’outil: «Sama est connu pour son modèle d’entreprise sociale qui vise à offrir des opportunités de travail aux personnes vivant dans la pauvreté, en particulier les femmes, dans les pays en développement.» Mais faut-il vraiment croire tout ce que dit une intelligence artificielle?
- Société1 mois
Les barbechas tunisiens, débrouillards exposés à tous les dangers
- Bien-Être1 mois
Zoom sur le boukhour, l’encens qui relaxe et apaise
- Société4 mois
Ces maux qui collent à la peau des albinos
- Astuces1 mois
Canicule: les Tunisiens préfèrent vivre la nuit
- Environnement4 semaines
Déforestation: l’abattage des arbres menace la santé mentale
- Santé publique2 ans
Toxicomanie : un centre de désintoxication ouvre dans la capitale camerounaise
- Nutrition1 semaine
Le moringa contient deux fois plus de protéines que le yaourt
- Infos pratiques2 ans
Mali : se renseigner sur les services de santé