© Shutterstock
© Shutterstock

Une enquête du magazine Time nous rappelle que dans les coulisses des grandes aventures, il peut se tramer des histoires moins heureuses.

L'entreprise américaine et son chatbot ChatGPT font beaucoup parler d'eux, tant ce dernier fascine ou effraie, sinon les deux. Comme c'était le cas pour son cousin DALL-E, ChatGPT est alimenté par une base de données massive de contenus sur laquelle il s'appuie. Or, aussi avancée que soit l'intelligence artificielle, ces données doivent encore souvent être identifiées par des êtres bien humains.

Des travailleurs rémunérés en dessous du salaire minimum

OpenAI a fait appel à une société américaine, Sama, pour annoter des milliers de données textuelles et picturales inappropriées. Si l'objectif général est de poursuivre l'amélioration de ChatGPT, les développeurs souhaitent le doter d'un outil lui permettant de modérer ses résultats. Ceux-ci ayant ainsi moins de chance de porter des propos sur des abus sexuels, des discours de haine, ou d'autres formes de violence, par exemple.

C'est ainsi que des travailleurs kenyans, engagés par Sama, se sont retrouvés à trier chaque jour quelques centaines de contenus explicites, dont une partie était même illégale aux États-Unis. Payés moins de deux dollars de l'heure et en fonction de leurs performances, certains d'entre eux ignoraient comment classer ce qu'ils avaient sous les yeux, tant les directives étaient vagues et certains contenus déroutants et dérangeants.

En outre, Sama, qui se décrit comme une entreprise « éthique », devait garantir l'accès à des séances avec des conseillers en « bien-être », mais plusieurs employés ont expliqué que ces séances étaient souvent inutiles et rares en raison des exigences de productivité très élevées. De plus, des requêtes pour des séances individuelles ont été, la plupart du temps, refusées par la direction.

Une tâche indispensable aux IA

Le partenariat entre les deux entreprises, qui a débuté début 2022, a été rompu quelques mois avant la fin de leur contrat par Sama. Celle-ci se justifie en déclarant qu'elle refuse de recevoir davantage de contenus de ce type, d'autant plus qu'elle avait déjà connu une situation très similaire quelques mois plus tôt avec Meta, la maison mère de Facebook.

Bien que la société souhaite continuer à travailler avec de grandes entreprises comme Google et Microsoft en proposant des « solutions d'annotation de données visuelles », elle affirme vouloir se retirer du marché de la modération. Mais, la fin des contrats lucratifs avec Meta et OpenIA signifie la fermeture de ses bureaux à Nairobi et le licenciement de nombreux travailleurs, qui déplorent cette situation malgré les conditions de travail auxquelles ils étaient soumis. « C'était un moyen de subvenir aux besoins de nos familles », déclare l'un d'entre eux.

Cette histoire n'est pas un cas isolé dans l'industrie de l'IA, car ce type de main-d'œuvre bon marché est essentiel pour les développeurs. Un porte-parole d'OpenIA explique que « la classification et le filtrage des [textes et images] nuisibles sont une étape nécessaire pour réduire la quantité de contenus violents et sexuels inclus dans les données d'apprentissage et créer des outils capables de détecter les contenus nuisibles ». Avec l'importance et l'intérêt croissants des systèmes tels que ChatGPT, comme le prouve un investissement conséquent de Microsoft dans OpenAI, il est très probable que d'autres exemples de ce type se multiplient.

Pour conclure, sachez que j'ai chargé ChatGPT de rédiger cet article à ma place. Mais, il semble avoir une opinion très partiale sur la question :

© Maxence Glineur
© Maxence Glineur

Source : Time

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10