Le travail humain derrière les systèmes d’IA a suscité beaucoup de discussions. Celles-ci se concentrent souvent sur la labellisation de contenu : une étape vitale pour l’entraînement des modèles, qui leur permet de « reconnaître » les objets (comme de savoir si une image représente bien un chien). Cependant, la journaliste Varsha Bansal met en lumière un autre rôle beaucoup moins connu : celui de « modérateur d’IA » au sein de Google Gemini, dans un article paru la semaine dernière dans The Guardian.
À première vue, nous associons la modération aux réseaux sociaux plutôt qu’à l’IA. Bien sûr, le travail de modération chez Gemini n’est pas le même que sur Instagram. Ici, les travailleurs évaluent et filtrent les productions des chatbots, plutôt que celles des utilisateurs. Bansal relate notamment les témoignages de Rachael Sawyer et Rebecca Jackson-Artis, deux écrivaines américaines employées à distance par le sous-traitant GlobalLogic, elle-même une filiale de Hitachi.
Sawyer et Jackson-Artis décrivent leurs tâches quotidiennes : vérification des faits, notation des réponses de l’IA et enregistrement direct des informations dans le modèle Gemini. Même si, officiellement, leur travail n’était pas soumis à des délais stricts, elles se sont rapidement retrouvées sous pression et encouragées à prendre des raccourcis – « ne vous inquiétez pas de ce que vous mettez ». Sans la possibilité de poser certaines questions pour lesquelles elles ne se sentaient pas compétentes, Jackson-Artis a même dû renseigner des détails sur les options de chimiothérapie pour le cancer de la vessie, une demande qui l’a profondément marquée.
Le manque total de transparence quant au rôle des modérateurs et à leurs qualifications est particulièrement préoccupant, surtout à l’heure où les outils d’IA sont progressivement intégrés aux moteurs de recherche. Il est pourtant bien établi que les réponses de ces systèmes sont souvent prises au pied de la lettre, malgré l’absence d’une évaluation humaine de leur compétence et de la fiabilité des contenus qu’ils génèrent. En réalité, les réponses ne s’appuient pas seulement sur des sources « fiables », comme des liens vers des sites web légitimes qui sont souvent affichés à côté des réponses des chatbots. À la place, elles peuvent être le fruit d’informations saisies par une personne moins informée que l’utilisateur lui-même, ou d’une hallucination.
Cet exemple souligne l’ampleur du travail humain qui se cache derrière la façade de l’IA. Mais en rendant ce travail opaque, on obscurcit également les sources d’information fiables.







