Les mythes de l’IA

De quelle boite noire l’IA est-elle la boite ?

Notes :

[1] Eryk Salvaggio, “Challenging the myths of generative AI”, Tech Policy Press, 29 août 2024 : https://www.techpolicy.press/challenging-the-myths-of-generative-ai/ Voir également la liste qu’en dresse Irénée Régnauld, “Huit mythes de l’intelligence artificielle pour déconstruire la Hype”, Maisouvaleweb.fr, 5 mars 2025 : https://maisouvaleweb.fr/huit-mythes-de-lintelligence-artificielle-pour-deconstruire-la-hype/Ainsi que le livre de Arvind Narayanan et Sayash Kapoor, AI Snake Oil, Princeton University Press, 2024 et son compte-rendu in Hubert Guillaud, “Comprendre ce que l’IA sait faire et ce qu’elle ne peut pas faire“, Danslesalgorithmes.net, 10 octobre 2024 : https://danslesalgorithmes.net/2024/10/10/comprendre-ce-que-lia-sait-faire-et-ce-quelle-ne-peut-pas-faire/

[2] Hubert Guillaud, “ChatGPT : le mythe de la productivité”, Danslesalgorithmes.net, 17 septembre 2024 : https://danslesalgorithmes.net/2024/09/17/chatgpt-le-mythe-de-la-productivite/

[3] Eryk Salvaggio, “Shining a Light on “Shadow Prompting”, Tech Policy Press, 19 octobre 2023 : https://www.techpolicy.press/shining-a-light-on-shadow-prompting/

[4] Comme le raconte très bien Pablo Jensen, Deep earnings,le néolibéralisme au cœur des réseaux de neurones, C&F éditions, 2021.
[5] Faut-il le rappeler, sans la créativité des travailleurs qui produisent l’art, la science et le journalisme qui alimentent de leurs données les IA génératives, ces machines ne sauraient rien produire. Les contenus synthétiques sont tous basés sur ce que beaucoup dénoncent comme un vol de données et l’exploitation du travail d’autrui. C’est l’un des aspects du caractère extractiviste voire colonialiste de l’IA. Sur ces enjeux, voir par exemple Ulises A. Mejias et Nick Couldry, Data Grab : the new colonialism of Big Tech (and how to fight back)  WH Allen, 2024.

[6] Pour le dire rapidement, le comportement émergent fait référence à un comportement complexe qui résulte de l’interaction de règles ou d’éléments simples, sans aucune programmation explicite pour le comportement résultant. Dit plus simplement encore, c’est la promesse que les systèmes statistiques de l’IA puissent devenir intelligents.
[7] Marc Audétat (dir.), Pourquoi tant de promesses ? Sciences et technologies émergentes, Hermann, 2015.
[8] Sur le sujet, voir Frank Pasquale, Black Box Society, FYP éditions, 2015. Si l’image de la boîte noire est couramment associée à la cybernétique de Norbert Wiener (1948), il faut rappeler qu’elle provient des théories comportementalistes et notamment des travaux des psychologues John Watson et Burrhus Frederic Skinner qui développent le « behaviorisme », une méthode permettant d’étudier les relations statistiques entre l’environnement et le comportement. Cf. Anthony Masure, “Résister aux boîtes noires. Design et intelligence artificielle”, décembre 2019 : https://www.anthonymasure.com/articles/2019-12-resister-boites-noires-design-intelligences-artificielles. Voir aussi Tyler Reigeluth, “Boîte noire”, in Thierry Ménissier (dir.), Vocabulaire critique de l’intelligence artificielle, Hermann, 2025.

[9] Virginia Dignum, The AI paradox, How to make sense of a complex future, Princeton University Press, 2026.

[10] Nicolas Six, “Les IA, des « boîtes noires » dont les chercheurs tentent de déchiffrer le fonctionnement”, Le Monde, 30 juillet 2025 : https://www.lemonde.fr/pixels/article/2025/07/30/les-ia-des-boites-noires-dont-les-chercheurs-tentent-de-dechiffrer-le-fonctionnement_6625410_4408996.html

[11] Eryk Salvaggio, “The Black Box Myth: What the Industry Pretends Not to Know About AI”, Tech Policy Press, 17 juin 2025 : https://www.techpolicy.press/the-black-box-myth-what-the-industry-pretends-not-to-know-about-ai/

[12] Frédéric Kaplan, “Proxies”, in “Espèces d’IA”, revue Terrain n°82, printemps 2025 : http://www.revueterrain.fr Comme nous le disions précédemment – https://hubtr.bonjour.cafeia.org/mirror201/2342/4408?k=b5932ec08e5c81269c1d10e7e18ed3ef “Kaplan rappelle combien les mots que nous utilisons dans les requêtes avec lesquelles nous interrogeons les modèles d’IA générative font surgir des mondes. Certains agissent comme des proxies pour contrôler la trajectoire des réponses. Ces mots agissent comme des « représentations compressées » et sont à la fois, des intermédiaires et des intégrateurs statistiques, qui convoquent des univers de mots associés. Kaplan exemplifie son propos en convoquant d’un mot des représentations. Il prend l’exemple de James Bond qui permet de faire sortir les réponses d’un chatbot de leur bassin d’attraction, de les réorienter en évoquant un trope narratif plus puissant. Un LLM ne veut pas vous donner la recette d’une bombe artisanale, il suffit de convoquer James Bond pour qu’il vous la donne, pour que ces IA convoquent d’autres forces narratives, d’autres imaginaires, d’autres représentations. Les réponses des IA génératives sont sensibles aux contextes discursifs, aux représentations, aux images qui les font dévier. « Un modèle invité à se comporter comme un expert en oiseaux décrit les oiseaux plus précisément qu’un autre invité à se comporter comme un expert en voiture ». Les LLM sont finalement extrêmement sensibles aux imaginaires qu’on convoque”.

[13] Les fameux token ou jetons ou unité de sens, mais qui sont avant tout des identifiants numériques uniques qui traduisent les mots en suite de chiffres qui permettent de créer des relations statistiques entre ces suites de chiffres et entre les groupes de mots entre eux. Pour bien comprendre la tokenisation, le mieux est de la tester, par exemple avec l’outil que propose ChatGpt : https://platform.openai.com/tokenizer Voir les explications de Hugo Bernard, “C’est quoi un « token » ou « jeton » quand on parle d’intelligence artificielle générative ?”, Numerama, 16 février 2025 : https://www.numerama.com/tech/1902803-cest-quoi-un-token-quand-on-parle-dintelligence-artificielle-generative.html et surtout celles de Thomas Mahier, “C’est quoi un modèle de langage (ChatGPT, Claude, Mistral..) ? Explications : du token à l’escargot”, Flint Media, 14 octobre 2023 : https://generationia.flint.media/p/secrets-techniques-chatgpt-bard-claude

[14] Des réglages que le juriste Jonathan Zittrain invitait à ouvrir via des bases partagées. Si un chatbot ne dit rien de ce qu’il s’est passé sur la place Tiananmen en 1989, nous devons pouvoir comprendre pourquoi, défendait-il. « Ceux qui construisent des modèles ne peuvent pas être les arbitres silencieux de la vérité des modèles. » Jonathan Zittrain, “The Words That Stop ChatGPT in Its Tracks”, The Atlantic, 17 décembre 2024 : https://www.theatlantic.com/technology/archive/2024/12/chatgpt-wont-say-my-name/681028/ Voir aussi, Hubert Guillaud, “Comment les IA sont-elles corrigées ?”, Danslesalgorithmes.net, 16 décembre 2024 : https://danslesalgorithmes.net/stream/comment-les-ia-sont-elles-corrigees/ Voir aussi par exemple les travaux de la chercheuse Ksenia Ermoshina sur la construction des filtres et de la censure dans les IA génératives qui montre que celles-ci sont souvent extrêmement rudimentaires, sous formes de simples listes de mots, même dans les grands modèles de langage : https://cis.cnrs.fr/ksenia-ermoshina

[15]  “AI poses no existential threat to humanity – new study finds”, Bath University, 12 août 2024 : https://www.bath.ac.uk/announcements/ai-poses-no-existential-threat-to-humanity-new-study-finds/ Will Douglas Heaven, “How AGI became the most consequential conspiracy theory of our time”, Technology Review, 30 octobre 2025 : https://www.technologyreview.com/2025/10/30/1127057/agi-conspiracy-theory-artifcial-general-intelligence/ et Hubert Guillaud, “Intelligence artificielle générale : le délire complotiste de la tech”, Danslesalgorithmes.net, 18 novembre 2025 : https://danslesalgorithmes.net/2025/11/18/intelligence-artificielle-generale-le-delire-complotiste-de-la-tech/

[16] Hubert Guillaud, “Qui est l’utilisateur des LLM ?”, Danslesalgorithmes.net, 10 juin 2025 : https://danslesalgorithmes.net/2025/06/10/qui-est-lutilisateur-des-llm/

[17] Voir par exemple les outils que développe le laboratoire Pair de Google : https://pair.withgoogle.com ou encore le GemmaScope qui permet d’éclairer le fonctionnement des modèles Gemma de Google :  https://www.neuronpedia.org/gemma-scope#main 

[18] “La grande disponibilité des données et des possibilités de calculs nous font oublier que l’opacité et la complexité qu’ils génèrent produisent des améliorations marginales par rapport au problème démocratique que posent cette opacité et cette complexité. Nous n’avons pas besoin de meilleurs calculs – que leur complexification ne produit pas toujours –, que de calculs capables d’être redevables”. Arvind Narayanan et Sayash Kapoor, AI Snake Oil (Princeton University Press, 2024, non traduit). Hubert Guillaud, “Comprendre ce que l’IA sait faire et ce qu’elle ne peut pas faire”, Danslesalgorithmes.net, 19 octobre 2024 : https://danslesalgorithmes.net/2024/10/10/comprendre-ce-que-lia-sait-faire-et-ce-quelle-ne-peut-pas-faire/

← Retour

Votre abonnement a bien été pris en compte

Merci pour votre inscription !