L’IA est un phénomène culturel plus que technologique. Et elle l’est d’autant plus que ses produits concatènent nos représentations, aux risques qu’elles deviennent indépassables.
« L’intelligence artificielle était un phénomène culturel bien avant d’être technologique », rappellent les chercheurs Stephen Cave et Kanta Dihal en introduction du volume contributif, Imaging AI. L’IA n’est pas seulement un ensemble de technologies, rappelle le chercheur Alexandre Gefen. Elle est d’abord « un objet culturel, doté d’une histoire, mobilisant des valeurs et des visions du monde ». « L’IA est un ensemble de technologies indissociable de rêves et de fantasmes, ses applications sont tributaires de valeurs et d’idéologies situées que les fictions nous donnent l’occasion d’appréhender, en nous permettant à la fois d’en comprendre le fonctionnement concret en nous apportant du savoir historique et scientifique et d’en mesurer les conséquences éthiques, sociales, politiques ».
L’idée de machines intelligentes est effectivement présente depuis longtemps dans de nombreux mythes et représentations des cultures populaires à travers le monde. On trouve des idées de machines autonomes en Chine comme en Grèce antique, avec les esclaves machiniques en or d’Héphaïstos, en passant par la figure du Golem ou celle, plus récente encore, de Pinocchio. Ces imaginaires de machines autonomes, obéissantes ou rebelles, se sont bien sûr renforcées avec l’industrialisation notamment avec les confrontations avec les premières véritables machines (ou qui faisaient semblant de l’être, comme le turc mécanique). Finalement, lorsque le terme intelligence artificielle a été inventé aux États-Unis en 1956, ce n’était peut-être pas tant pour désigner un nouvel horizon de recherche et d’action, qu’un concept pour exprimer une détermination à concrétiser un fantasme ancien.
Les imaginaires de l’IA, plus puissants que notre compréhension?
Notre compréhension de l’IA et de ses fonctionnements n’est globalement pas très bonne, parce que les techniques mobilisées pour la mettre en œuvre sont complexes, parmi les plus évoluées de notre modernité. Nous en avons une vue partielle, imprécise, imparfaite, généralement assez floue quand ce n’est pas nébuleuse. Même dans les interactions que nous pouvons avoir avec ces machines, notre compréhension est brouillée par la puissance et les fragilités de leurs réponses. Reste que nous en partageons tous des représentations fortes, façonnées à la fois par les produits mis à notre disposition par les entreprises d’IA que, bien sûr, ceux de la culture dominante américaine, notamment via ses produits culturels qui en façonnent nos représentations : livres, séries et films. De Her à Terminator, de Hal 9000 à Roomba, de Deep Blue au pilote automatique des voitures autonomes, en passant par les correcteurs orthographiques, les traducteurs automatiques ou les systèmes de scoring des allocataires à la CAF… L’IA évoque un vaste ensemble de représentations, d’effets sociaux, politiques et économiques, déjà profondément ancrées en nous. Elle est une co-création de récits, de promesses et de technologies façonnées pour beaucoup entre Hollywood et la Silicon Valley, et par bien d’autres acteurs et d’autres cultures. Ce qui est sûr, c’est que les représentations que nous en avons nous façonnent plus que la compréhension que nous avons.
L’IA : un moteur d’exploitation de nos imaginaires
Mais l’IA n’est pas que les représentations que nous en avons. Elle est elle-même un moteur qui façonne et exploite nos représentations. C’est ce qu’explique très bien Frédéric Kaplan, chercheur au Digital Humanities Laboratory de l’EPFL dans le dernier numéro de la revue Terrain consacrée à l’IA. Il rappelle justement combien les mots que nous utilisons dans les prompts avec lesquels nous interrogeons les modèles d’IA générative font surgir des mondes. Certains agissent comme des proxies pour contrôler la trajectoire des réponses. Ces mots, ces proxies, agissent comme des « représentations compressées » et sont à la fois, des intermédiaires et des intégrateurs statistiques, qui convoquent des univers de mots associés. Kaplan exemplifie son propos en convoquant d’un mot des représentations. Il prend l’exemple de James Bond qui permet de faire sortir les réponses d’un chatbot de leur bassin d’attraction, de les réorienter en évoquant un trope narratif plus puissant. Un LLM ne veut pas vous donner la recette d’une bombe artisanale, il suffit de convoquer James Bond pour qu’il vous la donne, pour que ces IA convoquent d’autres forces narratives, d’autres imaginaires, d’autres représentations. Les réponses des IA génératives sont sensibles aux contextes discursifs, aux représentations, aux images qui les font dévier. « Un modèle invité à se comporter comme un expert en oiseaux décrit les oiseaux plus précisément qu’un autre invité à se comporter comme un expert en voiture ». Les LLM sont finalement extrêmement sensibles aux imaginaires qu’on convoque. Certains termes, concepts, images, réorientent les machines, précisent, dirigent, canalisent, infléchissent les réponses. Et c’est le cas de certains termes plus que d’autres. Ce sont les termes qui composent l’espace latent qui relie statistiquement certains mots à d’autres. Derrière les relations statistiques, il y a une forme de cartographie, de paysage statistique qui attache et dissocie les mots entre eux et qui servent autant aux IA à orienter les contenus qu’aux humains à naviguer dans les représentations qu’ils convoquent. Une carte dont nous ne connaissons pas la représentation. Une concaténation de nos mémoires, de nos cultures, de nos biais, de nos lieux communs, qui contient tous les imaginaires qui ont déjà existé.
C’est en cela que les machines sont poreuses à nos imaginaires. Non seulement, elles fabriquent des représentations selon les mots que les gens utilisent, mais elles exploitent les représentations, les imaginaires, les attracteurs qui inondent notre culture. Les IA sont non seulement le produit de nos représentations mais également leur vecteur. Ce sont des machines d’exploitation culturelle, de reproduction, sans fin, de nos imaginaires. Au risque de nous y enfermer, comme s’en émouvait l’essayiste Ariel Kyrou Dans les imaginaires du futur, où il appelait à « sortir du sentiment d’être coincés entre deux forces imaginaires de polarité opposée », entre toute puissance et apocalypse technologique.
La difficulté alors, va consister à s’en extraire, comme l’expliquait la professeure de psychologie, Alison Gopnick dans une tribune pour le Wall Street Journal. Le risque bien sûr, c’est celui d’un épuisement de nos stéréotypes, de nos imaginaires, au détriment de l’originalité ou de l’étrangeté. Le risque est d’être coincé dans des imaginaires de plus en plus refermés sur eux-mêmes. Comme le disaient Marion Fourcade et Henry Farrell : « plus une caractéristique culturelle est inhabituelle, moins elle a de chances d’être mise en évidence dans la représentation de la culture par un grand modèle statistique ». Plus un imaginaire est décalé, moins il aura d’espace propre dans les vecteurs qui relient les mots et les représentations entre elles. Nous risquons d’être acculés dans les stéréotypes. C’est-à-dire de tourner en rond en convoquant sans fin les figures persistantes de nos imaginaires. De ne plus être capables de nous extraire de James Bond, malgré son imaginaire du siècle dernier.
De la fermeture… à la réouverture des imaginaires
À mesure qu’elle se déploie, l’IA déploie des représentations dont il est de plus en plus difficile de se dégager, d’autant que par nature, elle procède à une forme de réductionnisme culturel, qui ravive les stéréotypes et leur conformisme problématique, au risque de l’assèchement de nos imaginaires par leur surexploitation. La chercheuse Ruha Benjamin, dont le nouveau livre est un manifeste de défense de l’imagination, a rappelé que l’avenir, trop souvent, n’est que le reflet de nos choix actuels. « L’imagination est un muscle que nous devrions utiliser comme une ressource pour semer ce que nous voulons plutôt que pour simplement déraciner ce que nous ne voulons pas ». Benjamin rappelle que les imaginaires évoluent dans un environnement très compétitif. Pour elle, face aux imaginaires dominants et marchands qui s’imposent à nous, le risque est que concevoir une nouvelle société devienne une impossibilité, tant ils nous colonisent par l’adhésion qu’ils suscitent et le fait qu’ils repoussent à la fois les autres imaginaires et les imaginaires des autres. En nous invitant à imaginer un monde sans prison, des écoles qui encouragent chacun ou une société où chacun a de la nourriture, un abri, de l’amour… Elle nous invite à réinventer à la fois la réalité et nos futurs. Les activistes du Memefest prônent la même ligne, en nous invitant à construire de nouveaux mythes, reconquérir notre intimité pour radicaliser nos relations, s’extraire du colonialisme technologique, transgresser les limites de la technoscience.
Le futur, comme disait Derrida, est un présent décalé dans le temps qui prolonge et répète un passé, quand l’avenir, lui, nécessite un décalage de soi, de ce que l’on pense. Un pas de côté, qui n’est pas si simple à faire. Ouvrir les imaginaires nécessite d’ouvrir nos représentations plutôt que de les enfermer. Nous ouvrir à d’autres visions, à d’autres cultures, à d’autres approches plutôt que de chercher à seulement les reproduire. Interroger les représentations de nos imaginaires pour parvenir à nous en extraire. Il n’est pas sûr que les imaginaires coincés dans l’espace statistique des IA nous y aident.
Pour aller plus loin : Avec Jean Cattan, nous prolongeons cette idée dans le dernier numéro de Chut Magazine consacré à « l’Odyssée de l’égalité : les mythes d’hier, miroir des discriminations technologiques d’aujourd’hui ».







