À Café IA, on connaît bien l’acronyme TL;DR (too long, didn’t read, « trop long ; pas lu ») que de bien peu aimables personnes nous envoient parfois après avoir pris connaissance de notre lettre d’information 😅. Il est peu probable pourtant que l’on passe à l’étape suivante : TL;DW (too long, didn’t write : « c’est trop long à écrire, alors je ne l’ai pas écrit moi-même »), qui consiste à faire écrire ses contenus par une IA générative, notamment pour exprimer des choses complexes (mais pas seulement)… Quoique, les éditos seraient peut-être plus clairs, les circonvolutions moins alambiquées ? Allez savoir !
Mais c’est d’un autre mème dont je voulais parler. Un mème qui devrait lui aussi beaucoup moins nous être adressé, mais qu’on utilise souvent : AI;DR (AI, didn’t read) : « c’est de l’IA, je ne l’ai pas lu » ! Un jugement qu’on énonce couramment et qui décrit la transformation de notre rapport aux textes, à l’heure où tout doit aller si vite, qu’on n’a plus le temps d’écrire ni de lire. Un refus face au déferlement : « c’est de l’IA, je ne veux même pas le lire » !
A qui profite le verbiage ?
AI;DR donc. L’acronyme exprime quelque chose entre la lassitude et l’hostilité à voir des textes génératifs envahir le web. Qu’ils soient très formatés, énergiques ou lénifiants, l’expression nous dit que nous serions capables de repérer la prose des LLM à leur tiédeur, à leur style, à leurs effets (qu’importe si en vérité, nous nous trompons souvent, comme c’est le cas des enseignants qui peinent à identifier les productions génératives de leurs étudiants). Un peu comme si nous étions dotés d’un système de repérage, une boussole infaillible, alors que les textes génératifs sont souvent corrigés, amendés, modifiés par leurs auteurs, et qu’ils tiennent bien plus d’une forme de coproduction qu’autre chose. Non seulement l’acronyme nous dit que ces productions n’ont finalement pas grande importance, mais il nous dit aussi que nos erreurs d’attribution peuvent être aussi péremptoires que les chatbots à la confiance survitaminée. Il nous dit que ces productions n’ont finalement pas grande importance au risque de renvoyer avec elles des propos bien humains, un peu comme ceux qui étaient trop longs finalement, trop humains. AI;DR nous dit que ce qui est écrit n’a pas grand intérêt, qu’il soit le fait de robots ou d’humains. Ce que ça fait est bien plus important : même si ce que ça fait (écrire) devient en même temps qu’on l’énonce bien peu important puisqu’on ne lui prête plus aucune attention.
Rapidement, on est saisi d’un vertige : à quoi peuvent bien servir des outils pour produire du texte que les gens ne souhaitent pas lire ? AI;DR semble mettre en abîme le grand vide des machines à verbiage, comme pour rendre béant le vortex qui s’ouvre sous nos mots. Un peu comme vient de le proposer le moteur de traduction Kagi en permettant de traduire (après le Dothraki, le Haut Valyrien ou le Klingon quand même !) n’importe quel texte en « Linked-in speak », c’est-à-dire dans le jargon de Linked-in. En permettant de transformer n’importe quel texte en post de motivation entrepreneuriale, truffé d’emojis, de hashtags et de déconvenues transformées en leçons de vie. « Le traducteur de Kagi ne fabrique pas cette langue, il la révèle. Il en expose la mécanique, la pauvreté, le vide soigneusement emballé dans du vocabulaire managérial », s’amusait la chroniqueuse de Radio France, Constance Vilanova. Elle pointait d’ailleurs vers une étude d’un chercheur en linguistique qui a mis au point une échelle pour mesurer la réceptivité au jargon d’entreprise. Une étude qui montrait que plus on est sensible aux formules creuses, moins on performe soi-même aux tests de pensée analytique et aux tests de prise de décision. « Les grands amateurs de LinkedIn speak seraient donc aussi les moins capables de repérer le vide. Ce qui crée un cercle vicieux parfait : les patrons sont récompensés pour leur langue de bois, et les équipes se peuplent progressivement de gens qui n’y voient que du feu.» Mais surtout, les personnes les plus réceptives au jargonnage ont aussi plus tendance à percevoir leurs leaders comme visionnaires, à être plus inspirées par les homélies d’entreprises et à faire plus confiance à leurs managers. « Pour certaines personnes, un discours abstrait et vaporeux peut donner l’impression de profondeur, de vision et de compétence et parfois suffit à produire de la crédibilité. Il peut aussi fonctionner comme un signal de leadership », s’amuse David Gateau… Pire, « plus la réceptivité au bullshit corporate est élevée, plus la qualité des décisions diminue ». « Les personnes les plus sensibles aux discours creux en entreprise ont tendance à choisir systématiquement les pires solutions aux problèmes », explique l’auteur de l’étude, Shane Littrell. Pourtant, l’étude montre aussi finalement que le jargon persuade et impressionne certains publics, explique The Guardian, tout comme le verbiage des LLM finalement. « N’importe qui peut se laisser berner, et nous sommes tous, selon les circonstances, susceptibles d’être influencés par des discours creux présentés de manière à flatter nos préjugés. »
Les contenus produits par l’IA sont-ils faits pour être lus ?
Le hashtag #AI;DR entérine la dépréciation des contenus génératifs, dénigrés depuis leur apparition. Comme le disait John Hermann dans le New York Mag dès 2024 : alors que l’IA est associée au summum des réalisations humaines, pour tout à chacun, elle désigne d’abord des choses assez pauvres, assez communes. Dans le langage courant, dire d’un texte qu’il a été réalisé par ChatGPT qualifie toujours un document sans grand intérêt. Aujourd’hui encore. « Pourquoi devrais-je me donner la peine de lire quelque chose que personne d’autre n’a daigné écrire ? », remarque pertinemment un développeur, relayé par Futurism. Quand on lit le propos de quelqu’un, c’est pour comprendre ce qu’il pense, perçoit et appréhende du monde. Ecrire, c’est penser. Et penser, c’est exister. Mais que signifie lire la prose d’un LLM ? QUI sommes-nous censés comprendre ? Et donc QUE sommes-nous censé comprendre ? Quelque part, les gens qui dénoncent ces contenus, disent que ce qui est écrit par l’IA ne nous est pas adressé. Que ces contenus ne sont pas vraiment pour les humains puisqu’ils ne sont pas humains.
Dans le New York Mag, John Hermann (encore lui), dénonçait récemment le cauchemar de l’e-mail piloté à l’IA : « Êtes-vous impatient de voir vos collègues devenir beaucoup plus bavards, transformant chaque simple « Ça me va » en une lettre de trois paragraphes ? Êtes-vous ravi que le genre d’e-mails de masse semi-personnalisés que vous avez l’habitude de recevoir des grandes marques dotées de services marketing (ou des spammeurs et des auteurs de phishing) soit désormais accessible à toute personne possédant un compte Google ? Avez-vous hâte de vous demander si cette charmante lettre de condoléances d’un ami perdu de vue depuis longtemps a été entièrement générée par un logiciel ou s’il a simplement cliqué sur le bouton pour rendre le contenu « plus sincère » avant de l’envoyer ? » Ce dernier exemple n’est même pas une blague, le mois dernier, l’administration de l’université Vanderbilt a dû présenter ses excuses après avoir envoyé un e-mail de condoléances aux étudiants suite à la fusillade de l’université d’État du Michigan. En bas du message il était indiqué qu’il avait été rédigé par ChatGPT !
Le Financial Times rapporte que le volume des plaintes aux services juridiques et RH des entreprises est en augmentation et que celles-ci sont plus documentées et complexes qu’avant. Ce ne sont plus de simple e-mail à traiter, mais des pièces jointes volumineuses, qui évoquent parfois des législations qui n’existent pas. La raison ? Le recours à l’IA. De plus en plus de plaintes leur arrivent « incompétentes mais sûres d’elles », « superficiellement persuasives », « excessivement juridiques sans être pertinentes »… de gens pouvant avoir des attentes irréalistes, désorientés par les réponses des IA à leurs problèmes. Le volume de récriminations augmente et le temps pour les vérifier également, au risque de ralentir les réponses des employeurs.
Reste que le besoin de formalisation que traduit le passage à un argumentaire structuré par l’IA dit peut-être autre chose du rapport employés-employeurs, où les discussions ne suffisent pas pour être écoutés…
Le New York Times, récemment, expliquait que la romance générative était en pleine explosion et que l’IA était l’avenir du genre. Pas si sûr, contestait Gita Jackson pour Aftermath, les défenseur(e)s de l’IA dans la littérature n’ont pas d’autre but que de gagner de l’argent, en produisant beaucoup de contenus et en vendant des formations pour apprendre à d’autres comment faire. L’une des autrices interviewées par le NYT prétend que ses 200 livres publiés par IA ont totalisé 50 000 ventes… soit en moyenne 250 exemplaires par livre. Ce modèle économique n’est viable que si l’on se fiche de la qualité des livres et de leur popularité, assassine Jackson. Bref, il n’est pas sûr que les romances dopées à l’IA soient l’avenir du genre, comme le défendent les autrices qui le proposent parce qu’elles y ont doublement intérêt. Pas sûr que les contenus dopés à l’IA soient finalement meilleurs que les romances incarnées par leurs autrices.
Deux exemples qui montrent que les contenus génératifs viennent s’intercaler dans les situations de blocages et viennent toujours avec les intérêts de ceux qui les portent, même s’ils ne sont pas toujours faciles à percevoir.
Pour qui écrivons-nous ?
Le mot-clé AI;DR rejoint également celui de sloppers, désignant les producteurs de slop, les producteurs de contenus qui ne produisent plus qu’avec les robots conversationnels (à l’image de la proposition parodique de sloppers.ai, qui se présente comme un service d’IA pour produire… des contenus parfaitement inutiles). Entre résistance et lassitude, le point-virgule, qui à l’origine séparait la cause de l’effet – plus vous écrivez, moins je lis – sépare désormais la production de la machine du refus de lui accorder la moindre attention.
Comme le souligne Alberto Romero, nous passons d’un monde où la longueur d’un texte constitue un obstacle à la lecture, à un monde où le manque d’implication humaine devient un obstacle supplémentaire. Nous sommes passés de « je ne finirai pas ça » à « personne n’a commencé ça ». « La première attitude suppose que l’on est responsable de ses propres limites, tandis que la seconde incite à externaliser sa responsabilité », comme si ce n’était pas à nous de lire, de vérifier, d’agréer aux productions générées. La perspective de notre submersion par les contenus génératifs, par l’intensification des productions, risque de nous laisser plus épuisé que jamais, disions-nous la semaine dernière. Non seulement nous sommes cernés par plus de contenus que jamais, mais nous sommes en même temps confrontés à une forme de post-alphabétisation où l’écrit lui-même semble de plus en plus décrédibilisé par son automatisation.
Pour Romero, l’IA;DR fait écho à son exact inverse : WF;AI (What the fuck; AI, « bordel, écrire pour l’IA ») où nous sommes confrontés au vide de sens qu’exige d’écrire pour l’IA plutôt que pour d’autres humains. Nous sommes en train de passer du pourquoi écrivons-nous à pourquoi lisons-nous, comme si le cœur même de la connaissance n’avait plus de sens, ni pour les autres ni pour nous. « Doit-on consacrer vingt minutes de son attention déjà si sollicitée à un texte qui n’a coûté à son auteur fantôme que quarante-cinq secondes et une consigne maladroite ? »
Perdus au milieu de contenus de plus en plus fantomatiques, comment s’orienter ? « La lecture, comme tout ce que nous faisons, repose sur un contrat social implicite : je vous offre ma réflexion, vous me donnez votre temps. Or, lorsque l’une des parties automatise sa part du marché, l’autre se sent légitimement flouée. Et comme déléguer la lecture n’a aucun sens pour la plupart des gens, ils ne le font tout simplement pas », constate pertinemment Romero. Le contrat de lecture exige une intention et une relation que l’IA ne peut pas produire. Le contrat de lecture est donc profondément rompu, quelles que soient ses conséquences. D’autant que dans la roue du hamster de la lecture/écriture, l’IA a tendance à exclure de plus en plus l’humain. Dans le biais anti-humain de l’IA, l’IA se nourrit de l’IA et récompense plus facilement les contenus IA faisant gonfler plus encore les contenus génératifs qu’on ne veut pas lire. Et pourtant, se moque Romero en conclusion, son texte a été écrit avec une IA. Nous même avons été pris au piège. Le contrat de lecture n’est donc pas totalement rompu.
C’est toute l’aporie où nous sommes réduits, comme l’illustre le dessinateur Tom Fishburne avec un de ses délicieux dessins : l’IA permet de transformer une liste à puce en un long mail qu’on peut prétendre avoir écrit et où son récepteur peut le transformer en liste à puce qu’il peut prétendre avoir lu. Tom Fishburne rappelle qu’il va falloir du temps pour apprendre quand et comment bien utiliser ces outils et surtout quand ne pas les utiliser. L’acronyme AI;DR nous rappelle que nous sommes face à des contenus dont le statut n’est pas clair, des contenus que nous ne savons pas vraiment utiliser. Peut-on vraiment en vouloir à des gens de refuser de lire des contenus qui sont produits par personne et destinés à personne, de refuser de lire des propos d’une machine, aussi séduisants ou creux puissent-ils être ?
Le risque d’une parole sans conséquence
IA;DR nous dit autre chose pourtant. Que ces mots produits sont produits. Que ce qui devait être fait est fait et que la réception est finalement un autre enjeu, comme s’il dépendait d’autres métriques.
« Pour la première fois, la parole est dissociée de ses conséquences. Nous vivons désormais aux côtés de systèmes d’IA qui conversent avec assurance et persuasion – débitant des affirmations sur le monde, des explications, des conseils, des encouragements, des excuses et des promesses – sans jamais assumer la responsabilité de leurs propos. Des millions de personnes utilisent déjà des chatbots, alimentés par de vastes modèles de langage, et ont intégré ces interlocuteurs synthétiques à leur vie personnelle et professionnelle. Les mots d’un chatbot façonnent nos croyances, nos décisions et nos actions, sans qu’aucun locuteur ne les cautionne », explique Deb Roy dans The Atlantic.
Deb Roy est professeur d’arts et de sciences des médias au MIT, où il dirige le Centre pour la communication constructive au Media Lab. Il est également cofondateur et président de Cortico, une organisation à but non lucratif qui se consacre à la construction de réseaux civiques plus forts, notamment en analysant les échanges vocaux de groupes de discussions pour en dégager liens et tendances.
Dans nos échanges avec les chatbots, ceux-ci s’excusent, corrigent, mais débitent une chose puis son contraire, vide de sens, rappelle le professeur. Pour Roy, « il ne s’agit pas d’une simple nouveauté technique, mais d’un bouleversement de la structure morale du langage ». Lorsque nous parlons, nos mots nous engagent dans un contrat social implicite. Ils nous exposent au jugement, aux représailles, à la honte et à la responsabilité. Dire ce que l’on pense, c’est prendre un risque. Le chercheur en intelligence artificielle Andrej Karpathy a comparé les LLM à des fantômes humains : ils ne sont pas des créatures, leur parole est sans conséquence, tout en étant capable de nous hanter. Pour Deb Roy, spécialiste de l’apprentissage du langage, les mots acquièrent du sens en relation avec le monde. Reste que le sens ne découle pas seulement de la fluidité ou de l’incarnation, mais aussi des enjeux sociaux et moraux que nous prenons lorsque nous parlons.Le langage a une dimension morale et sociale. Il nous engage. Il nous rend digne ou indigne, responsable. « Parler, c’est simultanément s’exposer à un jugement moral, encourir des conséquences sociales et parfois juridiques, assumer la responsabilité de la vérité et contracter des obligations qui perdurent au sein des relations. » Avec les chatbots, la parole n’est plus que procédurale. « Les chaînes causales s’obscurcissent. La responsabilité se dilue. L’autorité épistémique s’exerce sans obligation. Les engagements relationnels sont simulés sans persistance. » Cela produit non seulement un obscurcissement des responsabilités, mais plus encore un affaiblissement progressif des attentes. Le risque est de ne plus rien attendre des textes, quels qu’ils soient.
Norbert Wiener l’avait bien compris, dans ses mises en garde à l’encontre de l’automatisation : l’accroissement des capacités des machines entraînerait une perte de responsabilité humaine. Et l’efficacité elle-même éroderait la dignité humaine, nous poussant à devenir des intrants, des opérateurs ou des superviseurs de processus dont les humains ne contrôleraient plus la logique. « Ce qui rend ces systèmes moralement déstabilisants, ce n’est pas leur dysfonctionnement, mais leur capacité à fonctionner exactement comme prévu tout en se soustrayant à toute responsabilité », explique Roy.
L’histoire moderne regorge de technologies médiatiques qui ont transformé la circulation de la parole : l’imprimerie, la radio, la télévision, les réseaux sociaux. Mais aucune de ces technologies ne possédait les propriétés que les systèmes d’IA actuels réunissent simultanément. Aucune ne permettait de dialoguer et donc d’activer une vulnérabilité psychologique inédite. Avec Eliza, Joseph Weizenbaum a compris que les humains projetaient sur la machine du sens, des intentions et une responsabilité qu’elle n’avait pas. Le philosophe J.L Austin affirmait qu’utiliser le langage, c’est agir. « Tout énoncé significatif accomplit une action : il affirme une croyance, formule une revendication, formule une demande, fait une promesse, etc. Dire « oui » lors d’une cérémonie de mariage donne naissance à l’acte de mariage. Dans ce cas, l’acte n’est pas accompli par des mots puis décrit ; il est réalisé dans l’acte même de prononcer ces mots, dans les conditions appropriées. » Pour Roy, pour combattre l’effet Eliza, il ne suffit pas de savoir que ces systèmes sont des machines, car leur efficacité est amplifiée par leur fluidité. Et c’est leur fluidité qui nous conduit à déléguer nos responsabilités, à la faire glisser de l’utilisateur vers l’outil. Nous demandons désormais aux autres de prêter attention à des mots que nous n’avons pas écrits, pas pensés. Ce que nous perdons, c’est notre dignité même. « Dans le cadre d’un usage privé (comme le proposent les chatbots compagnons), l’érosion est plus subtile, mais non moins lourde de conséquences. Les jeunes décrivent leur utilisation de chatbots pour rédiger des messages qu’ils hésitent à envoyer, pour déléguer des réflexions qu’ils estiment devoir mener eux-mêmes, pour obtenir des assurances sans s’exposer, pour répéter des excuses sans rien débourser. Un chatbot dit « Je suis désolé » sans faute, mais est incapable de regret, de réparation ou de changement. Il admet ses erreurs sans conséquence. Il exprime de l’attention sans rien perdre. Il utilise le langage de la bienveillance sans rien risquer. Ces affirmations sont fluides. Et elles habituent les utilisateurs à accepter un langage moral déconnecté des conséquences. Il en résulte un réajustement discret des normes. Les excuses deviennent gratuites. La responsabilité devient théâtrale. La bienveillance devient simulée. »
Les mots eux-mêmes n’ont plus de portée. Ceux des chatbots, bien sûr, mais derrière, les mots de tous ceux qui en portent, et d’abord ceux que les autres humains nous adressent.
« Certains affirment que la responsabilité des propos de ces machines peut être externalisée : vers les entreprises, les réglementations, les marchés. Mais la responsabilité se dilue entre développeurs, déployeurs et utilisateurs, et les boucles d’interaction restent privées et inobservables. L’utilisateur en subit les conséquences ; la machine, non. »
Ceci n’est pas sans rappeler le problème éthique posé par les armes autonomes, estime Roy. En 2007, le philosophe Robert Sparrow soutenait que de telles armes violent le principe de la guerre juste, selon lequel lorsqu’un dommage est infligé, quelqu’un doit répondre de la décision de l’infliger. Le programmeur est protégé par conception, ayant délibérément construit un système dont le comportement est censé se dérouler sans contrôle direct. Le commandant qui déploie l’arme est lui aussi protégé, incapable de contrôler les actions spécifiques de l’arme une fois en mouvement, et cantonné aux rôles prévus pour son utilisation. Quant à l’arme elle-même, elle ne peut être tenue responsable, car elle est dépourvue de toute qualité morale d’agent. Les armes autonomes modernes produisent ainsi des résultats mortels pour lesquels aucun responsable ne peut être identifié de manière pertinente. Les chatbots compagnons, ces « systèmes de gestion de la vie humaine » fonctionnent différemment, mais la logique morale est la même : ils agissent là où les humains ne peuvent pas pleinement superviser, et la responsabilité se dissout dans ce vide.
« La parole sans conséquence contraignante sape le contrat social. La confiance, la coopération et la délibération démocratique reposent toutes sur le principe que les locuteurs sont tenus par leurs propos. » Notre immersion dans un monde de contenus génératifs, de propos sans conséquences, risque de nous habituer à prendre toute parole comme étant sans conséquence, même celle de nos contemporains.
« Nous avons besoin de structures qui réancrent la responsabilité : des contraintes limitant l’utilisation de l’IA dans divers contextes, tels que les écoles et les lieux de travail, et préservant la paternité des travaux, la traçabilité et une responsabilité clairement définie. L’efficacité doit être encadrée lorsqu’elle porte atteinte à la dignité », défend Roy.
Avant de pointer un autre enjeu encore : « Alors que l’idée d’« avatars » IA s’impose dans l’imaginaire collectif, elle est souvent présentée comme un progrès démocratique : elle repose sur des systèmes qui nous connaissent suffisamment bien pour parler en notre nom, délibérer à notre place et nous épargner le fardeau d’une participation constante. Il est facile d’imaginer que cela puisse se transformer en ce que l’on pourrait appeler un « État-avatar » – un système politique où des représentants artificiels débattent, négocient et décident pour nous, efficacement et à grande échelle. Mais cette vision oublie que la démocratie non plus n’est pas simplement l’agrégation de préférences. C’est la pratique de la parole ouverte. S’exprimer politiquement, c’est prendre le risque de se tromper, d’être responsable, d’assumer les conséquences de ses paroles. Un État avatar – fluide, infatigable et parfaitement malléable – simulerait la délibération, mais sans conséquence. De loin, il ressemblerait à un gouvernement autonome. De près, ce serait tout autre chose : la responsabilité rendue facultative, et avec elle, la dignité de devoir assumer ses paroles devenues obsolètes. Wiener avait compris que le tourbillon ne viendrait pas de machines malveillantes, mais de l’abdication humaine. » C’est au bord de ce précipice que nous conduit l’IA.
Ce que traduit AI;DR, c’est qu’à mesure que nous sommes cernés par ces contenus génératifs, la résistance se fait jour, estime Fast Company. Qui souligne que le terme rencontre du succès à un moment où le sentiment anti-IA se développe. Les inquiétudes concernant l’IA chez les adultes américains se sont accrues depuis 2021, selon le Pew Research Center. Plus de la moitié (51 %) se disent plus inquiets qu’enthousiastes face à l’essor de cette technologie. « C’est de l’IA, je ne l’ai pas lu ! », ne traduit-il pas d’abord que tout cela n’est pas de notre responsabilité. Que cet avenir n’est peut-être pas celui que nous avons voulu. « C’est de l’IA, je ne l’ai pas lu ! » est peut-être notre dernier semblant de résistance face à un nouveau web qui va nous submerger.




