De quel monstre l’IA est-elle le nom ?
Image symbolique du Slop AI [1], c’est-à-dire de la génération de contenus pour eux-mêmes, « Jésus-Crevettes » est une image générée par l’IA générative qui ne veut rien dire, mais qui cherche à générer de l’engagement, c’est-à-dire des revenus. Ces images qui proviennent souvent de comptes de spam sont générées aléatoirement à partir de mots clefs pour stimuler leur portée algorithmique, créer de l’audience et donc récupérer les revenus publicitaires associés [2]. La nature étrange des contenus pourrait être dû au fait que leurs créateurs utilisent des requêtes depuis leurs langues d’origines pour les traduire en anglais [3]. La viralité de certains de ces contenus « déjantés », « surréels » [4] contraste avec leur style banal et rappellent les premières images génératives de DeepDream de Google, qui semblaient très hallucinogènes, « étrangères à la perception humaine » [5]. L’IA slop semble bien plus relever du kitch et du grotesque. Si certains artistes ont investis ce champ [6], la plupart de ces productions visent surtout à manipuler les surfaces et le sens, en utilisant le maniérisme des productions génératives, qui nous plonge dans les profondeurs de nos raccourcis culturels pour mieux les révéler [7].
Ces contenus peuvent pour l’instant paraître anecdotiques, peu vus et peu visibles, hormis quand l’un d’entre eux perce quelque part, et en entraîne d’autres dans son flux de recommandation, selon la logique autophagique des systèmes de recommandation. Mais c’est de moins en moins le cas, notamment avec l’arrivée de contenus totalement synthétiques, à l’image des influenceurs de synthèse qui viennent concurrencer les influenceurs eux-mêmes [8]. Comme l’explique une créatrice de contenus adultes dont l’audience a chuté depuis l’explosion des mannequins artificiels : « je suis en concurrence avec quelque chose qui n’est pas naturel ». Les mannequins IA, notamment des filles en maillots de bains générées par IA qui se dandinent sur les réseaux sociaux, caricaturent les représentations déjà très genrées de l’IA présentes dans les imaginaires mainstream (comme Ava du film Ex Machina, 2014, Samantha de Her, 2013 et Joi de Blade Runner 2049, 2017). Sans surprise, ces IA féminines sont particulièrement sexualisées comme pour correspondre aux fantasmes du public masculin auxquelles elles se destinent et des brogrammeurs [9] qui les contrôlent, renforçant et prolongeant un système de stéréotypes déjà bien ancré dans nos sociétés. Ces mannequins qui n’existent pas renforcent des stéréotypes de domination profondément ancrés dans nos représentations [10]. De Pygmalion aux poupées sexuelles, c’est à croire que l’IA ne fait qu’exploiter des fantasmes pour les transformer en revenus, comme si elle n’était capable que de fabriquer des monstres à la recherche d’audience.
Le slop, dont la définition est vague et mouvante [11], va bien au-delà d’images hallucinées… Pour certains, il s’étend à toutes les images produites par l’IA, qu’elles que soient leurs propos. De l’image virale de la doudoune du pape à la vidéo de Gaza transformée en riviera [12], en passant par toutes celles partagées sur les réseaux sociaux qui semblent bien souvent de plus en plus se ressembler, l’IA génère des mondes, des chimères, qui n’existent pas et qui sont appelées à être de plus en plus convaincantes et de plus en plus difficiles à distinguer de la réalité [13]. Si la modification d’images est bien antérieure à l’avènement de l’IA [14], la génération permet d’augmenter facilement le volume de ces trucages hyperréels (deepfakes [15]) de plus en plus rapide et facile à produire, au risque d’éroder la confiance dans les contenus en ligne, d’intensifier la polarisation, de submerger les utilisateurs sous des contenus trompeurs ou manipulateurs de plus en plus crédibles [16].
Pour l’instant, malgré les craintes légitimes, la production de deepfakes est certes forte, mais elle est plus utilisée sous forme de satire ou de divertissement que comme outils de désinformation ou d’escroquerie [17]. Leur usage est souvent bien plus transparent qu’attendu et les images font rarement semblant d’être vraies. Ces images servent surtout à faire primer l’émotion sur la rationalité, quand celle-ci est surtout malmenée dans les arènes politiques traditionnelles, comme les médias et la politique. En fait, « L’IA semble moins contribuer à façonner la façon dont les gens votent et bien plus à éroder leur foi dans la réalité »[18]. Les deepfakes sont plus utilisés pour consolider les croyances partisanes que pour influencer les mentalités [19]. Cependant, leur généralisation a tendance à brouiller la réalité : les internautes croient de plus en plus plus souvent qu’un contenu authentique est généré par l’IA que l’inverse [20]. Nous sommes bien plus dans une crise de la réalité que dans une crise de désinformation.
Brouiller la réalité, c’est le cas par exemple du site This person does not exist [21], un site web qui utilise l’intelligence artificielle pour générer des portraits ultra-réalistes d’êtres humains, mais qui ne sont pas réels.
L’anthropologue Nicolas Nova dans son livre, Persistance du merveilleux [22], rappelait que l’informatique nous conduit depuis longtemps à tisser des relations avec des personnages qui n’existent pas, notamment les personnages des jeux vidéo. Des programmes, des êtres, qui produisent« des effets de personnes », et qui nous demandent de créer des sociabilités nouvelles. Nous parlons à des machines qui semblent avoir ou nous font croire qu’elles ont des comportements humains, des« simulateurs de relations ». Etienne Amato et Etienne Perény parlent « d’avatarisation généralisée » pour évoquer notre relation à des machines anthropomorphisées pour mieux nous subvertir, pour mieux jouer de notre propre état mental et émotionnel [23].
Nous sommes cernés par des « compagnons programmés » qui déploient un pouvoir de suggestion et d’immersion, souvent imparfaits, mais qui nous submergent parce qu’ils parviennent, malgré leur caractère frustre, à singer nos modes relationnels et à susciter en nous des émotions. Ces personnages non joueurs (PNJ) avec lesquels nous interagissons facilitent notre investissement affectif. C’est nous qui sommes joués de ces outils souvent simplistes. C’est nous qui croyons en leurs effets, qui sommes bluffés affectivement, manipulés. Comme si les PNJ des jeux vidéos finalement étaient les grand-parents des images et vidéos générées par IA (et des services commerciaux qui les produisent) qui tentent de nous accrocher, de discuter ou d’établir des relations avec nous : les ancêtres de relations sociales sans société, simulées. Des relations avatarisées et scriptées, appauvries oui, car créées pour nous duper. Confrontés à ces réalités qui n’existent pas, le risque est que ces modalités « appauvrissent les situations relationnelles ou les rendent plus homogènes » en produisant une forme commerciale des relations affectives. De Jésus-Crevette aux mannequins IA, en passant par le Shoggoth [24], nous voici confrontés à de nouveaux monstres relationnels, avec lesquels nous allons devoir de plus en plus cohabiter… au risque qu’ils génèrent surtout des cauchemars.
L’IA vampire
Dans les Andes, le Pishtako est une créature censée aspirer la graisse du corps humain [25]. Souvent comparée au vampire, elle est apparue dans la culture populaire pour la première fois au XVIe siècle lors de la sauvagerie de la conquête espagnole qui s’est déchaînée sur les peuples autochtones. Les Andins contemporains associent la réapparition du Pishtako à l’extraction de graisse humaine pour l’exportation aux États-Unis afin de « lubrifier les machines occidentales du quotidien comme les ordinateurs et les voitures ». Le Pishtako est le symbole de la dévoration du monde par nos machines, il est celui qui fait disparaître les gens en les conduisant à émigrer au-delà des frontières pour partir vivre des revenus des machines que les migrants alimentent.
Le Pishtako évoque d’autres vampires, au nombre desquels, bien sûr, l’IA. Le fait qu’elle ait avalé toutes les œuvres disponibles pour produire ses chimères, comme l’a évoqué la polémique autour de la possibilité de générer des images dans le style des dessins animés du studio Ghibli [26]. Ou encore, la voracité énergétique de l’IA, comparée elle aussi à un vampire près à avaler toutes les ressources matérielles disponibles, toute l’énergie à venir, toute l’eau dont nous aurons besoin [27]. Cette vampirisation évoque bien sûr la concurrence de l’IA sur les productions des artistes, le fait qu’elle vienne cannibaliser voire supplanter leur travail, après l’avoir totalement absorbé dans leurs données d’entraînement. « Je veux que l’IA fasse ma lessive et ma vaisselle pour que je puisse faire de l’art et de l’écriture, pas que l’IA fasse de l’art et de l’écriture pour que je puisse faire ma lessive et ma vaisselle », disait l’artisteJoanna Maciejewska. A l’heure où nous remplaçons l’expertise des experts par des systèmes (plus ou moins) experts, nous entrons dans l’ère de « l’invalidation algorithmique » ou les machines sont là pour nous apprendre notre devenir robot ou faire le travail humain à notre place tout en nous dépouillant de notre humanité, comme le vampire transforme les être humains qu’il mord. En se faisant passer pour des humains, à la manière des Body Snatchers [28] ou des Changelins [29], l’IA nous confronte à des transformations qui nous affectent, qui rendent nos pratiques passées étrangères, alien [30].
Entre les monstres [31] que l’IA incarne dans les imaginaires et qu’elle génère, on peut toutefois se demander s’il n’y a pas une confusion entre les créatures abominables qu’elle génère et les personnes qui les créent, à l’image de Frankenstein, qui dans nos représentations désigne le monstre, alors qu’il est le nom de son créateur. L’IA est l’une des incarnations du monstre autophage, qui se dévore lui-même, tout comme l’IA promet de s’auto-dévorer via les contenus qu’elle génère une fois qu’elle aura assimilé tous les contenus humains [32]. Enfin, cette IA vampire ou cannibale est aussi celle des services qu’on utilise qui s’autorisent, souvent unilatéralement, à utiliser les contenus pour entraîner leur IA. D’Adobe à Google en passant par WeTransfer ou Meta… tous les grands services ont inclus ou cherchent à inclure des clauses exclusives s’arrogeant le droit d’engloutir les contenus qui transitent par eux pour former leurs IA, sans respecter le consentement des utilisateurs [33].
A l’image du Pishtako, les créatures mythiques des folklores anciens se mettent à désigner les créatures réelles de la modernité. En Indonésie, les esprits du folklore traditionnel local (le Tuyul du nom d’un esprit malicieux qui aide son maître à gagner de l’argent en le volant pour lui) désignent les applications pirates pour contourner les scripts du service de livraison et de covoiturage local [34]. Les imaginaires les plus modernes viennent renouveler les imaginaires d’antan, comme si des technologies les plus actuelles, aux mythes les plus profonds, nous étions confrontés à une continuité d’effets.
Notes :
[1] En anglais, le terme slop désigne les restes de nourriture humaine qu’on donne aux cochons. Appliqué à l’IA, le terme désigne des résidus, des contenus de remplissage sans queue ni tête, un « déluge d’images, de sons et de texte vomi par les logiciels d’IA générative ». Thibault Prévost, « Slop : l’IA et l’ère du grand n’importe quoi », Arrêt sur images, 6 mai 2025 : https://www.arretsurimages.net/chroniques/clic-gauche/slop-lia-et-lere-du-grand-nimporte-quoi Hubert Guillaud, « Vers un internet plein de vide », Danslesalgorithmes.net, 13 janvier 2025 : https://danslesalgorithmes.net/2025/01/13/vers-un-internet-plein-de-vide/
[2] Renee DiResta et Josh A. Goldstein, « How Spammers and Scammers Leverage AI-Generated Images on Facebook for Audience Growth », Misinformation Review, 15 août 2024 : https://misinforeview.hks.harvard.edu/article/how-spammers-and-scammers-leverage-ai-generated-images-on-facebook-for-audience-growth/ Selon une enquête, plus de 50 millions de personnes dans le monde génèrent désormais des revenus grâce à leur activité sur les réseaux sociaux. Une part croissante de ces revenus provient de la participation à des programmes de partage des revenus publicitaires sur les réseaux sociaux. Les plateformes redistribuent désormais collectivement plus de 20 milliards de dollars de revenus publicitaires par an à plus de cinq millions de comptes de réseaux sociaux. L’essentiel de ces rémunérations ne vont pas à des créateurs de contenus de qualité, mais à ceux qui ont appris à « jouer avec le système » et à en tirer partie. Nombre d’entre eux contrôlent des centaines de comptes pour générer des revenus. Victoire Rio,« From Content to Payment: The Rise and Implications of Social Media Ad Revenue Sharing », Whattofix.tech, avril 2024 : https://www.whattofix.tech/publications/content-to-payment/
[3] Jason Koebler, « Where Facebook’s AI Slop Comes From », 404 Media, 6 août 2024 : https://www.404media.co/where-facebooks-ai-slop-comes-from/ Sabine Berzina, « How « Shrimp Jesus »,and fake books help AI spammers lure users » News Decoder, 29 octobre 2024 : https://news-decoder.com/how-shrimp-jesus-and-fake-books-help-ai-spammers-lure-users/
[4] Maura Judkis, « The deluge of bonkers AI art is literally surreal », Washington Post, 30 juin 2024 : https://www.washingtonpost.com/style/of-interest/2024/06/30/ai-art-facebook-slop-artificial-intelligence/
[5] https://fr.wikipedia.org/wiki/DeepDream Hubert Guillaud, « L’ère des images invisibles », InternetActu.net, 2 janvier 2017 : https://www.internetactu.net/2017/01/02/lere-des-images-invisibles/ Dominique Cardon, A quoi rêvent les algorithmes ?, Seuil 2015.
[6] On pense aux productions vidéos assez étranges et puissamment hallucinantes de NiceAunties (https://www.youtube.com/@niceaunties/), de Patrick Karpiczenko (https://karpi.squarespace.com), Melody Bossan (https://www.instagram.com/lemoon.synthography/?hl=en) ou de Justin Hackney (https://www.youtube.com/@justinhackney5704) … Voir le documentaire de Mario Sixtus, IA et cinéma : la vie rêvée des machines, Arte, 2024.
[7] Hubert Guillaud, « Acculés dans les stéréotypes », Danslesalgorithmes.net, 18 octobre 2024 : https://www.internetactu.net/2017/01/02/lere-des-images-invisibles/ Lev Manovich et Emanuele Arielli. Artificial Aesthetics, 2024. https://manovich.net/index.php/projects/artificial-aesthetics
[8] Emanuel Maiberg , « Inside the Booming ‘AI Pimping’ Industry », 404 media, 20 novembre 2024 : https://www.404media.co/inside-the-booming-ai-pimping-industry-3/
[9] Concaténation de bro pour brother (frère) et de programmeurs, qui désigne le masculinisme fort de la profession où la très grande majorité des programmeurs sont des hommes.
[10] Kate Devlin et Olivia Belton, « The Measure of a Woman: Fembots, Fact and Fiction », in Stephen Cave, Kanta Dihal et Sarah Dillon, AI Narratives, Oxford University Press, 2020 : https://academic.oup.com/book/36637/chapter-abstract/321634108?redirectedFrom=fulltext
[11] Comme le pointe la synthèse d’un atelier sur le sujet qui se tenait à l’université de Columbia en mars 2026 : https://igp.sipa.columbia.edu/news/ai-slop-and-information-ecosystem-insights-crosssector-convening
[12] André Gunthert, « «Trump-Gaza» ou la satire indiscernable », 11 mars 2025 : http://imagesociale.fr/11686
[13] « Si une image n’a jamais pu emporter une expression de vérité à elle seule, c’est parce que l’établissement d’une vérité est nécessairement un exercice collectif. » Jean Cattan, « La photographie, gage de vérité ? », Lettre du Conseil national du numérique, 19 mars 2024 : https://www.conseil-ia-numerique.fr/files/archive/lettre-dinformation/la-photographie-gage-de-verite.html
[14] Si « Jennifer in Paradise » (1987) est souvent considérée comme la première image modifiée numériquement, via la première version du logiciel Photoshop, la pratique de la retouche des images, et de la modification de la réalité, est aussi vieille que l’invention de l’image photographique ou que l’art pictural. Dès le premier premier daguerréotype, en 1839, on ajoute de la couleur, on dissimule les imperfections. « Exclue des pratiques légitimes, la retouche a connu un déficit d’élaboration critique qui s’oppose à une compréhension fine d’usages complexes, où il est souvent difficile de tracer des frontières nettes entre différents types d’intervention. Le poids du tabou a empêché les professionnels de reconnaître publiquement le caractère banal de la correction des images, y compris dans la photographie d’information. » André Gunthert, « Sans retouche », Études photographiques, n°22, septembre 2008 : http://journals.openedition.org/etudesphotographiques/1004. Gordon Comstock, « Jennifer in paradise: the story of the first Photoshopped image », The Guardian, 13 juin 2014 : https://www.theguardian.com/artanddesign/photography-blog/2014/jun/13/photoshop-first-image-jennifer-in-paradise-photography-artefact-knoll-dullaart
[15] Les deepfakes ou hypertrucages sont la contraction de deep learning (apprentissage profond) et de fake (faux) et désignent toute une gamme de production d’images ou vidéos de synthèses, entre fausses informations et canulars, souvent remarquablement réalistes mais imaginées et assemblées via des outils numériques.
[16] Comme s’en alarment Andrew Chow et Billy Perrigo, « Google’s New AI Tool Generates Convincing Deepfakes of Riots, Conflict, and Election Fraud », Time, 3 juin 2025 : https://time.com/7290050/veo-3-google-misinformation-deepfake/
[17] Estiment Christina Walker, Daniel Schiff et Kaylyn Jackson Schiff, les créateurs d’une base de donnée de suivies des incidents liés à des Deepfakes politiques. Andrea Azzo, « Tracking Political Deepfakes: New Database Aims to Inform, Inspire Policy Solutions », 26 janvier 2024 : https://casmi.northwestern.edu/news/articles/2024/tracking-political-deepfakes-new-database-aims-to-inform-inspire-policy-solutions.html
[18] Pranshu Verma, Will Oremus and Cat Zakrzewski, « AI didn’t sway the election, but it deepened the partisan divide », Washington Post, 9 novembre 2024 : https://www.washingtonpost.com/technology/2024/11/09/ai-deepfakes-us-election/
[19] Nous sommes plus têtus que crédules, comme le dit Hugo Mercier, Pas né de la dernière pluie, Humensciences, 2022.
[20] Les images et vidéos générées par IA ont plus été utilisées pour consolider les croyances partisanes que pour influencer les mentalités et les utilisateurs ont plus tendance à croire qu’un contenu authentique est généré par l’IA que l’inverse. Pranshu Verma, Will Oremus and Cat Zakrzewski, « AI didn’t sway the election, but it deepened the partisan divide », Washington Post, 9 novembre 2024 : https://www.washingtonpost.com/technology/2024/11/09/ai-deepfakes-us-election/
[21] Littéralement, « cette personne n’existe pas » : https://thispersondoesnotexist.com Créé en 2019 par Philipp Wang, l’un des ingénieurs d’Uber, le site crée un nouveau visage à chaque rechargement de la page web. Il est basé sur un réseau antagoniste génératif – https://fr.wikipedia.org/wiki/StyleGAN – introduit en 2018 par les chercheurs de Nvidia. Formé sur un très vaste ensemble de visages réels, le système extrapole des modèles et des détails qui rendent les visages générés indistinguables de visages réels. Le site pose à la fois des questions éthiques, notamment sur le vol de millions de nos portraits qui ont permis la réalisation d’un outil si performant et témoigne des capacités impressionnantes de l’IA. Pour l’instant, les systèmes de reconnaissance faciale ne renvoient pas de match quand on les alimente d’un de ces portraits, mais il est probable, qu’à mesure que certains seront utilisés pour créer de faux utilisateurs en ligne, ils puissent réidentifier ces personnes qui n’existent pas. De nombreux clones de ce site existent, comme https://whichfaceisreal.com qui met en regard un vrai et un faux visage en nous invitant à distinguer l’un de l’autre.
[22] Nicolas Nova, Persistance du merveilleux : le petit peuple de nos machines, Premier Parallèle, 2024.
[23] Étienne Armand Amato et Étienne Perény, « Questionner les incarnations médiatiques et formes d’avatarisations : approches et démarches », Hybrid, 9, 2022, http://journals.openedition.org/hybrid/2439
[24] Le Shoggoth est un monstre chaotique tiré de l’œuvre de Lovecraft. Il est parfois associé à l’IA générative, notamment du fait du caractère peu prévisible des modèles, qui vont faire des réponses très différentes selon les éléments présents dans leur base et avant leurs réglages, capables d’être soit un professeur de philosophie, soit un commentateur d’une chaine d’info, à l’image de TAY de Microsoft, l’IA raciste que l’entreprise a dû rapidement débrancher. Le monstre de l’IA générative semble avoir alors autant de personnalités qu’il y a d’usagers d’internet. Kevin Roose, « Why an Octopus-like Creature Has Come to Symbolize the State of A.I. », New York Times, mai 2023 : https://www.nytimes.com/2023/05/30/technology/shoggoth-meme-ai.html Morgane Tual, « A peine lancée, une intelligence artificielle de Microsoft dérape sur Twitter », Le Monde, 24 mars 2016 : https://www.lemonde.fr/pixels/article/2016/03/24/a-peine-lancee-une-intelligence-artificielle-de-microsoft-derape-sur-twitter_4889661_4408996.html
[25] Kimberley McKinson, « To Counteract Apocalyptic Technoscience, We Need New Myths », Public Book, 26 novembre 2024 : https://www.publicbooks.org/to-counteract-apocalyptic-technoscience-we-need-new-myths/ et Mary Louise Pratt, Planetary Longings, Duke university Press, 2022. https://fr.wikipedia.org/wiki/Pishtaco et Doriane Slaghenauffi, « Sorcellerie capitaliste et touristes pishtaco : les tensions occultes autour du tourisme d’ayahuasca chez les Shipibo de San Francisco (Amazonie péruvienne) », Journal de la Société des américanistes, 108-2, 2022 : https://journals.openedition.org/jsa/21111
[26] Voir notamment l’excellente émission du Dessous des images, « Miyazaki braqué par l’IA », Arte, 21 mai 2025 : https://www.arte.tv/fr/videos/121271-044-A/le-dessous-des-images/
[27] Nastasia Hadjadji, « IA générative, vampire énergétique », Synth Media, 16 janvier 2025 : https://synthmedia.fr/politiques/environnement/ia-generative-vampire-energetique/
[28] Référence au film de Don Siegel, Invasion of the Body Snatchers (1958) et de ses nombreux clones et remakes, où des extra-terrestres s’emparent du corps et de l’esprit des gens pour les transformer en versions plus moutonnières et dociles d’eux-mêmes, comme l’illustre la série télévisée de science-fiction Pluribus (2025). Voir également, Arnaud Méry, « Le Body-Snarcher anthropo-algorithmique », Espèces d’IA, Terrain n°82, printemps 2025.
[29] Le Changelin désigne un personnage substitué par un autre. https://fr.wikipedia.org/wiki/Changeling On ne le trouve pas seulement dans les traditions folkloriques européennes, comme le montre son équivalent dans les cultures yoruba et igbo nigériannes, sous le nom d’ogbanje.
[30] Plus que la série de films Alien, on pensera bien plus à la série Alien Earth (2025), où les pires monstres ne sont plus tant les créatures extraterrestres, que les androïdes adolescents à l’obéissance problématique. Les machines du capital, enfants, immatures et innocents, y sont plus menaçantes que les créatures extraterrestres.
[31] Le terme de monstre vient du latin monstrum, qui dérive du verbe monere qui signifie avertir ou annoncer. Le monstre reste un signe envoyé par les dieux pour avertir les humains ou les punir. Sa signification vient du registre moral de la faute et du sacrilège qui s’incarne dans une difformité physique ou morale. Le monstre est la marque d’un désordre, d’une erreur dans le processus de génération, d’un comportement aberrant, explique Nicolas Nova dans Persistance du merveilleux. Le monstre est le résultat d’une intention transgressive.
[32] Illia Shumallov, Zakhar Shumaylov, Yren Zhao, Nicolas Papernot, Ross Anderson et Yarin Gal, « AI models collapse when trained on recursively generated data », Nature, 24 juillet 2024 : https://www.nature.com/articles/s41586-024-07566-y et Aatish Bhatia, « When A.I.’s Output Is a Threat to A.I. Itself », New York Times, 25 août 2024 : https://www.nytimes.com/interactive/2024/08/26/upshot/ai-synthetic-data.html
[33] WeTransfer, le service d’hébergement de gros fichiers a fait machine arrière après avoir annoncé utiliser les contenus que les utilisateurs transfèrent pour entraîner ses IA, mais se réserve néanmoins une licence perpétuelle sur ceux-ci, pour à terme pouvoir le faire : « WeTransfer fait marche arrière et n’entraînera finalement pas son IA avec vos données », 01Net, 15 juillet 2025 : https://www.01net.com/actualites/wetransfer-licence-a-vie-vos-fichiers-entrainer-ia-faire-argent.html Même constat chez Adobe, et ses logiciels de création graphique, qui tente de s’accaparer les contenus que ses clients stockent sur son cloud pour entraîner ses IA génératives. Cf. Sébastien Gavois, « Vos données sur Adobe Creative Cloud utilisées par défaut pour entraîner des IA », Next, 10 janvier 2023 : https://next.ink/brief_article/vos-donnees-sur-adobe-creative-cloud-utilisees-par-defaut-pour-entrainer-des-ia/ . Même enjeux pour Google, soit Google vous indexe pour la recherche et peut utiliser les contenus pour ses IA, soit vous êtes désindexé des deux. Cf. Davey Alba et Julia Love, « Google Gave Sites Little Choice in Using Data for AI Search », Bloomberg, 19 mai 2025 : https://www.bloomberg.com/news/articles/2025-05-19/google-gave-sites-little-choice-in-using-data-for-ai-search Voir notamment Eli Tan, « When the Terms of Service Change to Make Way for A.I. Training », New York Times, 26 juin 2024 : https://www.nytimes.com/2024/06/26/technology/terms-service-ai-training.html
[34] Tuyul, voir les explications de Wikipedia : https://en.wikipedia.org/wiki/Toyol Rida Qadri, « Delivery Drivers Are Using Grey Market Apps to Make Their Jobs Suck Less », Vice, 27 avril 22021 : https://www.vice.com/en/article/delivery-drivers-are-using-grey-market-apps-to-make-their-jobs-suck-less/ Exemple tiré du livre Algorithms of Resistance de Tiziano Bonini et Emiliano Treré (MIT Press, 2024) : https://direct.mit.edu/books/oa-monograph/5721/Algorithms-of-ResistanceThe-Everyday-Fight-against




