Contenuto generato dall'intelligenza artificiale che borbotta testo senza senso. Immagini stilizzate che ci disconnettono dalla realtà. L'Internet zombie sta colonizzando la rete, riempiendola di un vuoto che non ha altro scopo se non quello di disorientarci.
Sur la plupart des réseaux sociaux vous avez déjà du tomber sur ces contenus génératifs, pas nécessairement des choses très évoluées, mais des contenus étranges, qui n’ont rien à dire, qui hésitent entre développement personnel creux, blague ratée ou contenu sexy. Des vidéos qui ânonnent des textes qui ne veulent rien dire. Les spécialistes parlent de slop, de contenus de remplissages, de résidus qui peu à peu envahissent les plateformes dans l’espoir de générer des revenus. A l’image des contenus philosophiques générés par l’IA que décortique en vidéo Monsieur Phi.
IA slop : de la publicité générative à l’internet zombie
Pour l’instant, ces contenus semblent anecdotiques, peu vus et peu visibles, hormis quand l’un d’entre eux perce quelque part, et en entraîne d’autres dans son flux de recommandation, selon la logique autophagique des systèmes de recommandation. Pour l’analyste Ben Thompson, l’IA générative est un parfait moteur pour produire de la publicité – et ces slops sont-ils autre chose que des contenus à la recherche de revenus ? Comme le dit le philosophe Rob Horning : « le rêve de longue date d’une quantité infinie de publicités inondant le monde n’a jamais semblé aussi proche ».
Pour Jason Koebler de 404 Media, qui a enquêté toute l’année sur l’origine de ce spam IA, celui-ci est profondément relié au modèle économique des réseaux sociaux qui rémunèrent selon l’audience que les créateurs réalisent, ce qui motive d’innombrables utilisateurs à chercher à en tirer profit. Koebler parle d’ailleurs d’internet zombie pour qualifier autant cette génération de contenu automatisée que les engagements tout aussi automatisés qu’elle génère. Désormais, ce ne sont d’ailleurs plus les contenus qui sont colonisés par ce spam, que les influenceurs eux-mêmes, notamment par le biais de mannequins en maillots de bains générés par l’IA. A terme, s’inquiète Koebler, les médias sociaux pourraient ne plus rien avoir de sociaux et devenir des espaces « où le contenu généré par l’IA éclipse celui des humains », d’autant que la visibilité de ces comptes se fait au détriment de ceux pilotés par des humains. Des sortes de régies publicitaires sous stéroïdes. Comme l’explique une créatrice de contenus adultes dont l’audience a chuté depuis l’explosion des mannequins artificiels : « je suis en concurrence avec quelque chose qui n’est pas naturel ».
i social media stanno perdendo ogni significato sociale: si stanno trasformando in spazi "in cui i contenuti generati dall'intelligenza artificiale eclissano i contenuti generati dagli esseri umani",
Ces contenus qui sont en train de coloniser les réseaux sociaux n’ont pas l’air d’inquiéter les barons de la tech, pointait très récemment Koebler en rapportant les propos de Mark Zuckerberg. D’autant que ces contenus génératifs semblent produire ce qu’on attend d’eux. Meta a annoncé une augmentation de 8 % du temps passé sur Facebook et de 6 % du temps passé sur Instagram grâce aux contenus génératifs. 15 millions de publicités par mois sur les plateformes Meta utilisent déjà l’IA générative. Et Meta prévoit des outils pour démultiplier les utilisateurs synthétiques. Le slop a également envahi la plateforme de blogs Medium, explique Wired, mais ces contenus pour l’instant demeurent assez invisibles, notamment parce que la plateforme parvient à limiter leur portée. Un endiguement qui pourrait ne pas résister au temps. A terme, les contenus produits par les humains pourraient devenir de plus en plus difficile à trouver sur des plateformes submergées par l’IA.
On voudrait croire que les réseaux sociaux puissent finir par s’effondrer du désintérêt que ces contenus démultiplient. Il semble que ce soit l’inverse, l’internet zombie est en plein boom. Tant et si bien qu’on peut se demander, un an après le constat de l’effondrement de l’information, si nous ne sommes pas en train de voir apparaître l’effondrement de tout le reste ?
l'internet degli zombie è in piena espansione. A tal punto che, un anno dopo aver assistito al crollo dell'informazione, ci si potrebbe chiedere se non stiamo assistendo al crollo di tutto il resto?
Les enjeux du remplissage par le vide
Dans sa newsletter personnelle, le chercheur et artiste Eryk Salvaggio revient à son tour sur le remplissage par l’IA, dans trois longs billets en tout point passionnants. Il souligne d’abord que ce remplissage sait parfaitement s’adapter aux algorithmes des médias sociaux. Sur Linked-in, les contenus rédigés par des LLM seraient déjà majoritaires. Même le moteur de recherche de Google valorise déjà les images et les textes générés par IA. Pour Salvaggio, avec l’IA générative toute information devient du bruit. Mais surtout, en se jouant parfaitement des filtres algorithmiques, celle-ci se révèle parfaitement efficace pour nous submerger.
Salvaggio propose d’abandonner l’idée de définir l’IA comme une technologie. Elle est devenue un projet idéologique, c’est-à-dire que « c’est une façon d’imaginer le monde qui devient un raccourci pour expliquer le monde ». Et elle est d’autant plus idéologique selon les endroits où elle se déploie, notamment quand c’est pour gérer des questions sociales ou culturelles. « L’optimisation de la capacité d’un système à affirmer son autorité est une promesse utopique brillante des technologies d’automatisation ». « L’un des aspects de l’IA en tant qu’idéologie est donc la stérilisation scientifique de la variété et de l’imprévisibilité au nom de comportements fiables et prévisibles. L’IA, pour cette raison, offre peu et nuit beaucoup au dynamisme des systèmes socioculturels ». Les gens participent à l’idéologie de l’IA en évangélisant ses produits, en diffusant ses résultats et en soutenant ses avancées pour s’identifier au groupe dominant qui l’a produit.
abbandoniamo l'idea di definire l'IA come una tecnologia. È diventato un progetto ideologico. È un modo di immaginare il mondo che diventa una scorciatoia per spiegarlo.
La production par l’IA de contenus de remplissage nécessite de se demander à qui profite ce remplissage abscons ? Pour Salvaggio, le remplissage est un symptôme qui émerge de l’infrastructure même de l’IA qui est elle-même le résultat de l’idéologie de l’IA. Pourquoi les médias algorithmiques récompensent-ils la circulation de ces contenus ? Des productions sensibles, virales, qui jouent de l’émotion sans égard pour la vérité. Les productions de remplissage permettent de produire un monde tel qu’il est imaginé. Elles permettent de contourner tout désir de comprendre le monde car elle nous offre la satisfaction immédiate d’avoir un « sentiment sur le monde ». « L’AI Slop est un signal vide et consommé passivement, un symptôme de « l’ère du bruit », dans lequel il y a tellement de « vérité » provenant de tant de positions que l’évaluation de la réalité semble sans espoir. »
Notre désorientation par le vide
Eryk Salvaggio se demande même si le but de l’IA n’est pas justement de produire ce remplissage. Un remplissage « équipé », « armé », qui permet d’essaimer quelque chose qui le dépasse, comme quand l’IA est utilisée pour inonder les réseaux de contenus sexuels pour mieux essaimer le regard masculin. Les productions de l’IA permettent de produire une perspective, un « regard en essaim » qui permet de manipuler les symboles, de les détourner. « Les images générées par l’IA offrent le pouvoir de façonner le sens dans un monde où les gens craignent l’impuissance et l’absence de sens en les invitant à rendre les autres aussi impuissants et dénués de sens qu’eux ». Ces images « diminuent la valeur de la réalité », suggère brillamment Salvaggio. Elles créent « une esthétisation », c’est-à-dire rend la représentation conforme à un idéal. La fonction politique de ce remplissage va bien au-delà des seules représentations et des symboles, suggère-t-il encore. L’IA appliquée aux services gouvernementaux, comme les services sociaux, les transforme à leur tour « en exercice esthétique ». Notre éligibilité à une assurance maladie ou à une couverture sociale n’est pas différente de l’IA Slop. C’est cette même infrastructure vide de sens qui est pointée du doigt par ceux qui s’opposent à l’algorithmisation de l’Etat que ceux qui fuient les boucles de rétroactions délétères des médias sociaux.
Le produzioni di intelligenza artificiale ci consentono di produrre una prospettiva, uno “sguardo a sciame” che ci consente di manipolare i simboli, di deviarli.“
Le projet DOGE d’Elon Musk, ce département de l’efficacité gouvernementale qui devrait proposer un tableau de bord permettant aux internautes de voter pour éliminer les dépenses publiques les plus inutiles, semble lui-même une forme de fusion de médias sociaux, d’idéologie de l’IA et de pouvoir pour exploiter le regard en essaim de la population et le diriger pour harceler les fonctionnaires, réduire l’État providence autour d’une acception de l’efficacité ultra-réductrice. Au final, cela produit une forme de politique qui traite le gouvernement comme une interface de médias sociaux, conçue pour amplifier l’indignation, intimider ceux qui ne sont pas d’accord et rendre tout dialogue constructif impossible. Bienvenue à la « momusocratie« , le gouvernement des trolls, de la raillerie, explique Salvaggio, cette Tyrannie des bouffons chère à l’essayiste Christian Salmon.
Mais encore, défend Salvaggio, le déversement de contenus produit par l’IA générative promet un épuisement du public par une pollution informationnelle sans précédent, permettant de perturber les canaux d’organisation, de réflexion et de connexion. « Contrôlez le filtre permet de l’orienter dans le sens que vous voulez ». Mais plus que lui donner un sens, la pollution de l’information permet de la saturer pour mieux désorienter tout le monde. Cette saturation est un excellent moyen de garantir « qu’aucun consensus, aucun compromis, ou simplement aucune compréhension mutuelle ne se produise ». Cette saturation ne vise rien d’autre que de promouvoir « la division par l’épuisement ». « Le remplissage est un pouvoir ».
« L’idéologie de l’IA fonctionne comme une croyance apolitique trompeuse selon laquelle les algorithmes sont une solution à la politique » qui suppose que les calculs peuvent prendre les décisions au profit de tous alors que leurs décisions ne sont qu’au profit de certains, en filtrant les données, les idées, les gens qui contredisent les résultats attendus. Alors que l’élection de Trump éloigne les enjeux de transparence et de régulation, l’IA va surtout permettre de renforcer l’opacité qui lui assure sa domination.
Vers un monde sans intérêt en boucle sur lui-même
Dans la dernière partie de sa réflexion, Salvaggio estime que le remplissage est un symptôme, mais qui va produire des effets très concrets, des « expériences désintéressées », c’est-à-dire des « expériences sans intérêt et incapables de s’intéresser à quoi que ce soit ». C’est le rêve de machines rationnelles et impartiales, omniscientes, désintéressées et qui justement ne sont capables de s’intéresser à rien. Un monde où l’on confie les enfants à des tuteurs virtuels par soucis d’efficacité, sans être capable de comprendre tout ce que cette absence d’humanité charrie de délétère.
l'IA sta riempiendo qualsiasi cosa, ma sta producendo effetti molto concreti; "esperienze disinteressate", cioè "esperienze senza interesse e incapaci di interessarsi a nulla"
L’IA s’est construite sur l’excès d’information… dans le but d’en produire encore davantage. Les médias sociaux ayant été une grande source de données pour l’IA, on comprend que les contenus de remplissage de l’IA soient optimisés pour ceux-ci. « Entraînée sur du contenu viral, l’IA produit du contenu qui coche toutes les cases pour l’amplification. Le slop de l’IA est donc le reflet de ce que voient nos filtres de médias sociaux. Et lorsque les algorithmes des médias sociaux en reçoivent les résultats, il les reconnaît comme plus susceptibles de stimuler l’engagement et les renforce vers les flux (générant plus d’engagement encore). » Dans le tonneaux des Danaïdes de l’amplification, l’IA slop est le fluidifiant ultime, le contenu absurde qui fait tourner la machine sans fin.
Combattre ce remplissage par l’IA n’est une priorité ni pour les entreprises d’IA qui y trouvent des débouchés, ni pour les entreprises de médias sociaux, puisqu’il ne leur porte aucun préjudice. « Les contenus de remplissage de l’IA sont en fait la manifestation esthétique de la culture à médiation algorithmique » : « ils sont stylisés à travers plus d’une décennie d’algorithmes d’optimisation qui apprennent ce qui pousse les gens à s’engager ».
Face à ces contenus « optimisés pour performer », les artistes comme les individus qui ont tenté de partager leur travail sur les plateformes sociales ces dernières années ne peuvent pas entrer en concurrence. Ceux qui ont essayé s’y sont vite épuisés, puisqu’il faut tenir d’abord le rythme de publication infernal et infatigable que ces systèmes sont capables de produire.
Dépouiller les symboles de leur relation à la réalité
« Les images générées par l’IA peuvent être interprétées comme de l’art populaire pour servir le populisme de l’IA ». Elles visent à « dépouiller les symboles de leur relation à la réalité » pour les réorganiser librement. Les gens ne connaissent pas les films mais ont vu les mèmes. Le résultat de ces images est souvent critiqué comme étant sans âme. Et en effet, le texte et les images générés par l’IA souffrent de l’absence du poids du réel, dû à l’absence de logique qui préside à leur production.
Le immagini generate dall’intelligenza artificiale possono essere interpretate come arte popolare al servizio del populismo dell’intelligenza artificiale; Il loro obiettivo è "spogliare i simboli del loro rapporto con la realtà" per poterli riorganizzare liberamente.
« L’ère de l’information est arrivée à son terme, et avec elle vient la fin de toute définition « objective » et « neutre » possible de la « vérité ». » L’esthétique du remplissage par l’IA n’est pas aléatoire, mais stochastique, c’est-à-dire qu’elle repose sur une variété infinie limitée par un ensemble de règles étroites et cohérentes. Cela limite notre capacité à découvrir ou à inventer de nouvelles formes de culture, puisque celle-ci est d’abord invitée à se reproduire sans cesse, à se moyenniser, à s’imiter elle-même. Les images comme les textes de l’IA reflètent le pouvoir de systèmes que nous avons encore du mal à percevoir. Ils produisent des formes de vérités universalisées, moyennisées qui nous y enferment. Comme dans une forme d’exploitation sans fin de nos représentations, alors qu’on voudrait pouvoir en sortir, comme l’expliquait dans une note pour la fondation Jean Jaurès, Melkom Boghossian, en cherchant à comprendre en quoi les algorithmes accentuent les clivages de genre. Comme s’il devenait impossible de se libérer des contraintes de genres à mesure que nos outils les exploitent et les renforcent. Cet internet de contenus absurde n’est pas vide, il est plein de sens qui nous échappent et nous y engluent. Il est plein d’un monde saturé de lui-même.
A mesure que l’IA étend son emprise sur la toile, on se demande s’il restera encore des endroits où nous en serons préservés, où nous pourrons être mis en relation avec d’autres humains, sans que tout ce qui encode les systèmes ne nous déforment.
Du remplissage à la fin de la connaissance
la conoscenza non è sempre indipendente dall'esperienza
Dans une tribune pour PubliBooks, la sociologue Janet Vertesi estime que les recherches en ligne sont devenues tellement chaotiques et irrationnelles, qu’elle a désormais recours aux dictionnaires et encyclopédies papier. « Google qui a fait fortune en nous aidant à nous frayer un chemin sur Internet se noie désormais dans ses propres absurdités générées par elle-même ». Nous voici confrontés à un problème d’épistémologie, c’est-à-dire de connaissance, pour savoir ce qui est réel et ce qui ne l’est pas. Au XXe siècle, les philosophes ont définis la connaissance comme une croyance vraie justifiée. La méthode scientifique était le moyen pour distinguer la bonne science de la mauvaise, la vérité du mensonge. Mais cette approche suppose souvent qu’il n’y aurait qu’une seule bonne réponse que nous pourrions connaître si nous adoptons les bonnes méthodes et les bons outils. C’est oublier pourtant que la connaissance n’est pas toujours indépendante de l’expérience. Ludwig Wittgenstein a utilisé la figure du canard-lapin pour montrer comment des personnes rationnelles pouvaient en venir à avoir des points de vue irréconciliablement différents sur une même réalité. Les épistémologues se sont appuyés sur cette idée pour montrer que les personnes, selon leurs positions sociales, ont des expériences différentes de la réalité et que la connaissance objective ne pouvait naître que de la cartographie de ces multiples positions. Les sociologues de la connaissance, eux, examinent comment différents groupes sociaux en viennent à légitimer différentes manières de comprendre, souvent à l’exclusion des autres. Cela permet de comprendre comment différents faits sociaux circulent, s’affrontent ou se font concurrence, et pourquoi, dans les luttes pour la vérité, ceux qui détiennent le pouvoir l’emportent si souvent… Imposant leur vérités sur les autres.
fin dalla sua nascita Internet ha trattato tutte le informazioni allo stesso modo
Mais ces questions ne faisaient pas partie des préoccupations de ceux qui ont construit internet, ni des systèmes d’IA générative qui s’en nourrissent. Depuis l’origine, internet traite toutes les informations de manière égale. Le réseau ne consiste qu’à acheminer des paquets d’informations parfaitement égaux entre eux, rappelle la sociologue. A cette neutralité de l’information s’est ajoutée une autre métaphore : celle du marché des idées, où chaque idée se dispute à égalité notre attention. Comme dans le mythe du libre marché, on a pu penser naïvement que les meilleures idées l’emporteraient. Mais ce régime épistémique a surtout été le reflet des croyances de l’Amérique contemporaine : un système de connaissance gouverné par une main invisible du marché et entretenue par des conservateurs pour leur permettre de générer une marge bénéficiaire.
« Pourtant, la connaissance n’est pas une marchandise. La « croyance vraie justifiée » ne résulte pas non plus d’une fonction d’optimisation. La connaissance peut être affinée par le questionnement ou la falsification, mais elle ne s’améliore pas en entrant en compétition avec la non-connaissance intentionnelle. Au contraire, face à la non-connaissance, la connaissance perd. » L’interrogation du monde par des mécanismes organisés, méthodiques et significatifs – comme la méthode scientifique – peut également tomber dans le piège des modes de connaissance fantômes et des impostures méthodologiques. « Lorsque toute information est plate – technologiquement et épistémologiquement – il n’y a aucun moyen d’interroger sa profondeur, ses contours ou leur absence ». En fait, « au lieu d’être organisé autour de l’information, l’Internet contemporain est organisé autour du contenu : des paquets échangeables, non pondérés par la véracité de leur substance. Contrairement à la connaissance, tout contenu est plat. Aucun n’est plus ou moins justifié pour déterminer la vraie croyance. Rien de tout cela, au fond, n’est de l’information. »
« En conséquence, nos vies sont consumées par la consommation de contenu, mais nous ne reconnaissons plus la vérité lorsque nous la voyons. Et lorsque nous ne savons pas comment peser différentes vérités, ou coordonner différentes expériences du monde réel pour regarder derrière le voile, il y a soit une cacophonie, soit un seul vainqueur : la voix la plus forte qui l’emporte. »
Contrairement à Wikipédia, encore relativement organisé, le reste du Web est devenu la proie de l’optimisation des moteurs de recherche, des technologies de classement et de l’amplification algorithmique, qui n’ont fait que promouvoir le plus promouvable, le plus rentable, le plus scandaleux. « Mais aucun de ces superlatifs n’est synonyme de connaissance ». Les systèmes qui nous fournissent nos informations ne peuvent ni mesurer ni optimiser ce qui est vrai. Ils ne s’intéressent qu’à ce sur quoi nous cliquons. Et le clou dans le cercueil est enfoncé par l’intelligence artificielle qui « inonde Internet de contenu automatisé plus rapidement que l’on ne peut licencier une rédaction ». Dans ce paysage sous stéroïdes, aucun système n’est capable de distinguer la désinformation de l’information. Les deux sont réduits à des paquets de même poids cherchant leur optimisation sur le marché libre des idées. Et les deux sont ingérés par une grande machinerie statistique qui ne pèse que notre incapacité à les distinguer.
Aucun système fondé sur ces hypothèses ne peut espérer distinguer la « désinformation » de « l’information » : les deux sont réduites à des paquets de contenu de même valeur, cherchant simplement une fonction d’optimisation dans un marché libre des idées. Et les deux sont également ingérées dans une grande machinerie statistique, qui ne pèse que notre incapacité à les discerner. Le résultat ne promet rien d’autre qu’un torrent indistinct et sans fin, « où la connaissance n’a jamais été un facteur et d’où la connaissance ne peut donc jamais émerger légitimement ». « Sans topologie de l’information, nous sommes à la dérive dans le contenu, essayant en vain de naviguer dans une cascade d’absurdités sans boussole ».
« Il est grand temps de revenir à ces méthodes et à ces questions, aux milliers d’années de gestion de l’information et d’échange de connaissances qui ont transmis non seulement des faits ou du contenu, mais aussi une appréciation de ce qu’il faut pour faire émerger des vérités », plaide Vertesi. « Il n’est pas nécessaire que ce soit un projet colonial ou réductionniste. Les connaissances d’aujourd’hui sont plurielles, distribuées, issues de nombreux lieux et peuples, chacun avec des méthodes et des forces d’ancrage uniques. Cela ne signifie pas non plus que tout est permis. Le défi consiste à s’écouter les uns les autres et à intégrer des perspectives conflictuelles avec grâce et attention, et non à crier plus fort que les autres ».
« Alors que nos vies sont de plus en plus infectées par des systèmes d’IA maladroits et pilleurs et leurs flux hallucinatoires, nous devons apprendre à évaluer plutôt qu’à accepter, à synthétiser plutôt qu’à résumer, à apprécier plutôt qu’à accepter, à considérer plutôt qu’à consommer ».
« Notre paysage technologique contemporain exige de toute urgence que nous revenions à une autre des plus anciennes questions de toutes : « Qu’est-ce qui est vraiment réel ? » » Hubert Guillaud
MAJ du 26/03/2025 : Pour 404media, Jason Koebler continue à documenter l’explosion des slops sur les plateformes de médias sociaux, qui deviennent à la fois des concours de contenus problématiques mais qui rapportent de l’argent à leurs auteurs. Ces niches de contenues peuvent devenir extrêmement populaires et utilisent des processus très mécaniques, sans que les plateformes n’agissent pour déférencer ou limiter ces contenus. Dans un autre article, Koebler rappelle que les humains sont moins doués que l’IA pour produire des contenus qui vont plaire aux algorithmes d’amplification. Avec l’IA, les créateurs peuvent générer des milliers de participations à la grande loterie algorithmique de la viralité jusqu’à trouver un contenu qui perce et le dupliquer à l’envie. Comme le dit un producteur de slop, « il est absurde financièrement de consacrer du temps à la création de vidéos de qualité, quand produire une grande quantité de Shorts générés par l’IA est bien plus lucratif ».
Pour Koebler, les plateformes font face à une attaque par force brute, mais sans que personne ne réagisse. Au contraire, tout le monde profite de ces formes de spam. Les plateformes, les marques qui utilisent aussi ces procédés pour produire des contenus, certes un peu moins cringe, les influenceurs slop à la recherche de revenus, et même les utilisateurs qui les regardent. « Les géants des réseaux sociaux, qui conçoivent eux-mêmes les algorithmes attaqués, ne se contentent pas de payer des spammeurs IA pour slopifier leurs plateformes, ils développent des outils qui les aideront à spammer de manière plus rentable. Cela signifie que, contrairement à la plupart des failles de sécurité qui doivent être corrigées en urgence, rien n’indique qu’une solution soit apportée » au problème.
Koebler rappelle d’ailleurs très justement que cet encouragement vient de loin, en revenant sur les tests A/B, qui consistent à tester simultanément deux ou plusieurs contenus pour observer celui qui fonctionne le mieux pour le diffuser. Nombre de marques et d’annonceurs utilisent le test A/B pour tester des contenus. Longtemps, les annonceurs devaient produire des tests différenciés. Désormais, ils utilisent des outils d’IA pour cela, à l’image du programme Advantage+ de Meta, qui propose directement aux annonceurs d’utiliser l’IA générative pour créer des versions plus nombreuses et plus microciblées selon les utilisateurs. « Les tests A/B sont devenus des tests A/B/C/D/E/F/G, etc., et les annonceurs peuvent ainsi investir uniquement dans des publicités parfaitement calibrées pour être performantes ».
D’ailleurs, Meta attribue la croissance récente de son chiffre d’affaire à ses outils de ciblage publicitaire dopés à l’IA générative. « Plus de 4 millions d’annonceurs utilisent désormais au moins un de nos outils de création publicitaire générative d’IA, contre un million il y a six mois », a déclaré, ravie, la directrice financière de Meta. Même succès pour ImageAnimation, un outil de génération vidéo prisé des annonceurs. Blaze AI explique aux entreprises qu’elle les aide à « voler le contenu de leurs concurrents » grâce à un « outil d’IA qui permet de reproduire les publications les plus performantes de vos concurrents et de les adapter directement à votre marque » et ce pour type de publication, vidéo ou textuelle. Ces « productions de contenus pour les algorithmes » façonnent l’avenir des réseaux sociaux, où, comme le dit Zuckerberg lui-même, celui-ci se résume à un groupe d’êtres humains parcourant et discutant de contenu généré par l’IA. Rien de surprenant finalement. Meta est une entreprise publicitaire. On peut même imaginer un avenir encore plus radieux où nous serons abreuvés de contenus auto-profilés sans plus aucun contact avec la réalité.
IL TESTO IN ITALIANO (Google Translate, per quel che vale!)
Sulla maggior parte dei social network vi sarà probabilmente già capitato di imbattervi in contenuti generativi, non necessariamente cose molto avanzate, ma contenuti strani, che non hanno nulla da dire, che oscillano tra un vuoto sviluppo personale, una battuta fallita o un contenuto sexy. Video che ripetono testi che non significano nulla.Gli esperti parlano di materiale di scarto, di riempitivo, di residui che invadono gradualmente le piattaforme nella speranza di generare profitti. Come il contenuto filosofico generato dall'intelligenza artificiale che Monsieur Phi analizza nel video.
Intelligenza artificiale: dalla pubblicità generativa all'internet zombie
Per il momento, questi contenuti sembrano aneddotici, poco visti e poco visibili, tranne quando uno di essi irrompe da qualche parte e trascina altri nel suo flusso di raccomandazioni, secondo la logica autofagica dei sistemi di raccomandazione.Per l'analista Ben Thompson, l'intelligenza artificiale generativa è il motore perfetto per produrre pubblicità. Ma questo scarto è altro che contenuti volti a generare profitti?Come afferma il filosofo Rob Horning: "Il sogno accarezzato da tempo di una quantità infinita di pubblicità che inonda il mondo non è mai sembrato più vicino".
Per Jason Koebler di 404 Media, che ha indagato per tutto l'anno sulle origini di questo spam basato sull'intelligenza artificiale, esso è profondamente collegato al modello economico dei social network che pagano in base al pubblico che i creatori raggiungono, il che motiva innumerevoli utenti a trarne profitto. Koebler parla anche di Internet zombie per descrivere sia questa generazione automatizzata di contenuti sia i coinvolgimenti altrettanto automatizzati che genera. Ora, non sono solo i contenuti a essere colonizzati da questo spam, ma gli influencer stessi, in particolare attraverso modelli in costume da bagno generati dall'intelligenza artificiale. Koebler teme che alla fine i social media potrebbero perdere ogni significato sociale e trasformarsi in spazi "in cui i contenuti generati dall'intelligenza artificiale eclissano i contenuti generati dagli esseri umani", soprattutto perché la visibilità di questi account avviene a scapito di quelli gestiti da esseri umani.Una specie di agenzia pubblicitaria sotto steroidi.Come spiega un creatore di contenuti per adulti il cui pubblico è crollato dopo l'esplosione dei modelli artificiali: "Sto competendo con qualcosa che non è naturale".
Questi contenuti, che stanno colonizzando i social network, non sembrano preoccupare i magnati della tecnologia, ha sottolineato molto di recente Koebler, riportando i commenti di Mark Zuckerberg.Soprattutto perché questi contenuti generativi sembrano produrre ciò che ci aspettiamo da loro. Meta ha segnalato un aumento dell'8% del tempo trascorso su Facebook e del 6% del tempo trascorso su Instagram grazie ai contenuti generativi. 15 milioni di annunci al mese sulle piattaforme Meta utilizzano già l'intelligenza artificiale generativa.E Meta progetta strumenti per moltiplicare gli utenti sintetici. Slop ha invaso anche la piattaforma di blogging Medium, spiega Wired, ma per ora questo contenuto resta relativamente invisibile, in parte perché la piattaforma riesce a limitarne la portata.Un contenimento che potrebbe non resistere alla prova del tempo. In definitiva, i contenuti generati dagli esseri umani potrebbero diventare sempre più difficili da trovare su piattaforme dominate dall'intelligenza artificiale.
Vorremmo credere che i social network potrebbero finire per crollare a causa del disinteresse che questi contenuti moltiplicano. Sembra che sia il contrario: l'internet degli zombie è in piena espansione. A tal punto che, un anno dopo aver assistito al crollo dell'informazione, ci si potrebbe chiedere se non stiamo assistendo al crollo di tutto il resto?
L'Internet degli zombie è in continua espansione. Alla fine dell'anno, dopo aver contribuito alla compilazione del registro delle informazioni, cosa succede se non si riceve più alcun aiuto per la compilazione di tutti gli altri?
Le sfide del riempimento dei vuoti
Nella sua newsletter personale, il ricercatore e artista Eryk Salvaggio torna sul tema dell'intelligenza artificiale, scrivendo tre lunghi e affascinanti post.Innanzitutto sottolinea che questo riempimento si adatta perfettamente agli algoritmi dei social media.Su LinkedIn i contenuti scritti da LLM sono già la maggioranza.Anche il motore di ricerca di Google apprezza già le immagini e i testi generati dall'intelligenza artificiale. Per Salvaggio, con l'intelligenza artificiale generativa ogni informazione diventa rumore. Ma soprattutto, giocando alla perfezione con i filtri algoritmici, si dimostra perfettamente efficace nel sommergerci.
Jesus Schrimp, un'immagine simbolica delle acque torbide dell'intelligenza artificiale che produce il proprio vuoto.
Salvaggio suggerisce di abbandonare l’idea di definire l’AI come una tecnologia. È diventato un progetto ideologico, ovvero "è un modo di immaginare il mondo che diventa una scorciatoia per spiegare il mondo". Ed è tanto più ideologico a seconda dei luoghi in cui viene impiegato, in particolare quando si tratta di gestire questioni sociali o culturali.“Ottimizzare la capacità di un sistema di affermare la propria autorità è una brillante promessa utopica delle tecnologie di automazione.”“Un aspetto dell’IA come ideologia è quindi la sterilizzazione scientifica della varietà e dell’imprevedibilità in nome di un comportamento affidabile e prevedibile. L’IA, per questo motivo, offre poco e danneggia molto il dinamismo dei sistemi socioculturali.”Le persone partecipano all'ideologia dell'intelligenza artificiale promuovendone i prodotti, diffondendone i risultati e sostenendone i progressi per identificarsi con il gruppo dominante che l'ha prodotta.
abbandona l'idea di definire l'IA come una tecnologia. Questo è un progetto ideologico. È un modo di immaginare che le persone stiano guardando una scorciatoia.
La produzione di contenuti di riempimento basata sull'intelligenza artificiale solleva la questione: chi trae vantaggio da questo oscuro riempitivo?Per Salvaggio, il padding è un sintomo che emerge dall'infrastruttura stessa dell'IA, che è a sua volta il risultato dell'ideologia dell'IA. Perché i media algoritmici premiano la circolazione di questi contenuti? Produzioni sensibili e virali che giocano sulle emozioni senza riguardo per la verità. Le produzioni filler consentono di realizzare un mondo così come viene immaginato. Evitano qualsiasi desiderio di comprendere il mondo perché ci danno la gratificazione immediata di avere una "sensazione sul mondo".«AI Slop è un segnale vuoto, consumato passivamente, un sintomo dell’“era del rumore”, in cui c’è così tanta “verità” proveniente da così tante posizioni che valutare la realtà sembra senza speranza. »
Il nostro disorientamento per il vuoto
Eryk Salvaggio si chiede addirittura se l'obiettivo dell'intelligenza artificiale non sia proprio quello di produrre questo ripieno. Un riempimento “equipaggiato”, “armato”, che consente a qualcosa al di là di esso di essere invaso, come quando l’intelligenza artificiale viene utilizzata per inondare le reti di contenuti sessuali per meglio catturare lo sguardo maschile. Le produzioni di intelligenza artificiale ci consentono di produrre una prospettiva, uno “sguardo a sciame” che ci consente di manipolare i simboli, di deviarli.“Le immagini generate dall’intelligenza artificiale offrono il potere di dare forma al significato in un mondo in cui le persone temono l’impotenza e l’insignificanza, invitandole a rendere gli altri altrettanto impotenti e insignificanti quanto loro.”Queste immagini “sminuiscono il valore della realtà”, suggerisce brillantemente Salvaggio.Creano “un’estetizzazione”, cioè conformano la rappresentazione a un ideale. La funzione politica di questo riempimento va ben oltre le semplici rappresentazioni e i simboli, suggerisce ulteriormente.L’intelligenza artificiale applicata ai servizi governativi, come quelli sociali, li trasforma a sua volta in “un esercizio estetico”. La nostra idoneità alla copertura assicurativa sanitaria o previdenziale non è diversa da quella dell'AI Slop. È questa stessa infrastruttura priva di significato ad essere presa di mira da coloro che si oppongono all'algoritmizzazione dello Stato e da coloro che fuggono dai deleteri circoli viziosi dei social media.
Il progetto DOGE di Elon Musk, il dipartimento per l'efficienza governativa che dovrebbe offrire un pannello di controllo che consenta agli utenti di internet di votare per eliminare la spesa pubblica più inutile, sembra di per sé una forma di fusione tra social media, ideologia dell'intelligenza artificiale e potere di sfruttare lo sguardo confuso della popolazione e indirizzarlo verso un assalto ai dipendenti pubblici, per ridurre lo stato sociale attorno a un senso di efficienza ultra-riduttivo. In definitiva, ciò produce una forma di politica che tratta il governo come un'interfaccia di social media, progettata per amplificare l'indignazione, intimidire chi non è d'accordo e rendere impossibile un dialogo costruttivo. Benvenuti nella "momusocrazia", il governo dei troll, della beffa, spiega Salvaggio, questa Tirannia dei buffoni cara al saggista Christian Salmon.
Ma, sostiene Salvaggio, il flusso di contenuti prodotto dall'intelligenza artificiale generativa rischia di esaurire il pubblico attraverso un inquinamento informativo senza precedenti, sconvolgendo i canali di organizzazione, riflessione e connessione.“Il controllo del filtro consente di orientarlo nella direzione desiderata.” Ma più che dargli un senso, l'inquinamento informativo permette di saturarlo per meglio disorientare tutti.Questa saturazione è un ottimo modo per garantire che "non si raggiunga alcun consenso, alcun compromesso o semplicemente alcuna comprensione reciproca". Questa saturazione non ha altro scopo che promuovere la “divisione per esaurimento”."Il riempimento è potere."
"L'ideologia dell'intelligenza artificiale funziona come una fuorviante convinzione apolitica secondo cui gli algoritmi sono una soluzione alla politica", che presuppone che i calcoli possano prendere decisioni a vantaggio di tutti, mentre le loro decisioni sono solo a vantaggio di alcuni, filtrando dati, idee e persone che contraddicono i risultati attesi. Mentre l'elezione di Trump allontana ulteriormente le questioni della trasparenza e della regolamentazione, l'intelligenza artificiale contribuirà soprattutto a rafforzare l'opacità che ne garantisce il predominio.
Verso un mondo senza interesse, che gira su se stesso
Nell'ultima parte della sua riflessione, Salvaggio ritiene che il riempimento sia un sintomo, ma che produrrà effetti molto concreti, "esperienze disinteressate", cioè "esperienze senza interesse e incapaci di interessarsi a nulla". È il sogno di macchine razionali e imparziali, onniscienti, disinteressate e precisamente incapaci di interessarsi a qualsiasi cosa. Un mondo in cui i bambini vengono affidati a tutor virtuali in nome dell'efficienza, senza riuscire a comprendere tutti gli effetti dannosi che questa assenza di umanità comporta.
L'intelligenza artificiale è stata sviluppata su informazioni in eccesso... con l'obiettivo di produrne ancora di più.Dal momento che i social media sono una grande fonte di dati per l'intelligenza artificiale, è comprensibile che i contenuti di riempimento dell'intelligenza artificiale siano ottimizzati per essa.“Addestrata sui contenuti virali, l’intelligenza artificiale produce contenuti che soddisfano tutti i requisiti per l’amplificazione. Quindi, lo scarto dell’intelligenza artificiale è un riflesso di ciò che vedono i nostri filtri dei social media. E quando gli algoritmi dei social media ricevono i risultati, li riconoscono come più propensi a generare coinvolgimento e li inseriscono nei feed (generando ancora più coinvolgimento).” Nelle Danaidi dell’amplificazione, lo scarto dell’intelligenza artificiale è il fluidificante definitivo, il contenuto assurdo che fa funzionare la macchina all’infinito.
Contrastare questa situazione dominata dall'intelligenza artificiale non è una priorità per le aziende di intelligenza artificiale che vi trovano opportunità, né per le aziende di social media, poiché non arreca loro alcun danno."I contenuti di riempimento basati sull'intelligenza artificiale sono in realtà la manifestazione estetica di una cultura mediata algoritmicamente": "sono stilizzati attraverso più di un decennio di algoritmi di ottimizzazione che apprendono cosa spinge le persone a interagire".
Di fronte a questi contenuti “ottimizzati in termini di prestazioni”, gli artisti e gli individui che negli ultimi anni hanno provato a condividere il loro lavoro sulle piattaforme social non possono competere. Chi ci ha provato si è presto stancato, perché prima bisognava mantenere il ritmo infernale e instancabile di pubblicazione che questi sistemi sono capaci di produrre.
Spogliare i simboli del loro rapporto con la realtà
“Le immagini generate dall’intelligenza artificiale possono essere interpretate come arte popolare al servizio del populismo dell’intelligenza artificiale.”Il loro obiettivo è "spogliare i simboli del loro rapporto con la realtà" per poterli riorganizzare liberamente.La gente non conosce i film ma ha visto i meme.Il risultato di queste immagini è spesso criticato perché ritenuto senz'anima.E in effetti, i testi e le immagini generati dall'intelligenza artificiale soffrono dell'assenza del peso della realtà, a causa dell'assenza di logica che presiede alla loro produzione.
“L’era dell’informazione è giunta al termine, e con essa anche la fine di ogni possibile definizione “oggettiva” e “neutrale” di “verità”. »L'estetica dell'infill dell'IA non è casuale, ma stocastica, il che significa che si basa su una varietà infinita delimitata da un insieme di regole ristrette e coerenti. Questo limita la nostra capacità di scoprire o inventare nuove forme di cultura, poiché è prima invitata a riprodursi costantemente, a fare una media di se stessa, a imitare se stessa. Sia le immagini che i testi di IA riflettono il potere di sistemi che ancora fatichiamo a comprendere. Producono forme di verità universalizzate e mediate che ci imprigionano in esse. Come in una forma di sfruttamento infinito delle nostre rappresentazioni, mentre vorremmo essere in grado di sfuggirvi, come ha spiegato Melkom Boghossian in una nota per la Fondazione Jean Jaurès, cercando di capire come gli algoritmi accentuino le divisioni di genere. Come se diventasse impossibile liberarci dai vincoli di genere poiché i nostri strumenti li sfruttano e li rafforzano. Questa rete di contenuti assurdi non è vuota, è piena di significati che ci sfuggono e ci inghiottono. È piena di un mondo saturo di se stesso.
Mentre l'intelligenza artificiale espande la sua presa sul web, ci chiediamo se esisteranno ancora luoghi in cui saremo protetti da essa, dove potremo connetterci con altri esseri umani, senza che tutti i sistemi di codifica ci distorcano.
Dal riempimento alla fine della conoscenza
In un articolo di opinione per PubliBooks, la sociologa Janet Vertesi sostiene che le ricerche online sono diventate così caotiche e irrazionali che ora ricorre a dizionari ed enciclopedie cartacei."Google, che ha fatto fortuna aiutandoci a navigare su Internet, ora sta annegando nelle sue stesse assurdità." Ci troviamo ora di fronte a un problema di epistemologia, cioè di conoscenza, di sapere cosa è reale e cosa non lo è.
Nel XX secolo, i filosofi definirono la conoscenza come credenza vera giustificata. Il metodo scientifico era il mezzo per distinguere la buona scienza da quella cattiva, la verità dalle bugie.Ma questo approccio spesso presuppone che esista una sola risposta giusta che potremmo conoscere se adottassimo i metodi e gli strumenti giusti. Ciò significa però dimenticare che la conoscenza non è sempre indipendente dall'esperienza. Ludwig Wittgenstein utilizzò la figura dell'anatra-coniglio per dimostrare come persone razionali potessero arrivare ad avere visioni inconciliabilmente diverse della stessa realtà.Gli epistemologi hanno utilizzato questa idea per dimostrare che le persone, a seconda della loro posizione sociale, hanno esperienze diverse della realtà e che la conoscenza oggettiva può nascere solo dalla mappatura di queste molteplici posizioni.I sociologi della conoscenza, d'altro canto, esaminano il modo in cui diversi gruppi sociali giungono a legittimare diversi modi di comprendere, spesso escludendone altri. Questo ci aiuta a comprendere come i diversi fatti sociali circolino, si scontrino o competano tra loro, e perché, nelle lotte per la verità, coloro che detengono il potere spesso vincono... imponendo le proprie verità agli altri.
Ma queste domande non rientravano tra le preoccupazioni di coloro che hanno creato Internet, né dei sistemi di intelligenza artificiale generativa che ne sono alla base.Fin dalla sua nascita, Internet ha trattato tutte le informazioni allo stesso modo. La rete consiste semplicemente nel trasportare tra loro pacchetti di informazioni perfettamente uguali, ricorda il sociologo. A questa neutralità dell'informazione si è aggiunta un'altra metafora: quella del mercato delle idee, dove ogni idea compete alla pari per la nostra attenzione. Come nel mito del libero mercato, potremmo aver pensato ingenuamente che avrebbero vinto le idee migliori. Ma questo regime epistemico è stato soprattutto il riflesso delle convinzioni dell'America contemporanea: un sistema di conoscenza governato dalla mano invisibile del mercato e mantenuto dai conservatori per consentire loro di generare un margine di profitto.
“Tuttavia, la conoscenza non è una merce. Né la "credenza vera giustificata" deriva da una funzione di ottimizzazione. La conoscenza può essere raffinata attraverso l'interrogazione o la falsificazione, ma non viene migliorata competendo con la non-conoscenza intenzionale. Al contrario, di fronte all'ignoranza, la conoscenza perde. »Interrogare il mondo attraverso meccanismi organizzati, metodici e significativi – come il metodo scientifico – può anche cadere nella trappola di modalità fantasma di conoscenza e imposture metodologiche. “Quando tutte le informazioni sono piatte – tecnologicamente ed epistemologicamente – non c'è modo di metterne in discussione la profondità, i contorni o la loro assenza.” Infatti, "invece di essere organizzata attorno all'informazione, l'Internet contemporanea è organizzata attorno al contenuto: pacchetti scambiabili, non ponderati dalla verità della loro sostanza.A differenza della conoscenza, tutti i contenuti sono piatti.Nessuno è più o meno giustificato nel determinare la vera credenza.Niente di tutto questo, in sostanza, è informazione.»
"Di conseguenza, le nostre vite sono consumate dal consumo di contenuti, ma non riconosciamo più la verità quando la vediamo. E quando non sappiamo come soppesare diverse verità o coordinare diverse esperienze del mondo reale per scrutare dietro il velo, si crea una cacofonia o un unico vincitore: prevale la voce più forte. »
A differenza di Wikipedia, che è ancora relativamente organizzata, il resto del web è caduto preda dell'ottimizzazione dei motori di ricerca, delle tecnologie di classificazione e dell'amplificazione algoritmica, che hanno promosso solo ciò che era più promuovibile, più redditizio, più scandaloso. "Ma nessuno di questi superlativi è sinonimo di conoscenza." I sistemi che ci forniscono le informazioni non possono misurare o ottimizzare ciò che è vero. A loro interessa solo ciò su cui clicchiamo. E il colpo di grazia è dato dall'intelligenza artificiale, che "inonda Internet di contenuti automatizzati più velocemente di quanto si possa licenziare una redazione". In questo panorama dominato dagli steroidi, nessun sistema è in grado di distinguere la disinformazione dall'informazione.Entrambi vengono ridotti a pacchetti di pari peso, cercando la loro ottimizzazione nel libero mercato delle idee. Ed entrambi vengono inglobati in un grande meccanismo statistico che pesa solo sulla nostra incapacità di distinguerli.
Nessun sistema basato su questi presupposti può sperare di distinguere la “disinformazione” dall’“informazione”: entrambe sono ridotte a pacchetti di contenuti di pari valore, che cercano semplicemente una funzione di ottimizzazione in un libero mercato di idee.Ed entrambi vengono inglobati in un grande meccanismo statistico, il cui peso non può che ricadere sulla nostra incapacità di discernerli. Il risultato non promette altro che un torrente indistinto e senza fine, "in cui la conoscenza non è mai stata un fattore e da cui la conoscenza non può quindi mai emergere legittimamente".“Senza topologia dell'informazione, andiamo alla deriva nei contenuti, cercando invano di orientarci in una cascata di assurdità senza una bussola.”
"È giunto il momento di tornare a quei metodi e a quelle domande, a migliaia di anni di gestione delle informazioni e di scambio di conoscenze che hanno trasmesso non solo fatti o contenuti, ma anche la consapevolezza di ciò che serve per scoprire la verità", sostiene Vertesi.“Non deve essere un progetto coloniale o riduzionista. La conoscenza odierna è plurale, distribuita, proviene da molti luoghi e popoli, ognuno con metodi e forze di ancoraggio unici. Questo non significa che tutto sia permesso. La sfida è ascoltarsi a vicenda e integrare prospettive contrastanti con grazia e cura, non gridare più forte degli altri.”
“Mentre le nostre vite sono sempre più contaminate da sistemi di intelligenza artificiale goffi e saccheggiatori e dai loro flussi allucinatori, dobbiamo imparare a valutare piuttosto che accettare, a sintetizzare piuttosto che riassumere, ad apprezzare piuttosto che accettare, a considerare piuttosto che consumare.”
“Il nostro panorama tecnologico contemporaneo ci chiede urgentemente di tornare a un'altra delle domande più antiche di tutte: 'Cosa è veramente reale?' » » Hubert Guillaud
Koebler sottolinea giustamente che questo incoraggiamento viene da lontano, tornando ai test A/B, che consistono nel testare simultaneamente due o più contenuti per osservare quale funziona meglio ai fini della distribuzione. Molti marchi e inserzionisti utilizzano i test A/B per testare i contenuti. Per molto tempo gli inserzionisti hanno dovuto produrre test differenziati. Ora a questo scopo utilizzano strumenti di intelligenza artificiale, come il programma Advantage+ di Meta, che offre direttamente agli inserzionisti la possibilità di utilizzare l'intelligenza artificiale generativa per creare sempre più versioni microtargettizzate in base agli utenti."I test A/B sono diventati test A/B/C/D/E/F/G, ecc. e gli inserzionisti ora possono investire solo in annunci perfettamente calibrati per funzionare."
Inoltre, Meta attribuisce la recente crescita del fatturato ai suoi strumenti di targeting pubblicitario basati sull'intelligenza artificiale generativa."Oltre 4 milioni di inserzionisti utilizzano ora almeno uno dei nostri strumenti di creazione di annunci generativi basati sull'intelligenza artificiale, rispetto a 1 milione di sei mesi fa", ha affermato soddisfatto il CFO di Meta.Lo stesso successo è stato ottenuto da ImageAnimation, uno strumento di generazione video molto apprezzato dagli inserzionisti.Blaze AI afferma che le aziende le aiuta a "rubare i contenuti della concorrenza" tramite uno "strumento di intelligenza artificiale in grado di replicare i post più efficaci dei concorrenti e di personalizzarli direttamente in base al proprio marchio", indipendentemente dal fatto che siano basati su video o testo. Queste “produzioni di contenuti per algoritmi” stanno plasmando il futuro dei social media, dove, come afferma lo stesso Zuckerberg, tutto si riduce a un gruppo di esseri umani che navigano e discutono di contenuti generati dall’intelligenza artificiale. Alla fine non c'è nulla di sorprendente. Meta è un'agenzia pubblicitaria. Possiamo addirittura immaginare un futuro ancora più luminoso in cui saremo inondati da contenuti auto-profilati, senza alcun contatto con la realtà.
Per 404media, Jason Koebler continua a documentare l'esplosione di contenuti indesiderati sulle piattaforme dei social media, che stanno diventando sia concorsi per contenuti problematici sia fonte di guadagno per i loro autori. Queste nicchie di contenuto possono diventare estremamente popolari e utilizzare processi molto meccanici, senza che le piattaforme intervengano per dereferenziare o limitare tali contenuti. In un altro articolo, Koebler sottolinea che gli esseri umani sono meno abili dell'intelligenza artificiale nel produrre contenuti che possano attrarre gli algoritmi di amplificazione. Grazie all'intelligenza artificiale, i creatori possono generare migliaia di voci nella grande lotteria algoritmica della viralità finché non trovano un contenuto che abbia successo e lo duplicano a piacimento. Come ha affermato un produttore di materiale di scarto: "Non ha alcun senso finanziario dedicare tempo alla creazione di video di qualità quando produrre una grande quantità di Short generati dall'intelligenza artificiale è molto più redditizio". Koebler afferma che le piattaforme stanno subendo un attacco di forza bruta, ma nessuno sta reagendo. Al contrario, tutti traggono vantaggio da queste forme di spam. Le piattaforme, i marchi che utilizzano questi processi per produrre contenuti, anche se in modo un po' meno imbarazzante, gli influencer poco sciatti in cerca di guadagni e persino gli utenti che li guardano.I giganti dei social media, che progettano essi stessi gli algoritmi sotto attacco, non stanno solo pagando gli spammer di intelligenza artificiale per danneggiare le loro piattaforme, ma stanno anche sviluppando strumenti che li aiuteranno a fare spam in modo più redditizio. Ciò significa che, a differenza della maggior parte delle falle di sicurezza che devono essere corrette urgentemente, non vi è alcuna indicazione che verrà fornita una soluzione al problema.