L’IA va-t-elle tuer Internet ? Ce documentaire ARTE révèle l’ampleur du désastre

Internet submergé par le slop généré par l'intelligence artificielle

Article de Kami

Internet est-il en train de mourir à petit feu ? C’est la question brutale que pose ce documentaire ARTE, diffusé en 2025, en explorant un phénomène qui s’amplifie à une vitesse alarmante : le « slop ». Ce terme anglais, littéralement « bouillie », désigne la marée de contenus médiocres générés par l’intelligence artificielle qui submerge désormais les réseaux sociaux, les moteurs de recherche et les plateformes de vente en ligne.

Des images grotesques aux faux livres sur Amazon, en passant par les vidéos politiques truquées et la musique synthétique, aucun recoin du web n’échappe à cette pollution numérique. Et derrière cette machine à produire du vide, des centaines de milliers de travailleurs invisibles endurent des conditions inhumaines. Plongeons dans les entrailles de cette dérive que même les dirigeants de l’industrie IA commencent à reconnaître.

Le Slop : quand l’IA submerge les réseaux sociaux

Flux de réseaux sociaux submergés par du contenu généré par l'IA

Le phénomène Shrimp Jesus illustre parfaitement l’absurdité de la situation. Début 2024, Facebook a été envahi par des visuels montrant un Jésus hybride, mi-homme, mi-crevette, qui ont généré des milliers de « likes » et de commentaires « Amen ». Le journaliste Max Read a remonté la piste jusqu’à un certain Steven Wongy, vraisemblablement basé au Kenya, qui crée ces visuels sur des thèmes garantissant un fort engagement : religion, animaux et football anglais.

Le mécanisme est simple et redoutable. Si une publication devient virale, Facebook rémunère le créateur. La plateforme ne se contente pas de tolérer le slop — elle le subventionne activement. Les créateurs de ces flux d’images générées par l’IA sont souvent basés en Afrique ou en Asie. Ils en font leur métier et se forment grâce à des tutoriels en ligne, produisant à la chaîne des contenus conçus pour éveiller notre empathie, notre peur, notre envie ou notre colère. Peu importe le sujet, tant que l’on clique et que l’on partage.

En Allemagne, le journaliste Mats Schnauer a recensé plus de 30 000 nouvelles vidéos de ce type sur les seules chaînes qu’il étudiait. Des célébrités sont déclarées mortes, accusées de violences domestiques ou impliquées dans des accidents inventés de toutes pièces. Des centaines de milliers, peut-être des millions de vidéos de ce type ont été publiées en quelques mois, exposant plusieurs millions de personnes à des mensonges purs et simples.

Désinformation à grande échelle : l’IA comme machine à fake news

Désinformation et fake news générées par l'intelligence artificielle

La capacité de l’IA à mentir de manière convaincante pose un problème démocratique majeur. Avant les élections parlementaires allemandes, des chaînes YouTube diffusaient massivement des vidéos politiques générées par l’IA, tendant clairement à promouvoir l’AfD et des idées pro-russes. Un présentateur virtuel annonçait par exemple qu’une chaîne de supermarchés avait renommé ses lapins de Pâques par égard pour sa clientèle musulmane — une information entièrement fabriquée qui a pourtant trompé de nombreux internautes.

Google n’est pas épargné. À l’approche d’Halloween 2024, des Dublinois cherchant les événements de leur ville ont trouvé en premier résultat un site annonçant une parade. Des milliers de personnes se sont déplacées pour un défilé qui n’a jamais eu lieu — l’information était entièrement inventée par une IA. Comme le révèlent les recherches sur les hallucinations des systèmes d’IA, ces outils ne distinguent tout simplement pas le vrai du faux.

Plus inquiétant encore, Google a choisi de combattre le feu par le feu en déployant des résumés automatiques générés par IA en tête de ses résultats. Lorsqu’on demandait si les États-Unis avaient déjà eu un président musulman, l’IA de Google répondait « oui, Barack Obama » — une théorie complotiste — en citant une source académique dont elle était incapable de comprendre le ton ironique. Le principe de Google : le résumé est correct « la plupart du temps ». Tant pis pour les erreurs grossières.

Livres, musique, influenceurs : aucun domaine n’est épargné

Industries créatives contaminées par les contenus générés par l'IA

Sur Amazon, la Société Mycologique de New York a tiré la sonnette d’alarme au sujet de guides de cueillette de champignons générés par l’IA qui recommandent la consommation d’espèces vénéneuses. Dans ce cas précis, le slop représente un danger bien réel en diffusant des informations potentiellement mortelles, impossibles à distinguer d’une source vérifiée par des professionnels. Ce type de dérive rappelle les arnaques générées par l’IA qui pullulent déjà sur les réseaux.

L’ampleur du phénomène éditorial est vertigineuse. Une certaine Helene Vonvalgraben, autrice germanophone apparemment très prolifique, a publié plusieurs dizaines de titres en 2024 sur les sujets les plus variés — nutrition, art-thérapie, relations toxiques, stimulants sexuels. Derrière cette autrice se cache en réalité un logiciel. Même des chercheurs en IA se sont retrouvés victimes de contrefaçons : des livres portant le même titre et la même table des matières que les leurs, mais au contenu entièrement généré par ChatGPT. Amazon, contacté, n’a pas répondu.

Côté musique, l’Américain Michael Smith a été rattrapé par la justice fin 2024. Il est accusé d’avoir généré des centaines de milliers de morceaux grâce à l’IA, créé des milliers de faux comptes pour écouter ces titres sur les plateformes de streaming et empoché environ 10 millions de dollars en royalties frauduleuses. Sur TikTok, les influenceurs artificiels prolifèrent — certains transparents sur leur nature virtuelle, mais beaucoup se font passer pour des humains avec des témoignages édifiants visant à vendre des placements financiers ou des pilules amincissantes. Les robots représentent déjà la moitié du trafic internet.

Les travailleurs invisibles derrière l’intelligence artificielle

Travailleurs de la donnée invisibles derrière les systèmes d'intelligence artificielle

Derrière chaque projet d’IA réussi se cachent d’innombrables personnes travaillant devant des écrans, dont personne n’a la décence de mentionner l’existence. L’apprentissage par renforcement avec feedback humain (RLHF), présenté comme une avancée technique élégante, désigne en réalité une armée de clickworkers qui examinent ce que produisent les chatbots pour déterminer ce qui est correct et ce qui ne l’est pas. Pour comprendre ce que sont réellement ces systèmes, il est utile de savoir comment fonctionnent les grands modèles de langage.

On estime entre 150 et 430 millions de travailleurs de la donnée dans le monde — un ordre de grandeur comparable à la population de l’Union européenne. Au Kenya, ces travailleurs gagnent un peu moins de 2 dollars de l’heure. L’un d’eux témoigne dans le documentaire avoir passé 18 heures par jour à regarder des photos de cadavres en gros plan, à zoomer sur des blessures par arme à feu et à tracer des polygones autour des plaies pour entraîner les modèles de reconnaissance d’images.

Le tout sans avertissement préalable, sans accompagnement psychologique et sous le sceau d’un accord de confidentialité. « J’ai développé des troubles anxieux et je ne peux pas me permettre de voir un thérapeute parce que c’est très cher », confie l’un de ces travailleurs. Ces personnes invisibles et précaires endurent des conditions inhumaines pour permettre à des entreprises valorisées à plusieurs milliards de dollars de produire leurs systèmes d’IA — des systèmes qui inondent ensuite le web de contenus médiocres, tout en consommant autant d’énergie que des pays entiers.

L’internet libre peut-il encore être sauvé ?

L'avenir d'Internet entre déchéance numérique et espoir de communautés humaines

Le rêve d’un internet libre et ouvert, incarné par John Perry Barlow et sa célèbre Déclaration d’indépendance du cyberespace de 1996, a été progressivement étouffé par ce que l’écrivain Cory Doctorow nomme l’« enshittification ». Ce terme décrit comment la recherche incessante du profit dégrade les communautés internet au point de les rendre invivables : une plateforme soigne d’abord ses utilisateurs, puis détériore leur expérience pour avantager ses annonceurs, avant de pressurer les deux pour enrichir ses dirigeants et investisseurs.

Les géants de la tech tentent désormais d’imposer l’IA partout, ajoutant des fonctionnalités que personne n’a demandées à leurs moteurs de recherche, messageries et plateformes. La promesse d’une intelligence artificielle générale (AGI) qui résoudrait tous les problèmes reste, selon plusieurs experts du documentaire, de la science-fiction. Comme le résume l’un d’entre eux : « C’est comme élever des chevaux de course en espérant qu’une jument donne un jour naissance à une locomotive. »

Pourtant, des signes d’espoir émergent. De plus en plus d’utilisateurs quittent les réseaux sociaux pour se réfugier dans des communautés où ils sont sûrs d’interagir avec de vraies personnes — groupes de discussion, serveurs Discord, espaces de rencontre réels. L’Association américaine des auteurs propose l’instauration d’un label qualité « écrit par un humain » pour les livres, à la manière d’une certification biologique. Le remède, selon le documentaire, passe par le contact humain direct, car les systèmes automatisés ont atteint leurs limites et ne cessent de se détériorer. L’aspiration à un internet humain est toujours bien vivante.