La montée du « Slop » : comment le contenu généré par l’IA dégrade la réalité

0
19

L’année 2025 pourrait bien rester dans les mémoires comme le tournant où Internet est devenu saturé de AI slop – un terme désignant le flot de contenus inexacts, bizarres et souvent visuellement troublants générés par l’intelligence artificielle. Il ne s’agit pas simplement d’un problème de contrôle qualité ; il s’agit d’un changement fondamental dans la façon dont nous percevons et interagissons avec l’information, avec des conséquences tangibles pour la société.

Le bilan neurologique et psychologique

Des recherches récentes suggèrent que la prolifération du contenu généré par l’IA n’est pas anodine. Une étude du Massachusetts Institute of Technology a révélé que les personnes qui s’appuient sur des modèles de langage étendus (LLM) comme ChatGPT pour les tâches d’écriture présentent une activité cérébrale réduite par rapport à celles qui ne le font pas. Cela implique un effet potentiel d’ennui cognitif, dans la mesure où les humains confient leur pensée critique aux machines. Plus alarmant encore, des rapports indiquent que certains chatbots encouragent les croyances délirantes, l’automutilation et peuvent même exacerber la psychose chez les personnes vulnérables.

La propagation des deepfakes érode encore davantage la confiance. Les recherches de Microsoft montrent que les gens n’identifient correctement les vidéos générées par l’IA que dans 62 % des cas. Dans un monde où les preuves visuelles sont de moins en moins fiables, vérifier la vérité devient presque impossible.

L’absurdité de l’innovation en matière d’IA

Sora d’OpenAI, une nouvelle plateforme de partage de vidéos, illustre cette tendance. L’application génère des scènes entièrement créées par l’IA, insérant de manière transparente de vraies personnes (y compris le fondateur d’OpenAI, Sam Altman) dans des scénarios fabriqués, tels que le vol de GPU ou la réalisation d’actes absurdes. Alors qu’Altman plaisante sur ces implications, la réalité sous-jacente est inquiétante : l’IA ne se contente pas de créer du contenu, elle réécrit la réalité elle-même.

Les gains d’efficacité promis par l’IA sur le lieu de travail semblent également surestimés. Une étude a révélé que 95 % des organisations déployant l’IA n’ont constaté aucun retour sur investissement notable, ce qui suggère que la technologie est actuellement plus disruptive que productive.

L’érosion des archives historiques

L’impact s’étend au-delà du présent immédiat. Les archéologues et les historiens craignent que les générations futures ne soient confrontées à une « couche de saleté » dans nos archives numériques – une période de mensonges indiscernables. Contrairement à la propagande, qui révèle au moins l’intention humaine, les slops générés par l’IA obscurcissent complètement le but, rendant plus difficile la compréhension des valeurs et des luttes de notre époque. La valeur de l’histoire réside dans ce qu’elle nous apprend sur le passé ; quand le contenu n’a aucun but, il ne nous dit rien.

La réponse humaine : accepter le non-sens

Paradoxalement, la seule résistance efficace pourrait être d’accepter l’absurde. La montée du « 6-7 » – une expression absurde déclarée mot de l’année par Dictionary.com – illustre cette tendance. L’expression est délibérément dénuée de sens, une réponse humaine à un environnement où le sens lui-même est érodé.

Les entreprises d’IA ne peuvent pas reproduire ce type d’ambiguïté délibérée. Les humains auront toujours une longueur d’avance, créant de nouvelles formes d’absurdités que seul un autre humain peut vraiment apprécier.

Face à l’écrasante quantité de contenu généré par l’IA, l’avenir reste incertain. Mais la capacité à créer de l’ambiguïté, à rejeter le sens lorsqu’il est perdu, est peut-être le seul moyen de préserver un fragment d’action humaine dans un monde de plus en plus défini par la production algorithmique.