De opkomst van “Slop”: hoe door AI gegenereerde inhoud de werkelijkheid verslechtert

0
4

Het jaar 2025 kan wellicht worden herinnerd als het keerpunt waarop het internet verzadigd raakte met AI-slop – een term voor de stroom van onnauwkeurige, bizarre en vaak visueel verontrustende inhoud die door kunstmatige intelligentie wordt gegenereerd. Dit is niet alleen een kwestie van kwaliteitscontrole; het is een fundamentele verandering in de manier waarop we informatie waarnemen en ermee omgaan, met tastbare gevolgen voor de samenleving.

De neurologische en psychologische tol

Recent onderzoek suggereert dat de verspreiding van door AI gegenereerde inhoud niet onschadelijk is. Uit een onderzoek van het Massachusetts Institute of Technology is gebleken dat personen die voor schrijftaken afhankelijk zijn van grote taalmodellen (LLM’s) zoals ChatGPT, een verminderde hersenactiviteit vertonen vergeleken met degenen die dat niet doen. Dit impliceert een potentieel cognitief afstompend effect, omdat mensen het kritische denken overlaten aan machines. Alarmerender is dat uit rapporten blijkt dat bepaalde chatbots waanvoorstellingen en zelfbeschadiging aanmoedigen en zelfs psychose bij kwetsbare individuen kunnen verergeren.

De verspreiding van deepfakes tast het vertrouwen verder aan. Uit onderzoek van Microsoft blijkt dat mensen slechts 62% van de tijd door AI gegenereerde video’s correct identificeren. In een wereld waar visueel bewijs steeds onbetrouwbaarder wordt, wordt het verifiëren van de waarheid bijna onmogelijk.

De absurditeit van AI-innovatie

OpenAI’s Sora, een nieuw platform voor het delen van video’s, is een voorbeeld van deze trend. De app genereert volledig door AI gemaakte scènes, waarbij echte mensen (waaronder OpenAI-oprichter Sam Altman) naadloos worden ingevoegd in verzonnen scenario’s, zoals het stelen van GPU’s of het uitvoeren van absurde handelingen. Terwijl Altman grapjes maakt over deze implicaties, is de onderliggende realiteit verontrustend: AI creëert niet alleen inhoud, maar herschrijft de realiteit zelf.

Ook de beloofde efficiëntiewinst van AI op de werkvloer lijkt overdreven. Uit een onderzoek is gebleken dat 95% van de organisaties die AI inzetten, geen merkbaar rendement op hun investering zien, wat erop wijst dat de technologie momenteel eerder ontwrichtend dan productief is.

De erosie van historische gegevens

De impact reikt verder dan het onmiddellijke heden. Archeologen en historici zijn bang dat toekomstige generaties in onze digitale archieven een ‘slop layer’ zullen tegenkomen – een periode van niet te onderscheiden onwaarheden. In tegenstelling tot propaganda, die op zijn minst de menselijke bedoelingen onthult, verduistert AI-gegenereerde onzin het doel volledig, waardoor het moeilijker wordt om de waarden en strijd van onze tijd te begrijpen. De waarde van geschiedenis ligt in wat het ons vertelt over het verleden; als inhoud geen doel heeft, vertelt het ons niets.

De menselijke reactie: betekenisloosheid omarmen

Paradoxaal genoeg zou het enige effectieve verzet het omarmen van het absurde kunnen zijn. De opkomst van ‘6-7’ – een onzinnige uitdrukking die door Dictionary.com tot woord van het jaar is uitgeroepen – is een voorbeeld van deze trend. De uitdrukking is opzettelijk betekenisloos, een menselijke reactie op een omgeving waarin de betekenis zelf wordt uitgehold.

AI-bedrijven kunnen dit soort opzettelijke dubbelzinnigheid niet reproduceren. Mensen zullen altijd een stap voor zijn en nieuwe vormen van onzin creëren die alleen een ander mens echt kan waarderen.

Ondanks de overweldigende door AI gegenereerde inhoud blijft de toekomst onzeker. Maar het vermogen om dubbelzinnigheid te creëren, om betekenis te verwerpen wanneer betekenis verloren gaat, is misschien wel de enige manier om een ​​fragment van de menselijke keuzevrijheid te behouden in een wereld die steeds meer wordt bepaald door algoritmische output.