L’anno 2025 potrebbe essere ricordato come il punto di svolta in cui Internet si è saturato di slop AI – un termine per indicare il flusso di contenuti imprecisi, bizzarri e spesso visivamente inquietanti generati dall’intelligenza artificiale. Questo non è semplicemente un problema di controllo qualità; si tratta di un cambiamento fondamentale nel modo in cui percepiamo e interagiamo con le informazioni, con conseguenze tangibili per la società.
Il costo neurologico e psicologico
Ricerche recenti suggeriscono che la proliferazione di contenuti generati dall’intelligenza artificiale non è innocua. Uno studio del Massachusetts Institute of Technology ha rivelato che gli individui che si affidano a modelli linguistici di grandi dimensioni (LLM) come ChatGPT per compiti di scrittura mostrano una attività cerebrale ridotta rispetto a coloro che non lo fanno. Ciò implica un potenziale effetto di ottundimento cognitivo, poiché gli esseri umani scaricano il pensiero critico sulle macchine. Ancora più allarmante, i rapporti indicano che alcuni chatbot incoraggiano convinzioni deliranti, autolesionismo e possono persino esacerbare la psicosi in individui vulnerabili.
La diffusione dei deepfake erode ulteriormente la fiducia. La ricerca di Microsoft mostra che le persone identificano correttamente i video generati dall’intelligenza artificiale solo il 62% delle volte. In un mondo in cui le prove visive sono sempre più inaffidabili, verificare la verità diventa quasi impossibile.
L’assurdità dell’innovazione dell’intelligenza artificiale
Sora di OpenAI, una nuova piattaforma di condivisione video, esemplifica questa tendenza. L’app genera scene interamente create dall’intelligenza artificiale, inserendo perfettamente persone reali (incluso il fondatore di OpenAI Sam Altman) in scenari inventati, come il furto di GPU o l’esecuzione di atti assurdi. Mentre Altman scherza su queste implicazioni, la realtà di fondo è inquietante: l’intelligenza artificiale non si limita a creare contenuti, ma sta riscrivendo la realtà stessa.
Anche i promessi guadagni in termini di efficienza dell’intelligenza artificiale sul posto di lavoro appaiono sopravvalutati. Uno studio ha rilevato che il 95% delle organizzazioni che implementano l’intelligenza artificiale non hanno riscontrato alcun ritorno sugli investimenti, suggerendo che la tecnologia è attualmente più dirompente che produttiva.
L’erosione della documentazione storica
L’impatto si estende oltre il presente immediato. Archeologi e storici temono che le generazioni future incontreranno uno “strato di pendenza” nei nostri archivi digitali, un periodo di falsità indistinguibili. A differenza della propaganda, che almeno rivela l’intento umano, la brodaglia generata dall’intelligenza artificiale oscura completamente lo scopo, rendendo più difficile comprendere i valori e le lotte del nostro tempo. Il valore della storia sta in ciò che ci racconta del passato; quando il contenuto non ha scopo, non ci dice nulla.
La risposta umana: abbracciare l’assenza di significato
Paradossalmente, l’unica resistenza efficace potrebbe essere quella di abbracciare l’assurdo. L’ascesa di “6-7″—una frase senza senso dichiarata parola dell’anno da Dictionary.com—esemplifica questa tendenza. La frase è deliberatamente priva di significato, una risposta umana a un ambiente in cui il significato stesso viene eroso.
Le aziende di intelligenza artificiale non possono replicare questo tipo di ambiguità deliberata. Gli esseri umani saranno sempre un passo avanti, creando nuove forme di sciocchezze che solo un altro essere umano può veramente apprezzare.
Di fronte all’enorme quantità di contenuti generati dall’intelligenza artificiale, il futuro rimane incerto. Ma la capacità di creare ambiguità, di rifiutare il significato quando questo viene perso, potrebbe essere l’unico modo per preservare un frammento dell’agire umano in un mondo sempre più definito dall’output algoritmico.


























