Limiti del ragionamento dell’intelligenza artificiale: perché i modelli attuali non sono all’altezza dell’intelligenza umana

0
12

Ricerche recenti suggeriscono che i difetti fondamentali nell’architettura dei principali modelli di intelligenza artificiale (AI) di oggi – in particolare i modelli linguistici di grandi dimensioni (LLM) come ChatGPT, Claude e Gemini – potrebbero impedire loro di raggiungere una vera intelligenza a livello umano. Questi modelli, sebbene efficaci in compiti come la generazione di testo, sono soggetti a “fallimenti nel ragionamento” che ne minano l’affidabilità nella risoluzione di problemi complessi.

Il problema principale: previsione statistica, non pensiero

Gli LLM operano prevedendo la parola o la frase successiva più statisticamente probabile sulla base di vasti set di dati di testo. Questo approccio eccelle nei compiti linguistici ma manca di un vero ragionamento logico. I modelli non pensano ; simulano il pensiero mettendo insieme token basati su modelli appresi.

Questa distinzione è importante perché il ragionamento reale richiede un’elaborazione coerente e affidabile in più fasi, qualcosa che i LLM spesso non riescono a fornire. Ad esempio, possono contraddirsi, lottare con problemi in più fasi o produrre ripetutamente risposte identiche (errate). Questo non è un bug ma una conseguenza dell’architettura stessa.

Perché i Transformers lottano con la logica

L’architettura dominante dietro la maggior parte degli attuali LLM è la rete neurale del trasformatore. I meccanismi di autoattenzione all’interno dei trasformatori consentono loro di identificare le relazioni tra parole e concetti. Tuttavia, questi meccanismi non equivalgono alla comprensione effettiva.

I LLM possono imitare in modo convincente il ragionamento, ma spesso si basa semplicemente sull’emissione di una catena di pensiero plausibile piuttosto che sull’esecuzione di una vera deduzione logica. I ricercatori dell’Alan Turing Institute lo descrivono come “previsione del prossimo token travestita da catena di pensiero”.

Questa debolezza è evidente nel modo in cui i LLM gestiscono compiti compositivi (come la verifica di affermazioni basate su più fatti) o anche problemi di matematica di base. Spesso perdono traccia delle informazioni chiave in sequenze più lunghe, portando a guasti prevedibili.

I difetti nel modo in cui testiamo l’intelligenza artificiale

Anche gli attuali benchmark dell’IA sono problematici. Lo studio evidenzia tre criticità:

  1. Sensibilità rapida: Lievi modifiche alla formulazione di una domanda possono alterare drasticamente la risposta di un LLM.
  2. Contaminazione dei benchmark: l’uso ripetuto dei benchmark consente agli LLM di imparare come “ingannarli”.
  3. Focus sui risultati: i benchmark in genere valutano solo il risultato del ragionamento, non il processo stesso.

Queste carenze significano che gli attuali parametri di misurazione delle prestazioni dell’IA potrebbero sovrastimare le capacità del mondo reale.

Come ha osservato un ricercatore, l’implementazione stessa dell’intelligenza artificiale ora funge da banco di prova, rivelando fallimenti in modi in cui i benchmark tradizionali non vengono rilevati. Questo ciclo rafforza la necessità di metodi di valutazione migliori, ma fare affidamento sull’intelligenza artificiale per testarla rimane un problema difficile.

Oltre la scalabilità: cosa serve per una vera AGI?

La ricerca non esclude del tutto le reti neurali. Sostiene invece che il semplice aumento delle dimensioni del modello o dei dati di addestramento probabilmente raggiungerà un limite. La vera intelligenza generale artificiale (AGI) può richiedere un’innovazione architetturale.

Lo studio suggerisce che il progresso dipende da:

  • Sviluppare modelli in grado di integrare il ragionamento strutturato con l’interazione incarnata.
  • Costruire “modelli mondiali” più forti che consentano all’IA di comprendere i vincoli del mondo reale.
  • Migliorare la formazione sulla robustezza per ridurre la dipendenza dai modelli statistici.

In definitiva, i limiti degli attuali LLM suggeriscono che per raggiungere l’AGI potrebbe essere necessario ripensare radicalmente il modo in cui viene costruita l’intelligenza artificiale.

Un ricercatore ha affermato senza mezzi termini: “I trasformatori non sono il modo in cui si costruisce una mente digitale”. Sebbene siano potenti modelli linguistici, mancano dei meccanismi cognitivi sottostanti necessari per un ragionamento affidabile a livello umano. Il percorso da seguire probabilmente risiede nell’esplorazione di architetture e approcci alternativi allo sviluppo dell’intelligenza artificiale.