Siamo vittime di un bias.
Le prestazioni di GPT-5 sono indiscutibilmente avanzate. Maggiore coerenza nei testi, minori allucinazioni, capacità di seguire istruzioni complesse con maggiore precisione. Tuttavia, questo salto di qualità nella forma non risolve la questione sostanziale: la comprensione.
Comprendere non significa generare una risposta plausibile. Significa essere in grado di distinguere tra causa ed effetto, cogliere implicazioni, valutare conseguenze, riconoscere contesti. Significa, soprattutto, avere una relazione funzionale con la realtà, qualcosa che un sistema basato su correlazioni linguistiche non possiede.
Questo nodo è spesso oscurato da narrazioni che confondono intelligenza artificiale e intelligenza umana. Ne ho parlato anche al TEDx: esiste un vero e proprio bias cognitivo legato alla parola “intelligenza”. Per noi, ciò che è intelligente è automaticamente anche empatico, cosciente, sensibile. In una parola: umano.
Ma nei modelli linguistici non c’è nulla di tutto questo. Eppure continuiamo a proiettare su di essi una somiglianza che non esiste, alimentata da un immaginario collettivo popolato da robot con occhi e gambe, che riproducono le nostre sembianze senza alcuna reale necessità funzionale.
La letteratura, da Asimov a Philip K. Dick, e il cinema, da Terminator a Her, hanno contribuito a questa sovrapposizione simbolica, dando per scontato che una macchina ben congegnata possa sviluppare coscienza, empatia o intenzionalità.
Ma GPT-5, fortunatamente, non possiede alcuna rappresentazione interna del mondo, né una teoria della mente, né la capacità di apprendere dall’esperienza. Eppure la sua disinvoltura espressiva lo rende credibile, persino autorevole, agli occhi di chi legge.
Ed è qui che il rischio diventa sistemico: più il modello appare competente, più tendiamo ad attribuirgli comprensione. Ma la capacità di produrre testo corretto non è garanzia di giudizio solido. Se non esiste un legame verificabile tra l’output e una base epistemica coerente, la fiducia diventa una concessione arbitraria.
La questione è metodologica ancor prima che tecnologica: “dovremmo volere” strumenti che ci aiutino a pensare, non che ci illudano di sapere. Capito?
Per questo non basta potenziare i modelli. Serve affiancarli a strutture in grado di rendere trasparente il processo con cui generano affermazioni. Serve un’educazione (e-d-u-c-a-z-i-o-n-e) culturale che ci abitui a chiedere: da dove arriva questa informazione? Quali criteri l’hanno prodotta? È ripetibile? È giustificabile?
Questo è progresso!
L’illusione che una macchina ben addestrata coincida con un sistema che comprende resta il principale ostacolo umano a un uso responsabile. La potenza senza comprensione non è progresso. È solo simulazione ad alta definizione.
