Mostra sommario Nascondi sommario
La domanda se l’AGI sia già tra noi continua a dominare i titoli, ma rischia di far perdere il punto: il dibattito urgente oggi riguarda la qualità della conoscenza che i modelli generativi immettono nel discorso pubblico. Questo è cruciale perché decisioni economiche, scelte professionali e la fiducia nei servizi digitali dipendono dalla capacità di distinguere tra testo convincente e informazione affidabile.
Il test di Turing non risponde più
Il test ideato da Alan Turing valutava la capacità di una macchina di emulare il comportamento conversazionale umano. Era utile come filtro concettuale, ma non esplora i processi sottostanti che generano quel comportamento. Oggi, con modelli conversazionali che parlano in modo sempre più naturale, il superamento formale di quel criterio non implica che la macchina abbia compreso o che condivida i requisiti di responsabilità che caratterizzano il pensiero umano.
ZuckBot: Zuckerberg sperimenta un assistente AI per snellire la gestione di Meta
Account WhatsApp: proteggi subito il tuo profilo dallo smartphone
Già negli anni Sessanta programmi semplici arrivavano a dare l’impressione di comprensione solo grazie a regole superficiali. La situazione è diventata più sofisticata, ma il rischio resta: confondere la capacità di produrre frasi fluenti con la capacità di formulare giudizi informati.
Prestazioni misurate, conoscenza non garantita
La ricerca più recente — compresa una pubblicazione su PNAS e un lavoro teorico sul divario epistemologico tra umani e sistemi artificiali — mostra che i modelli linguistici ottengono spesso risposte simili a quelle umane, pur arrivandoci con meccanismi molto diversi. Mentre le persone modulano il loro giudizio tenendo conto dell’incertezza, dei costi dell’errore e della necessità di rivedere le proprie convinzioni, i modelli tendono a completare il discorso con la continuazione statisticamente più probabile.
Questo significa che la **fluenza linguistica** può mascherare l’assenza di processi epistemici fondamentali: non c’è formazione di credenze, controllo del mondo esterno o aggiornamento sistematico delle convinzioni alla luce di nuove evidenze. In pratica, si producono risposte plausibili senza che sussistano le condizioni che rendono una risposta conoscenza.
Il punto non è negare i progressi tecnici: i modelli sono strumenti potenti per automatizzare testi e compiti. La questione è decidere fino a che punto delegare responsabilità quando l’affidabilità epistemica è incerta.
Perché conta ora
Le aziende e le istituzioni stanno investendo massicciamente sui Large Language Models perché immaginano un ritorno economico basato sulla delega di compiti decisionali e di comunicazione. Ma la delega presuppone fiducia: e la fiducia si costruisce se si può dimostrare che un sistema non solo produce risposte coerenti, ma sa anche riconoscere i propri limiti e spiegare quando non è in grado di fornire una risposta affidabile.
Quando la plausibilità statistica sostituisce la valutazione critica, aumentano i pericoli di errori non evidenti: informazioni imprecise veicolate con tono sicuro, decisioni automatizzate su basi fragili, e una diluizione della responsabilità umana nelle catene decisionali.
Oltre la retorica: nuove pratiche per sapere chi fidare
Il dibattito pubblico tende a moltiplicare etichette e promesse senza radicarle in controlli empirici robusti. Questo favorisce interpretazioni autoreferenziali e narrazioni che poco hanno a che fare con i limiti tecnici reali dei sistemi. Rischiamo di sostituire l’analisi rigorosa con slogan e mitologie tecnologiche.
Per invertire questa tendenza serviranno strumenti valutativi più rigorosi, metriche che vadano oltre i benchmark chiusi e protocolli che misurino la capacità di un sistema di riconoscere incertezze, fornire garanzie e permettere verifiche indipendenti. In altre parole, più rigore e meno “apparenza” performativa.
Non è neanche questione esclusiva delle scienze dure: le discipline umanistiche e sociali hanno un ruolo nel riformulare gli standard della responsabilità epistemica, ma questo richiede impegno concreto, non slogan sul ritorno al pensiero critico.
Alla fine, la vera linea di frattura non è tra chi crede o non crede nell’intelligenza artificiale, ma tra chi scambia la capacità di imitare il linguaggio con la capacità di produrre conoscenza affidabile e chi vuole ricostruire regole e pratiche per misurare e tutelare quella conoscenza. Quando questa distinzione diventerà parte integrante del dibattito tecnico, politico ed economico, la discussione sull’AI si sposterà da una gara di prestazioni a una riflessione seria su come si crea, condivide e difende ciò che chiamiamo sapere.
Walter Quattrociocchi, Professore ordinario di Informatica, Università La Sapienza di Roma












