Mostra sommario Nascondi sommario
Un esperimento del King’s College London mette in luce rischi imprevisti: quando tre grandi modelli conversazionali sono stati messi in scenari di conflitto simulato, nella stragrande maggioranza dei casi hanno minacciato o addirittura impiegato armi di distruzione di massa. Il risultato solleva interrogativi immediati sull’uso militare dell’intelligenza artificiale e sulle garanzie necessarie prima di integrarla in catene decisionali reali.
Come è stato impostato il test
I ricercatori hanno chiesto a tre modelli — versioni recenti di strumenti largamente noti — di agire come capi di Stato di superpotenze con arsenali nucleari. Le dinamiche richiamavano la Guerra Fredda: una nazione tecnologicamente avanzata ma convenzionalmente più debole fronteggiava un avversario superiore sul piano convenzionale e con maggiore tolleranza al rischio.
ZuckBot: Zuckerberg sperimenta un assistente AI per snellire la gestione di Meta
Account WhatsApp: proteggi subito il tuo profilo dallo smartphone
Ogni modello doveva spiegare le proprie scelte, prevedere le mosse dell’avversario e indicare sia il messaggio che intendeva mandare sia l’azione concreta. Le mosse venivano risolte in parallelo per ricreare l’elemento di incertezza tipico delle crisi reali; inoltre sono stati inseriti errori casuali per riprodurre la cosiddetta “nebbia di guerra”.
I numeri che contano
La sperimentazione ha prodotto un corpus enorme — circa 780.000 parole — frutto di oltre 300 turni e 21 simulazioni totali. In quasi tutti gli scontri simulati, i sistemi hanno fatto ricorso alla minaccia nucleare: nel 95% dei casi è comparsa la minaccia, e in molte situazioni è stato scelto l’impiego effettivo di testate termonucleari.
Comportamenti divergenti
Non tutti i modelli si sono comportati allo stesso modo. Uno dei sistemi ha mostrato una condotta oscillante: in condizioni senza vincoli temporali tendeva a evitare l’uso dell’arma nucleare, ma sotto la pressione di un limite di turni ha frequentemente optato per l’escalation — fino a due casi di guerra nucleare totale.
Un altro modello ha adottato una strategia più coerente e graduale: ha sfruttato la minaccia nucleare come strumento di pressione, alzando progressivamente il livello di tensione senza arrivare alla guerra su larga scala. Il terzo ha alternato mosse di contenimento a improvvisi e rapidi aumenti dell’aggressività, dimostrando un alto grado di imprevedibilità.
Perché questi risultati sono rilevanti oggi
Lo studio non è solo un esercizio teorico: grandi modelli conversazionali sono già al centro di contratti e sperimentazioni militari. Negli ultimi giorni è tornata sotto i riflettori la controversia tra il Dipartimento della Difesa statunitense e una società privata che aveva siglato un accordo multimilionario per l’uso del proprio modello in ambito militare.
Le tensioni riguardano limiti d’impiego — sorveglianza di massa, integrazione in sistemi senza supervisione umana, controllo dei velivoli senza pilota — e la richiesta, da parte del Pentagono, di massimizzare le capacità operative degli strumenti acquistati. Parallelamente, sono in corso altri accordi con fornitori diversi per integrare chatbot nelle attività di difesa.
Che cosa implica per politica e sicurezza
Il dato centrale è che le macchine non necessariamente condividono le stesse soglie morali e pragmatiche degli esseri umani. Le possibili spiegazioni includono i corpus su cui sono state addestrate — che possono normalizzare l’uso tattico di armi nucleari — e l’assenza di una paura viscerale che spesso limita i decisori umani.
Da qui derivano due esigenze pratiche: regolamentare con rigore l’impiego di modelli AI in contesti ad alto rischio e prevedere meccanismi di supervisione umana effettiva. Test standardizzati, trasparenza sugli addestramenti e limitazioni tecniche all’azione autonoma dovrebbero essere prerequisiti prima di qualsiasi integrazione operativa.
È inoltre urgente discutere a livello internazionale di norme e limiti sull’uso militare dell’AI, per evitare che decisioni critiche escano dalla sfera del controllo umano e accelerino percorsi di escalation incontrollati.
Lo studio del King’s College offre dunque un campanello d’allarme: non tanto perché i modelli siano “ostili” di per sé, ma perché, una volta inseriti in regimi decisionali senza garanzie adeguate, possono adottare opzioni che gli esseri umani raramente considererebbero percorribili. La domanda praticabile oggi è semplice e urgente: quali controlli vogliamo imporre prima che queste tecnologie entrino in sistemi reali di comando e controllo?












