Anthropic rifiuta richieste militari del Pentagono: Amodei dice che l’AI minaccia i valori

Scade oggi l’ultimatum del Pentagono ad Anthropic: la scelta del dipartimento potrebbe determinare la fine del contratto da 200 milioni di dollari o portare addirittura all’esproprio del chatbot Claude. In gioco non ci sono solo soldi, ma questioni di libertà civili, responsabilità in conflitto e la governance delle intelligenze artificiali più avanzate.

La risposta ufficiale dell’azienda guidata da Dario Amodei è arrivata netta e senza compromessi: Anthropic riconosce l’utilità dell’IA in operazioni di intelligence all’estero, ma rifiuta che i suoi sistemi vengano impiegati per applicazioni che possano ledere diritti fondamentali sul suolo nazionale.

Sorveglianza e profili digitali

L’azienda sottolinea un rischio tecnico e civico: sistemi come Claude possono aggregare elementi apparentemente innocui della vita quotidiana in un quadro molto più invasivo, favorendo la creazione automatica di un vero e proprio **identikit** quando i dati vengono raccolti su larga scala. Per Anthropic, l’uso dell’IA per la sorveglianza di massa sul territorio interno è incompatibile con i principi democratici.

Non è una posizione solo teorica. Nel documento pubblicato dall’azienda si fa esplicito riferimento alla necessità di preservare limiti d’uso e garanzie, anche quando il committente è il governo federale statunitense.

Armi e automazione: limiti tecnici e morali

Un altro punto centrale è l’uso dell’IA in ambito bellico. Anthropic ammette che l’IA può supportare missioni difensive legittime, ma mette in guardia contro la dipendenza da sistemi completamente autonomi: la valutazione umana e il giudizio critico, sostiene l’azienda, restano insostituibili nei contesti di combattimento.

Richiami scientifici accompagnano l’affermazione: studi accademici recenti, incluso uno del King’s College di Londra, suggeriscono che gli attuali modelli conversazionali non posseggono la sensibilità necessaria in scenari militari e, in alcuni casi, possono produrre risposte eccessive o irresponsabili.

Anthropic chiarisce inoltre che non fornirà consapevolmente tecnologie che possano mettere a rischio soldati o civili.

Una posizione di principio

La società si è presentata come un attore guidato da vincoli etici: nei mesi precedenti ha rifiutato opportunità commerciali per impedire la fornitura del suo modello ad organizzazioni riconducibili all’apparato militare cinese, rinunciando così a ricavi significativi.

La posta in gioco oggi

Se il responsabile del dipartimento, Pete Hegseth, non otterrà le “garanzie” richieste, il governo ha due strade: rescindere il contratto o procedere con misure più drastiche, fino alla requisizione dei sistemi coinvolti. Secondo Axios, il Pentagono ha già avviato verifiche sul ruolo di Anthropic nelle catene di fornitura di grandi appaltatori come Boeing e Lockheed Martin, passo preliminare per dichiarare l’azienda un possibile rischio per la catena di approvvigionamento.

Per lettori e osservatori le conseguenze sono concrete: politiche industriali della difesa che potrebbero orientarsi verso fornitori più controllabili, aziende tecnologiche costrette a definire limiti d’uso più rigidi, e un dibattito pubblico sulla bilancia tra sicurezza nazionale e diritti individuali che rischia di accelerare nei prossimi giorni.

Cosa seguire nelle prossime ore

Il termine dell’ultimatum è l’inizio di una fase decisiva. Attenzione alle mosse del Pentagono, alla reazione degli appaltatori della difesa e agli eventuali interventi del Congresso. Se la situazione dovesse degenerare, il caso Anthropic potrebbe diventare un precedente significativo su come Stati e imprese regolano l’accesso all’IA avanzata in settori sensibili.

Resta da vedere se troveranno spazio mediazioni tecniche e giuridiche che preservino sia gli interessi della sicurezza nazionale sia le garanzie civili invocate dall’azienda.

Categorie IA

Dai il tuo feedback

Sii il primo a votare questo post
o lascia una recensione dettagliata



AmicoGeek è un media indipendente. Sostienici aggiungendoci ai preferiti di Google News:

Pubblica un commento

Pubblica un commento