Pentagono minaccia Anthropic: abilitate tutte le capacità di Claude o ne prenderemo il controllo

Mostra sommario Nascondi sommario

La pressione del Pentagono su Anthropic è diventata concreta: rischia di compromettere un contratto multimilionario e di rimodellare i rapporti tra il settore militare e le aziende di intelligenza artificiale. La posta in gioco è alta oggi perché riguarda l’accesso a sistemi che trattano file classificati e le regole sul loro impiego in contesti bellici e di sorveglianza.

Secondo quanto riportato da Axios, il dipartimento guidato da Pete Hegseth ha chiesto a fornitori chiave come Boeing Defense, Space and Security e Lockheed Martin di mappare quanto dipendono dal chatbot Claude di Anthropic. È un primo passo che potrebbe preludere a una decisione drastica: sospendere o interrompere i rapporti con l’azienda. La mossa mirerebbe a ridurre la dipendenza dell’apparato militare da quel particolare fornitore.

Il confronto ha una scadenza precisa. Fonti citate dal New York Times riferiscono che Anthropic avrebbe ricevuto un ultimatum: consentire al Pentagono un accesso senza limiti alle funzionalità del modello entro le 17:01 del 27 febbraio, altrimenti l’amministrazione potrebbe adottare contromisure. Nell’incontro a porte chiuse il rappresentante del dipartimento avrebbe ventilato anche l’uso del Defense Production Act, strumento legislativo che può obbligare aziende a cooperare oppure autorizzare l’esclusione da contratti.

Per Anthropic, guidata da Dario Amodei, il nodo è l’uso: la società ha chiesto garanzie che le tecnologie non siano impiegate per la sorveglianza interna o integrate in sistemi d’arma autonomi — per esempio droni — senza adeguata supervisione umana. In una nota ufficiale l’azienda ha dichiarato di voler proseguire la collaborazione con il governo, pur ricercando un impiego «affidabile e responsabile» dei propri modelli.

Il Pentagono ha invece sottolineato che la definizione delle modalità d’impiego legittime delle tecnologie militari è una sua prerogativa e non può essere lasciata al fornitore. Lo scontro riflette una contrapposizione più ampia: chi stabilisce i limiti d’uso quando la tecnologia può avere impatti strategici e morali?

Un precedente insolito

Usare strumenti concepiti per isolare aziende straniere — come è accaduto in passato con nomi cinesi nel quadro della sicurezza delle catene di approvvigionamento — sarebbe una novità se applicato a una società statunitense leader del settore. Inoltre il Pentagono ha già iniziato ad ampliare il ventaglio di fornitori: a gennaio è stato siglato un accordo, di importo non reso noto, con xAI per l’utilizzo di Grok, anch’esso destinato a trattare dati sensibili.

Le dichiarazioni pubbliche di Hegseth — in cui si affermava che l’«IA del Pentagono non sarà woke» — anticipano un orientamento a preferire sistemi senza vincoli che limitino applicazioni militari ritenute legittime. Per Anthropic questo orientamento confligge con la strategia aziendale che negli ultimi anni ha puntato sull’etica nello sviluppo dell’intelligenza artificiale.

Perché la vicenda conta

Se il governo dovesse forzare l’accesso o troncare i rapporti, le conseguenze sarebbero multiple: impatti immediati sulle capacità operative dell’esercito, pressioni sui grandi appaltatori della difesa per diversificare le piattaforme AI, e un precedente normativo sul ruolo dello Stato nella regolazione dell’uso militare delle intelligenze artificiali. I fornitori sondati ora dovranno valutare costi, rischi e alternative tecnologiche.

La disputa mette inoltre in luce un dilemma politico e industriale: conciliare la necessità di sicurezza nazionale con principi etici sul controllo umano e sulla limitazione dell’uso militare delle tecnologie più avanzate. Per i lettori, la questione riguarda non solo la sicurezza, ma anche la governance dell’innovazione nel settore privato.

Gli sviluppi restano rapidi: la scadenza indicata e le mosse del Pentagono nei prossimi giorni potrebbero ridefinire i rapporti tra istituzioni e aziende AI. Monitoreremo aggiornamenti e risposte ufficiali da entrambe le parti.

Categorie IA

Dai il tuo feedback

Sii il primo a votare questo post
o lascia una recensione dettagliata



AmicoGeek è un media indipendente. Sostienici aggiungendoci ai preferiti di Google News:

Pubblica un commento

Pubblica un commento