Anthropic avvia causa contro il Pentagono: accusa esclusione illegittima e censura

Mostra sommario Nascondi sommario

Anthropic ha reagito per vie legali dopo essere stata inserita dal Pentagono nella lista delle aziende considerate un rischio per la catena di approvvigionamento, una decisione che ha interrotto un contratto di fornitura da circa 200 milioni di dollari. La battaglia giudiziaria mette in gioco non solo il futuro del chatbot Claude, ma anche il confine tra sicurezza nazionale, libertà di parola aziendale e la collaborazione tra industria e difesa.

I contenziosi avviati

Lunedì la società con sede a San Francisco ha depositato due cause: una presso una corte federale della California e l’altra davanti alla Corte d’Appello federale di Washington D.C. Secondo Anthropic, la designazione del Dipartimento della Difesa sarebbe illegittima e motivata da ragioni ideologiche piuttosto che da valutazioni tecniche o di sicurezza obiettive.

Nel ricorso l’azienda sostiene che il governo abbia utilizzato il suo potere in modo punitivo, violando protezioni costituzionali relative alla libertà di espressione. Anthropic afferma inoltre di aver chiesto rassicurazioni sul divieto di impieghi quali la sorveglianza di massa e l’uso di sistemi d’arma completamente autonomi, timori che hanno alimentato la controversia sulle possibili applicazioni militari del suo modello.

Un possibile ordine esecutivo e il contesto politico

Secondo quanto riportato da Axios, l’Amministrazione starebbe valutando un ordine esecutivo per impedire alle agenzie federali di continuare a utilizzare Claude. Se confermato, si tratterebbe di un intervento straordinario con effetti immediati sulla fornitura tecnologica del governo.

La decisione del Pentagono è particolarmente rilevante perché, come sottolinea Anthropic, rappresenta il primo caso noto in cui una società americana viene inserita in questo tipo di lista d’allerta: una mossa che potrebbe ridisegnare le regole degli appalti pubblici per le tecnologie avanzate.

Il sostegno di dipendenti di aziende rivali

Nonostante le tensioni, Anthropic non è rimasta senza alleati. Più di 30 dipendenti di OpenAI e Google DeepMind hanno firmato un documento inviato al tribunale a sostegno della società: un amicus brief che contesta la validità dell’etichettatura governativa.

Tra i firmatari figura Jeff Dean, capo scienziato di Google DeepMind. Nella lettera si legge che l’uso della designazione contro una delle principali aziende del settore costituirebbe «un uso improprio e arbitrario del potere» e che, se confermata, questa iniziativa avrebbe «conseguenze sulla competitività industriale e scientifica degli Stati Uniti» nel campo dell’intelligenza artificiale.

Il contesto è aggravato dal fatto che, subito dopo il divieto su Claude, OpenAI ha firmato con il Dipartimento della Difesa un accordo simile a quello che era stato programmato con Anthropic, alimentando sospetti su criteri di preferenza e sulle dinamiche di potere tra aziende e istituzioni.

Perché la vicenda conta oggi

La disputa non riguarda solo una singola commessa: il processo potenzialmente apre un precedente su come il governo federale può regolare l’accesso alle sue reti e ai suoi appalti per le tecnologie di intelligenza artificiale. Le decisioni che usciranno da questa causa potrebbero influenzare investimenti, partnership pubblico-private e la libertà con cui le aziende possono esprimere posizioni pubbliche senza timore di ritorsioni amministrative.

Anthropic parla di azione «necessaria» per difendere il proprio operato e annuncia che intende esplorare «ogni rimedio possibile», incluso il mantenimento del dialogo con le autorità. Nel frattempo, osservatori del settore seguiranno con attenzione l’esito delle udienze: la posta in gioco riguarda la regolazione futura dell’innovazione e i confini del controllo governativo sulle tecnologie emergenti.

Categorie IA

Dai il tuo feedback

Sii il primo a votare questo post
o lascia una recensione dettagliata



AmicoGeek è un media indipendente. Sostienici aggiungendoci ai preferiti di Google News:

Pubblica un commento

Pubblica un commento