Cerca e trova immobili
Stati Uniti
Anthropic fa causa al Pentagono dopo la controversia sull'IA
© Funtap
© Funtap
Ats
3 ore fa
Il Dipartimento della difesa ha dichiarato che l'azienda californiana «è un rischio per la catena di fornitura americana»

La battaglia per l'uso dell'intelligenza artificiale (IA) nell'esercito statunitense si infuoca. Dopo lo strappo sul contratto, l'azienda californiana di IA Anthropic fa causa al Pentagono per averla etichettata come «rischio per la catena di approvvigionamento» americana, di fatto limitandone l'uso nelle agenzie federali.

Nell'azione legale la startup guidata dall'italoamericano Dario Amodei ha denunciato come illegale la designazione del Pentagono, definendo la decisione del Dipartimento della difesa come una violazione della libertà di parola e una punizione per motivi ideologici.

«Azioni senza precedenti»

«Queste azioni sono senza precedenti e illegali. La costituzione non consente al governo di esercitare il suo enorme potere per punire un'azienda per la libertà di parola», ha indicato Anthropic spiegando che l'azione legale «è un passo necessario per proteggere le nostre attività, i nostri clienti e i nostri partner. Continueremo a perseguire ogni strada per una soluzione, anche il dialogo con il governo». L'azienda ha infatti precisato che l'azione legale - le cause avanzate sono state due in due diversi Stati - non preclude una possibile riapertura delle trattative e il raggiungimento di un eventuale patteggiamento.

Un nuovo capitolo

La battaglia legale apre un nuovo capitolo nel contenzioso fra Anthropic e il Pentagono. Il mese scorso si erano scontrati durante le trattative per un contratto da 200 milioni di dollari (156 milioni di franchi al cambio attuale) per la fornitura al Dipartimento della difesa della tecnologia di IA per i suoi sistemi classificati. Claude, il modello di Anthropic, è ritenuto quello migliore e più efficiente per il Pentagono che, secondo indiscrezioni, lo sta usando anche nella guerra in Iran. Nel corso delle trattative il segretario della difesa Pete Hegseth ha chiesto la possibilità di usare senza alcuna restrizione e limite la tecnologia di Anthropic, scontrandosi però con l'opposizione in nome dei «valori democratici» della società di Amodei.

Braccio di ferro e rottura

La startup ha infatti posto come paletti il divieto dell'uso della sua tecnologia per la sorveglianza di massa degli americani e per lo sviluppo di armi autonome, ovvero in grado di colpire senza l'intervento umano. Il braccio di ferro è andato avanti alcune settimane, poi c'è stata la rottura: il Pentagono ha bollato Anthropic come un «rischio alle forniture americane» e ha stretto un accordo con la rivale OpenAI, alimentando la rivalità fra Amodei e Sam Altman, i due volti della rivoluzione dell'IA.

La presa di posizione di Anthropic è piaciuta ai dipendenti delle grandi aziende della Silicon Valley, che da tempo chiedono ai loro leader di affrontare l'amministrazione del presidente Donald Trump, ma anche al grande pubblico. Claude è infatti ora una delle app più scaricate degli Stati Uniti, mentre è in corso una fuga degli utenti da ChatGPT (di OpenAI).

Problemi anche per OpenAI

La decisione di Altman di accordarsi con il Pentagono sta creando problemi anche all'interno di OpenAI. Una delle sue più importanti ricercatrici ha infatti lasciato dopo l'intesa. «Non è stata una decisione facile», ha ammesso Caitlin Kalinowski, ex responsabile della divisione robotica di OpenAI. «L'intelligenza artificiale ha un ruolo importante nella sicurezza nazionale ma la sorveglianza degli americani senza supervisione di un giudice e lo sviluppo di armi autonome, ovvero in grado di colpire senza l'intervento umano, meritavano una riflessione maggiore rispetto a quello che abbiamo avuto», ha aggiunto. Parole dure che alimentano l'acceso dibattito sull'IA e sul suo utilizzo, visto il significativo impatto che potrebbe avere sulla società.