Cerca e trova immobili
IA e guerra
Trivilini: «Le IA dei nostri smartphone sono le stesse utilizzate dal Pentagono»
©Chiara Zocchetti
©Chiara Zocchetti
Redazione
4 ore fa
L’esperto di informatica forense spiega come gli stessi modelli di intelligenza artificiale usati ogni giorno da milioni di persone possano essere impiegati anche da eserciti e servizi di intelligence.

L’intelligenza artificiale ha sempre più peso, anche nei conflitti recenti. Proprio sull’uso dell’IA si è aperto in questi giorni uno scontro tra la Casa Bianca e una delle principali aziende tecnologiche del settore.

Cosa è successo

Il 28 febbraio Donald Trump ha deciso di interrompere i contratti con Anthropic, la società che sviluppa il modello di intelligenza artificiale Claude. Alla base della rottura ci sarebbe il rifiuto dell’azienda di allentare i propri termini di servizio per consentire un utilizzo più ampio del sistema in ambito militare. Una posizione che ha irritato la Casa Bianca, spingendo Trump a ordinare alle agenzie federali di non utilizzare più il modello Claude e a orientarsi invece verso sistemi sviluppati da OpenAI, come ChatGPT. La realtà operativa, però, è più complessa. Secondo quanto riportato da Axios e dal Wall Street Journal, il 1° marzo il United States Central Command avrebbe continuato a utilizzare Claude negli attacchi in Iran per analisi di intelligence, la scelta degli obiettivi da colpire e le simulazioni degli esiti delle operazioni sul campo. Il motivo è semplice: anche la più potente macchina militare del pianeta non può cambiare software dall’oggi al domani. Il processo può richiedere mesi.

«Le stesse IA che abbiamo negli smartphone»

Per capire quanto questi strumenti siano ormai centrali anche in ambito militare bisogna partire da un dato di fatto: le tecnologie utilizzate dagli eserciti sono spesso le stesse che milioni di persone usano ogni giorno sui propri smartphone. A spiegarlo è Alessandro Trivilini, esperto di informatica forense. «Nei nostri telefonini abbiamo intelligenze artificiali che usiamo per generare testi, comporre musica, fare compiti, imparare e studiare. Le stesse applicazioni, senza le limitazioni di sicurezza, vengono utilizzate anche dai servizi di intelligence, per esempio dal Pentagono». In questo modo, sottolinea Trivilini, la loro potenzialità aumenta molto. «Uno strumento come Claude consente di elaborare quasi in tempo reale scenari, fare simulazioni di situazioni reali e, soprattutto, analizzare interazioni umane. Con i dati raccolti dal Pentagono è possibile identificare persone, luoghi e oggetti con una precisione davvero elevata».

Un uso comune e uno militare

In altre parole, gli stessi modelli che utilizziamo nella vita quotidiana possono diventare strumenti strategici nelle operazioni militari. «Questo ci fa capire l’impatto dell’evoluzione digitale e la responsabilità che abbiamo nell’uso di questi strumenti, anche nei nostri smartphone. Ovviamente dobbiamo utilizzarli in modo etico, legale e sicuro, perché esistono delle restrizioni». Le agenzie di sicurezza, però, a volte «aggirano questi limiti con l’obiettivo della sicurezza nazionale». In questo modo gli strumenti assumono una potenza davvero notevole. «Ma il modello che elabora i dati è lo stesso».

Responsabilità etica

Nello scontro tra Anthropic e la Casa Bianca sembrano essere in primo piano proprio i limiti etici di questi strumenti. «La questione va collocata anche in un contesto geopolitico, culturale e tecnologico. Negli Stati Uniti le tecnologie digitali sono sempre state utilizzate anche per la sicurezza nazionale, spesso per sorvegliare la massa». Le autorità – prosegue Trivilini – possono quindi entrare negli account Instagram, Facebook, LinkedIn o nei blog se sussiste il sospetto che qualcuno stia cercando informazioni sensibili, per esempio in ambito terroristico. «In questi contesti l’etica viene interpretata in modo diverso».

Un modello svizzero

La Svizzera, anche in Ticino con il centro di calcolo, sta cercando di sviluppare un proprio modello. La sovranità digitale è la strada giusta? «Sì. Significa essere padroni dei propri dati e sapere da dove provengono quelli utilizzati per addestrare i modelli di intelligenza artificiale. Bisogna conoscere in modo trasparente tutti i passaggi della filiera, così che, in caso di violazioni della privacy o problemi di sicurezza, chi ha la responsabilità possa verificare cosa è successo. Deve essere possibile aprire la 'scatola' e dimostrare che i dati sono stati trattati nel rispetto della privacy, della dignità umana e di altri principi che nei Paesi in guerra spesso vengono messi da parte», conclude Trivilini.