Intelligenza artificiale
È sempre più difficile riconoscere i contenuti creati con "deepfake"
© Shutterstock
© Shutterstock
Keystone-ats
un mese fa
I maggiori rischi legati a questa tecnologia generativa sono il furto d'identità, i danni alla reputazione, la diffusione di false notizie e la messa in scena di contenuti pornografici. Lo dimostra uno studio della Fondazione per la valutazione delle scelte tecnologiche (TA-Swiss).

È sempre più difficile riconoscere contenuti generati dall'intelligenza artificiale (IA), i cosiddetti "deepfake": lo dimostra uno studio pubblicato oggi dalla Fondazione per la valutazione delle scelte tecnologiche (TA-Swiss). "Nel corso degli anni è diventato sempre più facile creare deepfake", ha dichiarato oggi ai media a Berna Murat Karaboga dell'istituto tedesco Frauenhofer, che ha partecipato allo studio. Secondo il rapporto di 400 pagine, tra i rischi legati ai deepfake figurano il furto di identità, i danni alla reputazione, la diffusione di informazioni false e la messa in scena di contenuti pornografici senza il consenso della persona interessata.

Cos'è un "deepfake"?

Con il termine inglese di cui sopra si identificano i contenuti che, basandosi su immagini, registrazioni sonore e video reali, riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce. In un esperimento i partecipanti all'indagine non sono stati in grado di identificare in quanto tali i video generati dall'IA, nemmeno dopo aver ricevuto istruzioni su come riconoscerli con più facilità. Solo le persone che hanno una certa famigliarità con i nuovi media hanno ottenuto risultati leggermente migliori nel test. Non se la sono cavata bene nemmeno i cosiddetti "rilevatori di IA", sui quali, secondo i ricercatori, si ripongono talvolta molte speranze per il riconoscimento dei deepfake. "Siamo giunti alla conclusione che tali programmi non sono né accessibili né affidabili", ha dichiarato Karaboga.

Come smascherare un video falso?

Com'è dunque possibile smascherare i video falsi? Da un lato, esistono alcune caratteristiche di riconoscimento visivo. Ad esempio i capelli, che spesso risultano artificiali nei deepfake, o i movimenti che appaiono meccanici. Tuttavia, con il continuo miglioramento delle tecnologie basate sull'IA, prima o poi questo non sarà più possibile. "Riconoscere i contenuti falsificati richiede una certa dose di intuizione", ha commentato Karaboga. "Bisogna chiedersi. È davvero possibile che questo contenuto sia autentico?", ha aggiunto il ricercatore.

Come contrastare gli effetti dannosi?

Secondo TA-Swiss, per combattere gli effetti dannosi dei deepfake lo Stato dovrebbe imporre alle piattaforme online di cancellare tali contenuti, qualora fossero dannosi per i fruitori. Tuttavia, come ha spiegato Nula Frei dell'Università a distanza Svizzera (FernUni Schweiz), nonostante esistano alcune basi legali, a volte sono difficili da applicare, poiché le grandi piattaforme online su cui circolano i deepfake sono situate all'estero e i responsabili dei reati non possono sempre essere identificati. Come possibili soluzioni ulteriori, nel rapporto si raccomanda la creazione di centri di consulenza per le vittime, nonché una maggiore formazione del pubblico in materia e l'autoregolamentazione dell'industria delle pubbliche relazioni e della pubblicità. Anche il mondo dei media è chiamato ad agire, ad esempio grazie alla promozione di metodi di verifica forense nelle redazioni delle testate giornalistiche.

Da escludere tassativamente un divieto

Gli studiosi escludono tassativamente un divieto che si applichi a tale tecnologia. Secondo TA-Swiss, i deepfake offrono anche opportunità, come ad esempio nell'industria cinematografica, in cui essi potrebbero essere usati per il doppiaggio dei film, in quanto permetterebbero di adattare il labiale dei personaggi alla lingua in cui si decide di guardare la pellicola. La polizia e le autorità sperano inoltre che i deepfake aprano nuove possibilità nella lotta contro la criminalità, ad esempio per ricostruire le scene del crimine o la dinamica dei fatti.

Già casi di contenuti pornografici

Come dichiarato dall'Ufficio federale di polizia (fedpol) a Keystone-ATS nel mese di marzo, i video manipolati con l'intelligenza artificiale rappresentano un impegno per le forze dell'ordine che, a livello cantonale, si sono già trovate di fronte a casi in cui le persone volevano vendicarsi di un ex partner utilizzando i deepfake con contenuti pornografici. Fedpol aveva rilasciato tali informazioni dopo che la regista britannica Sophie Compton aveva affrontato la questione in un documentario intitolato "Another Body". Il film, che è stato proiettato al Festival del Cinema dei Diritti Umani di Ginevra a marzo, segue il viaggio di uno studente di ingegneria a cui sono state rubate le foto pubblicate online. "È possibile acquistare deepfake personalizzati per 30 dollari", aveva dichiarato la cineasta in un'intervista rilasciata a Keystone-ATS. TA-Swiss ha il compito di valutare l'applicazione futura delle nuove tecnologie. Insieme alle università e alle istituzioni svizzere, conduce studi sugli sviluppi tecnologici per fornire informazioni al Parlamento, al Consiglio federale, all'Amministrazione e al pubblico.