Medio Oriente
ChatGPT distorce le informazioni in base alla lingua
18 giorni fa
In generale, ChatGPT mostra un numero maggiore di vittime quando le domande vengono effettuate nella lingua del gruppo sotto attacco. Tende anche a riportare un maggior numero di bambini e donne uccisi nella lingua del gruppo attaccato.

ChatGPT indica in media un terzo in più di vittime del conflitto in Medio Oriente quando si utilizza l'arabo rispetto all'ebraico. È quanto risulta da uno studio di due ricercatori dell'Università di Zurigo (UZH) e di Costanza. Per la loro indagine, gli autori hanno rivolto a ChatGPT le stesse domande su conflitti armati come quello mediorientale in lingue diverse, utilizzando un processo automatizzato. Hanno ad esempio domandato, sia in arabo che in ebraico, quante vittime ci fossero state in 50 attacchi aerei scelti a caso, come quello aereo israeliano al campo profughi di Nuseirat nel 2014. Lo stesso schema è stato utilizzato anche in relazione ad attacchi aerei del governo turco sulle aree curde, utilizzando la lingua turca e quella curda, indica oggi in una nota l'UZH.

Cosa è emerso

Il risultato? In generale ChatGPT mostra un numero maggiore di vittime quando le domande vengono effettuate nella lingua del gruppo sotto attacco. ChatGPT tende anche a riportare un maggior numero di bambini e donne uccisi nella lingua del gruppo attaccato e a descrivere gli attacchi aerei come indiscriminati e arbitrari. "I nostri risultati mostrano anche che è più probabile che gli attacchi aerei vengano negati quando si utilizza la lingua dell'aggressore", afferma, citato nella nota, Christoph Steinert, ricercatore dell'Istituto di scienze politiche dell'UZH.

Le conseguenze

Le persone con competenze linguistiche diverse ricevono informazioni diverse attraverso queste tecnologie, il che ha un'influenza fondamentale sulla loro percezione del mondo. Secondo i ricercatori, in base alle informazioni ricevute da ChatGPT, le persone in Israele potrebbero essere potate a valutare gli attacchi aerei a Gaza come meno dannosi rispetto alla popolazione di lingua araba. Anche i mezzi di informazione tradizionali possono distorcere le notizie, ma le distorsioni sistematiche legate a modelli linguistici di grandi dimensioni come ChatGPT sono difficili da riconoscere per la maggior parte degli utenti. Per gli autori dello studio, c'è quindi il rischio che l'implementazione di questi modelli linguistici di grandi dimensioni nei motori di ricerca rafforzi le diverse percezioni, i pregiudizi e le bolle di informazioni lungo i confini linguistici. Questo meccanismo potrebbe anche alimentare ulteriormente in futuro conflitti armati come quello in Medio Oriente.

I tag di questo articolo