Accedi
Commenti 3

Matteo Quadranti - I principi di Asilomar per l'Intelligenza Artificiale

Oggi tutti parlano di robotica, intelligenza artificiale (AI). Non era così quando già 4 anni orsono proposi di lanciare un dibattito pubblico anche in Ticino su queste questioni. Troppo concentrati sui posti di lavoro occupati dai “non-nostri” per vedere i posti di lavoro verranno persi con le tecnologie e quali nuovi mestieri dovremo invece spingere. Conoscere per deliberare è il motto liberale. Quindi inutile nascondere la realtà dell’evoluzione sopra descritta o tacciare chi la sollevò di apocalittico e pessimista. Meglio è sapere, per reagire e affrontare il futuro in tempo. Per sopravvivere nell’economia del futuro, dobbiamo essere complementari (e non alternativi) rispetto alle macchine e unici rispetto agli altri umani. L’automazione può far leva sulla sua velocità e precisione per soppiantare di nuovo il lavoro umano. Dobbiamo concentrarci sulle nostre competenze non uniformabili e non su attività codificabili. Nel ‘900, con l’avvento della tecnologia di produzione di massa molti artigiani, seppure esperti, sono stati sostituiti dalla combinazione di macchine e manodopera meno qualificata. Con l’intelligenza artificiale sono a rischio tanti posti di lavoro qualificati. Computer e internet mettono sotto pressione le occupazioni cognitive di routine, che sono sostituite con le nuove tecnologie. Il nuovo lavoro cognitivo richiede alte competenze che verranno sfruttate da poche aziende in grado di impiegare le rare intelligenze per dominare sul piano mondiale. Questo lavoro accrescerà le nostre diseguaglianze, poiché l’aumento della domanda verso attività più qualificate ne aumenta anche la retribuzione. Non tutti potranno aspirare a alle attività più remunerate. Non si può realizzare questo percorso perché bisogna avere forti conoscenze tecniche di base per poter poi imparare. Le macchine ora imparano osservando il comportamento umano e, con piccoli feedback manuali, si migliorano da sole. Sono loro i nuovi apprendisti. Ci rimane l’ultima parte umana, ossia insegnare alle macchine. Il progresso tecnologico è ineluttabile, ma le conseguenze, potenzialmente molto positive, sono ancora nelle nostre mani. Tutto dipenderà dalle politiche che stiamo mettendo in campo oggi. Politiche miranti alla formazione e gestione degli impatti nel mercato del lavoro, che non prendono la scorciatoia populista. Nella vicina UE avanzano nuove norme sul diritto civile dei robot per disciplinare l'ascesa di robot e intelligenza artificiale in Europa, soprattutto in ambiti delicati quali la responsabilità civile delle macchine: eventualmente, chi (programmatore, produttore e venditore) risponde, dei danni causati da un robot che ha imparato da solo a svolgere e sviluppare le sue missioni? Ci vorrà una RC oggettiva come per le automobili? La richiesta legislativa insiste su alcuni pilastri: la creazione di uno status giuridico per i robot come «persone elettroniche» responsabili civilmente e penalmente delle proprie azioni; una vigilanza continuativa delle conseguenze sul mercato del lavoro e gli investimenti necessari per evitare una crisi occupazionale; un codice etico per gli ingegneri che si occupano della realizzazione di robot. Sul fronte caldo del mercato del lavoro, l’UE stima 825mila posti di lavoro vacanti nella «economia robotica» entro il 2020, c'è chi ribadisce – come il World economic forum (Wef) – che l'automazione rischia di cancellare intere categorie lavorative e provocare milioni di esuberi. Da qui la necessità di sviluppare competenze digitali in tutte le fasce di età e a prescindere dalla posizione lavorativa e di incentivi ad hoc per Pmi e startup che spingono sulle nuove occupazioni nel settore. Sul fronte dei diritti doveri, la risoluzione propone una «Carta robotica»: un codice deontologico per gli ingegneri robotici, un codice per i comitati etici di ricerca e specifiche licenze per i progettisti, con garanzie di sicurezza per gli utenti e la tutela della privacy fin dalla progettazione del robot a protezione e gestione delle informazioni private acquisite in automatico.

L’intelligenza artificiale sta cambiando il mondo in modo impattante, ma ci sono alcuni pericoli. Ecco perché Elon Musk (CEO di Tesla), Stephen Hawking (astrofisico) e altri 2335 ricercatori ed esperti, sotto l’egida del neocostituito Istituto Future of Life, hanno approvato un cyber-manifesto di 23 “Principi di Asilomar”. Asilomar è la località californiana in cui a gennaio 2017 si è tenuta una conferenza i cui esiti sono stati raccolti nel best seller “Life 3.0: being human in the Age of Artificial Intelligence” di Max Tegmark, professore al MIT di Boston. Tegmark affronta le visioni pessimiste per sognare “scientificamente”, in un arco di tempo lunghissimo, i possibili scenari positivi dell’umanità, tra cui una probabile, seppur non certa, super-intelligenza collettiva che ci aiuterà a vivere meglio. Ma il lieto fine non è garantito: oggi c’è una vorticosa e caotica corsa a creare programmi, prodotti, ambienti plasmati con la potenza di calcolo dell’AI ma non indirizzati con chiarezza al bene comune o a una visione positiva, per proteggere e rilanciare la nostra umanità in una chiave, appunto, umanista. Lo scopo di Future of Life è creare un network globale di studiosi e opinion maker che concorrano attivamente a creare progetti e a influenzare applicazioni di A.I. nel segno di un umanesimo in cui la tecnologia aiuti a vivere meglio e non a far perdere posti di lavoro, o a creare armi distruttive di nuova generazione.

I 23 Principi si suddividono in tre aree: Ricerca – Etica e valori – Problemi di scenario. I principi che interessano l’etica sono la maggior parte e riguardano privacy, democrazia, responsabilità, trasparenza, sicurezza, libertà e condivisione del benessere. I Principi sono quindi tesi sul futuro del mondo e dell’umanità.

In allegato: i 23 principi

Matteo Quadranti
Gran Consigliere

Redazione | 4 nov 2017 09:55

Vuoi dire la tua sull'argomento? Clicca 'Commenti'