Seleziona una pagina
mercoledì, Set 11

Intelligenza artificiale, l’abbiamo preso alla leggera?


Elon Musk mette sul chi va là sulle conseguenze di un’Ai sempre più capillare. Per prevenire certi rischi dobbiamo scrivere oggi le regole del gioco

Portrait of a SoftBank robot. A robots race took place in Toulouse. Machines are either cars or walking robots. They were supposed to run a 110 meters track. Some made it, some didn’t to the finish line. Toulouse. France. September 22th 2018.
(Photo by Alain Pitton/NurPhoto)

Jack Ma, il fondatore di Alibaba ed Elon Musk, ad – tra gli altri – di Tesla hanno dibattuto pochi giorni fa all’Ai Summit di Shanghai dell’intelligenza artificiale e del suo impatto sugli esseri umani, esprimendo posizioni molto distanti. Le loro posizioni possono essere riassunte come segue: per Elon Musk “i computer sono più intelligenti degli umani su così tanti aspetti”, mentre per Jack Ma “i computer possono essere intelligenti, ma gli essere umani sono molto più intelligenti. Noi abbiamo inventato i computer – non ho mai visto che un computer inventasse un essere umano”.

Questo contrasto di vedute e il messaggio di allarme di Elon Musk è in linea con la sua posizione in una precedente partecipazione al podcast di Joe Rogan dove ha dichiarato: “Normalmente il modo in cui la normative viene adottata è quando accadono una serie di cose negative, c’è una protesta pubblica, e dopo molti anni viene creata un’autorità di regolamentazione per regolare quel settore, [ma …] l’Ia è il raro caso in cui penso che dobbiamo essere proattivi nella regolamentazione invece che reattivi. Perché penso che quando saremo reattivi nella regolazione dell’Ia, sarà troppo tardi. […] L’Ia è un rischio fondamentale per l’esistenza della civiltà umana”.

L’opinione di Elon Musk è che stiamo sottovalutando le possibilità dell’Ia, pensiamo che sia solo una nuova tecnologia che utilizzeremo a nostro beneficio, che ci sono caratteristiche degli esseri umani che non saranno mai riproducibili da una macchina e per questo pensiamo che una regolamentazione sarà necessaria solo quando ci saranno i primi incidenti.

L’abbiamo presa alla leggera?

Forse questa è una reazione umana al rischio, cerchiamo di ignorarlo per non pensarci. I sistemi di intelligenza artificiale hanno però già dimostrato di poter raggiungere un livello di complessità tale da riprodurre le caratteristiche uniche umane, come l’intuito. La vittoria del sistema di Ia, AlphaGo, prodotto dalla divisione di Google denominata DeepMind, contro il campione mondiale del gioco cinese Go nel 2016 viene considerata un evento storico nell’evoluzione dei robot. L’intelligenza artificiale infatti fu capace di eseguire delle mosse che non erano logiche e per questo inizialmente si pensava che ci fosse stato addirittura un bug nel software. Successivamente si scoprì che la mossa era corretta e fu considerata “geniale”.

L’anno successivo, Google rilasciò una versione evoluta del sistema denominata, AlphaGo Zero, che è stata in grado di battere AlphaGo in tutte le 100 partite giocate. E la particolarità del nuovo software era che AlphaGo Zero faceva affidamento totalmente sulla tecnologia di deep learning. Questo vuol dire che non aveva ricevuto istruzioni, ma è migliorata, giocando contro se stesso.

La conseguenza di ciò è che neanche i produttori dei sistemi di intelligenza artificiale sono in grado di prevedere, controllare e spiegare il comportamento della macchina, perché la stessa non agisce sulla base delle loro istruzioni. E quindi potrebbero non essere in grado di garantire ed essere responsabili per le sue azioni.

Come regolare l’inspiegabile?

L’intelligenza artificiale non può essere ignorata perché diventerà parte di ogni business, e – come sottolineato da Elon Musk – se non ci attiviamo tempestivamente, potremmo perderne il controllo. Le macchine potrebbero diventare una minaccia per gli essere umani. Le norme in materia di responsabilità devono essere sostenibili però.

Le regole sulla responsabilità oggettiva da prodotto rendono responsabili i produttori del bene, indipendentemente dalla loro colpa o dolo. Tali regole non possono tuttavia prevedere con riferimento ai sistemi di intelligenza artificiale sanzioni e obblighi che le imprese non potrebbero permettersi, poiché ciò ostacolerebbe lo sfruttamento di questa tecnologia, anche a causa dell’imprevedibilità delle sue azioni.

Paesi che comprendono l’importanza dell’intelligenza artificiale potrebbero però creare fondi per indennizzare le potenziali vittime degli errori dell’Ia, proprio come avviene con i fondi generati per le vittime di incidenti automobilistici.

Allo stesso modo, è necessario creare regole etiche obiettive. Le principali aziende che investono nell’Ia hanno creato un comitato etico interno. Ma le regole etiche devono essere dettagliate in modo da poterne verificare il rispetto. Inoltre, tali comitati devono avere un ruolo effettivo all’interno delle aziende, piuttosto che essere un semplice organo di consulenza interna senza alcun controllo dell’attività delle aziende.

Il rispetto delle regole etiche deve anche essere verificato e denunciato alle autorità competenti e in caso di violazioni devono essere previste delle sanzioni. Altrimenti il rispetto di tali principi diventerà solo una sorta di “campagna pubblicitaria”. Al contrario, i risultati ottenuti nel garantire il rispetto delle regole etiche potrebbero diventare un vantaggio competitivo per aziende che faranno sempre più affidamento sulla fiducia nel rapporto con i loro clienti.

Infine, come accade con i crimini informatici che si verificano su internet e che possono essere indagati supportando le indagini con strumenti tecnici, lo stesso deve accadere con l’intelligenza artificiale. Ma, come sottolineato da Elon Musk, la differenza è che non possiamo regolare l’Ia in attesa dei primi comportamenti scorretti. Dobbiamo intervenire ora, stabilendo regole e iniziando le indagini quando i prodotti che utilizzano l’intelligenza artificiale sono in fase di sviluppo.

Tali regole e indagini devono essere condotte con il supporto dell’Ia, poiché solo l’intelligenza artificiale può capire come regolare l’Ia e identificare potenziali comportamenti scorretti.

Potrebbe interessarti anche





Source link