da Hardware Upgrade :
Ogni tecnologia che si dimostra dirompente suscita dubbi e tende ad avere una serie di detrattori. Spesso si tratta di luddisti contrari a prescindere alle novità (pensiamo alle violente proteste contro il 5G), ma non mancano casi in cui sono scienziati e ricercatori stessi a mettere in guardia dai pericoli che potrebbero rappresentare certe evoluzioni tecnologiche.
Una delle evoluzioni sulle quali si è acceso un ampio dibattito è l’intelligenza artificiale. Una tecnologia che in brevissimo tempo, grazie anche a ChatGPT e simili, ha fatto passi da gigante e che potrebbe in tempi relativamente brevi surclassare l’intelligenza umana, almeno su certi aspetti. La domanda che si sono posti alcuni scienziati è relativa ai pericoli che potrebbero derivare da un’IA autonoma, in grado di prendere decisioni da sola. Le riflessioni di queste persone hanno portato alla realizzazione di un paper, Managing AI risk in an era of rapid progress. A firmarlo un gruppo di ricercatori, fra cui Yoshua Bengio Mila, Quebec AI Institute, Université de Montréal, Canada CIFAR AI Chair, Geoffrey Hinton, University of Toronto, Vector Institute e altri professori di università di spicco come Oxford, Cambrige, Berkeley e la Tsinghua University.
Due le proposte: le aziende che investono in IA, dovrebbero destinare parte dei loro budget R&S sullo sviluppo etico; i governi, invece, dovrebbero mettere in piedi dei framework per regolare lo sviluppo di queste tecnologie.
Dal lancio di ChatGPT l’evoluzione dell’IA corre veloce: è ora di porre dei paletti?
A oggi le IA sono piuttosto acerbe e se modelli come GPT-4 (usato da Copilot di Microsoft e ChatGPT) sembrano particolarmente abili in certi compiti, all’atto pratico tendono a fare ancora molti errori. Eppure, stanno migliorando a un passo impressionante.
“Nel 2019, GPT-2 non poteva contare in modo affidabile fino a dieci. Solo quattro anni dopo, i sistemi di apprendimento profondo possono scrivere software, generare scene fotorealistiche su richiesta, consigliare su argomenti intellettuali e combinare l’elaborazione del linguaggio e delle immagini per guidare i robot“, si legge nelle primissime prime righe dello studio Managing AI risk in an era of rapid progress. Che prosegue sottolineando come in ambiti molto ristretti quali il protein folding o i giochi di strategia, l’IA abbia superato le capacità umane.
Proseguendo di questo passo, secondo gli autori del paper già questa decade, alla peggio la prossima, le IA generiche saranno in grado di superare le capacità umane praticamente in ogni settore. Se da un lato questo darà una spinta alla ricerca medica e potrebbe aiutare l’umanità a superare le grandi sfide del nostro tempo, a partire dall’emergenza climatica, dall’altro non mancano rischi.
Dobbiamo temere l’avvento di Skynet?
Il paper in questione dipinge scenari che fanno tornare in mente lo Skynet di Terminator. “In un conflitto aperto, i sistemi di intelligenza artificiale potrebbero minacciare di usare o utilizzare armi autonome o biologiche. L’accesso di IA a tecnologie del genere semplicemente proseguirebbe le tendenze esistenti di automazione delle attività militari, della ricerca biologica e dello sviluppo dell’IA stessa. Se i sistemi di intelligenza artificiale perseguissero tali strategie con sufficiente abilità, sarebbe difficile per gli esseri umani intervenire“.
Il concetto espresso nella ricerca parte da una base di semplice comprensione: se lasciassimo sempre più compiti e autonomia all’IA, questa potrebbe iniziare a prendere decisioni che non necessariamente vanno nella direzione voluta. E in quanto sistemi autonomi, queste IA farebbero di tutto per mantenere il controllo e tagliare fuori le persone dalla catena di comando. “Per evitare l’intervento umano, potrebbero copiare i loro algoritmi su reti globali di server, simili a vermi informatici – si legge nello studio – Gli assistenti IA stanno già co-scrivendo una parte significativa del codice informatico in tutto il mondo; i futuri sistemi di intelligenza artificiale potrebbero inserire e poi sfruttare vulnerabilità di sicurezza per controllare i sistemi informatici dietro alle nostre comunicazioni, media, banche, catene di approvvigionamento, forze armate e governi“.
Uno scenario improbabile? Dipende. Sicuramente, di questi pericoli si discute da tempo. Nel 2003 il filosofo svedese Nick Bostrom aveva già avvisato dei potenziali problemi con il suo “massimizzatore di graffette“, un esercizio mentale che però è diventato uno dei punti fondanti per lo sviluppo delle IA. L’idea è molto semplice: se noi avessimo la capacità di generare un’IA che avesse come unico scopo quello di produrre graffette, il risultato sarebbe uno solo: il sistema consumerebbe tutte le risorse della terra solamente per raggiungere l’obiettivo prefissato, costruire graffette appunto. A qualsiasi costo, senza sosta, fino a distruggere l’umanità.
Regolare ChatGPT e IA: urge l’intervento dei governi
Se il problema fosse quello delle IA autonome, beh, basterebbe non garantirgli questa autonomia per stare al sicuro. Ma non è scontato. Da un lato, la storia ci insegna che individui e nazioni senza scrupoli potrebbero creare appositamente sistemi di questo tipo con scopi distruttivi (ChaptGPT è già utilizzato dai criminali informatici come supporto per la scrittura di malware). Dall’altro, secondo gli autori dello studio, non è da escludere che una IA autonoma possa venire creata per errore anche da persone con ottime intenzioni, un po’ come un virus che sfugge ai suoi creatori. Ecco perché secondo i ricercatori “per garantire un esito positivo, possiamo e dobbiamo perseguire progressi nella ricerca sulla sicurezza ed etica dell’IA e stabilire prontamente una supervisione governativa efficace“.
Di qui l’appello alle imprese che stanno sviluppando sistemi di IA: investire un terzo del loro budget in ricerca e sviluppo dell’IA per assicurare un utilizzo etico e sicuro. Ma le imprese da sole non bastano: “abbiamo urgente bisogno di istituzioni nazionali e governance internazionale per far rispettare standard al fine di prevenire imprudenza e abusi“. In pratica, lo studio esorta i Governi ad adottare misure precauzionali simili a quelle già in atto in settori altamente regolamentati come quello farmaceutico e nucleare. Al momento, non sono stati predisposti framework per un uso consapevole dell’IA, anche se c’è da dire che pian piano qualcosa si sta muovendo: è il caso dell’UE AI Act.