L’obiettivo della non-profit LawZero è di creare una cosiddetta Scientist AI in grado di impedire agli AI Agents (quei sistemi progettati per portare a termine i compiti che gli abbiamo assegnato in background, senza bisogno del nostro intervento) di compiere azioni nocive o contrarie ai nostri comandi. Nel caso in cui la probabilità che ciò stia avvenendo superi una certa soglia, l’intelligenza artificiale, ancora in fase di sviluppo da parte di Bengio e del suo team, si occuperà di “bloccare” l’azione dell’agente.
“Se otteniamo un’intelligenza artificiale che ci fornisce la cura per il cancro, ma magari un’altra versione di quell’intelligenza artificiale impazzisce e genera ondate su ondate di armi biologiche che uccidono miliardi di persone, allora non penso che ne valga la pena”, ha spiegato Bengio.
Il linguaggio fantascientifico potrebbe avere soprattutto l’obiettivo di attirare l’attenzione dei media e degli investitori, perché in realtà l’impresa di Bengio potrebbe avere risvolti molto più concreti. Potrebbe per esempio fungere da controllore, in grado di rendersi conto se il nostro agente sta, per fare dei banali esempi, acquistando un biglietto aereo superiore al budget che abbiamo impostato o dei prodotti alimentari che non ci interessano.
Man mano che cediamo sempre più responsabilità alle macchine, diventa cruciale che un’altra macchina monitori ciò che le prime stanno facendo. Lo scopo di Bengio sembra quindi anche quello di mitigare i possibili effetti collaterali causati dalla frettolosa diffusione di sistemi che potrebbero non essere ancora sufficientemente affidabili.
Alcuni dei finanziatori di Bengio – tra cui il Future of Life Institute e l’ex presidente di Google Eric Schmidt – potrebbero far storcere il naso, visto che sono stati al centro di parecchie polemiche per il loro approccio avventuroso e militarista all’intelligenza artificiale. Ma per dare un giudizio sul nuovo lavoro di Yoshua Bengio è ancora troppo presto.
SSI di Ilya Sutskever
A prima vista, Ilya Sutskever entra a pieno diritto nel novero dei “buoni” dell’intelligenza artificiale. Non solo ha cercato, senza successo, di eliminare Sam Altman da OpenAI (di cui Sutskever è cofondatore) a causa del comportamento giudicato poco trasparente e sconsiderato, ma dopo aver perso la battaglia con il suo ex sodale, ed essere stato eliminato dal consiglio d’amministrazione di OpenAI, Sutskever ha fondato una startup che sembra avere l’obiettivo di recuperare l’iniziale missione della società oggi guidata in solitaria da Altman.