Se c’è un aspetto su cui infatti non ci possono essere dubbi, è che la comunità scientifica è estremamente scettica sulla possibilità che lo sviluppo del deep learning e dei modelli linguistici possa portare all’avvento della AGI e della superintelligenza artificiale (che rappresenta la naturale evoluzione della prima).
Gli scienziati che sono contro l’AGI
Lo ha confermato ancora una volta un recente sondaggio pubblicato dalla Association for the advancement of artificial intelligence (Aaai), in cui sono stati interpellati 475 ricercatori in intelligenza artificiale e i cui risultati sono ancora una volta molto netti: secondo il 76% degli intervistati è “improbabile” o “molto improbabile” che la AGI possa essere raggiunta “seguendo gli attuali paradigmi del deep learning”.
In parole più semplici: nessuno può escludere che un domani l’intelligenza artificiale generale venga in qualche modo raggiunta, ma tre quarti dei ricercatori sono convinti che, affinché ciò si verifichi, sia necessario un nuovo “breakthrough” tecnologico: qualcosa che permetta di andare oltre al deep learning e di cui al momento non si vede nemmeno l’ombra.
“Gli immensi investimenti nella crescita della scala [dei modelli linguistici, ndr], non accompagnati da sforzi altrettanto significativi per capire cosa stia realmente accadendo, mi sono sempre sembrati mal riposti”, ha spiegato al New Scientist Stuart Russell, docente di Informatica a Berkeley e tra gli autori del rapporto. “Penso che, circa un anno fa, sia diventato evidente a tutti che i benefici della legge di scala avevano raggiunto il picco”.
Effettivamente, fino a poco tempo fa sembrava che il clima attorno alla AGI stesse finalmente cambiando. Gary Marcus, scienziato informatico che da anni si batte contro le narrazioni fantascientifiche che circondano il deep learning, ha per esempio mostrato come un numero crescente di personalità – tra cui alcuni dei massimi esperti, come l’informatico Richard Sutton, Andrej Karpathy di Tesla e in parte perfino Demis Hassabis di DeepMind – abbia fatto retromarcia rispetto a queste grandiose promesse tecnologiche.
La teoria del complotto legato alla superintelligenza artificiale
D’altra parte, chi può realmente credere a Sam Altman quando afferma che l’impatto ambientale odierno è inevitabile se vogliamo usare l’AI per “risolvere la fisica” (qualunque cosa voglia dire) e “curare il cancro”, quando è lo stesso fondatore di OpenAI a puntare economicamente su deepfake, contenuti erotici e tutto il mare di AI slop – contenuti di scarsissima qualità automaticamente generati – reso possibile da Sora?



