L’Intelligenza Artificiale (IA) sta rapidamente evolvendo, soprattutto attraverso l’uso dei grandi modelli linguistici come ChatGpt. Tuttavia, secondo il professor Roberto Navigli, esperto di elaborazione del linguaggio presso l’Università Sapienza di Roma, questi modelli sono ancora lontani dall’avere una comprensione reale del mondo che ci circonda. Ciò significa che possono facilmente cadere vittima di errori macroscopici, noti come ‘allucinazioni’.
Navigli ha evidenziato queste sfide durante un convegno sull’IA e il settore dell’audiovisivo e della fotografia a Roma, organizzato da in collaborazione con Deloitte Italia, Anica e Airf. “I modelli linguistici non pensano come gli esseri umani, questo è ciò su cui dobbiamo concentrarci”, ha affermato Navigli. “Inoltre, la quantità di dati necessaria per addestrare questi modelli è incredibilmente elevata. Mentre un lettore medio può leggere circa 200mila parole a settimana, un LLm ha bisogno di esaminare miliardi di parole.”
Altri aspetti critici sottolineati da Navigli includono la protezione del diritto d’autore e la necessità di garantire la sostenibilità e la sicurezza di questi modelli nel generare contenuti accettabili. “Stiamo passando da un’IA specializzata a una più generalista, che può svolgere una varietà di compiti”, ha aggiunto Navigli. “Ma siamo ancora lontani dall’avere un’IA completamente integrata nella nostra esperienza umana.”
In un mondo in cui l’IA sta diventando sempre più onnipresente, è cruciale continuare a esaminare in modo critico i limiti e le potenzialità di questa tecnologia in continuo sviluppo.
© Copyright