Perché l’intelligenza artificiale sbaglia? Libri da leggere sotto l’ombrellone che però non esistono. Avvocati che presentano memorie difensive piene di precedenti inventati. Articoli scientifici in cui vengono citati studi che nessuno ha mai effettuato. L’elenco potrebbe andare avanti a lungo, ma l’aspetto importante è un altro: in tutti questi casi, gli errori non sono stati commessi da esseri umani, ma dalle intelligenze artificiali.
O meglio, gli esseri umani hanno sbagliato ad affidarsi eccessivamente, senza verificarli, ai risultati forniti dai modelli linguistici che alimentano ChatGPT, Claude o Gemini. E così facendo sono diventati vittime delle ormai note “allucinazioni” delle intelligenze artificiali, quando cioè un sistema di AI generativa presenta come se fosse un fatto un’informazione invece sbagliata o completamente inventata.
I punti chiave
Che cosa sono le allucinazioni dell’intelligenza artificiale
Ma perché le AI sbagliano? E che cosa si può fare per eliminare, o almeno ridurre, un problema che ha già avuto gravi conseguenze e che ci costringe – o almeno dovrebbe costringerci – a verificare attentamente qualsiasi informazione fornita dai large language model?
Per capire che cosa causi le allucinazioni, bisogna risalire al funzionamento dei modelli linguistici, che è basato su un meccanismo chiamato “next token prediction”. Con il termine “token” si intendono gli elementi linguistici (una parola, un gruppo di parole, i simboli della punteggiatura e altro ancora) con cui il modello lavora durante la generazione del testo. “Prediction” indica invece che il sistema di intelligenza artificiale si limita a calcolare statisticamente quale sia il token che ha la maggiore probabilità di essere coerente con quelli che l’hanno preceduto, senza possedere però un meccanismo che permette di distinguere ciò che è vero da ciò che è semplicemente plausibile.
“Plausibile” e “coerente” non significano però “vero”, e una stima probabilistica può inevitabilmente essere sbagliata. Se per esempio chiediamo a ChatGPT di concludere la frase “sto portando il cane a fare una”, il sistema di OpenAI non avrà alcuna difficoltà a comprendere che la parola giusta da inserire sia “passeggiata”. All’aumentare della complessità del tema trattato e di quanto sia ampio il contesto da prendere in considerazione, aumenta però anche la possibilità che il modello linguistico sbagli, fornisca un’informazione sbagliata e sia quindi vittima delle famigerate “allucinazioni” (chiamate anche “confabulazioni”).
Quanto sbaglia l’intelligenza artificiale
Come spiegato in una lunga analisi pubblicata dall’Economist, “ogni token presente nel dataset con cui è stato addestrato il modello linguistico (che contiene miliardi di testi estratti dal web, ndR) deve avere una probabilità di venire selezionato superiore a zero, dando così al sistema la flessibilità necessaria ad apprendere nuovi pattern, ma creando anche il rischio di generare informazioni scorrette. Il problema fondamentale è che i modelli linguistici sono probabilistici, la verità invece non lo è”.

