Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

Perché l’intelligenza artificiale sbaglia (anche quando sembra sicura)

di webmaster | Apr 12, 2026 | Tecnologia


Perché l’intelligenza artificiale sbaglia? Libri da leggere sotto l’ombrellone che però non esistono. Avvocati che presentano memorie difensive piene di precedenti inventati. Articoli scientifici in cui vengono citati studi che nessuno ha mai effettuato. L’elenco potrebbe andare avanti a lungo, ma l’aspetto importante è un altro: in tutti questi casi, gli errori non sono stati commessi da esseri umani, ma dalle intelligenze artificiali.

O meglio, gli esseri umani hanno sbagliato ad affidarsi eccessivamente, senza verificarli, ai risultati forniti dai modelli linguistici che alimentano ChatGPT, Claude o Gemini. E così facendo sono diventati vittime delle ormai note “allucinazioni” delle intelligenze artificiali, quando cioè un sistema di AI generativa presenta come se fosse un fatto un’informazione invece sbagliata o completamente inventata.

I punti chiave

Che cosa sono le allucinazioni dell’intelligenza artificiale

Ma perché le AI sbagliano? E che cosa si può fare per eliminare, o almeno ridurre, un problema che ha già avuto gravi conseguenze e che ci costringe – o almeno dovrebbe costringerci – a verificare attentamente qualsiasi informazione fornita dai large language model?

Per capire che cosa causi le allucinazioni, bisogna risalire al funzionamento dei modelli linguistici, che è basato su un meccanismo chiamato “next token prediction”. Con il termine “token” si intendono gli elementi linguistici (una parola, un gruppo di parole, i simboli della punteggiatura e altro ancora) con cui il modello lavora durante la generazione del testo. “Prediction” indica invece che il sistema di intelligenza artificiale si limita a calcolare statisticamente quale sia il token che ha la maggiore probabilità di essere coerente con quelli che l’hanno preceduto, senza possedere però un meccanismo che permette di distinguere ciò che è vero da ciò che è semplicemente plausibile.

“Plausibile” e “coerente” non significano però “vero”, e una stima probabilistica può inevitabilmente essere sbagliata. Se per esempio chiediamo a ChatGPT di concludere la frase “sto portando il cane a fare una”, il sistema di OpenAI non avrà alcuna difficoltà a comprendere che la parola giusta da inserire sia “passeggiata”. All’aumentare della complessità del tema trattato e di quanto sia ampio il contesto da prendere in considerazione, aumenta però anche la possibilità che il modello linguistico sbagli, fornisca un’informazione sbagliata e sia quindi vittima delle famigerate “allucinazioni” (chiamate anche “confabulazioni”).

Quanto sbaglia l’intelligenza artificiale

Come spiegato in una lunga analisi pubblicata dall’Economist, “ogni token presente nel dataset con cui è stato addestrato il modello linguistico (che contiene miliardi di testi estratti dal web, ndR) deve avere una probabilità di venire selezionato superiore a zero, dando così al sistema la flessibilità necessaria ad apprendere nuovi pattern, ma creando anche il rischio di generare informazioni scorrette. Il problema fondamentale è che i modelli linguistici sono probabilistici, la verità invece non lo è.



Fonte

Written By

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia più di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia può migliorare la nostra vita quotidiana.

Related Posts

Impact-Site-Verification: c90fc852-aae7-4b2e-b737-f9de00223cb0