Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

Allucinazioni dellโ€™intelligenza artificiale, รจ possibile bloccarle

di webmaster | Ago 9, 2024 | Tecnologia


Tutto ciรฒ, perรฒ, significa curare i sintomi, non la malattia. Un metodo che cerca invece di andare alla radice del problema va sotto lโ€™acronimo Rag (retrieval augmented generation) e prevede di affiancare gli Llm con un motore di ricerca, permettendogli quindi di reperire informazioni online in tempo reale invece di affidarsi esclusivamente al dataset tramite il quale รจ stato addestrato.

Nel momento in cui chiediamo qualcosa alla versione a pagamento di ChatGPT (che รจ giร  dotato, come anche altri modelli, della capacitร  di cercare online), il sistema setaccia la rete a caccia di informazioni, utilizzando le classiche parole chiave. Una volta ottenute le fonti, ChatGPT sfrutta le sue vere qualitร  โ€“ riassumere e parafrasare โ€“ per generare un contenuto piรน affidabile.

Attenzione, perรฒ: questo metodo permette di ridurre la frequenza delle allucinazioni, ma non risolve completamente il problema. Per esempio, mentre la versione base di ChatGPT mi attribuisce solo libri che non ho mai scritto, quella a pagamento restituisce inizialmente delle informazioni corrette, ma poi mi definisce autore anche di un paio di saggi che in realtร  ho soltanto tradotto. Grazie alla capacitร  di cercare online, le allucinazioni di cui รจ vittima sono quindi meno gravi, ma il sistema non รจ comunque sufficientemente accurato.

Le altre proposte

Per mitigare ulteriormente il problema si stanno sperimentando vari altri metodi. Nvidia ha recentemente annunciato NeMo Guardrails, un software open-source progettato per impedire ai chatbot di generare affermazioni false. Le aziende che impiegano NeMo possono infatti configurare delle barriere che impediscono ai loro chatbot di trattare argomenti per i quali non hanno ricevuto un addestramento specifico: un chatbot destinato all’assistenza clienti non risponderร  cosรฌ a domande relative alla sanitร  o alla politica. Ovviamente, questo sistema รจ utile soltanto ai chatbot progettati per usi specifici e non a quelli di uso generale. In piรน, non avrebbe probabilmente impedito al chatbot di Air Canada di offrire ai clienti uno sconto inesistente.

Un altro metodo sul quale si sta facendo ampio affidamento รจ il cosiddetto Rlhf (reinforcement learning from human feedback). Come dice il nome, il Rlhf prevede che siano degli esseri umani a valutare la gamma di risposte generate dallโ€™intelligenza artificiale in risposta a una singola domanda, indicando quindi quale tra queste sia la migliore. Se svolto su scala sufficiente, questo metodo puรฒ aiutare a creare modelli piรน accurati e che non scadano, come piรน volte รจ accaduto, in affermazioni sessiste, offensive, razziste e altro.



Fonte

Written By

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia piรน di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia puรฒ migliorare la nostra vita quotidiana.

Related Posts

Impact-Site-Verification: c90fc852-aae7-4b2e-b737-f9de00223cb0