Tutto ciรฒ, perรฒ, significa curare i sintomi, non la malattia. Un metodo che cerca invece di andare alla radice del problema va sotto lโacronimo Rag (retrieval augmented generation) e prevede di affiancare gli Llm con un motore di ricerca, permettendogli quindi di reperire informazioni online in tempo reale invece di affidarsi esclusivamente al dataset tramite il quale รจ stato addestrato.
Nel momento in cui chiediamo qualcosa alla versione a pagamento di ChatGPT (che รจ giร dotato, come anche altri modelli, della capacitร di cercare online), il sistema setaccia la rete a caccia di informazioni, utilizzando le classiche parole chiave. Una volta ottenute le fonti, ChatGPT sfrutta le sue vere qualitร โ riassumere e parafrasare โ per generare un contenuto piรน affidabile.
Attenzione, perรฒ: questo metodo permette di ridurre la frequenza delle allucinazioni, ma non risolve completamente il problema. Per esempio, mentre la versione base di ChatGPT mi attribuisce solo libri che non ho mai scritto, quella a pagamento restituisce inizialmente delle informazioni corrette, ma poi mi definisce autore anche di un paio di saggi che in realtร ho soltanto tradotto. Grazie alla capacitร di cercare online, le allucinazioni di cui รจ vittima sono quindi meno gravi, ma il sistema non รจ comunque sufficientemente accurato.
Le altre proposte
Per mitigare ulteriormente il problema si stanno sperimentando vari altri metodi. Nvidia ha recentemente annunciato NeMo Guardrails, un software open-source progettato per impedire ai chatbot di generare affermazioni false. Le aziende che impiegano NeMo possono infatti configurare delle barriere che impediscono ai loro chatbot di trattare argomenti per i quali non hanno ricevuto un addestramento specifico: un chatbot destinato all’assistenza clienti non risponderร cosรฌ a domande relative alla sanitร o alla politica. Ovviamente, questo sistema รจ utile soltanto ai chatbot progettati per usi specifici e non a quelli di uso generale. In piรน, non avrebbe probabilmente impedito al chatbot di Air Canada di offrire ai clienti uno sconto inesistente.
Un altro metodo sul quale si sta facendo ampio affidamento รจ il cosiddetto Rlhf (reinforcement learning from human feedback). Come dice il nome, il Rlhf prevede che siano degli esseri umani a valutare la gamma di risposte generate dallโintelligenza artificiale in risposta a una singola domanda, indicando quindi quale tra queste sia la migliore. Se svolto su scala sufficiente, questo metodo puรฒ aiutare a creare modelli piรน accurati e che non scadano, come piรน volte รจ accaduto, in affermazioni sessiste, offensive, razziste e altro.


