Anthropic Aggiorna le Regole per il suo Chatbot: Maggiore Attenzione alla Sicurezza e all’Etica
Un importante passo avanti nel campo dell’Intelligenza Artificiale (IA) è stato compiuto da Anthropic, una delle principali aziende del settore, che ha recentemente aggiornato le regole per il suo chatbot, Claude. Queste regole, contenute in un documento intitolato “La nuova costituzione di Claude”, sono state pubblicate online e rappresentano un significativo sforzo per garantire che l’IA agisca in modo responsabile e sicuro.
Obiettivi delle Nuove Regole
L’obiettivo principale di queste regole è quello di evitare azioni inappropriate, pericolose o dannose da parte dell’IA. Le nuove linee guida includono limiti più stringenti sulle risposte che il chatbot può fornire su argomenti sensibili come la salute, la politica e le conversazioni con i minori, in particolare in relazione ad autolesionismo e suicidio.
Contenuto delle Regole
La versione aggiornata delle regole specifica che il chatbot non deve esprimere opinioni personali su questioni politiche controverse, come l’aborto, e non deve fare battute discriminatorie. Inoltre, l’IA non deve fornire informazioni che possano arrecare danni concreti, come la sintesi di sostanze chimiche pericolose o armi biologiche.
Confronto con Altre Iniziative
Questo aggiornamento segue un percorso simile a quello intrapreso da OpenAI, un concorrente di Anthropic, che a dicembre ha aggiornato il documento sul funzionamento di ChatGPT, inserendo nuovi indicatori relativi al comportamento del chatbot nelle conversazioni con minori e su temi delicati, come il suicidio. La nuova versione della “costituzione di Claude” affronta le stesse problematiche, sottolineando l’importanza dell’IA nel seguire le linee guida in materia di suicidio e autolesionismo.
Pubblicazione e Contesto
La pubblicazione di queste regole aggiornate coincide con la partecipazione del CEO di Anthropic, Dario Amodei, al World Economic Forum di Davos, evidenziando l’impegno dell’azienda nel promuovere l’uso responsabile dell’IA a livello globale.
FP


