Khlaaf aggiunge che annunci di questo tipo alimentano aspettative infondate su capacità che i chatbot in realtà non hanno. “Questo lavoro sembra partire dall’assunzione, priva di fondamento, che i modelli di Anthropic svilupperanno capacità nucleari emergenti senza ulteriore addestramento — un’idea che non trova riscontro nella scienza attuale”.
Anthropic non è d’accordo. “Gran parte del nostro lavoro sulla sicurezza è dedicato alla creazione di sistemi in grado di individuare e ridurre i rischi futuri in modo proattivo”, afferma un portavoce dell’azienda. “Questo classificatore è un esempio concreto di questo approccio. La collaborazione con la Nnsa ci permette di valutare i rischi in modo accurato e di sviluppare misure di protezione che impediscano un uso improprio dei nostri modelli”.
L’errore è dietro l’angolo. E potrebbe essere catastrofico
Khlaaf mostra però scarso entusiasmo anche per la collaborazione tra governo statunitense e aziende private. Secondo lei, società come Anthropic puntano ad accedere a quanti più dati di addestramento possibile, e la corsa di Washington ad adottare l’intelligenza artificiale rappresenta per l’industria un’opportunità per mettere le mani su informazioni altrimenti inaccessibili. “Vogliamo davvero che queste aziende private, in gran parte prive di regolamentazione, abbiano accesso a dati di sicurezza nazionale estremamente sensibili?”, si chiede. “Che si tratti di sistemi militari, armi nucleari o persino energia nucleare“.
C’è poi la questione della precisione. “Si tratta di scienze estremamente delicate, e sappiamo che i grandi modelli linguistici possono commettere errori tali da farli sbagliare anche nei calcoli matematici più elementari“, osserva Khlaaf. Nel 1954, un errore di calcolo triplicò la potenza di un’arma nucleare testata dagli Stati Uniti nel Pacifico, e il governo sta ancora affrontando le conseguenze concrete di quell’incidente. Che cosa potrebbe accadere se un chatbot sbagliasse i calcoli alla base di un ordigno atomico e nessuno verificasse il risultato?
A onor del vero, Anthropic precisa di non voler arrivare a un futuro in cui le persone usano chatbot per sperimentare con la tecnologia delle armi nucleari. L’azienda ha persino messo a disposizione il proprio classificatore ad altre società di intelligenza artificiale interessate a integrarlo. “Nel nostro scenario ideale, questo diventerebbe uno standard condiviso dal settore, una pratica di sicurezza adottata su base volontaria da tutti”, afferma Favaro. “Richiederebbe un impegno tecnico minimo, ma potrebbe contribuire in modo significativo a ridurre i rischi in un ambito delicato come quello della sicurezza nazionale”.
Questo articolo è apparso originariamente su Wired US.



