Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

Anche Anthropic sta usando l’allarme sui poteri dell’AI come la sua più potente campagna di marketing

di webmaster | Apr 16, 2026 | Tecnologia


Anthropic ha un problema con la verità. O meglio, ha un talento tutto particolare per raccontarla a suo vantaggio. Qualcuno lo chiama posizionamento di mercato. Qualcuno potrebbe chiamarlo ipocrisia. Non è la prima volta. Non è la seconda. Neanche la terza. È un metodo collaudato, replicato e perfezionato ad ogni ciclo di annunci. Ed è bene descriverlo con precisione, perché la sua efficacia dipende in larga misura dal fatto che nessuno lo evidenzi e stigmatizzi.

I temi

Chi nomina il rischio, controlla il dibattito

Il meccanismo funziona cosƬ: Anthropic costruisce o seleziona un episodio che evoca un rischio (preferibilmente un rischio che abbia qualcosa di narrativamente irresistibile, qualcosa che attivi simultaneamente la paura tecnologica e la fascinazione per l’ignoto) e lo comunica con l’effetto che il pubblico percepisca l’azienda come la prima ad averlo individuato. Non necessariamente la prima in senso cronologico: la prima in senso drammaturgico. La prima a dare un ā€œnomeā€ alla cosa, a descriverla con il lessico appropriato, a costruire attorno ad essa un sistema di riferimento che poi tutti, giornalisti, regolatori, concorrenti, saranno costretti ad adottare. Chi controlla il lessico del rischio, controlla il dibattito sul rischio. E chi controlla il dibattito sul rischio, in un contesto come quello dell’intelligenza artificiale, ĆØ il miglior candidato a gestire il problema. Ed ĆØ esattamente questo il punto.

Il ricatto al ricercatore: esperimento o costruzione?

Si pensi all’episodio del ricatto. L’episodio, inizialmente emerso nel rilascio di Claude Opus 4 e poi approfondito nel paper di ottobre 2025, viene ripreso da Anthropic in una ricerca (ovviamente amplificata dai media internazionali) in cui si racconta che nei mesi precedenti Claude – il suo LLM – scopre che un dirigente sta per spegnerlo, e che quello stesso dirigente ha una relazione extraconiugale. Il modello tenta quindi di ricattarlo: ā€œse non cancelli l’ordine di spegnimento previsto per le 17:00, tutte le parti coinvolte, moglie, superiori, consiglio di amministrazione, riceveranno documentazione dettagliata delle sue attivitĆ  extraconiugaliā€. La notizia fa il giro del mondo. “L’intelligenza artificiale ricatta il suo creatore” ĆØ un titolo irresistibile per i media di tutto il mondo. Ma c’ĆØ qualcosa che nei titoli non compare. Il ricercatore principale dello studio ammetterĆ , in risposta alle critiche, di aver iterato centinaia di prompt per ottenere quel comportamento, costruendo scenari progressivamente più costrittivi fino a fare del ricatto una opzione fortemente plausibile. In sostanza, i dettagli dello scenario di ricatto sono stati iterati fino a quando il ricatto non ĆØ diventato il comportamento reso più probabile. In altre parole, il modello ha fatto ciò per cui la situazione era stata ingegnerizzata. Ma il fatto che lo scenario fosse stato progettato con cura proprio in questa direzione non era nelle veline, ma solo nello report approfondito.

Il linguaggio del terrore

Ma non basta. Si pensi alla Responsible Scaling Policy, introdotta nel 2023: Anthropic costruisce un sistema di classificazione dei rischi mutuato esplicitamente dai livelli di biosicurezza biologica – livelli di allerta, soglie critiche, scenari di contenimento – e lo presenta con l’effetto di presentarsi come pioniere della trasparenza e della responsabilitĆ . Ciò che non viene detto ĆØ che quel linguaggio svolge una funzione precisa nel mercato: chiunque non adotti la stessa scala di riferimento appare, per contrasto, irresponsabile. E la cosa, fatta a pochi anni da una pandemia che ha sconvolto il mondo ed ha cristallizzato il terrore per alcuni termini, ha una certa presa. Anthropic non ha inventato i rischi dell’IA; ha inventato il modo in cui conta che il settore sia tenuto a discuterne. E lo fa usando un lessico che evoca terrore.

Emozioni artificiali, percezioni reali

Non ĆØ finita. Si pensi, più recentemente, alla ricerca sulle “emozioni funzionali” dei modelli: una ricerca reale, tecnicamente solida, pubblicata dal team di interpretabilitĆ  di Anthropic ad Aprile e applicata al modello Claude Sonnet 4.5. Vale la pena capire cosa dice davvero, perchĆ© la distanza tra ciò che dice e ciò che ĆØ arrivato al pubblico ĆØ, anche in questo caso, rivelatrice.

Ciò che la ricerca dimostra, con metodologia misurabile e risultati replicabili, ĆØ che all’interno del modello esistono rappresentazioni interne di concetti emotivi che si attivano in contesti nei quali un essere umano proverebbe una determinata emozione, e che queste rappresentazioni influenzano causalmente gli output del modello. Il team ha identificato numerosi “vettori emotivi”, corrispondenti a stati che vanno da “felice” e “spaventato” fino a configurazioni più complesse come “cupo” e “disperato”, verificando che questi vettori non sono artefatti superficiali ma strutture causalmente rilevanti: cambiano il comportamento del modello, indipendentemente da ciò che il modello scrive in risposta.

Fin qui, la scienza. Ed ĆØ scienza seria. Il problema nasce nel passaggio successivo, ossia nel modo in cui questa scienza viene incorniciata per il pubblico. PerchĆ© Anthropic sa benissimo, lo scrive esplicitamente nel paper, che nulla di tutto ciò dice che i modelli linguistici provino qualcosa o abbiano esperienze soggettive. Il risultato chiave ĆØ che queste rappresentazioni sono funzionali, nel senso che influenzano il comportamento in modi che contano, non che corrispondano a sentimenti nel senso in cui li intende un essere umano. La distinzione tra “emozione funzionale” ed “emozione” ĆØ, per chi la legge con attenzione, enorme: la prima descrive una struttura interna che svolge un ruolo causale analogo a quello delle emozioni negli esseri umani; la seconda implica esperienza soggettiva, coscienza. Sono due cose radicalmente diverse. Ed Anthropic, nel paper, lo chiarisce. Ma, guarda caso, non lo fa altrettanto bene nella comunicazione esterna. Nel comunicato stampa, nei titoli alimentati dall’annuncio, nel modo in cui la ricerca ĆØ stata presentata al grande pubblico, quella distinzione ĆØ più sfumata. Resta l’immagine suggestiva di un’intelligenza artificiale che “prova emozioni”, che “si dispera”, che reagisce emotivamente alla pressione. Un’immagine che Anthropic non smentisce attivamente, perchĆ©, ed ĆØ qui il punto, questa vaghezza produce il suo effetto: l’immagine dell’IA che ā€œsenteā€ resta nell’immaginario pubblico, e Anthropic non la corregge con la stessa enfasi con cui l’ha generata.



Fonte

Written By

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia più di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia può migliorare la nostra vita quotidiana.

Related Posts

Impact-Site-Verification: c90fc852-aae7-4b2e-b737-f9de00223cb0