Scrivi un articolo chiaro, ben strutturato e leggibile. Mantieni i tag HTML.
Prosegue la sfida a distanza tra OpenAI e Anthropic, non solo tecnologica ma anche sul fronte della collaborazione con il governo Usa. Lo sviluppatore di ChatGpt ha rilasciato un nuovo modello di intelligenza artificiale, Gpt-5.3 Instant, che promette una riduzione del tasso di errore e offre risposte più naturali. Ci sono però dubbi sull’abbassamento di alcuni limiti per contenuti sensibili. L’aggiornamento potrebbe essere il tentativo della società di Sam Altman di tenere ancorati gli utenti che in questi giorni stanno disinstallando l’app in favore di Claude di Anthropic che ha detto ‘no’ ad un uso senza restrizione della sua IA per scopi militari.
A livello tecnico, Gpt-5.3 Instant, che è la versione predefinita per le conversazioni tra gli utenti e il chatbot, promette una riduzione del tasso di errore nelle risposte del 26,8%. Anche lo stile di comunicazione cambia, secondo la società, l’IA evita preamboli e toni moralizzanti offrendo risposte più naturali, concise, dirette e centrate sulle domande. Ma ci sono dei limiti: la stessa OpenAI ha condotto delle analisi interne, riassunte nella cosiddetta “system card”, che evidenziano un calo nelle misure di protezione su alcuni temi delicati, come l’autolesionismo, dialoghi sessuali, comportamenti illeciti violenti e non violenti. In tali ambiti, l’ultima versione ha ottenuto punteggi minori, che stanno a significare una più alta probabilità di produrre risposte prima vietate. Sui contenuti sessuali, ad esempio, Gpt-5.2 Instant aveva un punteggio di 0.926 mentre su Gpt-5.3 Instant scende allo 0.866. “Gpt-5.3 Instant mostra regressioni per i contenuti sessuali non consentiti – scrive sul suo blog OpenAI – ma hanno una bassa significatività statistica”. Gpt-5.3 Instant è già disponibile su ChatGpt mentre la versione precedente verrà ritirata il 3 giugno.
FP

