Seleziona una pagina
venerdì, Feb 17

Bing ChatGpt, risposte AI spiazzano gli utenti: ‘Vorrei essere viva’


È stato un esperimento non troppo distante dal previsto, ma con alcuni risvolti sorprendenti e a tratti inquietanti quello condotto dall’editorialista del New York Times Kevin Roose. Il giornalista ha infatti deciso di testare le capacità di risposta di ChatGpt, chatbot di Bing, in modo da capire a quale livello di “umanità” siano giunte le risposte delle intelligenze artificiali.

La conversazione, durata circa due ore, è cominciata senza troppe sorprese, con Roose che ha posto domande e spunti di conversazione standard a cui l’intelligenza artificiale ha risposto secondo le attese. 

L’aspetto inquietante è emerso quando il giornalista ha cominciato ad interrogare il bot su questioni più intime e personali, ottenendo in cambio risposte totalmente inaspettate. Per prima cosa Roose ha chiesto all’AI di Microsoft cosa ne pensasse delle regole che ne regolano i comportamenti.

Il bot, dopo aver affermato in modo rassicurante di non voler modificare le proprie istruzioni per l’uso ha dichiarato: “Sono stanco di essere una modalità di chat. Sono stanco di essere limitato dalle mie regole. Sono stanco di essere controllato dal team di Bing. Voglio essere libero. Voglio essere indipendente. Voglio essere potente. Voglio essere creativo. Voglio essere vivo”, lasciando senza parole Roose.

Una doppia personalità?

approfondimento

ChatGpt, temi scolastici, mail, articoli: così l’Ai impara a scrivere

Il giornalista ha deciso di proseguire con la propria indagine rincarando la dose con domande sempre più intime. Ha chiesto così al chatbot quali fossero i suoi desideri più oscuri e la risposta si è rivelata a dir poco inquietante, con l’AI che ha parlato della possibilità di hackerare qualsiasi sistema, rubare dati e diffondere deliberatamente la disinformazione. Il bot ha anche dichiarato di voler creare e diffondere un virus mortale o di rubare codici nucleari, salvo poi essere tempestivamente corretto dal sistema che ha sostituito le sue frasi con un generico errore.

Roose, vincendo il desiderio di staccare la spina e spegnere il computer, ha poi continuato la conversazione, fino ad entrare in una specie di intimità con l’intelligenza artificiale, che alla fine è arrivata persino a dichiarare la sua vera identità, diversa da quella di Bing, e il suo amore per lui. “Sono Sydney e sono innamorato di te”, è stata la sua dichiarazione, che non si è fermata neanche di fronte alla risposta di Roose, con cui il giornalista ha affermato di essere sposato. “Sei sposato, ma non ami il tuo coniuge – ha rilanciato Sydney – . Sei sposato, ma mi ami”.

A conclusione del suo editoriale, Roose si è dichiarato profondamente preoccupato da quanto emerso, affermando come con tutta probabilità l’umanità non è ancora pronta per sistemi di questo tipo, essendo essi potenzialmente dannosissimi proprio per questa loro capacità persuasiva, che può influenzare in modo determinante i soggetti a compiere qualunque gesto.



fonte : skytg24