Seleziona una pagina



OpenAI, l’azienda che ha lanciato ChatGpt, ha recentemente annunciato la creazione di un nuovo comitato per la sicurezza in risposta alle preoccupazioni suscitate dalla partenza di dirigenti chiave. Questa mossa è stata interpretata come un’impegno più forte nel mitigare i potenziali pericoli legati all’intelligenza artificiale. Il comitato sarà guidato dal Ceo Sam Altman e avrà il compito di valutare i processi e le misure di sicurezza legate allo sviluppo avanzato dell’IA, coinvolgendo anche esperti esterni per consulenze specializzate. Il suo obiettivo sarà quello di formulare raccomandazioni per migliorare ulteriormente la sicurezza e presentare i risultati all’intero consiglio di OpenAI prima di renderli pubblici.

Questa decisione è giunta in seguito alle dimissioni di dirigenti chiave, come Jan Leike e Ilya Sutskever, che hanno sollevato dubbi sulle priorità di sicurezza di OpenAI. In un contesto di crescente attenzione sulla questione, persino l’attrice Scarlett Johansson ha mosso delle critiche nei confronti dell’azienda, accusandola di aver clonato la sua voce per la nuova versione di ChatGpt. Questi avvenimenti illustrano l’importanza di affrontare in modo responsabile e consapevole l’evoluzione dell’intelligenza artificiale, soprattutto considerando la prossima generazione di IA generativa come GPT-5 che potrebbe avvicinarsi all’ambita AGI, una forma di intelligenza artificiale in grado di competere con la capacità umana di comprensione e ragionamento.

OpenAI ha sottolineato l’importanza di un ampio dibattito in questa fase cruciale e si impegna a garantire la massima trasparenza nel processo di valutazione e raccomandazione del comitato per la sicurezza. Resta da vedere come questa iniziativa contribuirà a plasmare il futuro dell’IA e ad affrontare le sfide etiche legate alla sua evoluzione.

FP