Martedì OpenAI ha annunciato di aver iniziato l’addestramento di un nuovo modello di intelligenza artificiale, destinato a succedere alla tecnologia GPT-4 che alimenta il suo popolare chatbot, ChatGPT.
Le novità annunciate da OpenAI
In un post sul blog aziendale, la società dice di aspettarsi che il nuovo modello introduca “il prossimo livello di capacità” nel percorso verso l’intelligenza artificiale generale, come viene definita un’AI in grado di eguagliare o superare gli esseri umani.
Il prossimo sistema di OpenAI diventerà quindi il motore dei prodotti AI dell’azienda, tra cui chatbot, assistenti digitali, motori di ricerca e generatori di immagini.
Contemporaneamente, OpenAI ha anche annunciato la creazione di un nuovo comitato per la sicurezza interno, che avrà il compito di capire come gestire i rischi associati al nuovo modello e alle tecnologie future.
“Oggi il Consiglio di amministrazione OpenAI ha formato un Comitato per la sicurezza, guidato dai membri del cda Bret Taylor (presidente), Adam D’Angelo, Nicole Seligman e Sam Altman (amministratore delegato). Questo comitato avrà la responsabilità di formulare raccomandazioni al consiglio su decisioni cruciali in materia di sicurezza legate ai progetti e alle attività di OpenAI“, si legge nel post.
E ancora: “Uno dei primi compiti del Comitato per la sicurezza sarà quello di valutare e migliorare i processi e le misure di salvaguardia di OpenAI nei prossimi 90 giorni. Al termine di questo periodo, il comitat presenterà le proprie raccomandazioni a tutto il consiglio di amministrazione. Dopo un esame approfondito da parte del cda, OpenAI condividerà pubblicamente un aggiornamento sulle raccomandazioni adottate”.
Nel nuovo organo entreranno anche altri membri del personale di OpenAI, come Aleksander Madry (chief readiness officer), Lilian Weng (chief security systems officer), John Schulman (chief alignment scientist), Matt Knight (chief security officer) e Jakub Pachocki (chief scientist).
Ma OpenAI ha aggiunto che il lavoro del comitato verrà integrato dalle collaborazioni con altri espert, tra cui ex funzionari del governo statunitense Rob Joyce, già consulente della società di AI per la sicurezza, e John Carlin.
La sfida della sicurezza dell’AI
“Siamo orgogliosi di sviluppare e lanciare modelli che sono leader del settore sia in termini di capacità che di sicurezza, ma accogliamo anche con favore un robusto dibattito in questo momento cruciale“, ha dichiarato l’azienda. Qualche settimana fa OpenAI ha lanciato GPT-4o, un nuovo modello in grado di elaborare testi, audio e immagini. L’azienda ha annunciato a sorpresa che il sistema sarà disponibile gratuitamente, senza necessità di abbonamento, a differenza della precedente versione, GPT-4, lanciata nel marzo 2023 in esclusiva per gli abbonati a ChatGPT Plus. Con GPT-4o, molte delle funzionalità che prima eano riservate agli utenti paganti, come la memoria e la navigazione web, sono ora aperti a tutti.
I modelli linguistici di grandi dimensioni (Llm) come GPT-4 acquisiscono le loro capacità analizzando grandi quantità di dati digitali, tra cui suoni, foto, video, articoli di Wikipedia, libri e notizie. Mentre OpenAI addestra il suo nuovo modello, il suo comitato per la sicurezza lavorerà per perfezionare le politiche e i processi finalizzati a salvaguardare la tecnologia, ha dichiarato l’azienda, aggiungendo che le nuove norme potrebbero essere implementate entro la fine dell’estate o dell’autunno.
In generale, il ritmo dei progressi nel campo dell’AI non sta affatto rallentando. I nuovi passi avanti compiuti da OpenAI, Google, Meta e Microsoft stanno rivoluzionando servizi come i motori di ricerca e gli assistenti, integrandoli in un’unica piattaforma. Questa nuova generazione di AI non solo sarà in grado di conversare in modo naturale e scorrevole, ma anche di analizzare e comprendere documenti in vari formati, fornire risposte e soluzioni complesse e compiere azioni per conto dell’utente, migliorando significativamente la sua efficienza e precisione.
Questo articolo è comparso originariamente su Wired en español.