MartedƬ OpenAI ha annunciato di aver iniziato l’addestramento di un nuovo modello di intelligenza artificiale, destinato a succedere alla tecnologia GPT-4 che alimenta il suo popolare chatbot, ChatGPT.
Le novitĆ annunciate da OpenAI
In un post sul blog aziendale, la societĆ dice di aspettarsi che il nuovo modello introduca “il prossimo livello di capacitĆ ” nel percorso verso l’intelligenza artificiale generale, come viene definita un’AI in grado di eguagliare o superare gli esseri umani.
Il prossimo sistema di OpenAI diventerĆ quindi il motore dei prodotti AI dell’azienda, tra cui chatbot, assistenti digitali, motori di ricerca e generatori di immagini.
Contemporaneamente, OpenAI ha anche annunciato la creazione di un nuovo comitato per la sicurezza interno, che avrĆ il compito di capire come gestire i rischi associati al nuovo modello e alle tecnologie future.
“Oggi il Consiglio di amministrazione OpenAI ha formato un Comitato per la sicurezza, guidato dai membri del cda Bret Taylor (presidente), Adam D’Angelo, Nicole Seligman e Sam Altman (amministratore delegato). Questo comitato avrĆ la responsabilitĆ di formulare raccomandazioni al consiglio su decisioni cruciali in materia di sicurezza legate ai progetti e alle attivitĆ di OpenAI“, si legge nel post.
E ancora: āUno dei primi compiti del Comitato per la sicurezza sarĆ quello di valutare e migliorare i processi e le misure di salvaguardia di OpenAI nei prossimi 90 giorni. Al termine di questo periodo, il comitat presenterĆ le proprie raccomandazioni a tutto il consiglio di amministrazione. Dopo un esame approfondito da parte del cda, OpenAI condividerĆ pubblicamente un aggiornamento sulle raccomandazioni adottateā.
Nel nuovo organo entreranno anche altri membri del personale di OpenAI, come Aleksander Madry (chief readiness officer), Lilian Weng (chief security systems officer), John Schulman (chief alignment scientist), Matt Knight (chief security officer) e Jakub Pachocki (chief scientist).
Ma OpenAI ha aggiunto che il lavoro del comitato verrĆ integrato dalle collaborazioni con altri espert, tra cui ex funzionari del governo statunitense Rob Joyce, giĆ consulente della societĆ di AI per la sicurezza, e John Carlin.
La sfida della sicurezza dell’AI
“Siamo orgogliosi di sviluppare e lanciare modelli che sono leader del settore sia in termini di capacitĆ che di sicurezza, ma accogliamo anche con favore un robusto dibattito in questo momento cruciale“, ha dichiarato l’azienda. Qualche settimana fa OpenAI ha lanciato GPT-4o, un nuovo modello in grado di elaborare testi, audio e immagini. L’azienda ha annunciato a sorpresa che il sistema sarĆ disponibile gratuitamente, senza necessitĆ di abbonamento, a differenza della precedente versione, GPT-4, lanciata nel marzo 2023 in esclusiva per gli abbonati a ChatGPT Plus. Con GPT-4o, molte delle funzionalitĆ che prima eano riservate agli utenti paganti, come la memoria e la navigazione web, sono ora aperti a tutti.
I modelli linguistici di grandi dimensioni (Llm) come GPT-4 acquisiscono le loro capacitĆ analizzando grandi quantitĆ di dati digitali, tra cui suoni, foto, video, articoli di Wikipedia, libri e notizie. Mentre OpenAI addestra il suo nuovo modello, il suo comitato per la sicurezza lavorerĆ per perfezionare le politiche e i processi finalizzati a salvaguardare la tecnologia, ha dichiarato l’azienda, aggiungendo che le nuove norme potrebbero essere implementate entro la fine dell’estate o dell’autunno.
In generale, il ritmo dei progressi nel campo dell’AI non sta affatto rallentando. I nuovi passi avanti compiuti da OpenAI, Google, Meta e Microsoft stanno rivoluzionando servizi come i motori di ricerca e gli assistenti, integrandoli in un’unica piattaforma. Questa nuova generazione di AI non solo sarĆ in grado di conversare in modo naturale e scorrevole, ma anche di analizzare e comprendere documenti in vari formati, fornire risposte e soluzioni complesse e compiere azioni per conto dell’utente, migliorando significativamente la sua efficienza e precisione.
Questo articolo è comparso originariamente su Wired en español.


