Seleziona una pagina
sabato, Mar 18

ChatGpt, prepariamoci all’invasione dei suoi cloni



Da Wired.it :

ChatGpt potrà anche essere l’algoritmo più famoso – e potenzialmente prezioso – del momento, ma le tecniche di intelligenza artificiale (Ai) utilizzate da OpenAi per realizzare il suo chatbot conversazionale non sono né uniche né tantomeno segrete. Diversi progetti rivali e cloni open source potrebbero presto rendere disponibili bot simili, che chiunque potrà copiare e riutilizzare. 

Stability Ai, una startup che ha già sviluppato e un’avanzata tecnologia open source per la generazione di immagini, sta lavorando a un concorrente diretto di ChatGpt: “Siamo a pochi mesi dal lancio“, dichiara Emad Mostaque, amministratore delegato della società. Anche altre startup concorrenti, tra cui Anthropic, Cohere e Ai21, stanno lavorando a chatbot analoghi a quello di OpenAi.

L’imminente ondata di sofisticati chatbot in arrivo renderà la tecnologia più variegata e abbordabile per i consumatori, oltre che più accessibile alle aziende, agli sviluppatori e a chi fa ricerca sull’Ai. Questo, a sua volta, potrebbe accelerare la corsa alla monetizzazione degli strumenti di intelligenza artificiale in grado di generare immagini, programmare e scrivere testi. Aziende affermate come Microsoft e Slack stanno già incorporando ChatGpt nei loro prodotti e molte startup si stanno affrettando a sfruttare la nuova Api di ChatGpt dedicata agli sviluppatori. Tuttavia, una più ampia disponibilità della tecnologia potrebbe anche complicare la ricerca finalizzata a prevedere e mitigare i rischi associati.

I timori dei ricercatori

La capacità di ChatGpt di fornire risposte convincenti a un’ampia gamma di domande fa sì che a volte il servizio si inventi fatti di sana pianta o assuma posizioni problematiche. Il chatbot inoltre può anche aiutare a svolgere attività dannose come la produzione di malware o campagne di spam e disinformazione. Per questi motivi, alcuni ricercatori hanno chiesto di rallentare la diffusione di sistemi simili per valutarne i rischi: “Non è necessario fermare la ricerca, ma certamente potremmo regolamentarne la diffusione su larga scala – afferma Gary Marcus, un esperto di Ai che ha cercato di attirare l’attenzione su problematiche come la disinformazione generata da questi sistemi –. Potremmo, per esempio, richiedere studi su centomila persone prima di rendere accessibili queste tecnologie a cento milioni di persone“.

Una maggiore disponibilità dei sistemi come ChatGpt e il lancio di versioni simili open source renderebbero più difficile limitare la ricerca o applicazioni più ampie. La competizione tra grandi e piccole aziende per integrare ChatGpt o creare alternative di pari livello tradisce poi una scarsa propensione al rallentamento, e sembra invece incentivare la proliferazione della tecnologia. La scorsa settimana, LLaMA, un modello di intelligenza artificiale sviluppato da Meta e simile a quello alla base di ChatGpt, è trapelato online dopo essere stato condiviso con alcuni ricercatori accademici. Il sistema potrebbe essere utilizzato come elemento costitutivo per la creazione di chatbot e il suo lancio ha scatenato la perplessità di chi teme che i modelli linguistici di grandi dimensioni e i chatbot costruiti su di essi, come ChatGpt, possano essere utilizzati per generare disinformazione oppure per automatizzare violazioni della sicurezza informatica. Alcuni esperti sostengono che l’allarmismo sia eccessivo, mentre altri suggeriscono che rendere la tecnologia più trasparente aiuterà a contrastare gli abusi. Meta ha rifiutato di rispondere alle domande di Wired US sulla fuga di notizie, ma la portavoce della società Ashley Gabriel ha rilasciato una dichiarazione rassicurante: “Sebbene il modello non sia accessibile a tutti e alcuni abbiano cercato di aggirare il processo di approvazione, riteniamo che l’attuale strategia di rilascio ci consenta di bilanciare responsabilità e trasparenza”. 

OpenAi fa scuola

ChatGpt è costruito sulla base di una tecnologia di generazione di testo disponibile da diversi anni, che è in grado di imitare la capacità di scrittura umana estrapolando gli schemi contenuti in enormi quantità di testi, in gran parte raccolti dal web. OpenAi ha intuito che l’aggiunta di un’interfaccia chat – oltre che di un ulteriore livello di apprendimento automatico basato sui feedback alle risposte del bot forniti dagli esseri umani – avrebbe potuto rendere la tecnologia più efficace e articolata.





[Fonte Wired.it]