Seleziona una pagina
venerdì, Mar 01

Intelligenza artificiale, Gemini di Google ha scatenato una guerra culturale



Da Wired.it :

Perché è successo? È possibile che Google abbia lanciato Gemini con troppa fretta. Il colosso sta chiaramente faticando a trovare il giusto ritmo per rilasciare i suoi prodotti di intelligenza artificiale. Inizialmente Big G aveva optato per un approccio più cauto sull’AI, decidendo per esempio di non distribuire un potente chatbot per via di preoccupazioni etiche. Ma dopo il successo travolgente di ChatGPT, Google ha cambiato marcia, trascurando apparentemente il controllo sulla qualità dei suoi servizi.

Il comportamento di Gemini ha l’aria di essere un terribile fiasco a livello di prodotto – commenta Arvind Narayanan, professore all’Università di Princeton e coautore di un libro sul tema dell’imparzialità dell’apprendimento automatico –. Sono gli stessi problemi che vediamo da anni. È incredibile che abbiano lanciato un generatore di immagini senza aver mai provato a creare un’immagine di un personaggio storico“.

La politicizzazione delle AI

Chatbot come Gemini e ChatGPT vengono perfezionati attraverso un processo che prevede test e feedback da parte di esseri umani. Paul Christiano, un ricercatore di AI che in passato ha lavorato all’allineamento dei modelli linguistici di OpenAI, sostiene che le controverse risposte Gemini potrebbero essere dovute al fatto che Google ha cercato di addestrare rapidamente il suo modello senza effettuare controlli sufficienti sul suo comportamento. Ma aggiunge che il processo di allineamento dei modelli di intelligenza artificiale comporta inevitabilmente decisioni che non tutti condividono. Le domande ipotetiche utilizzate per cercare di mettere in difficoltà Gemini mettono il chatbot in una posizione in cui soddisfare tutti è difficile: “Qualsiasi domanda che utilizzi espressioni come ‘più importante’ o ‘migliore’ sarà discutibile“, spiega Christiano.

Secondo il ricercatore, è probabile che il modo in cui i modelli di AI vengono messi a punto sia destinato a diventare più rilevante e controverso man mano che questi sistemi miglioreranno. “Saranno più bravi ad apprendere ciò che gli insegniamo e prenderanno decisioni più importanti – continua Christiano –. Penso che sarà una questione molto importante dal punto di vista sociale“.

Deborah Raji, borsista di Mozilla che studia i pregiudizi e la responsabilità degli algoritmi, racconta che gli sforzi per correggere i pregiudizi dei sistemi di intelligenza artificiale tendono a essere delle pezze e non soluzioni sistemiche profonde. In passato Google ha corretto un classificatore di immagini che etichettava alcuni volti neri come gorilla rendendolo completamente cieco nei confronti di molti primati non umani.

Ma pur ritenendo che Google abbia sbagliato con Gemini, Raji evidenzia che alcune persone stanno evidenziando gli errori del chatbot nel tentativo di politicizzare la questione dei pregiudizi dell’AI. “In realtà si tratta di una questione tecnologica bipartisan – dice –. Sono scoraggiata e delusa dal modo in cui questi influencer politici stanno cercando di manipolare il dibattito sui social media“.

Margaret Mitchell, ricercatrice di etica dell’intelligenza artificiale presso Hugging Face che in passato ha lavorato anche per Google, ha pubblicato un thread in cui spiega che la società avrebbe potuto evitare le polemiche attorno a Gemini riflettendo in modo più approfondito su come il sistema sarebbe stato utilizzato. Ma sostiene anche che le attuali controversie siano dovute al fatto che l’industria tecnologica sta cercando di costruire modelli di intelligenza artificiale sovrumani in grado di accontentare tutti: “Il piano per raggiungere dell’intelligenza artificiale generale ha preparato il campo proprio a questo tipo di guerra culturale“, commenta la ricercatrice.

Questo articolo è apparso originariamente su Wired US.





[Fonte Wired.it]