Liz Reid, la manager di ricerca di Google, ha finalmente svelato cosa c’è dietro alla strana serie di consigli sbagliati forniti da Gemini AI negli ultimi giorni. “Abbiamo notato che sulla nuova funzione ‘Panoramica AI’ di Google Search sono circolati consigli assurdi come mettere la colla sulla pizza o mangiare sassi”, ha dichiarato Reid. “Apprezziamo il feedback e stiamo prendendo seriamente in considerazione il problema, anche se diversi screenshot che circolano online sono chiaramente falsi. Alcuni suggerivano persino comportamenti pericolosi come lasciare i cani in macchina o fumare durante la gravidanza e la depressione, ma ci tengo a precisare che questi non sono mai stati forniti da Google”.
Il caso delle strane e fuorvianti affermazioni generate da AI Overview, la funzione attualmente disponibile solo negli Stati Uniti che offre una sintesi testuale dei risultati di ricerca prima dei classici link ai siti web, è esploso a seguito delle numerosi segnalazioni degli utenti che riportavano le strane indicazioni del chatbot Gemini. Tra queste, la raccomandazione di utilizzare la colla come condimento per la pizza e di consumare sassi in caso di carenza di minerali e vitamine. “È vero che alcune delle panoramica dell’IA sono state fuorvianti, imprecise o inutili a causa di un ‘gap informativo’, ovvero la mancanza di fonti affidabili su determinati argomenti sul web”, ha spiegato Reid. “Stiamo lavorando per migliorare la situazione e, grazie agli esempi recenti, abbiamo individuato i problemi per apportare più di una dozzina di miglioramenti tecnici”.
In conclusione, Google è al lavoro per risolvere le problematiche emerse e garantire un’esperienza di ricerca ancora più affidabile e accurata per tutti gli utenti. Sembra che i giorni in cui la colla sulla pizza era considerata una scelta culinaria legittima siano ormai alle spalle.
FP