Meta, sulla sua piattaforma ufficiale, si è trovata ad affrontare critiche per le ‘allucinazioni’ causate dal suo sistema di intelligenza artificiale. La questione è stata sollevata in seguito alle risposte errate fornite riguardo all’attentato a Donald Trump. La società ha ammesso che i chatbot, incluso Meta AI, possono essere poco affidabili in situazioni di crisi e confusione, come nel caso di eventi in tempo reale con informazioni contrastanti. In risposta a queste problematiche, Meta ha deciso di non rispondere alle domande riguardanti il tentato omicidio e di aggiornare le proprie risposte per evitare ulteriori errori. Tuttavia, alcune ‘allucinazioni’ persistono, rappresentando una sfida per il settore dell’intelligenza artificiale.
Nel caso specifico di un’immagine ritoccata di Trump, Meta ha spiegato che inizialmente è stata erroneamente etichettata come verificata perché simile all’originale. Tuttavia, l’azienda ha corretto prontamente l’errore e continua a lavorare per migliorare la precisione dei suoi sistemi. In conclusione, Meta si impegna a risolvere le criticità emerse e a garantire una maggiore attendibilità delle sue risposte.
Benché affronti delle critiche, Meta dimostra di essere consapevole dei propri limiti e di lavorare costantemente per migliorare le funzionalità del suo sistema di intelligenza artificiale.
Tesla, è ufficiale: i Robotaxi fanno 10 volte più incidenti dei conducenti umani
I dati NHTSA sui test Robotaxi Tesla ad Austin indicano un tasso di incidenti superiore alla guida umana. Tra luglio e novembre 2025 si registrano nove collisioni su 500.000 miglia, nonostante i test prevedano ancora un supervisore a bordo Articolo Originale


