Meta, sulla sua piattaforma ufficiale, si è trovata ad affrontare critiche per le ‘allucinazioni’ causate dal suo sistema di intelligenza artificiale. La questione è stata sollevata in seguito alle risposte errate fornite riguardo all’attentato a Donald Trump. La società ha ammesso che i chatbot, incluso Meta AI, possono essere poco affidabili in situazioni di crisi e confusione, come nel caso di eventi in tempo reale con informazioni contrastanti. In risposta a queste problematiche, Meta ha deciso di non rispondere alle domande riguardanti il tentato omicidio e di aggiornare le proprie risposte per evitare ulteriori errori. Tuttavia, alcune ‘allucinazioni’ persistono, rappresentando una sfida per il settore dell’intelligenza artificiale.
Nel caso specifico di un’immagine ritoccata di Trump, Meta ha spiegato che inizialmente è stata erroneamente etichettata come verificata perché simile all’originale. Tuttavia, l’azienda ha corretto prontamente l’errore e continua a lavorare per migliorare la precisione dei suoi sistemi. In conclusione, Meta si impegna a risolvere le criticità emerse e a garantire una maggiore attendibilità delle sue risposte.
Benché affronti delle critiche, Meta dimostra di essere consapevole dei propri limiti e di lavorare costantemente per migliorare le funzionalità del suo sistema di intelligenza artificiale.
E Ink annuncia il touchpad e-paper dedicato all’intelligenza artificiale
E Ink lancia un touchpad per laptop con display e-paper a colori, progettato per ospitare applicazioni e assistenti AI: consumi ridottissimi, leggibilità perfetta e nuove modalità di interazione, ma restano dubbi su specifiche e tempi di arrivo Articolo...