Meta, sulla sua piattaforma ufficiale, si è trovata ad affrontare critiche per le ‘allucinazioni’ causate dal suo sistema di intelligenza artificiale. La questione è stata sollevata in seguito alle risposte errate fornite riguardo all’attentato a Donald Trump. La società ha ammesso che i chatbot, incluso Meta AI, possono essere poco affidabili in situazioni di crisi e confusione, come nel caso di eventi in tempo reale con informazioni contrastanti. In risposta a queste problematiche, Meta ha deciso di non rispondere alle domande riguardanti il tentato omicidio e di aggiornare le proprie risposte per evitare ulteriori errori. Tuttavia, alcune ‘allucinazioni’ persistono, rappresentando una sfida per il settore dell’intelligenza artificiale.
Nel caso specifico di un’immagine ritoccata di Trump, Meta ha spiegato che inizialmente è stata erroneamente etichettata come verificata perché simile all’originale. Tuttavia, l’azienda ha corretto prontamente l’errore e continua a lavorare per migliorare la precisione dei suoi sistemi. In conclusione, Meta si impegna a risolvere le criticità emerse e a garantire una maggiore attendibilità delle sue risposte.
Benché affronti delle critiche, Meta dimostra di essere consapevole dei propri limiti e di lavorare costantemente per migliorare le funzionalità del suo sistema di intelligenza artificiale.
Cosa si può fare con una stablecoin denominata in euro?
Non una delle tante criptovalute imprevedibili, ma una stablecoin denominata in euro, conforme al regolamento MiCAR ed emessa dalle banche. È la scommessa di dieci istituti di credito europei – gli italiani Banca Sella e UniCredit, più ING, KBC, Danske Bank,...



