Meta, sulla sua piattaforma ufficiale, si è trovata ad affrontare critiche per le ‘allucinazioni’ causate dal suo sistema di intelligenza artificiale. La questione è stata sollevata in seguito alle risposte errate fornite riguardo all’attentato a Donald Trump. La società ha ammesso che i chatbot, incluso Meta AI, possono essere poco affidabili in situazioni di crisi e confusione, come nel caso di eventi in tempo reale con informazioni contrastanti. In risposta a queste problematiche, Meta ha deciso di non rispondere alle domande riguardanti il tentato omicidio e di aggiornare le proprie risposte per evitare ulteriori errori. Tuttavia, alcune ‘allucinazioni’ persistono, rappresentando una sfida per il settore dell’intelligenza artificiale.
Nel caso specifico di un’immagine ritoccata di Trump, Meta ha spiegato che inizialmente è stata erroneamente etichettata come verificata perché simile all’originale. Tuttavia, l’azienda ha corretto prontamente l’errore e continua a lavorare per migliorare la precisione dei suoi sistemi. In conclusione, Meta si impegna a risolvere le criticità emerse e a garantire una maggiore attendibilità delle sue risposte.
Benché affronti delle critiche, Meta dimostra di essere consapevole dei propri limiti e di lavorare costantemente per migliorare le funzionalità del suo sistema di intelligenza artificiale.
Redstone su RDNA 3? Non è nei piani di AMD, ma non si sa mai
AMD ha ribadito che FSR Redstone è progettato per RDNA 4, poiché i carichi ML richiedono tempi di elaborazione compatibili con il frame budget. L’azienda guarda con interesse gli esperimenti della community su RDNA 3, ma al momento non ci sono piani per…


