Seleziona una pagina
venerdì, Set 20

Con queste immagini, l’intelligenza artificiale non è poi così intelligente


Un recente esperimento statunitense ha confermato che ci sono immagini che i sistemi Ia di “machine vision” proprio non riescono a identificare. Ed è un problema

Alcune delle immagini utilizzate dai ricercatori che hanno mandato in confusione i sistemi di intelligenza artificiale (via The Verge)

Confondere un insieme di insetti adagiati su una foglia per un naufragio pare impossibile, eppure a macchiarsi di questo errore marchiano è stato ciò che è spesso indicato come prova dell’inevitabile ascesa dei computer: l’intelligenza artificiale.

Durante un esperimento congiunto dei ricercatori dell’università di Berkeley, di quella di Washington e di Chicago, il team ha sottoposto ad alcuni sistemi di machine vision una serie di immagini che in inglese sono dette adversarial – significa che mandano in confusione i sistemi di machine learning, impedendogli di identificare correttamente ciò che si trovano davanti – tra le quali compariva anche la foto degli insetti sulla foglia.

Nel corso di questo esperimento, i sistemi di Ia si sono confusi con grande frequenza: anzi, hanno fallito sempre, tranne nel 2 o 3% dei casi – e, alla fine del test, il loro tasso di accuratezza nel riconoscimento degli oggetti è calato del 90% su quanto fatto segnare precedentemente.

I sistemi che i ricercatori hanno utilizzato per il test erano avanzati, eppure si sono confusi scambiando un topo per un gatto, un tubo di scarico per una siringa, e così via. Secondo il team che ha condotto lo studio, quest’alta percentuale di errore si deve soprattutto al fatto che i software “si affidano troppo ai colori, alla texture e al background” per identificare l’oggetto. In un caso, per esempio, l’intelligenza artificiale ha scambiato una libellula per una banana: nella foto che ritraeva l’animale, il colore predominante era il giallo.

Errori e speranze

Non è la prima volta che l’intelligenza artificiale delude. Come sottolinea The Verge, gli esperti hanno sempre detto che i sistemi di machine vision che usano il deep learning possono risultare fallaci perché non hanno la stessa flessibilità di ragionamento di noi umani.

Questi errori rappresentano un problema: l’identificazione degli oggetti e delle persone è alla base dei sistemi che permettono alle auto di guidare in maniera autonoma e di alcuni sistemi di videosorveglianza, tanto per fare alcuni esempi. Se l’intelligenza artificiale non capisce cosa ha di fronte, non è solo inefficace, ma addirittura dannosa.

Per fortuna, non tutti i sistemi di machine vision incappano in questi sbagli e spesso quelli che commette non sono gravi (a livello pratico, prendere un camioncino per una limousine in molti casi non cambia nulla). Capire perché ciò avviene e trovare una soluzione, è una delle più grandi sfide di questo settore.

Potrebbe interessarti anche





Source link