Seleziona una pagina
mercoledì, Nov 06

Il software della self-driving car Uber, le falle e l’incidente mortale


Nel marzo dello scorso anno il programma di Uber legato allo sviluppo della tecnologia self-driving car ha subito un brusco stop dopo che una delle vetture coinvolte nella fase di sperimentazione ha travolto e ucciso una donna. L’iniziativa è stata riavviata alla fine del 2018, con la responsabilità dell’incidente che stando al parere di un pubblico ministero non sarebbe da attribuire al sistema di guida autonoma.

La self-driving car di Uber e l’incidente mortale

Oggi il pronunciamento della National Transportation Safety Board che con un documento pubblico afferma come un’analisi del codice abbia rilevato alcune falle. Nel dettaglio, gli algoritmi dedicati alla gestione del veicolo non sarebbero stati in grado di rilevare la presenza di pedoni durante l’attraversamento della carreggiata non in prossimità delle strisce. È esattamente la dinamica costata la vita a Elaine Herzberg, 49 anni, in seguito all’impatto avvenuto sulle strade di Tempe, nelle vicinanze di Phoenix (Arizona).

L’IA ha individuato il pericolo di collisione solo 1,2 secondi prima della tragedia, un lasso di tempo troppo breve e non sufficiente per agire con efficacia l’impianto frenante. L’attivazione dei freni è stata inoltre ritardata di un secondo (lasciando così solo due decimi per rallentare) poiché la tecnologia ha prima valutato la possibilità di deviare la propria traiettoria o di ripristinare il comando manuale da parte dell’operatore presente a bordo. Tutto questo sebbene la sagoma della donna sia stata riconosciuta da videocamere e sensori con quasi 6 secondi di anticipo. Riportiamo di seguito e in forma tradotta un estratto del documento.

Nonostante il sistema abbia individuato il pedone quasi sei secondi prima dell’impatto… non è mai stato classificato come un pedone perché stava attraversando in un punto privo di strisce e il sistema non prende in considerazione tale possibilità.

Uber e guida autonoma

Il report parla di altri due casi in cui si sono verificate anomalie, fortunatamente senza gravi conseguenze. In un’occasione l’IA non ha evitato l’impatto con il cartello relativo a una pista ciclabile, finendo col piegarlo verso la strada. Nell’altra l’operatore a bordo ha fatto in tempo ad assumere i comandi evitando di colpire una vettura proveniente dalla direzione opposta, finendo però contro un’auto parcheggiata.

Ancora, si apprende che nei sette mesi che hanno preceduto lo scontro fatale, le self-driving car di Uber sono rimaste coinvolte in un totale pari a 37 incidenti. Per 33 di questi la responsabilità non è da attribuire al sistema di Uber.

Anche sulla base dell’esperienza acquisita, la società afferma ora che la propria tecnologia sarebbe in grado di identificare la presenza di un pedone (anche fuori dalle strisce) a circa 88 metri di distanza, dunque con un margine più che sufficiente per frenare in modo sicuro. A una velocità di 70 Km/h lo spazio necessario a un essere umano per fermarsi completamente è di 70 metri, considerando anche il tempo di reazione.

La National Transportation Safety Board tornerà ad analizzare il caso nelle prossime settimane, il 19 novembre. Come scritto in apertura, l’azienda è già stata ritenuta non responsabile dal punto di vista penale per quanto accaduto, mentre nei confronti dell’operatore (Rafaela Vasquez, 44 anni) le accuse non sono ancora cadute. Al momento dell’impatto, anziché tenere gli occhi ben saldi sulla strada, la donna stava guadando un video in streaming sul proprio smartphone.



Source link