
Una delle cose che facciamo quando guidiamo un’auto per evitare un incidente, in particolare per evitare di investire un pedone, è quella di adocchiare i gesti, la posizione del corpo, le movenze dei pedoni stessi, cosa stanno facendo (ad esempio si sono al telefono): il nostro cervello riesce ad interpretare tutti questi dati, raccolti in pochissimi secondi, onde prevedere dove i pedoni indirizzeranno il loro prossimo passo e in generale cosa faranno.
Si tratta di qualcosa che facciamo sempre, anche in maniera inconscia, e che ci aiuta tantissimo. Insegnare qualcosa del genere ad un software, nello specifico ad uno di quelli che caratterizzano un’auto a guida autonoma, è tutto un altro paio di maniche.
Un gruppo di ricercatori dell’Università del Michigan ci sta però provando. I ricercatori stanno letteralmente insegnando alle auto a guida autonoma a riconoscere e a prevedere i movimenti dei pedoni.
I software attuali, a dire il vero, già lo fanno ma in maniera alquanto primitiva e un miglioramento in tal senso è più che auspicabile.
Per il momento i ricercatori si stanno limitando ad utilizzare i dati raccolti dai veicoli autonomi attraverso le loro telecamere. Catturando frammenti di video di esseri umani movimento e ricreandoli in simulazioni computerizzate, i ricercatori stanno cercando di ricreare una rete neurale ricorrente di ispirazione biomeccanica, una sorta di catalogo di tutti i movimenti, anche quelli minori, degli esseri umani quando camminano in strada.
I ricercatori sperano di prevedere le posizioni future dei pedoni di fronte ad una veicolo a guida autonoma fino ad una distanza di circa 50 metri.
Si tratta di un lavoro molto complesso che dovrà prendere in considerazione ogni piccolissimo movimento umano nel dettaglio, dal ritmo dell’andatura, alla simmetria speculare degli arti fino al preciso posizionamento del piede durante il passo.
Secondo Ram Vasudevan, professore associato di ingegneria meccanica, impegnato proprio in questo progetto, questa ricerca è innovativa perché le precedenti ricerche simili si basavano su immagini statiche, in 2D. Questo nuovo studio, invece, prende in considerazione video di diversi secondi di durata, dunque dati in tre dimensioni che, si spera, potranno permettere un livello di dettaglio, per quanto riguarda le previsioni, migliore.
Fonti e approfondimenti
- Teaching self-driving cars to predict pedestrian movement | University of Michigan News (IA)
- Bio-LSTM: A Biomechanically Inspired Recurrent Neural Network for 3D Pedestrian Pose and Gait Prediction – IEEE Journals & Magazine (DOI: 10.1109/LRA.2019.2895266) (IA)
Articoli correlati
- Veicoli a guida autonoma proiettano linee per terra per far capire a pedoni dove vogliono andare (27/1/2019)
- Auto a guida autonoma di Uber investe donna in bici e la uccide (19/3/2018)
- Auto senza conducente potranno circolare in California, anche senza nessuno a bordo (1/3/2018)
- GM prevede prime consegne di auto senza volante nel 2019 (13/1/2018)
- Auto autonome provocheranno ancora più traffico perché gireranno per la città per evitare di pagare parcheggi secondo scienziato (4/2/2019)
- Nuovo algoritmo permette a robot militari USA di imparare da umani (12/8/2020)
- NVIDIA e Continental si uniscono per costruire sistema di guida autonoma (5/2/2018)
- Autostrada con corsie per veicoli a guida autonoma sarà costruita in Cina (18/4/2019)