Robot imparano a leggere lo sguardo umano, senza aiuto umano diretto

Un nuovo studio presentato all’IEEE International Conference on Robotics and Automation (ICRA)[1] mostra come i robot umanoidi possano apprendere autonomamente i comportamenti sociali grazie a un innovativo sistema di simulazione che elimina la necessità di interazioni umane dirette durante le fasi iniziali di sviluppo.

Occhi virtuali per comprendere il mondo sociale

Alla base di questa scoperta si trova un sofisticato modello di predizione dello sguardo, progettato per imitare il modo in cui gli esseri umani muovono gli occhi nelle situazioni sociali. Lo sguardo, infatti, rivela dove si concentra l’attenzione e svela l’intenzione durante un’interazione. Grazie a questa capacità, i robot possono ora prevedere e replicare questi comportamenti, rendendo il loro modo di relazionarsi più naturale, fluido e realistico.

Simulazioni al posto delle persone

I test con persone reali sono sempre stati un passaggio obbligato ma costoso e complicato. Il nuovo approccio consente di sostituirli con simulazioni che proiettano mappe visive dello sguardo umano, comparandole poi con quelle generate dal robot. L’obiettivo è verificare quanto il robot riesca ad allinearsi al comportamento autentico degli esseri umani, e finora i risultati sono molto promettenti.

Robot più empatici ed efficienti

Le applicazioni potenziali sono numerose: dall’assistenza nei negozi con robot come Pepper, al supporto terapeutico con robot come Paro. In ognuno di questi contesti, la capacità di interpretare dove guarda una persona e di rispondere di conseguenza migliora l’interazione e la rende più efficace. Dr. Di Fu, tra gli autori dello studio, sottolinea l’importanza della robustezza del sistema anche in ambienti complessi e rumorosi, un traguardo tecnico tutt’altro che scontato.

Verso una robotica sociale più accessibile

Oltre a ridurre tempi e costi, l’uso di simulazioni apre la strada a una diffusione più ampia della robotica sociale, rendendola accessibile a realtà più piccole come startup o università. Il modello è flessibile e potrebbe presto essere applicato a contesti sociali ancora più articolati. L’unione di neuroscienze cognitive e intelligenza artificiale ha così creato uno strumento che permette ai robot di apprendere senza la guida continua dell’uomo, accorciando la distanza tra macchina e persona.

Approfondimenti

  1. Under Embargo: Robots Take the Lead—New Study Removes Humans from Initial
Condividi questo articolo

C’è un errore?

Hai trovato un errore in questa pagina? Segnalacelo!

Disclaimer notizie

Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n° 62 del 7.03.2001. L’autore non è responsabile di altri siti collegati tramite link né del loro contenuto che può essere soggetto a variazioni nel tempo.

Notizie scientifiche.it usa i cookie per migliorare l'esperienza di navigazione (Leggi di più)


Dati articolo