Un gruppo di ricercatori della Purdue University dichiara, in un nuovo studio pubblicato su Cerebral Corte x, di aver realizzato quello che può essere definito come nuovo passo avanti nella lettura della mente. I ricercatori sono infatti riusciti a decodificare ciò le persone vedevano in un video grazie ad un algoritmo denominato rete neurale convoluzionale, già utilizzato in passato per consentire ai computer di poter riconoscere volti ad oggetti.
Secondo Zhongming Liu, professore di ingegneria informatica dell’Università Purdue ed uno degli autori della ricerca, “Questo tipo di rete ha avuto un enorme impatto nel campo della visione artificiale negli ultimi anni. La nostra tecnica usa la rete neurale per capire quello che stai vedendo”.
La rete si basa sul processo dell’apprendimento profondo (deep learning) per capire come il cervello elabora le immagini statiche o altri stimoli visivi. Si tratta del primo studio che utilizza un approccio simile per capire come il cervello elabora la visione di filmati.
La ricerca può in effetti rivelarsi un passo avanti notevole verso la vera decodifica di cosa sta visionando una persona analizzando solo il suo cervello.
La ricerca si è avvalsa di una fase di “addestramento” durante la quale tre persone sono state sottoposte alla visione di 972 videoclip che mostravano persone o animali e scene naturali. Il cervello di queste persone è stato analizzato, nel momento in cui stavano visionando il viso, tramite risonanze magnetiche e i dati raccolti sono poi stati utilizzati per addestrare il modello della rete neuronale convoluzionale per prevedere l’attività della corteccia visiva del cervello.