
Poter tradurre i pensieri in un discorso è uno dei sogni della bionica ma, almeno fino ad ora, si è sempre trattato, appunto, di un “sogno”. I progressi negli ultimi anni, in questo specifico campo, sembrano comunque inarrestabili. Lo dimostra anche La serie di esperimenti eseguiti dal dottor Ashesh Mehta, un neurochirurgo dell’Istituto Feinstein per la ricerca medica a Long Island, esperimenti citati in un articolo su Scientific American.
Il chirurgo ha posizionato una serie di micro elettrodi sul lato sinistro della superficie del cervello di un paziente che offre di epilessia.
Ispezionando gli impulsi elettrici che si attivano quando una persona “pronuncia” nella propria mente le parole, ad esempio quelle che intende proferire, il medico è riuscito a trasmettere questi specifici segnali in modalità wireless ad un computer.
Attualmente gli esperimenti sono ancora in corso ma, se tutto andrà bene, potrebbe essere una delle principali conquiste nel campo delle interfacce cervello-computer che, fino ad ora, si sono limitate a quelle relative al movimento o ad una sensazione tattile.
Per il momento l’obiettivo non è quello di far pronunciare al paziente un poema shakespeariano: almeno all’inizio ci si limiterà a far decodificare al computer affermazioni o parole molto semplici, come “sì” o “no” oppure “fame” o “dolore”. Va da sé che un sistema del genere risulterebbe utilissimo soprattutto per tutte quelle persone, ad esempio quelle con lesione del midollo spinale oppure con altre condizioni paralizzanti, che non possono parlare.
E gli stessi ricercatori si mostrano fiduciosi, come dichiara Brian Pasley dell’Università di Berkeley: “Pensiamo di avere una comprensione sufficiente dei segnali cerebrali che codificano il discorso silenzioso e che presto potremo fare qualcosa di pratico”.
Le difficoltà comunque non sono poche. Una delle principali sta nel fatto che il linguaggio è codificato all’interno del cervello tramite una vasta rete interconnessa, così complessa che le attuali tecniche di monitoramento tramite elettrodi non sono ancora in grado di leggere con precisione. Inoltre non è ancora chiaro con precisione quali sono le specifiche aree del cervello coinvolte proprio per quanto riguarda il linguaggio.
Ma in questo caso la sensazione è che l’applicazione di un sistema del genere ad un paziente con disabilità possa essere solo l’inizio di una vera e propria tecnica per estrapolare i pensieri umani ed inserirli in un computer. Una volta decodificati, con tali pensieri è poi possibile fare di tutto, dalla pronuncia con una voce sintetizzata fino ad una banale ricerca con Google o alla dettatura di un testo, il tutto senza proferire una sola parola.
Fonti e approfondimenti
Articoli correlati
- Segnali del cervello trasformati in voce sintetizzata con un nuovo dispositivo
- Sistema che traduce i pensieri in parole sintetizzate al computer creato da ricercatori della Columbia
- Intelligenza artificiale per leggere mente umana, nuovo passo avanti
- Computer che leggono la mente, progressi esponenziali: ora riconoscono numeri da 0 a 9
- Interfaccia cervello-computer converte lettere immaginate in testi a 90 caratteri al minuto
- Computer legge la mente e scopre che musica stai ascoltando
- Scienziati ricostruiscono al computer immagini viste da una persona elaborando segnali del cervello
- Trasferire immagini da un cervello a un altro è possibile secondo gruppo di ricercatori