
Il comparto relativo alla progettazione di nuove interfacce cerebrali per trasformare una frase pensata in una fase realmente pronunciata attraverso una voce sintetizzata al computer è sempre molto attivo. Un nuovo annuncio arriva da un gruppo di scienziati dell’Università della California a San Francisco che dichiara di avere creato una nuova interfaccia cerebrale che traduce in una voce sintetizzata frasi complete.
Si tratta di un nuovo passo avanti verso un sistema realmente in grado di aiutare le persone paralizzate a comunicare semplicemente utilizzando il pensiero.
Il neurochirurgo Edward Chang ha ideato un modello computerizzato creato analizzando le frasi pensate da cinque persone con epilessia.
Già in precedenza si era riusciti ad utilizzare segnali motori da diverse parti del cervello per controllare strutture robotiche come braccia e questo è lo stesso metodo utilizzato da Chang: controllare e decodificare quelle strutture cerebrali, in particolare i nervi, che si attivano quando si vogliono far muovere gli organi vocali per pronunciare una parola.
La rilevazione di questi piccoli segnali del cervello avviene tramite un pad flessibile di elettrodi chiamatoarray elettrocorticografico, o ECoG, poggiato sul cranio. I ricercatori sono riusciti a creare e ad addestrare un algoritmo di deep learning in base ai dati ottenuti attraverso esperimenti, relativi anche ad altre ricerche precedenti, creando un dispositivo che trasforma i segnali cerebrali che si attivano per muovere le zone del tratto vocale in un voce sintetizzata.
Secondo lo stesso Chang il 70% delle parole pronunciate attraverso la voce sintetizzata era intelleggibile.
Gli stessi ricercatori dichiarano in ogni caso che molta strada c’è ancora da fare affinché si possa creare un sistema di voce sintetizzata facilmente comprensibile di possa essere utilizzato anche con le parole pensate, non solo con quelle che si tenta di pronunciare cercando di attivare il movimento della bocca e del tratto orale.
Esempi
Esempi di frasi pensate dai pazienti e poi sintetizzate da una voce al computer (è presente prima la pronuncia corretta della frase, poi quella creata partendo dal pensiero del paziente):
Fonti e approfondimenti
- Scientists have found a way to decode brain signals into speech – MIT Technology Review (IA)
- Brain signals translated into speech using artificial intelligence (IA)
- New device translates brain activity into speech. Here’s how. (IA)
- Speech synthesis from neural decoding of spoken sentences | Nature (IA) (DOI: 10.1038/s41586-019-1119-1)