L’intelligenza artificiale per restituire la parola a chi ha avuto lesioni cerebrali

Foto archivio Sir

Si tratta della prima volta in cui è possibile sintetizzare il suono delle parole e le espressioni del volto partendo direttamente dall’attività cerebrale.

Un mondo sempre più “tecnologico”, progressivamente, si allea con l’uso della IA. Risultato? Inedite – e sorprendenti – possibilità che, per fortuna, spesso sono anche poste al servizio della medicina più avanzata.
È il caso di Ann Johnson, una donna canadese, insegnante, pallavolista e madre di una bimba. 18 anni fa, in seguito ad un ictus, era rimasta paralizzata e incapace di parlare: oggi, Ann è tornata a parlare e a trasmettere emozioni attraverso un avatar, che si esprime con la sua stessa voce e, persino, le somiglia un po’.
Come è stato possibile? Grazie allo sviluppo di un progetto diretto dal neuroscienziato David Moses, dell’Università della California (San Francisco, Usa).

L’esperimento (descritto da un articolo pubblicato su “Nature”) è consistito nell’impiantare direttamente a contatto con la corteccia cerebrale della paziente una griglia di elettrodi, capaci di decodificare i suoi segnali cerebrali e di convertirli in linguaggio scritto e parlato, pronunciato sullo schermo di un computer dall’alter ego digitale della donna, in pratica dal suo “avatar”.

È da rimarcare che si tratta della prima volta in cui è possibile sintetizzare il suono delle parole e le espressioni del volto partendo direttamente dall’attività cerebrale.
Fatto sta che, oggi, Ann Johnson riesce a produrre semplici frasi (al ritmo di 78 parole al minuto) e a intavolare brevi conversazioni con il marito grazie alla tecnica dell’elettrocorticografia, ovvero la lettura dell’attività elettrica del cervello prodotta quando la donna pensa di formulare parole o espressioni del volto.

In pratica, l’impianto di elettrodi è connesso attraverso un cavo a un computer, dove un sofisticato sistema di IA interpreta l’attività elettrica relativa alla formulazione del linguaggio e ai processi motori di bocca, labbra, mascelle, lingua e laringe e la tramuta nei fonemi (gli elementi sonori) che compongono le varie parole, una sorta di “alfabeto dei suoni parlati”.

Certamente, come ogni procedura sperimentale, rimangono molti aspetti da migliorare. Attualmente, ad esempio, il sistema si sbaglia sul suono che Ann intende emettere circa un quarto delle volte (25%), ma sfruttando modelli di predizione del linguaggio per provare a immaginare le parole che la paziente inserirà nelle sue frasi, esso migliora con il tempo, man mano che affina il riconoscimento dello stile linguistico della donna.

Naturalmente, l’obiettivo a lungo termine di Moses e colleghi è aiutare le persone private delle capacità di espressione linguistica – per danni cerebrali o condizioni come la paralisi cerebrale o la sclerosi laterale amiotrofica – ad avere conversazioni in tempo reale, sfruttando avatar capaci di veicolare anche le loro emozioni, le increspature dei muscoli facciali, il loro tono e l’inflessione della voce.

In questo caso, è stata Ann Johnson stessa a scegliere la propria immagine digitale, basandosi sulle sembianze del volto, mentre la voce del suo avatar è stata sviluppata dai ricercatori a partire dal discorso pronunciato dalla donna al suo matrimonio.
In futuro, le nuove versioni della piattaforma potrebbero funzionare anche via wireless (con eliminazione dei cavi di connessione).

Soltanto due anni fa, lo stesso gruppo di scienziati aveva usato un impianto e un algoritmo più semplici per aiutare un uomo paralizzato a produrre 50 parole basilari (come “ciao”, e “pane”), mostrate in forma testuale sullo schermo di un computer mentre l’uomo provava a pronunciarle.

Oggi, la griglia di elettrodi più ampia e complessa impiantata su Ann Johnson permette una lettura molto più raffinata dei segnali cerebrali, mentre il nuovo algoritmo è specializzato nella produzione di una conversazione parlata.