Una donna affetta da meningite parla attraverso un avatar

Nel 2005, Ann Johnson fu colpita da un ictus che la lasciò gravemente paralizzata e incapace di parlare. Ha 30 anni.

Nella migliore delle ipotesi, poteva emettere suoni come “o” e “ah”, ma il suo cervello stava ancora emettendo segnali.

Ora, 18 anni dopo l’ictus di Johnson, rappresentando una pietra miliare scientifica, una tecnologia sperimentale ha tradotto i segnali del suo cervello in parole udibili, permettendole di comunicare attraverso un avatar digitale.

La tecnologia, sviluppata dai ricercatori dell’Università della California, San Francisco e dell’Università della California, Berkeley, si basa su un impianto posizionato sulla superficie del cervello di Johnson in aree associate alla parola e al linguaggio.

L’impianto, che Johnson ha ricevuto durante un intervento chirurgico l’anno scorso, contiene 253 elettrodi che intercettano i segnali cerebrali provenienti da migliaia di neuroni. Durante l’intervento, i medici hanno installato una porta nella testa di Johnson che si collega a un cavo che trasporta i segnali cerebrali a una serie di computer.

I computer utilizzano algoritmi di intelligenza artificiale per tradurre i segnali cerebrali in frasi pronunciate attraverso l’animazione digitale. Quindi, quando Johnson ha provato a pronunciare una frase come “Piacere di rivederti”, un avatar su uno schermo vicino ha pronunciato le parole ad alta voce.

Il sistema sembra essere significativamente più veloce e preciso rispetto alle tecnologie precedenti che hanno tentato imprese simili e ha consentito a Johnson di comunicare utilizzando un vocabolario relativamente ampio.

I ricercatori hanno utilizzato una registrazione di Johnson mentre parlava al suo matrimonio per personalizzare la voce dell’avatar. Il sistema ha convertito i segnali cerebrali di Johnson in movimenti facciali nell’avatar, come labbra ed espressioni emotive come tristezza o sorpresa.

READ  L’OPEC+ concorda di intensificare i tagli volontari alla produzione di petrolio

I risultati dell’esperimento furono Pubblicato mercoledì Sulla rivista Natura.

Max Dougherty, coordinatore della ricerca clinica dell’Università della California, a San Francisco, collega una porta dati neurologici alla testa di Johnson il 22 maggio a El Cerrito, in California.Noè Berger

Il dottor Edward Chang, l’autore dello studio che ha eseguito l’intervento chirurgico di Johnson, ha detto di essere “assolutamente entusiasta” di vederla comunicare attraverso l’avatar.

“Niente può esprimere quanto sia soddisfacente vedere qualcosa di simile in tempo reale”, ha detto Chang, capo della neurochirurgia dell’UCSF, in una conferenza stampa.

La tecnologia ha ridotto gli sforzi vocali di Johnson a quasi 80 parole al minuto. Una velocità di parola normale è compresa tra 150 e 200, ha detto Chang. La precisione media di Johnson era di circa il 75% quando utilizzava un vocabolario di 1.024 parole.

In un sondaggio di feedback, Johnson ha scritto di essere rimasto commosso nel sentire l’avatar parlare con la sua voce.

“Per i primi 7 anni dopo l’ictus, tutto ciò che ho usato era una lavagna. Mio marito si è alzato ed era così stufo di dover tradurre la lavagna per me”, ha scritto.

Johnson utilizza un collegamento digitale collegato alla sua corteccia per interfacciarsi con un avatar il 22 maggio a El Cerrito, in California.Noè Berger

Entrando nella ricerca, il suo obiettivo lunare era diventare una consulente e utilizzare la tecnologia per parlare con i clienti.

“Penso che Avatar li renderà molto più semplici”, ha scritto.

La tecnologia non è wireless, quindi non è ancora sufficientemente avanzata per integrarsi nella vita quotidiana di Johnson.

READ  Il fuoco dell'erba di Balch Springs brucia più case, evacuazioni emesse - NBC 5 Dallas-Fort Worth

Due studi paralleli mostrano come gli impianti cerebrali attivano la parola

Anche il secondo studio Pubblicato mercoledì su NatureAllo stesso modo una vittima di ictus è stata aiutata a comunicare in tempo reale.

Il soggetto, Pat Bennett, la malattia di Lou Gehrig, o sclerosi laterale amiotrofica, è una condizione neurologica che indebolisce i muscoli. Bennett può ancora camminare e vestirsi, ma non può più usare i muscoli della bocca e della gola per formare parole.

Dopo aver impiantato due minuscoli sensori nel suo cervello, i ricercatori dell’Università di Stanford hanno addestrato un programma software a decodificare i segnali provenienti dalle singole cellule cerebrali e a tradurli in parole sullo schermo di un computer. Come nel primo studio, i sensori erano collegati al computer tramite un cavo.

La tecnologia ha convertito i tentativi di parlare di Bennett in parole a una velocità di 62 parole al minuto ed era accurata al 91% quando ha utilizzato un vocabolario di 50 parole. Ma quando ha utilizzato un vocabolario di 125.000 parole, la precisione è scesa a circa il 76%, il che significa che 1 parola su 4 era sbagliata.

“Alla fine, le persone che non possono parlare apprezzeranno che la tecnologia sia più accessibile”, ha scritto Bennett in una nota. “Le persone non verbali possono rimanere in contatto con il mondo più vasto, magari continuare a lavorare e mantenere amicizie e rapporti familiari.”

La comunicazione cervello-computer non è ancora perfetta

Esperimenti che utilizzano elettrodi per leggere i segnali cerebrali datati Alla fine degli anni ’90Ma il campo della ricerca ha fatto passi da gigante negli ultimi anni.

Nel 2021, il team di Stanford dietro l’esperimento di Bennett ha utilizzato impianti cerebrali e software di intelligenza artificiale. Traduci in testo i segnali cerebrali coinvolti nella scrittura di un uomo paralizzato sullo schermo del computer. Nello stesso anno, il gruppo di ricerca di Chang presso l’UCSF dimostrò per la prima volta che i segnali cerebrali di un uomo gravemente paralizzato potevano essere tradotti con successo direttamente in parole.

READ  Kylie Jenner e Stormi escono per supportare Travis Scott al First Arena Show

Ma due nuovi esperimenti descritti su Nature hanno consentito una comunicazione molto più rapida rispetto ai tentativi precedenti.

“Con questi nuovi studi, è ora possibile immaginare un futuro in cui una persona colpita da un ictus potrà riacquistare una conversazione fluente e dire liberamente tutto ciò che vuole con sufficiente precisione per essere compresa in modo affidabile”, ha affermato l’autore principale. Lo studio di Stanford, ha detto alla conferenza Francis Willett, scienziato del Neural Prosthetics Translational Laboratory di Stanford.

Pat Bennett, sotto, partecipa a una sessione di ricerca.Steve Pesce

UN editoriale Oltre ai due studi pubblicati mercoledì, tuttavia, ci sono molte sfide da affrontare per rendere le tecnologie ampiamente disponibili.

Innanzitutto, entrambi i partecipanti potevano ancora muovere i muscoli facciali e produrre alcuni suoni, quindi non è chiaro come si comporterebbero i computer nelle persone senza alcun movimento residuo. In secondo luogo, sollevava la questione se la tecnologia potesse essere utilizzata da chiunque non fosse un ricercatore altamente qualificato.

Questi sistemi sono “troppo complessi perché gli operatori sanitari possano operare in ambienti domestici senza una formazione e una manutenzione approfondite”, afferma l’editoriale.

Il dottor Jaime Henderson, professore di neurochirurgia a Stanford che ha eseguito l’intervento di Bennett, ha riconosciuto i limiti ma ha affermato che c’è ampio spazio per ulteriori miglioramenti.

“Penso che qui ci siano tecnologie chirurgiche impiantabili, almeno per il prossimo futuro”, ha detto Henderson.

Il suo obiettivo a lungo termine, ha detto, è assicurarsi che le persone affette dalla malattia di Lou Gehrig non perdano mai la capacità di comunicare.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *