Avenç científic

Una neuropròtesi pot llegir el pensament i traduir-lo oralment "quasi a temps real"

L’eina utilitza la mateixa tecnologia que Alexa i Siri per descodificar els senyals cerebrals en paraules.

A l’utilitzar la mateixa veu de la pacient, el procés va acabar sent més natural

Una neuropròtesi pot llegir el pensament i traduir-lo oralment "quasi a temps real"

Redacción

2
Es llegeix en minuts
Valentina Raffio
Valentina Raffio

Periodista.

Especialista en ciència, salut i medi ambient.

Ubicada/t a Barcelona.

ver +

Es tracta d’una tècnica experimental, però, segons afirmen els seus creadors, els resultats són "extremadament prometedors" i en un futur podrien convertir-se en un "recurs essencial" per a les persones que han perdut la capacitat de parlar a causa d’una malaltia. Segons va anunciar ahir la revista científica Nature, un equip d’investigadors de la Universitat de Califòrnia ha desenvolupat una neuropròtesi que aconsegueix llegir el pensament de persones amb paràlisi i traduir-lo oralment "gairebé a temps real". En prototips anteriors s’havien aconseguit resultats similars però amb un retard d’entre 8 i 10 segons, però ara, argumenten els científics, estaríem davant el primer sistema capaç de traduir senyals cerebrals en paraules en pràcticament un segon.

Aquesta tecnologia experimental s’ha posat a prova en una dona de 47 anys anomenada Ann amb una tetraplègia severa derivada d’un ictus que durant més 18 anys no ha pogut articular cap paraula ni moure les extremitats. Per a aquest assaig clínic, els investigadors van implantar una sèrie d’elèctrodes d’alta densitat a la superfície de l’escorça motriu d’aquesta pacient. Després, van dissenyar un protocol per detectar i desxifrar els senyals cerebrals relacionats amb la parla. Paral·lelament també es va desenvolupar un sistema de parla sintètic basat en una antiga gravació de la veu de la pacient amb què, finalment, es va aconseguir retornar la paraula a aquesta dona.

Intel·ligència artificial

Notícies relacionades

La clau de l’èxit d’aquest procés, tal com relaten els seus creadors, va ser l’entrenament de l’algoritme encarregat de llegir i interpretar el pensament d’aquesta pacient. Per a això se li va demanar a Ann que llegís frases com "Hola, ¿com estàs?" i després intentés dir aquesta oració al seu cap. "Això ens va proporcionar un mapatge fragmentat entre les finestres d’activitat neuronal que ella generava i l’oració objectiu que estava mirant de dir", explica Kaylo Littlejohn, un dels científics darrere d’aquest treball. A partir d’aquí, es van aplicar tècniques d’intel·ligència artificial per "omplir" els buits i recrear l’estructura completa darrere la parla.

Segons expliquen els impulsors d’aquest treball, l’altra gran novetat d’aquesta eina és que es va incorporar la mateixa capacitat de descodificació ràpida que dispositius com Alexa i Siri per agilitzar el procés entre la detecció dels senyals cerebrals relacionats amb la parla i l’ordre enviada a l’ordinador per pronunciar-les. Els primers assajos demostren que aquest procés és capaç de traduir el pensament de la pacient oralment "gairebé a temps real". Amb tot just un segon de marge entre el procés de "parla" interna de la dona i la veu emesa per l’ordinador. En assajos anteriors s’havia aconseguit amb una demora d’entre 8 i 10 segons. A més, gràcies al fet d’utilitzar la mateixa veu de la pacient es va aconseguir que aquest procés resultés més natural tant per a ella com per al seu entorn.