Los titulares sobre las computadoras que leen la mente se usan en exceso, pero si nos damos cuenta de lo que estamos tratando de decir, podríamos dar voz a las personas que no pueden hablar.
Edward Chang no puede leer tu mente. Siempre que el laboratorio del neurólogo de la Universidad de California publica una nueva investigación, siempre hay un estribillo familiar: que creó «tecnología de lectura de la mente» o tal vez «leer sus pensamientos». No está solo, es una frase que sigue gran parte de la investigación sobre interfaces cerebro-computadora y decodificación del habla.
Y no es de extrañar, cuando la startup Neuralink de Elon Musk afirma que eventualmente permitirá la «telepatía consensuada» y Facebook, uno de los financiadores del laboratorio de Chang, dijo que quiere permitir que las personas envíen mensajes con solo pensar en las palabras. En lugar de tocar su teléfono. , un ejemplo de interfaz cerebro-computadora (BCI).
Pero Chang no está tratando de leer la mente; decodifica el habla en personas que de otro modo no podrían hablar. «En realidad, no estamos hablando de leer los pensamientos de alguien», dice Chang. “Cada artículo o proyecto que hemos realizado se ha centrado en comprender la ciencia básica de cómo el cerebro controla nuestra capacidad para hablar y comprender el habla. Pero no lo que pensamos, no los pensamientos internos. Tal investigación tendría importantes implicaciones éticas, pero no es posible en este momento, y puede que nunca lo sea.
Incluso la decodificación de voz no es fácil. Su trabajo más reciente, publicado en Nature el año pasado, tenía como objetivo traducir las señales cerebrales producidas por el habla en palabras y oraciones leídas en voz alta por una máquina; El objetivo es ayudar a las personas con enfermedades como la esclerosis lateral amiotrófica (ELA), una enfermedad neurodegenerativa progresiva que afecta a las células nerviosas del cerebro y la médula espinal. «El documento describe la capacidad de controlar la actividad cerebral en personas que hablan normalmente y usarla para crear síntesis de voz, no es leer los pensamientos de alguien», dice. «Es solo leer las señales parlantes».
La tecnología funcionó, hasta cierto punto. A los pacientes con electrodos incrustados en el cerebro se les leyó una pregunta y se les respondió. El sistema de Chang pudo descifrar exactamente lo que escucharon el 76 por ciento de las veces y lo que dijeron el 61 por ciento de las veces mirando la corteza motora para ver cómo crece el cerebro para mover la boca y la lengua. Pero hay advertencias. Las posibles respuestas se limitaron a una selección, lo que facilitó un poco el trabajo del algoritmo. Además, los pacientes estaban en el hospital con escáneres cerebrales para detectar epilepsia y, por lo tanto, podían hablar con normalidad; no está claro cómo esto se traduce en alguien que no puede hablar en absoluto.
«Nuestro objetivo es trasladar esta tecnología a personas paralizadas», dice. «El gran desafío es comprender a alguien que no habla. ¿Cómo se prepara un algoritmo para hacer eso?» Una cosa es formar un modelo usando a alguien a quien puedas pedirle que lea oraciones; escaneas sus señales cerebrales mientras leen oraciones. Pero, ¿cómo se hace eso si alguien no puede hablar?
El laboratorio de Chang se encuentra actualmente en medio de un ensayo clínico que intenta abordar este «formidable desafío», pero aún no está claro cómo cambian las señales del habla para quienes no pueden hablar o si se deben considerar diferentes áreas del cerebro. «Hay estas cuestiones bastante sustanciales que debemos abordar en términos de nuestro conocimiento científico», dice.
Decodificar tales señales es un desafío, en parte, debido a lo poco que entendemos cómo funciona nuestro propio cerebro. Y aunque los sistemas se pueden entrenar más fácilmente para mover un cursor hacia la izquierda o hacia la derecha, el habla es complicada. «Los principales desafíos son el enorme vocabulario que caracteriza esta tarea, la necesidad de una calidad de señal muy buena, obtenida solo con tecnologías muy invasivas, y la falta de comprensión de cómo se codifica el habla en el cerebro», dice David Valeriani de la Facultad de Medicina de Harvard. . «Esto último es un desafío en muchas áreas de BCI. Necesitamos saber cómo funciona el cerebro antes de poder usarlo para controlar otras tecnologías, como un BCI «.
Y simplemente no tenemos suficientes datos, dice Mariska van Steensel, profesora asistente en UMC Utrecht. Es difícil instalar implantes cerebrales, por lo que no se realiza con frecuencia; Chang usó pacientes con epilepsia porque ya tenían implantes para rastrear sus convulsiones. Sentado esperando una crisis de ataque, una mano estaba dispuesta a participar en su investigación por aburrimiento. “Con respecto a este tipo de sujetos, el número de pacientes a implantar seguirá siendo bajo, porque es una investigación muy difícil y que requiere mucho tiempo”, dice, señalando que menos de 30 personas han sido implantadas con un BCI. En todo el mundo; su propio trabajo se basa en dos implantes. «Esta es una de las razones por las que el progreso es relativamente lento», agregó, sugiriendo que se podría armar una base de datos funcional para ayudar a intercambiar información.
Hay otra razón por la que esto es difícil: nuestro cerebro no responde de la misma manera. Van Steensel tiene dos pacientes con implantes, lo que les permite hacer clic con un mouse con señales cerebrales pensando en el movimiento de las manos. En el primer paciente, con ELA, funcionó perfectamente. Pero no en el segundo, un paciente con un derrame cerebral. «Sus señales eran diferentes y menos óptimas para que esto fuera confiable», dice. «Incluso un solo clic del mouse para ser confiable en todas las situaciones … ya es difícil».
Este trabajo es diferente al de startups como NextMind y CTRL-Labs, que utilizan auriculares externos no invasivos para leer señales cerebrales, pero carecen de la precisión de un implante. «Si te sientas afuera de una sala de conciertos, escucharás una versión muy distorsionada de lo que se está reproduciendo adentro; este es uno de los problemas de BCI no invasivos», dice Ana Matran-Fernandez, colega en la industria de la inteligencia artificial en la Universidad. de Essex. «Te darás una idea del tempo general … de la canción que se está reproduciendo, pero no puedes identificar específicamente cada uno de los instrumentos que se están tocando. Es lo mismo con un BCI. En el mejor de los casos, lo sabremos qué áreas del cerebro son las más activas (jugar más duro, por así decirlo), pero no sabemos por qué y no sabemos necesariamente lo que eso significa para una determinada persona «.
Sin embargo, los esfuerzos de la industria de la tecnología, incluidos Neuralink y Facebook, no están fuera de lugar, dice Chang, pero abordan varios problemas. Estos proyectos tratan sobre tecnología de implantes o auriculares, no sobre la ciencia necesaria para hacer posible la llamada lectura de la mente. «Creo que es importante que sucedan todas estas cosas», dice. «Mi advertencia es que no es la única parte de estas cosas que funciona. Todavía hay un conocimiento fundamental del cerebro que debemos tener antes de que cualquiera de estas funciones funcione».
Hasta entonces, no podremos leer el habla, y mucho menos los pensamientos internos. «Incluso si somos perfectamente capaces de distinguir las palabras que alguien está tratando de decir de las señales cerebrales, esto ni siquiera está cerca de leer la mente o leer el pensamiento», dice van Steensel. «Solo miramos las áreas que son relevantes para los aspectos motores de la producción del habla. No miramos los pensamientos, ni siquiera creo que sea posible».
Edward Chang será uno de los oradores en DyN Noticias Health en Londres el 25 de marzo de 2020. Para obtener más detalles y reservar su boleto, haga clic aquí
Alcohol ¿El alcohol mata el coronavirus? Los mayores mitos, rotos
📺 Los mejores espectáculos que llegan a Disney Plus UK
💩 Los inodoros de género neutro son un fracaso masivo (hasta ahora)
🏙️ Una enorme estafa de Airbnb gobierna Londres
👉 Mira DyN Noticias en Gorjeo, Instagram, Facebook y LinkedIn
Todas las noticias de la ciencia de el planeta tierra en un sólo sitio. noticias de Ciencia.