Hablarse a uno mismo suele ser un pasatiempo estrictamente privado, pero en un futuro, ese ya no será el caso. Un grupo de investigadores han conseguido escuchar nuestros monólogos interiores por primera vez.
El logro representa un gran paso para ayudar a que las personas que no pueden hablar físicamente, logren comunicarse con el mundo exterior.
“Cuando usted está leyendo un texto en un periódico o en un libro, usted escucha una voz dentro de su cabeza”, dice Brian Pasley en la Universidad de California, Berkeley. “Estamos tratando de decodificar la actividad cerebral relacionada con esa voz para crear un dispositivo médico que permita que alguien que está paralizado o físicamente incapacitado, pueda hablar”
|
Brian Pasley |
Cuando escuchas a alguien hablar, las ondas sonoras activan las neuronas sensoriales en el oído interno. Estas neuronas pasan información a las áreas del cerebro donde los sonidos son extraídos e interpretados como palabras.
En un estudio previo, Pasley y sus colegas registraron la actividad cerebral en personas que ya tenían electrodos implantados en su cerebro para tratar la epilepsia, mientras escuchaban un discurso.
El equipo descubrió que ciertas neuronas en el lóbulo temporal del cerebro sólo se activaban en respuesta a ciertos aspectos de sonido, tales como una frecuencia específica. Un conjunto de neuronas sólo podía reaccionar a las ondas que tenían una frecuencia de 1000 Hz, mientras que otro grupo sólo se preocupaba por aquellas a 2000 Hz.
Armado con este conocimiento, el equipo construyó un algoritmo que podría decodificar las palabras escuchadas solo basándose en la actividad neuronal.
El equipo realizó la hipótesis de que escuchar un discurso y hablarse a uno mismo podría provocar los mismos efectos neuronales en el cerebro. Con ello supusieron que un algoritmo creado para identificar un discurso escuchado en voz alta también podría ser capaz de identificar palabras pensadas.
LECTURA DE LA MENTE
Para probar su hipótesis, registraron la actividad cerebral en siete personas sometidas a cirugía de la epilepsia, mientras miraban a una pantalla que mostraba diferentes textos de origen muy diverso.
Se pidió a cada participante que leyera el texto en voz alta, después leyera en silencio para sí y luego no hiciera nada.
Mientras leyeron el texto en voz alta, el equipo estudió los diferentes grupos de neuronas que reaccionaban a diferentes aspectos del habla y generaron un decodificador personalizado para interpretar esta información.
El decodificador se utilizó para crear un espectrograma, una representación visual de las diferentes frecuencias de ondas de sonido que se oyen con el tiempo.
Dado que cada frecuencia se correlaciona con sonidos específicos de cada palabra hablada, el espectrograma se puede utilizar para recrear lo que se ha dicho.
A continuación, aplicaron el mismo decodificador a la actividad cerebral que se produjo mientras los participantes leyeron los pasajes en silencio para sí mismos.
A pesar de que la actividad neuronal del discurso imaginado y del discurso real eran ligeramente diferentes, el decodificador fue capaz de reconstruir lo que los voluntarios estaban pensando, utilizando tan solo su actividad neuronal.
“El algoritmo no es perfecto”, dice Stephanie Martin, quien trabajó en el estudio con Pasley. “Obtuvimos resultados significativos, pero no es lo suficientemente bueno todavía como para construir un dispositivo”
El equipo ahora está afinando sus algoritmos, observando la actividad neuronal asociada con las diferentes pronunciaciones y velocidades al pronunciar una misma palabra. “Disponemos de datos preliminares y todavía estamos trabajando en mejorarlo”
El equipo también han trabajado en predecir qué canciones está escuchando una persona, haciendo escuchar canciones de Pink Floyd a los voluntarios, y luego estudiando qué neuronas responden a los diferentes aspectos de la música. “El sonido es el sonido”, dice Pasley. “Todo nos ayuda a comprender mejor diferentes aspectos de cómo el cerebro lo procesa”
Otros investigadores también están investigando métodos para leer la mente humana. Algunos pueden decir qué fotos está mirando una persona; otros han estudiado qué actividad neuronal provocan diversos en el cerebro y un equipo incluso ha sido de reproducir en bruto clips de película que alguien está mirando sólo mediante el análisis de su actividad cerebral.
Esto nos lleva a preguntarnos, ¿es posible poner todos estudios juntos con el fin de crear un dispositivo que lea la mente?
En teoría, sí, dice Martin, pero sería extraordinariamente complicado. Se necesita procesar una gran cantidad de datos para cada cosa que se trata de predecir.
“Sería muy interesante estudiarlo. Nos permitiría predecir lo que las personas están haciendo o pensando,” dice ella. “Pero necesitamos decodificadores individuales que funcionen muy bien antes de hacer la combinación para los diferentes sentidos”
Nota del Robot: como siempre, nos venden dichos estudios bajo el pretexto de ayudar a las personas más necesitadas. En ese aspecto, estas investigaciones resultan absolutamente maravillosas.
¿Pero qué sucederá cuando las utilicen para mal o para controlar los pensamientos de la población? ¿A estas alturas aún hay alguien tan inocente como para pensar que estas técnicas de lectura mental no serán utilizado con males fines?
Preguntaos: ¿De donde sale tanto dinero empleado en investigar estas tecnologías? ¿De ONG’s que ayudan a los discapacitados? ¿Quién tiene el dinero y para qué lo usa?
Que cada uno piense lo que quiera, nosotros solo os invitamos a haceros preguntas: las respuestas son vuestras…-