Investigación Japonesa Traduce Actividad Cerebral a Texto Descriptivo

Editado por: Elena HealthEnergy

Investigadores japoneses han materializado un avance significativo en la neurociencia computacional con una técnica denominada "mind-captioning", la cual decodifica patrones de actividad cerebral para generar narrativas textuales descriptivas. El desarrollo, detallado en un estudio publicado el 5 de noviembre de 2025 en la revista Science Advances, se establece como un hito en la comprensión de cómo el cerebro codifica la información visual antes de su expresión lingüística. La metodología integra modelos de lenguaje profundo con análisis de resonancia magnética funcional (fMRI) para establecer una conexión entre la representación neural y el lenguaje humano, proyectando avenidas para interfaces cerebro-computadora más sofisticadas.

El equipo de investigación fue liderado por Tomoyasu Horikawa, Investigador Distinguido en los Laboratorios de Ciencia de la Comunicación de NTT en Japón, cuya trayectoria se ha enfocado en la integración de modelos computacionales del cerebro con el análisis de datos cerebrales. El experimento central involucró a seis participantes, cuatro hombres y dos mujeres, todos hablantes nativos de japonés con edades entre 22 y 37 años. Estos sujetos fueron sometidos a escaneos fMRI mientras observaban 2,180 videoclips silenciosos que abarcaban una variedad de objetos, escenas y acciones. Estos clips se utilizaron para entrenar al sistema a asociar firmas neuronales específicas con representaciones semánticas extraídas de los subtítulos de los videos.

El núcleo del "mind-captioning" opera mediante un proceso de dos etapas para generar oraciones coherentes que reflejan el contenido visual observado. El primer componente del sistema procesa los subtítulos de los videos para crear una firma numérica única, un vector semántico, que encapsula el significado esencial del contenido. Posteriormente, un decodificador cerebral correlaciona los patrones de fMRI registrados con estas firmas numéricas, permitiendo que un algoritmo secundario refine una secuencia de palabras hasta que su firma semántica se alinee con la actividad cerebral decodificada. El neurocientífico Alex Huth, de la Universidad de California, Berkeley, indicó que el modelo predice el contenido observado por la persona con un nivel de detalle considerable, superando intentos previos que solo recuperaban palabras clave.

La trascendencia de este descubrimiento se proyecta hacia el ámbito terapéutico, ofreciendo un potencial notable para individuos con impedimentos severos del habla, tales como aquellos afectados por accidentes cerebrovasculares o esclerosis lateral amiotrófica (ELA). Al decodificar representaciones mentales no verbales, la técnica sugiere una vía para restaurar la capacidad de comunicación sin depender de la actividad motora del lenguaje. El Dr. Horikawa enfatizó que el método interpreta las características semánticas del cerebro, la forma en que se representa internamente el significado, y no decodifica pensamientos privados o emociones personales, lo que subraya la necesidad de un consentimiento riguroso.

Un aspecto relevante del estudio es la capacidad del sistema para generar descripciones fluidas incluso al excluir las regiones cerebrales tradicionalmente asociadas con el lenguaje, como las áreas de Broca y Wernicke. Este hallazgo sugiere que la semántica de una escena se almacena de manera más distribuida en el cerebro de lo que postulan los modelos clásicos. La precisión en la identificación de videos observados o imaginados entre 100 opciones alcanzó cerca del 50% de acierto, y la descripción de recuerdos recuperados mostró una exactitud de hasta el 40%, cifras significativas para una tecnología en fase inicial. Aunque la implementación actual exige equipos de resonancia magnética de gran escala, los investigadores anticipan un futuro con interfaces cerebro-IA más compactas y portátiles, redefiniendo la comunicación humano-máquina.

Fuentes

  • Ubergizmo

  • 'Mind reading'? Scientist turns mental images into text using AI technology

  • Scientists can now caption your thoughts. What could go wrong?

  • Scientist turns people’s mental images into text using ‘mind-captioning’ technology

¿Encontró un error o inexactitud?

Consideraremos sus comentarios lo antes posible.