Piensa en las palabras que pasan por tu cabeza: esa broma de mal gusto que tan sabiamente guardaste para la cena; Tu impresión sincera de la nueva pareja de tu mejor amigo. Ahora imagina que alguien puede escuchar.
El lunes, científicos de la Universidad de Texas, Austin, dieron otro paso en esa dirección. En un estudio publicado en Nature Neuroscience, los investigadores describen una inteligencia artificial que puede traducir los pensamientos privados de las personas mediante el análisis de resonancias magnéticas funcionales, que miden el flujo de sangre a diferentes regiones del cerebro.
Los investigadores ya han desarrollado métodos de decodificación de lenguaje para capturar el intento de hablar de las personas afásicas, lo que permite a las personas paralizadas escribir mientras piensan solo en escribir. Pero el nuevo decodificador de lenguaje está entre los primeros en no depender de implantes. En el estudio, pudo convertir el habla imaginaria de una persona en habla real, y cuando a los sujetos se les mostraron películas mudas, pudo generar descripciones relativamente precisas de lo que estaba sucediendo en la pantalla.
“Esto no es solo un desencadenante del lenguaje”, dijo Alexander Huth, un neurocientífico universitario que ayudó a dirigir la investigación. “Estamos teniendo una idea, algo sobre la idea de lo que está pasando. Y el hecho de que esto sea posible es muy emocionante”.
El estudio se centró en tres participantes que acudieron al laboratorio del Dr. Huth durante 16 horas en el transcurso de varios días para escuchar “The Moth” y otros podcasts narrativos. Mientras escuchaban, un escáner fMRI registró los niveles de oxígeno en la sangre en partes de sus cerebros. Luego, los investigadores utilizaron un modelo de lenguaje grande para hacer coincidir los patrones en la actividad cerebral con las palabras y frases que los participantes habían escuchado.
Los modelos de lenguaje grandes como GPT-4 de OpenAI y Bard de Google están entrenados en cantidades masivas de escritura para predecir la siguiente palabra en una oración o frase. En el proceso, los modelos crean mapas que indican cómo se relacionan las palabras entre sí. Hace algunos años, el Dr. Huth notó que ciertas partes de estos mapas, las llamadas incrustaciones de contexto, que capturan características semánticas o significados de frases, se pueden usar para predecir cómo se iluminará el cerebro en respuesta al lenguaje.
En el sentido más básico, “la actividad cerebral es un tipo de señal codificada, y los modelos de lenguaje brindan formas de decodificarla”, dijo Shinji Nishimoto, neurocientífico de la Universidad de Osaka que no participó en la investigación.
En su estudio, el Dr. Huth y sus colegas revirtieron efectivamente el proceso, utilizando otra inteligencia artificial para traducir las imágenes de IRMf del participante en palabras y frases. Los investigadores probaron el decodificador haciendo que los participantes escucharan nuevas grabaciones y luego vieran qué tan bien la traducción coincidía con el texto real.
Casi todas las palabras estaban fuera de lugar en el texto descifrado, pero el significado del pasaje se conservó de manera uniforme. Básicamente, los decodificadores eran refritos.
Original: “Me bajé del colchón de aire y presioné mi cara contra el cristal de la ventana del dormitorio esperando ver ojos mirándome fijamente pero en cambio solo encontré oscuridad”.
Decodificado de la actividad cerebral: “Simplemente seguí caminando hacia la ventana y abriendo el vidrio me puse de puntillas y me asomé y no vi nada y miré hacia arriba y no vi nada”.
Mientras realizaban la resonancia magnética funcional, también se les pidió a los participantes que imaginaran contar una historia en silencio; Luego, repita la historia en voz alta como referencia. Aquí, también, el paradigma de la decodificación capturó la esencia de la versión tácita.
Copia del participante: “Estoy buscando una carta de mi esposa diciendo que ha cambiado de opinión y que volverá”.
copia del decodificador:: “Al verla por alguna razón pensé que se me acercaría y me diría que me extraña”.
Finalmente, los sujetos vieron una película corta, muda y animada, nuevamente mientras se sometían a una resonancia magnética funcional. Al analizar su actividad cerebral, el modelo de lenguaje podría decodificar un resumen aproximado de lo que estaban viendo, tal vez su descripción interna de lo que estaban viendo.
El resultado indica que el decodificador de IA no solo estaba captando las palabras, sino también el significado. “La percepción del lenguaje es un proceso impulsado externamente, mientras que la imaginación es un proceso interno activo”, dijo el Dr. Nishimoto. “Los autores demostraron que el cerebro usa representaciones comunes en todos estos procesos”.
Esa fue la “pregunta de alto nivel”, dijo Greta Tokot, neurocientífica del MIT que no participó en la investigación.
“¿Podemos decodificar el significado del cerebro?” Yo continué. “De alguna manera, muestran que sí, podemos”.
El Dr. Huth y sus colegas notan que este método de decodificación de lenguaje tiene limitaciones. Por ejemplo, los escáneres fMRI son voluminosos y costosos. Además, el entrenamiento de modelos es un proceso largo y tedioso, y para que sea efectivo debe realizarse en individuos. Cuando los investigadores intentaron usar un decodificador entrenado en una persona para leer la actividad cerebral de otra persona, falló, lo que sugiere que cada cerebro tiene formas únicas de representar el significado.
Los participantes también pudieron proteger sus monólogos internos y deshacerse del decodificador pensando en otras cosas. La inteligencia artificial puede ser capaz de leer nuestros pensamientos, pero por ahora tendrá que leerlos uno por uno y con nuestro permiso.