Usualmente vemos en ciencia ficción dispositivos capaces de leer nuestra mente como si pudiesen hacer transparentes nuestra interioridad. O en franquicias como X-men vemos a poderosos telépatas invadir nuestra subjetividad y escarbar en nuestros pensamientos más profundos. Hasta donde sabemos no existen dichos telépatas ni máquinas que puedan acceder a nuestras mentes. Sin embargo, sí hemos llegado a una tecnología que logra algo similar.
Cuando recibimos un estímulo del mundo exterior como escuchar palabras habladas o ver una imagen se registra en el cerebro como actividad neuronal. Los intentos de decodificar esta actividad para averiguar qué palabras pueden haber causado una señal neuronal específica han tenido resultados dispares, y los más exitosos suelen requerir electrodos invasivos implantados quirúrgicamente.
Pero actualmente en la Universidad de Texas, Austin, Alexander Huth y su equipo han desarrollado un modelo de inteligencia artificial basado en el aprendizaje automático que puede determinar las secuencias de palabras que coinciden, o se asemejan mucho, al estímulo de entrada de la actividad cerebral de las personas y el significado que hay detrás de ellas utilizando resonancias magnéticas funcionales del cerebro.
En primer lugar, Huth y su equipo registraron los datos de la resonancia magnética funcional (Functional Magnetic Resonance Imaging) de tres redes cerebrales asociadas al procesamiento del lenguaje -la red prefrontal, la red del lenguaje clásico y la red de asociación parietal-temporal-occipital, las cuales indican el grado de activación y las zonas específicas que se activan.
Esto mientras un grupo de personas escuchaba 16 horas de historias narradas, para que el modelo se familiarizara con qué partes del cerebro activaban ciertas palabras y secuencias narrativas. A continuación, los investigadores pidieron a los participantes que escucharan una nueva historia, para que el modelo hiciera el procedimiento opuesto: inferir a partir de qué zonas del cerebro se activaban qué palabras correspondían. Es decir, convertía la actividad cerebral en texto, y el grado en el que se asemejó al texto original de la historia resultó ser imperfecto, pero sorprendentemente cercano.
He aquí un ejemplo del texto original de una historia que se escuchó: «Esa noche subí a lo que había sido nuestro dormitorio y, sin saber qué más hacer, apagué las luces y me tumbé en el suelo».
La IA tradujo los patrones cerebrales resultantes como «cuando volvimos a mi dormitorio, no tenía ni idea de dónde estaba mi cama y supuse que dormiría en ella, pero me acosté en el suelo».
Aunque el desarrollo de estas tecnologías todavía es incipiente, se espera que sus avances puedan ayudar a personas que han perdido la capacidad de hablar a comunicarse y a investigar otras condiciones cerebro-mentales.
Sin embargo, no podemos evitar pensar qué pasaría si estos sistemas de aprendizaje junto a otros lectores de actividad cerebral se vuelven increíblemente precisos ¿Nuestra interioridad, nuestros pensamientos, dejarían de ser completamente privados para poder ser decodificados? ¿cuáles serían las consecuencias éticas y políticas de esto? ¿sería posible detectar si alguien cometió un crimen? ¿si miente o dice la verdad? ¿si oculta cierta información? ¿podríamos pagar para saber si alguien está enamorado de nosotros? Las implicancias éticas y posibilidades son muchísimas.
Fuente:
https://www.newscientist.com/article/2342509-mind-reading-ai-works-out-what-you-are-thinking-from-brain-scans/
https://www.science.org/content/article/artificial-intelligence-learning-read-your-mind-and-display-what-it-sees