RESUMEN DE MEDIOS DE LA PROVINCIA DE SANTA FE
Santa Fe, Mar, 07 de may de 2024
RECIBIR NEWSLETTER

¡URGENTE! La UTA adhiere al paro de la CGT y este jueves no habrá colectivos en Santa Fe

Ciencia y Tecnología 02.05.2023

La IA es capaz de leer tu mente mediante escáneres

Con un gorro lleno de electrodos conectados a un escáner fMRI tradujeron con alta fidelidad lo que pensaban los voluntarios. Usaron un podcast, monólogos de un programa de radio y una película muda

Fuente: BAE Negocios

Científicos norteamericanos crearon un sistema de Inteligencia Artificial (IA) capaz de "decodificar" la actividad cerebral para escribir en qué se está concentrando una persona y dieron el primer paso para que la IA pueda ser capaz de leer los pensamientos. El programa recuperó el significado del habla percibida, el habla imaginada e incluso los vídeos mudos y podría ser utilizado para permitir a personas sin habla comunicarse de manera oral.

El sistema todavía no es perfecto: en los experimentos, a un participante que escuchaba un podcast en el que se decía: "Todavía no tengo el carnet de conducir", sus pensamientos se traducían como: "Todavía no ha empezado a aprender a conducir". Al escuchar: "No sabía si gritar, llorar o salir corriendo. Y en lugar de eso, le dije: ¡Déjame en paz!" el decodificador acabó traduciendo: "Empecé a gritar y a llorar, y entonces ella me dijo: Te he dicho que me dejes en paz".

 

 

 

 

Alex Huth, Shailee Jain y Jerry Tang ingresan a uno de los voluntarios al fondo del escáner de resonancia magnética

Cómo funciona el escáner cerebral que lee los pensamientos

El escáner cerebral, que no es invasivo, sino que utiliza un gorro lleno de electrodos, envía la información a un decodificado que convierte las gráficas no solo en frases completas, sino en textos que reproducían con gran fidelidad lo que habían visto u oído.

Las personas que fueron parte del experimento escucharon un podcast del New York Times y monólogos de un popular programa de radio - The Moth Radio Hour-, mientras les escaneaban la actividad cerebral mediante escáneres fMRI. Además, les hicieron ver películas mudas y descubrieron que el programa podía decodificar la semántica de las películas y "también del habla imaginada", según revelaron en un artículo publicado en la revista científica Nature Neuroscience.

El decodificador -llamado “semántico”- utiliza un modelo de transformador similar a los que impulsan el ChatGPT de OpenAI y fue creado por Alex Huth, Shailee Jain y Jerry Tang, quienes utilizaron un escáner de resonancia magnética del Centro de Imagen Biomédica de la Universidad de Texas en Austin, Estados Unidos para leer la actividad cerebral de los participantes.

Para que funcione, fue necesario entrenar al decodificador para que reconozca los patrones cerebrales de cada persona: "Para un método no invasivo, se trata de un verdadero salto adelante en comparación con lo que se ha hecho hasta ahora, que suele consistir en palabras sueltas o frases cortas", afirmó Alex Huth, profesor adjunto de neurociencia e informática en la Universidad de Texas Austin y líder del equipo. "Estamos consiguiendo que el modelo decodifique un lenguaje continuo durante largos periodos de tiempo con ideas complicadas".

Desde comienzos de siglo, y en especial en la última década, se han producido grandes avances en el diseño de interfaces cerebro-máquina (ICB). La mayoría buscaban que personas incapaces de hablar o de mover incluso todos sus músculos pudieran comunicarse.

Uno de los casos emblemáticos de alguien que utilizó una "máquina de voz" fue el del físico teórico, cosmólogo y divulgador científico británico Stephen Hawking, quien sufría una esclerosis lateral amiotrófica (ELA) que lo dejó casi paralizado y pasó años comunicándose a través de una máquina que traducía sus movimientos en habla.

No es una copia palabra por palabra de los pensamientos

Los autores del estudio afirman que el decodificador semántico proporciona la "esencia" básica de lo que alguien está pensando, y aún así es imperfecto. Cuando los investigadores entrenaron a la IA a partir de la actividad cerebral de un participante, el decodificador proporcionó un texto que se acercaba al significado que el usuario daba a las palabras originales aproximadamente la mitad de las veces.

Tampoco fue posible leer los pensamientos de los participantes que se resistieron activamente al proceso. En estos casos, el decodificador proporcionó textos ininteligibles. Por ejemplo, los investigadores hicieron que estas personas pensaran en otras cosas mientras estaban en el escáner, lo que confundió al decodificador. La IA también tuvo problemas para leer a las personas que se habían entrenado para comprender su actividad cerebral.

Al respecto, el equipo de investigación señaló que su estudio también abordó la posibilidad de que la gente abuse de esta tecnología e invada la privacidad de alguien. El modelo entrenado con una persona no acabó por descifrar lo que oía o veía otra: "Nos tomamos muy en serio la posibilidad de que se utilice con malos fines y hemos trabajado para evitarlo", afirma Jerry Tang, estudiante de doctorado en informática, en un comunicado de la universidad. "Queremos asegurarnos de que la gente sólo utilice este tipo de tecnologías cuando quiera y le ayude", afirmó.

Por el momento, los científicos no disponen de una forma práctica de trasladar esta tecnología fuera del laboratorio, ya que depende de que las personas pasen tiempo en una máquina de IRMf, un escáner de enorme tamaño y con altos costos operativos. Además, la persona debe permanecer inmóvil y concentrada, lo que complica la idea de leer la mente en otras circunstancias. Sin embargo, el equipo cree que el sistema podría funcionar con sistemas portátiles de imagen cerebral, en el futuro, como la espectroscopia funcional del infrarrojo cercano (fNIRS).

 

“Más vale la pena en el rostro que la mancha en el corazón”

Miguel de Cervantes