Control de máquinas con la mente: Un futuro no tal lejano

Como ya conté en el post sobre la NeoCom 2009, iba a dedicar un post entero a la charla de Javier Mínguez Control de Máquinas con la mente: un futuro no tan lejano.

Obviamente eran unas charlas serias, así que no se trataba de telequinesis ni nada de magufos, aunque el efecto conseguido, visto desde fuera, podría engañar a cualquiera.

La actividad cerebral genera ondas electromagnéticas, de modo que se trata, básicamente en medir la actividad cerebral, identificar la acción que se desea mediante un ordenador, y transmitirle las órdenes necesarias a una máquina para que la ejecute.

Para medir la actividad cerebral hay diversos lugares donde situar los electrodos que captarán las señales cerebrales:

  • EEG – Mediante un gorrito adecuado sobre la cabeza. Se capta una zona de 3 cm.
  • ECoG – Bajo la piel, sobre el cráneo. Captando una zona de 0,5 cm.
  • Local FP – Debajo del cráneo, sobre el cerebro. Se capta una zona de 1 mm.
  • Single unit AP – Directamente dentro del cerebro, consiguiendo captar sólo 0,2 mm.

La única técnica no invasiva es mediante un EEG, puesto que no hay que introducirse en la cabeza del sujeto. El resto son cada vez más invasivas. Obviamente, cuanto menos área se reciba, más localizada estará la señal y será más sencillo determinar de qué parte procede.

Así pues, hay dos formas de llevar a cabo la lectura de los estímulos cerebrales: operando o no. Aquí en Europa somos muy mirados y lo de la ética científica se lleva mucho, así que no se lleva lo de abrir la cabeza para implantar electrodos, por lo que se investiga mayoritariamente con EEG, y parece ser que somos bastante buenos en ello. Puesto que con este sistema se extrae mucha menos información que con las técnicas invasivas (la señal es más débil y más difusa) necesitamos robótica inteligente que complemente las acciones del usuario. Es lo que se denomina robótica cognitiva y se hacen grandes esfuerzos, por ejemplo, en prótesis que logren que los movimientos se asemejen a los realizados por un humano. O también introduciendo sistemas de conducción inteligentes en sillas de ruedas. Luego me extenderé en esto último.

Los estadounidenses, en cambio, muestran reparos en investigar con células madre, pero no les importa abrir cabezas para leer la información cerebral desde lo más cerca posible a su lugar de origen. Allí mete muchísima pasta especialmente DARPA, para lograr el supersoldado del futuro. Su principal modelo de trabajo consiste en introducir lo que llaman Fully Implantable Multichannel Recording Device dentro del cerebro. Esto capta las señales del cerebro, las envía mediante cualquier tecnología wireless a un receptor portátil y éste se comunica con el miembro robótico. Requieren de menos procesado y robótica menos inteligente puesto que las señales son más exactas y potentes.

Respecto al modelo europeo, mediante EEG, hay mayoritariamente dos formas de trabajar: pensamiento en tareas cognitivas y la onda P300. El primer caso se basa en que diferentes ideas se procesan en distintas partes del cerebro, de modo que se pueden detectar fácilmente y asignarles órdenes. Son lo que se denominan, ritmos mu (véanse los diferentes tipos de ritmos cerebrales) Esto significa que si queremos girar nuestra silla de ruedas a la derecha, deberemos hacer multiplicaciones mentalmente; si queremos girar a la izquierda, pensaremos en colores; y para avanzar habrá que pensar en palabras que empiezan por la letra A. Suena tosco, pero es una idea original y funciona. Sin embargo, a la hora de la verdad no tiene que resultar nada práctico. Precisamente éste es uno de los problemas a los que se enfrentan los investigadores actualmente, y es conseguir un control natural de las máquinas: si quiero girar al a derecha, pienso en girar a la derecha. Resulta obvio que será mucho más difícil distinguir un pensamiento del tipo: ir adelante, ir hacia atrás, que disinguir multiplicaciones de colores.

El sistema mediante las ondas P300 me parece más interesante, y es más práctico actualmente. No dudo que si en algún momento se llega a procesar el pensamiento natural del que hablaba antes, esto ya no será necesario, pero ahora mismo debe de ser la mejor solución con técnicas no invasivas. Esto se basa en que si vemos algo en lo que estábamos pensando, nuestro cerebro se activa y emite una señal que se capta al cabo de aproximadamente 300 milisegundos; no obstante, esta cifra es ligeramente distinta en cada individuo, y puede estar localizada en un lugar distinto.

La aplicación práctica la podréis ver en el siguiente video, que es una exhibición que se hizo recientemente como colofón a una investigación al respecto. El sujeto de la izquierda está tumbado en una cama en Zaragoza, y a la derecha se ve un robot en Barcelona recibiendo sus instrucciones y enviando lo que enfoca la cámara. El objetivo era enfocar a determinadas columnas y llegar a la meta. La inteface es muy sencilla y, si os fijais, se resaltan secuencialmente todas las opciones constantemente. Quien lo maneja debe concentrarse en la acción de la pantalla que desea activar: cuando se ilumine, su cerebro lanzará una señal, que se captará 300 ms después, y el ordenador sabrá cuál estaba encendida en ese momento y enviará la orden al robot para que la ejecute. Puede decirle que gire a ambos lados, que pase el control a la cámara, o que muestre la matriz de puntos a los cuales avanzar. Pero bueno, un vídeo vale más que mil palabras.


BCI teleoperation experiment (I) from BCIZaragoza.

¿Interesante eh? Pero si en lugar de aplicar esta tecnología a un robot a 200 kilómetros, lo hacemos a una silla de ruedas, permitiremos que una persona que no pueda mover un sólo músculo, pueda desplazarse con relativa facilidad. También hay otro vídeo al respecto, pero no se aprecia el interface (que supuestamente es el mismo que para el robot anterior).

Como puede verse estamos bastante avanzados en este tema, y las aplicaciones pueden ser infinitas, pero todavía hay algunos escollos que superar. Por ejemplo, para una buena lectura del EEG, es necesario untar con gel conductor la cabeza para potenciar las débiles señales que llegan. Si en algún momento estas tecnologías llegan al punto de comercializarse para la labor que sea, desde tetraplégicos, a videojuegos (la evolución natural de la Wii), resultaría de lo maś engorroso tener que pringarse todo el pelo para utilizarlo.

Otro problema es que cualquier movimiento muscular genera actividad cerebral y produce distorsión en la señal, incluso que se llegen a captar las señales musculares (EMG) en lugar de las producidas por pensamientos (EPG), lo cual no sería adecuado.

En los videos precedentes, tanto la silla de ruedas como el robot, además de obedecer las órdenes leídas del cerebro, incluyen sistemas inteligentes de conducción. Este es otro campo bastante interesante, y que parece ir a pasos agigantados. Javier Mínguez también investiga al respecto y en su web hay algunos vídeos mostrando sillas conduciéndose solas por diversos circuitos preparados al efecto. Combinar ambos campos obtiene los increibles resultados vistos más arriba. Como curiosidad también nos explicó en en EE.UU. hacen una competición de coches conducidos inteligentemente, en la que los dejan en mitad del desierto y les ordenan acudir a un punto a 200 kilómetros. Tampoco es en mitad de la nada, pero no os penséis que van por una cómoda carretera; en el vídeo se veían unos caminos miserables, subiendo montes con esas cerradísimas curvas de cualquier ascenso. Además, tenían que contar con que podía hacerse de noche durante el trayecto, lo cual dificultaba el sistema. La anécdota fue que el que parecía el mejor coche se quedó tirado al cabo de un tiempo con la memoria saturada. ¿El problema? No iba liberando todos los objetos que analizaba del entorno, con lo que llegó un momento en el que no cabían más. Parece mentira que tuvieran un fallo así en un proyecto de semejantes características.

Casualmente hoy Kirai ha publicado un video del famoso robot Asimo controlado mentalmente mediante un sistema similar a los descritos antes, aunque con una interfaz mucho más precaria: un japonés mostrando las tarjetas en las que debe pensar. Hay otro video más completo y en inglés.

Algo relacionado con este tema está el artículo en el que recientemente escribí sobre control y cartografiado cerebral.

ACTUALIZADO 30 de junio:
Toyota presenta la próxima comercialización de una silla de ruedas con esta tecnología.

Únete a la conversación

3 comentarios

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *