cerebro - Tienda de ultramarinos
logo Tienda de Ultramarinos
Etiquetas: cerebro

Predicciones de Ray Kurzweil para 2009 (Primera parte)

Desde el verano pasado estoy cada vez más fascinado con Ray Kurzweil. Llevo tiempo pensando en aprender algo más de él y dedicarle algún artículo en el blog aprovechando su espectacular trayectoria, pero todavía no me he puesto a ello. Sin embargo, en la Wikipedia están las predicciones que realizó en 1998 en su libro La Era de las Máquinas Espirituales, y hay un buen montón del 2009. Aprovechando que el año ha terminado recientemente, me he puesto a la tarea de hacer una valoración personal especificando si ha acertado o no. Ya escribí sobre dos inventos que me fascinaron y que justo él había predicho para diez años después, pero fue al revés de lo que me propongo ahora. En esa ocasión leí las noticias y vi que concordaban con las predicciones; ahora analizaré las predicciones y trataré de relacionarlas con alguna noticia.

Debo aclarar que esto es una observación totalmente personal y subjetiva, completamente vinculada a lo que conozco, de modo que puede haber muchos detalles que se me pasen por alto, y noticias de las que no me haya enterado. Es una ardua tarea porque he tratado de contrastar casi todo buscando en Google, pero no puedo dedicar una hora a cada caso, así que si en unas pocas búsquedas no encuentro nada, lo daré por inexistente. Como son muchas, y para no hacer posts excesivamente largos, iré publicándolas más o menos en grupos de diez.

Cada predicción, directamente copiada como está en el artículo de la Wikipedia, va seguida de algunas ideas y opiniones mías al respecto y mi valoración. He intentado utilizar tres: Incorrecto, Correcto y “Sí y no”. Creo que son bastante claras y es innecesario dar más explicaciones, vamos allá.

  • «Las personas usarán principalmente computadoras portátiles, que se habrán vuelto espectacularmente más ligeras y finas que las de diez años antes. Las computadoras personales estarán disponibles con muchos tamaños y formas, y frecuentemente estarán alojadas en la ropa y joyas como relojes de pulsera, anillos, pendientes, y otros ornamentos. Las computadoras con una interfaz visual de alta resolución variarán desde anillos, alfileres y tarjetas de crédito hasta el tamaño de un libro delgado.»
    • Indudablemente los portátiles han reducido increíblemente su tamaño, sólo hay que ver el MacBook Air, la increíble proliferación de NetBooks durante el último año, o el OLPC de finales de 2007. También dicen que 2010 será el año del e-Book (salvo en España, claro), especialmente a raíz de las alucinantes ventas de Amazon estas navidades. También, desde que salió el iPhone hace tres años, se ha disparado la oferta y venta de pequeños móviles que son, casi a todos los efectos, mini-ordenadores personales. Claro, que de ahí a computadoras como anillos o alfileres hay un trecho.
    • Valoración: Sí y no.
  • «Las personas típicamente tendrán al menos una docena de computadoras sobre y alrededor de sus cuerpos, que estarán conectadas por red local. Estas computadoras proporcionarán facilidades similares a teléfonos móviles, mensáfonos y navegadores, proporcionarán identidad automática (para conducir transacciones comerciales y permitir la entrada en zonas seguras), direcciones de navegación, y otros diversos servicios. »
    • Además del teléfono móvil se me ocurre un reproductor MP3, una memoria USB, el GPS, cámara fotográfica, e-book (aunque no es algo tan común), videoconsolas portátiles, y el DNIe del cual hace poco repartieron los primeros lectores para la población. Quizás tarjetas con chips RFID pudieran entrar en esta categoría. Pero desde luego, casi ninguno de ellos está conectado en red con nada más y no sé si todas estas “computadoras” que una persona podrá llevar alrededor de sus cuerpos son exactamente a lo que se refería Ray.
    • Valoración: Incorrecto.
  • «Para la mayoría, estas verdaderas computadoras personales no tendrán partes móviles. La memoria será completamente electrónica, y la mayoría de las computadoras personales no tendrán teclados
    • Si hablamos de teléfonos móviles, es una verdad como un templo. Pantallas digitales y memorias flash. Y si por “computadora personal” entendemos cualquiera de los objetos mencionados en el punto anterior, también se cumple.
    • Respecto a la memoria, todavía siguen muy vigentes los discos duros convencionales, tanto en equipos de sobremesa como en portátiles. Aunque bien es verdad que la mayoría de NetBooks cuentan también con memorias flash; pero desde luego siguen teniendo teclado.
    • Valoración: Sí y no.
  • «Las memorias rotatorias (discos duros, CD-ROM, DVD) estarán en camino de desaparecer, aunque estas memorias magnéticas se usarán aún en computadoras de servidores con grandes cantidades de información almacenada. La mayoría de los usuarios tendrán servidores en sus hogares y oficinas en las que almacenarán grandes cantidades de “objetos” digitales, incluyendo su software, bases de datos, documentos musicales, películas, y entornos de realidad virtual (aunque éstos aún estarán en una etapa temprana de desarrollo). Serán servicios para mantener los objetos digitales propios en repositorios centrales, aunque la mayoría de la gente preferirá mantener su información privada bajo su propio control físico.»
    • Por mi parte es cierto que cada día utilizo menos los DVD (y mucho menos los CD) pero no he visto por ningún lado que puedan estar camino de desaparecer. En todo caso estos soportes podrían desaparecer a favor de los discos duros (cada día vale menos la memoria, se hace casi innecesario grabar cds pudiéndolo guardar todo en un disco duro).
    • Durante el año pasado la palabra de moda en informática fue “Cloud Computing” y “The Cloud”, el primero como una forma de hacer cálculos masivos en paralelo sin tener la infraestructura, y el segundo como un todo de internet en el que almacenar la información y que además sea un proveedor de servicios.
    • Valoración: Sí y no.
  • «Los cables empezarán a desaparecer. Las comunicaciones entre componentes, tales como dispositivos de puntero, micrófonos, pantallas, impresoras, y el teclado ocasional, usarán tecnología inalámbrica de corta distancia.»
    • Todavía no he visto pantallas ni impresoras inalámbricos, pero probablemente existan. Con el resto de componentes está claro que hace mucho que existen alternativas sin cables cada vez más usadas. La predicción dice que empezarán a desaparecer, por lo que es válida.
    • Valoración: Correcto.
  • «Las computadoras incluirán rutinariamente tecnología inalámbrica para conectarse a una omnipresente red mundial, proporcionando comunicación de gran banda ancha disponible instantáneamente y fiable. Los objetos digitales tales com libros, álbumes musicales, películas y software se distribuirán rápidamente como archivos de datos a través de la red inalámbrica, y típicamente carecerán de un objeto físico asociado a ellos.»
    • Es un libro de 1998, así que para entonces internet ya era una “omnipresente red mundial”, de modo que no sé si realmente se refiere a esto. Quizás debido a que todavía no se había diseñado el Wi-Fi no era una red del todo omnipresente, pero ya hace años que en cualquier lugar que enciendas una antena capturas más de media docena de redes, abiertas o no. Y desde luego todo ordenador comprado ahora dispone de su antena receptora.
    • Es cierto que casi cualquier película, libro, música y software puede descargarse rápidamente desde internet, aunque en la actualidad sí que existe un objeto físico asociado al 95% de ellos.
    • Valoración: Correcto (con un pequeño matiz).
  • «La mayor parte del texto se creará mediante software de reconocimiento continuo de la voz (CSR), aunque los teclados se seguirán usando. El CSR será muy preciso, bastante más que los transcriptores usados sólo unos pocos años antes.»
    • Justo hace mes y medio publicaba una entrada maravillado con lo bien que funcionaban los CSR ahora. Pero en lo que desde luego se equivocaba es en que la mayoría del texto se crease con este sistema. El teclado sigue siendo más rápido y fiable en prácticamente todos los casos.
    • Valoración: Sí y no.
  • «También estarán por todas partes las interfaces lingüísticas del usuario (LUI), que combinarán CSR y comprensión natural del lenguaje. Para tareas rutinarias, tales como transacciones comerciales simples y solicitudes de información, los LUI serán bastante sensibles y precisos. Tenderán a estar, no obstante, estrechamente enfocados en ciertas tareas específicas. Estarán frecuentemente combinados con personalidades animadas. Interactuar con una personalidad animada para realizar una compra o hacer una reserva será como hablar con una persona mediante videoconferencia, excepto por el hecho de que la persona estará simulada.»
    • Creo que el ejemplo más claro y famoso de lo que menciona es Anna, la ayudante virtual de la web de Ikea. Existen varios Asistentes Virtuales Semánticos o Presentadores Interactivos, probablemente bastante precisos en sus respectivos campos. Sin embargo, por ahora parece ser que la mayoría funcionan prácticamente sólo mediante texto, y no reconociendo preguntas formuladas por voz. Existen en varias webs, pero no “están por todas partes”.
    • Valoración: Sí y no.
  • «Las pantallas de las computadoras tendrán todas las cualidades visuales del papel -alta resolución, alto contraste, grán ángulo de visión, y ausencia de parpadeo. Los libros, revistas y periódicos se leerán ahora de forma rutinaria en pantallas que serán del tamaño de, por ejemplo, libros pequeños.»
    • Volvemos a los e-books, que gracias a la tinta electrónica tienen prácticamente todas las cualidades del papel (salvo el olor, claro, por eso especifica visuales) y además esta tecnología apenas gasta energía (sólo para el paso de hoja), lo cual creo que es la referencia al parpadeo.
    • Todas esas propiedades no las cumplen el resto de computadoras, y ni siquiera los e-books se han popularizado tanto como para dar por buena la segunda afirmación. Quizás en un par de años sí, tras el boom del libro electrónico que todo el mundo dice que habrá en 2010.
    • Valoración: Incorrecto.
  • «También se usarán pantallas dentro de gafas. Estas gafas especiales permitirán a los usuarios ver el entorno visual normal mientras que crean una imagen virtual que parecerá sostenerse en frente de ellos. Estas imágenes virtuales estarán creadas por un pequeño láser montado dentro de las gafas que proyectará las imágenes directamente sobre la retina del usuario.»
    • Quizás Kevin Warwick tenga algo de esto, pero no es una tecnología que esté en el mercado a manos de cualquiera.
    • Valoración: Incorrecto.

Resultados de esta tanda (sí y no se cuenta como un tanto en cada una).

Predicciones acertadas: 7.

Predicciones falladas: 8.

En unos años podremos manipular el cerebro

Buescando otro artículo que leí la semana pasada, acabo de leer por casualidad (un título atractivo) la entrevista Leeremos y manipularemos el cerebro como queramos que Gabriela Cañas realizó a Carlos Belmonte y que fue publicada el domingo pasado en El País Semanal.

Carlos Belmonte es catedrático de Fisiología y fundador del Instituto de Neurociencias de Alicante, del que fue su director hasta hace dos años. Además de estar al tanto de toda la investigación más puntera del cerebro, también parece ser una eminencia en el conocimiento de qué es el dolor. Sobre este tema concreto he encontrado otra interesante entrevista del 2006 en la que afirma, entre otras cosas, que «es verdad que vivimos instalados en una sociedad hedonista: no queremos que nos duela nada. Y en parte está bien, ya que creo que el dolor, una vez que te ha avisado de que existe una lesión, debe eliminarse».

En la entrevista publicada en El Pais Semanal, también comienza hablando del dolor, pero rápidamente pasa a reseñar lo mucho que está avanzando la investigación del cerebro y cosas que podremos hacer pronto con total seguridad como el borrado de recuerdos que trataba Eternal Sunshine of the Spotless Mind y que en el 2004 parecía una auténtica obra de ciencia ficción. Carlos Belmonte dice:

«Ya se está aplicando al estrés postraumático con gente que ha participado en guerras como las de Irak o Afganistán. Ese síndrome impide dormir a la gente, que se despierta horrorizada porque el cerebro conserva las experiencias más traumáticas para poder evitarlas en el futuro. Gracias a ello hemos sobrevivido a nivel evolutivo. Para esa gente se ha encontrado el remedio: borrarles selectivamente ese recuerdo. El debate ético a plantear es dónde poner los límites.»

Me ha llamado también la atención la forma científica de definir la madurez de una persona, y que explica por qué en la mayoría de sociedades se alcanza el “estatus” de adulto de los 18 a 21 años. Es debido a que «hay una zona del cerebro, la corteza orbitofrontal, que es la última en desarrollarse y es ahí donde se establecen los circuitos que inhiben conductas impulsivas y que determinan nuestras valoraciones éticas y nuestra empatía emocional con otros. A los 18, 19, 20 años de un individuo, todavía se está engrosando esa zona cerebral». Así, no tiene ningún sentido reducir el margen de edad en el que se mueven los niños simplemente por motivos sociales o éticos, sino que se trata de un hecho puramente científico. Por mucho que un niño ahora se forme intelectualmente antes que hace unos años, todavía le queda a su cerebro un trecho por terminar de alcanzar la madurez a la hora de aceptar responsabilidades.

Otro comentario suyo me ha recordado a los temas tratados por John Searle en su ensayo sobre el libre albedrio que recientemente leí:

«Le voy a poner otro ejemplo de los desafíos a los que nos enfrentamos. El sentido de la responsabilidad es un concepto muy discutible en términos neurológicos. Hay un experimento también increíble. [Se ríe]. Se pone a prueba a una persona para que elija entre salvar a un niño o salvar a diez ancianos. No puede hacer ambas cosas a la vez. Pues bien, registrando la actividad cerebral de la persona que va a decidir, sabemos 100 milisegundos antes de que lo haga que va a salvar al niño o a los ancianos. Podemos saberlo e incluso estimularle de manera que tome una decisión distinta. En los dos casos, el individuo aportará una explicación racional a posteriori sobre la decisión tomada.»

Da mucho que pensar sobre cómo funciona el cerebro y nuestra concepción de la realidad. ¿Acaso tomamos decisiones por algún motivo que no conocemos, y luego tratamos de darles una explicación racional acorde a premisas que sí conocemos? ¿Es un mecanismo de defensa buscando alguna paz interior? Me parece un planteamiento muy interesante.

Nanobots en nuestro cerebro

Ya escribí la semana pasada sobre un par de predicciones que Ray Kurzweil hizo hace más de diez años y que empiezan a cumplirse, y hoy he visto un episodio de Redes en el que Eduard Punset le entrevista y quiero poner aquí su visión de nuestro futuro dentro de 20 años. Lástima que a mitad programa pongan un estúpido video preparado para ello, he echado en falta más trozo de entrevista. Ahí también enlazan a la transcripción en pdf, de la que he copiado el siguiente texto. El futuro que propone me parece tan apasionante…

Pero lo importante es que empezaremos a ponerlos [los ordenadores] dentro de nuestros cuerpos y cerebros para mantenernos sanos. Tendremos nanobots (dispositivos del tamaño de glóbulos rojos) que nos mantendrán sanos desde dentro. Si esto suena muy futurista, déjame decirte que hoy en día, ya hay docenas de experimentos que lo han hecho con animales, con la primera generación de dispositivos. Los científicos trabajan para curar la diabetes de tipo 1 en ratones con dispositivos del tamaño de un glóbulo rojo, pronto empezaremos a controlarlo… Hay ya un dispositivo de este tamaño que puede detectar las células cancerígenas y destruirlas. Por ahora solamente son experimentos, pero a finales de la década de 2020 tendremos este tipo de dispositivos circulando por la sangre para mantenernos sanos desde dentro. Y si ahora vamos más adelante, hasta la década de 2030, tendremos estos componentes en el cerebro, e interactuarán con nuestras neuronas biológicas.

Ya hay personas que son ciborgs, que tienen máquinas en el cerebro… por ejemplo, pacientes de Parkinson que llevan un dispositivo del tamaño de un guisante que sustituye las neuronas destruidas por la enfermedad. Y funciona como la región cerebral original. Y la última generación de este implante cerebral (ahora están en la cuarta generación) permite descargar nuevo software para el ordenador en el interior del cerebro desde fuera del paciente. La generación anterior no lo permitía. ¡Y esto es algo que ya se puede hacer en la actualidad! No tiene el tamaño de un glóbulo rojo, sino de un guisante, y por tanto tiene que implantarse con cirugía, pero si seguimos avanzando así veinte años… otra tendencia exponencial es que estos dispositivos son cada vez más pequeños.

Además, cuando queramos crear una realidad virtual, los nanobots desconectarán las señales procedentes de nuestros sentidos reales, y las sustituirán por las señales que el cerebro recibiría si estuviéramos realmente en el entorno virtual… y sentiremos realmente que estamos en ese entorno virtual. El diseño de nuevos entornos se convertirá en una nueva forma de arte… y no solamente será visual o auditivo, también táctil… implicará todos los sentidos…

Control de máquinas con la mente: Un futuro no tal lejano

Como ya conté en el post sobre la NeoCom 2009, iba a dedicar un post entero a la charla de Javier Mínguez Control de Máquinas con la mente: un futuro no tan lejano.

Obviamente eran unas charlas serias, así que no se trataba de telequinesis ni nada de magufos, aunque el efecto conseguido, visto desde fuera, podría engañar a cualquiera.

La actividad cerebral genera ondas electromagnéticas, de modo que se trata, básicamente en medir la actividad cerebral, identificar la acción que se desea mediante un ordenador, y transmitirle las órdenes necesarias a una máquina para que la ejecute.

Para medir la actividad cerebral hay diversos lugares donde situar los electrodos que captarán las señales cerebrales:

  • EEG – Mediante un gorrito adecuado sobre la cabeza. Se capta una zona de 3 cm.
  • ECoG – Bajo la piel, sobre el cráneo. Captando una zona de 0,5 cm.
  • Local FP – Debajo del cráneo, sobre el cerebro. Se capta una zona de 1 mm.
  • Single unit AP – Directamente dentro del cerebro, consiguiendo captar sólo 0,2 mm.

La única técnica no invasiva es mediante un EEG, puesto que no hay que introducirse en la cabeza del sujeto. El resto son cada vez más invasivas. Obviamente, cuanto menos área se reciba, más localizada estará la señal y será más sencillo determinar de qué parte procede.

Así pues, hay dos formas de llevar a cabo la lectura de los estímulos cerebrales: operando o no. Aquí en Europa somos muy mirados y lo de la ética científica se lleva mucho, así que no se lleva lo de abrir la cabeza para implantar electrodos, por lo que se investiga mayoritariamente con EEG, y parece ser que somos bastante buenos en ello. Puesto que con este sistema se extrae mucha menos información que con las técnicas invasivas (la señal es más débil y más difusa) necesitamos robótica inteligente que complemente las acciones del usuario. Es lo que se denomina robótica cognitiva y se hacen grandes esfuerzos, por ejemplo, en prótesis que logren que los movimientos se asemejen a los realizados por un humano. O también introduciendo sistemas de conducción inteligentes en sillas de ruedas. Luego me extenderé en esto último.

Los estadounidenses, en cambio, muestran reparos en investigar con células madre, pero no les importa abrir cabezas para leer la información cerebral desde lo más cerca posible a su lugar de origen. Allí mete muchísima pasta especialmente DARPA, para lograr el supersoldado del futuro. Su principal modelo de trabajo consiste en introducir lo que llaman Fully Implantable Multichannel Recording Device dentro del cerebro. Esto capta las señales del cerebro, las envía mediante cualquier tecnología wireless a un receptor portátil y éste se comunica con el miembro robótico. Requieren de menos procesado y robótica menos inteligente puesto que las señales son más exactas y potentes.

Respecto al modelo europeo, mediante EEG, hay mayoritariamente dos formas de trabajar: pensamiento en tareas cognitivas y la onda P300. El primer caso se basa en que diferentes ideas se procesan en distintas partes del cerebro, de modo que se pueden detectar fácilmente y asignarles órdenes. Son lo que se denominan, ritmos mu (véanse los diferentes tipos de ritmos cerebrales) Esto significa que si queremos girar nuestra silla de ruedas a la derecha, deberemos hacer multiplicaciones mentalmente; si queremos girar a la izquierda, pensaremos en colores; y para avanzar habrá que pensar en palabras que empiezan por la letra A. Suena tosco, pero es una idea original y funciona. Sin embargo, a la hora de la verdad no tiene que resultar nada práctico. Precisamente éste es uno de los problemas a los que se enfrentan los investigadores actualmente, y es conseguir un control natural de las máquinas: si quiero girar al a derecha, pienso en girar a la derecha. Resulta obvio que será mucho más difícil distinguir un pensamiento del tipo: ir adelante, ir hacia atrás, que disinguir multiplicaciones de colores.

El sistema mediante las ondas P300 me parece más interesante, y es más práctico actualmente. No dudo que si en algún momento se llega a procesar el pensamiento natural del que hablaba antes, esto ya no será necesario, pero ahora mismo debe de ser la mejor solución con técnicas no invasivas. Esto se basa en que si vemos algo en lo que estábamos pensando, nuestro cerebro se activa y emite una señal que se capta al cabo de aproximadamente 300 milisegundos; no obstante, esta cifra es ligeramente distinta en cada individuo, y puede estar localizada en un lugar distinto.

La aplicación práctica la podréis ver en el siguiente video, que es una exhibición que se hizo recientemente como colofón a una investigación al respecto. El sujeto de la izquierda está tumbado en una cama en Zaragoza, y a la derecha se ve un robot en Barcelona recibiendo sus instrucciones y enviando lo que enfoca la cámara. El objetivo era enfocar a determinadas columnas y llegar a la meta. La inteface es muy sencilla y, si os fijais, se resaltan secuencialmente todas las opciones constantemente. Quien lo maneja debe concentrarse en la acción de la pantalla que desea activar: cuando se ilumine, su cerebro lanzará una señal, que se captará 300 ms después, y el ordenador sabrá cuál estaba encendida en ese momento y enviará la orden al robot para que la ejecute. Puede decirle que gire a ambos lados, que pase el control a la cámara, o que muestre la matriz de puntos a los cuales avanzar. Pero bueno, un vídeo vale más que mil palabras.


BCI teleoperation experiment (I) from BCIZaragoza.

¿Interesante eh? Pero si en lugar de aplicar esta tecnología a un robot a 200 kilómetros, lo hacemos a una silla de ruedas, permitiremos que una persona que no pueda mover un sólo músculo, pueda desplazarse con relativa facilidad. También hay otro vídeo al respecto, pero no se aprecia el interface (que supuestamente es el mismo que para el robot anterior).

Como puede verse estamos bastante avanzados en este tema, y las aplicaciones pueden ser infinitas, pero todavía hay algunos escollos que superar. Por ejemplo, para una buena lectura del EEG, es necesario untar con gel conductor la cabeza para potenciar las débiles señales que llegan. Si en algún momento estas tecnologías llegan al punto de comercializarse para la labor que sea, desde tetraplégicos, a videojuegos (la evolución natural de la Wii), resultaría de lo maś engorroso tener que pringarse todo el pelo para utilizarlo.

Otro problema es que cualquier movimiento muscular genera actividad cerebral y produce distorsión en la señal, incluso que se llegen a captar las señales musculares (EMG) en lugar de las producidas por pensamientos (EPG), lo cual no sería adecuado.

En los videos precedentes, tanto la silla de ruedas como el robot, además de obedecer las órdenes leídas del cerebro, incluyen sistemas inteligentes de conducción. Este es otro campo bastante interesante, y que parece ir a pasos agigantados. Javier Mínguez también investiga al respecto y en su web hay algunos vídeos mostrando sillas conduciéndose solas por diversos circuitos preparados al efecto. Combinar ambos campos obtiene los increibles resultados vistos más arriba. Como curiosidad también nos explicó en en EE.UU. hacen una competición de coches conducidos inteligentemente, en la que los dejan en mitad del desierto y les ordenan acudir a un punto a 200 kilómetros. Tampoco es en mitad de la nada, pero no os penséis que van por una cómoda carretera; en el vídeo se veían unos caminos miserables, subiendo montes con esas cerradísimas curvas de cualquier ascenso. Además, tenían que contar con que podía hacerse de noche durante el trayecto, lo cual dificultaba el sistema. La anécdota fue que el que parecía el mejor coche se quedó tirado al cabo de un tiempo con la memoria saturada. ¿El problema? No iba liberando todos los objetos que analizaba del entorno, con lo que llegó un momento en el que no cabían más. Parece mentira que tuvieran un fallo así en un proyecto de semejantes características.

Casualmente hoy Kirai ha publicado un video del famoso robot Asimo controlado mentalmente mediante un sistema similar a los descritos antes, aunque con una interfaz mucho más precaria: un japonés mostrando las tarjetas en las que debe pensar. Hay otro video más completo y en inglés.

Algo relacionado con este tema está el artículo en el que recientemente escribí sobre control y cartografiado cerebral.

ACTUALIZADO 30 de junio:
Toyota presenta la próxima comercialización de una silla de ruedas con esta tecnología.

Control cerebral a distancia

Hace unos días un amigo me dejó la revista Investigación y ciencia del pasado diciembre. Él se ha aficionado (y de hecho se ha hecho subscriptor recientemente) y en un intento por joderme la vida (son seis euros cada ejemplar) me la prestó para ver si yo también me enganchaba. Que esté dedicando un post a un artículo no es buena señal para los bolsillos.

Me ha llamado la atención uno llamado Observación y control del cerebro, en el que explican como, mediante pigmentos electrosensibles, se trata de analizar los flujos de impulsos entre las neuronas del cerebro al someter al individo a diferentes situaciones. Se pretende no sólo “cartografiar” el cerebro, sino aprender cómo reacciona y poder controlarlo.

Uno de los experimentos sobre este último aspecto lo realizan sobre moscas activando unas neuronas que provocan la huida del insecto. Para activarlas utilizaron un circuito fotosensible, de modo que cuando la mosca recibía un destello de luz ultravioleta salía volando.

Conforme lo leía pensé: “¿Y si la mosca huye porque ve la luz? Deberían apuntar con el láser a moscas modificadas y moscas normales“. Por supuesto, pronto hablan sobre este problema, pero la solución es mucho más radical:

«Para resolverlo, recurrimos a un sencillo, aunque burtal, experimento: cortar la cabeza a las moscas. Decapitados, esos insectos sobreviven uno o dos días y mantienen intactos los circuitos de generación de patrones en el interior de sus ganglios torácicos (un tosco equivalente de la médula espinal de un vertebrado). Al incidir la luz en tales circuitos, saltaron al aire cuerpos de otro modo inertes. Si bien los vuelos fueron inestables y acabaron en espectaculares caídas o colisiones, su mera existencia demostraba que el láser contrlaba el circuito generador de patrones; de ningún otro modo podían detectar la luz y reaccionar a ella unos animales sin cabeza.»

Más adelante, en este mismo artículo, se habla sobre un experimento español, en el que un científico controlaba a distancia el comportamiento de animales mediante señales de radio transmitidas a electrodos implantados en el cerebro. Para demostrar su sistema, José Manuel Rodríguez Delgado paró un toro furioso en plena embestida hacia él mismo.

Cerebro mal conectado: doble conciencia

En 1978, los neuropsiquiatras E. Bisiach y C. Luzzatti pidieron a dos pacientes con graves lesiones cerebrales que imaginaran estar sentados en un extremo concreto de la Piazza del Duomo (algo que cualquier milanés conoce como la palma de su mano) y que describieran lo que veían con su imaginación desde esa posición.

Los dos pacientes hicieron una descripción muy correcta de los edificios y las estatuas del lugar, pero sólo los que estaban en la mitad derecha de la plaza desde su punto de vista. Ninguno de los dos advirtió de sí mismo que había olvidado la otra mitad de la plaza. Ambos estaban convencidos que la recordaban de forma muy exacta. ¿Les había borrado la lesión la parte izquierda de la Piazza del Duomo?

A continuación les pidieron que hicieran exactamente lo mismo, pero con la diferencia que estaban en el punto de vista opuesto de la plaza respecto del que se les había pedido al principio. Los pacientes describieron a la perfección todas las estatuas y edificios de la parte que antes parecía haber sido eliminada.

Sigue leyendo el resto de estas apasionantes investigaciones que terminan reflexionando sobre la conciencia y analizando su funcionamiento y tiempo de acción. Por supuesto, en Historias de la Ciencia.

Backtracking en neurocirugía

«Stephen Dubovich tiene el cerebro al aire y el médico le pide que sonría. “¿Te encuentras bien?” —le pregunta, y a continuación la enfermera le muestra algunos objetos para que los identifique. La técnica de operación a cerebro abierto se realiza desde hace algunos años en la mayoría de los hospitales del mundo. La cosa va bien mientras el paciente hable y se comporte con normalidad. Si se muestra confuso o comienza a cambiar el nombre a las cosas, el cirujano debe abandonar inmediatamente la zona en la que está trabajando

De lo cual sólo puedo concluir una cosa, y es que van operando al tun-tún y si no sale como debería salir, prueban a operar de otro lado. Ésta es una de las formas de resolver problemas en informática tratando todas las posibilidades, sin ningún tipo de algoritmo de inteligencia artificial. Se le conoce como backtracking, vuelta atrás, ensayo-error… Y me acojona que me puedan operar la cabeza siguiendo una pauta tan simple.

Evidentemente lo estoy exagerando, pero es la impresión que da. El cerebro es un grandísimo desconocido y la neurología sabe muy poquito sobre él, especialmente de cómo guardamos los recuerdos. Resulta bastante curioso que sea tan poco lo que sabemos del cerebro que para estar seguros de que una operación vaya bien haya que estar “testeando” al operado constantemente.

Lee el resto de la entrada de aberron para Libro de Notas.