Control de máquinas con la mente: Un futuro no tal lejano

Como ya conté en el post sobre la NeoCom 2009, iba a dedicar un post entero a la charla de Javier Mínguez Control de Máquinas con la mente: un futuro no tan lejano.

Obviamente eran unas charlas serias, así que no se trataba de telequinesis ni nada de magufos, aunque el efecto conseguido, visto desde fuera, podría engañar a cualquiera.

La actividad cerebral genera ondas electromagnéticas, de modo que se trata, básicamente en medir la actividad cerebral, identificar la acción que se desea mediante un ordenador, y transmitirle las órdenes necesarias a una máquina para que la ejecute.

Para medir la actividad cerebral hay diversos lugares donde situar los electrodos que captarán las señales cerebrales:

  • EEG – Mediante un gorrito adecuado sobre la cabeza. Se capta una zona de 3 cm.
  • ECoG – Bajo la piel, sobre el cráneo. Captando una zona de 0,5 cm.
  • Local FP – Debajo del cráneo, sobre el cerebro. Se capta una zona de 1 mm.
  • Single unit AP – Directamente dentro del cerebro, consiguiendo captar sólo 0,2 mm.

La única técnica no invasiva es mediante un EEG, puesto que no hay que introducirse en la cabeza del sujeto. El resto son cada vez más invasivas. Obviamente, cuanto menos área se reciba, más localizada estará la señal y será más sencillo determinar de qué parte procede.

Así pues, hay dos formas de llevar a cabo la lectura de los estímulos cerebrales: operando o no. Aquí en Europa somos muy mirados y lo de la ética científica se lleva mucho, así que no se lleva lo de abrir la cabeza para implantar electrodos, por lo que se investiga mayoritariamente con EEG, y parece ser que somos bastante buenos en ello. Puesto que con este sistema se extrae mucha menos información que con las técnicas invasivas (la señal es más débil y más difusa) necesitamos robótica inteligente que complemente las acciones del usuario. Es lo que se denomina robótica cognitiva y se hacen grandes esfuerzos, por ejemplo, en prótesis que logren que los movimientos se asemejen a los realizados por un humano. O también introduciendo sistemas de conducción inteligentes en sillas de ruedas. Luego me extenderé en esto último.

Los estadounidenses, en cambio, muestran reparos en investigar con células madre, pero no les importa abrir cabezas para leer la información cerebral desde lo más cerca posible a su lugar de origen. Allí mete muchísima pasta especialmente DARPA, para lograr el supersoldado del futuro. Su principal modelo de trabajo consiste en introducir lo que llaman Fully Implantable Multichannel Recording Device dentro del cerebro. Esto capta las señales del cerebro, las envía mediante cualquier tecnología wireless a un receptor portátil y éste se comunica con el miembro robótico. Requieren de menos procesado y robótica menos inteligente puesto que las señales son más exactas y potentes.

Respecto al modelo europeo, mediante EEG, hay mayoritariamente dos formas de trabajar: pensamiento en tareas cognitivas y la onda P300. El primer caso se basa en que diferentes ideas se procesan en distintas partes del cerebro, de modo que se pueden detectar fácilmente y asignarles órdenes. Son lo que se denominan, ritmos mu (véanse los diferentes tipos de ritmos cerebrales) Esto significa que si queremos girar nuestra silla de ruedas a la derecha, deberemos hacer multiplicaciones mentalmente; si queremos girar a la izquierda, pensaremos en colores; y para avanzar habrá que pensar en palabras que empiezan por la letra A. Suena tosco, pero es una idea original y funciona. Sin embargo, a la hora de la verdad no tiene que resultar nada práctico. Precisamente éste es uno de los problemas a los que se enfrentan los investigadores actualmente, y es conseguir un control natural de las máquinas: si quiero girar al a derecha, pienso en girar a la derecha. Resulta obvio que será mucho más difícil distinguir un pensamiento del tipo: ir adelante, ir hacia atrás, que disinguir multiplicaciones de colores.

El sistema mediante las ondas P300 me parece más interesante, y es más práctico actualmente. No dudo que si en algún momento se llega a procesar el pensamiento natural del que hablaba antes, esto ya no será necesario, pero ahora mismo debe de ser la mejor solución con técnicas no invasivas. Esto se basa en que si vemos algo en lo que estábamos pensando, nuestro cerebro se activa y emite una señal que se capta al cabo de aproximadamente 300 milisegundos; no obstante, esta cifra es ligeramente distinta en cada individuo, y puede estar localizada en un lugar distinto.

La aplicación práctica la podréis ver en el siguiente video, que es una exhibición que se hizo recientemente como colofón a una investigación al respecto. El sujeto de la izquierda está tumbado en una cama en Zaragoza, y a la derecha se ve un robot en Barcelona recibiendo sus instrucciones y enviando lo que enfoca la cámara. El objetivo era enfocar a determinadas columnas y llegar a la meta. La inteface es muy sencilla y, si os fijais, se resaltan secuencialmente todas las opciones constantemente. Quien lo maneja debe concentrarse en la acción de la pantalla que desea activar: cuando se ilumine, su cerebro lanzará una señal, que se captará 300 ms después, y el ordenador sabrá cuál estaba encendida en ese momento y enviará la orden al robot para que la ejecute. Puede decirle que gire a ambos lados, que pase el control a la cámara, o que muestre la matriz de puntos a los cuales avanzar. Pero bueno, un vídeo vale más que mil palabras.


BCI teleoperation experiment (I) from BCIZaragoza.

¿Interesante eh? Pero si en lugar de aplicar esta tecnología a un robot a 200 kilómetros, lo hacemos a una silla de ruedas, permitiremos que una persona que no pueda mover un sólo músculo, pueda desplazarse con relativa facilidad. También hay otro vídeo al respecto, pero no se aprecia el interface (que supuestamente es el mismo que para el robot anterior).

Como puede verse estamos bastante avanzados en este tema, y las aplicaciones pueden ser infinitas, pero todavía hay algunos escollos que superar. Por ejemplo, para una buena lectura del EEG, es necesario untar con gel conductor la cabeza para potenciar las débiles señales que llegan. Si en algún momento estas tecnologías llegan al punto de comercializarse para la labor que sea, desde tetraplégicos, a videojuegos (la evolución natural de la Wii), resultaría de lo maś engorroso tener que pringarse todo el pelo para utilizarlo.

Otro problema es que cualquier movimiento muscular genera actividad cerebral y produce distorsión en la señal, incluso que se llegen a captar las señales musculares (EMG) en lugar de las producidas por pensamientos (EPG), lo cual no sería adecuado.

En los videos precedentes, tanto la silla de ruedas como el robot, además de obedecer las órdenes leídas del cerebro, incluyen sistemas inteligentes de conducción. Este es otro campo bastante interesante, y que parece ir a pasos agigantados. Javier Mínguez también investiga al respecto y en su web hay algunos vídeos mostrando sillas conduciéndose solas por diversos circuitos preparados al efecto. Combinar ambos campos obtiene los increibles resultados vistos más arriba. Como curiosidad también nos explicó en en EE.UU. hacen una competición de coches conducidos inteligentemente, en la que los dejan en mitad del desierto y les ordenan acudir a un punto a 200 kilómetros. Tampoco es en mitad de la nada, pero no os penséis que van por una cómoda carretera; en el vídeo se veían unos caminos miserables, subiendo montes con esas cerradísimas curvas de cualquier ascenso. Además, tenían que contar con que podía hacerse de noche durante el trayecto, lo cual dificultaba el sistema. La anécdota fue que el que parecía el mejor coche se quedó tirado al cabo de un tiempo con la memoria saturada. ¿El problema? No iba liberando todos los objetos que analizaba del entorno, con lo que llegó un momento en el que no cabían más. Parece mentira que tuvieran un fallo así en un proyecto de semejantes características.

Casualmente hoy Kirai ha publicado un video del famoso robot Asimo controlado mentalmente mediante un sistema similar a los descritos antes, aunque con una interfaz mucho más precaria: un japonés mostrando las tarjetas en las que debe pensar. Hay otro video más completo y en inglés.

Algo relacionado con este tema está el artículo en el que recientemente escribí sobre control y cartografiado cerebral.

ACTUALIZADO 30 de junio:
Toyota presenta la próxima comercialización de una silla de ruedas con esta tecnología.

La habitación de Fermat debería ser un .pps

Joder. Me acaban de pasar dos videos de esta película (uno y dos) y he flipado. En su momento no me apeteció verla, aunque no descartaba hacerlo en alguna ocasión; pero acabo de cambiar de idea.

¿Pero cómo se les pudo ocurrir hacer una película con los mismos putos acertijos de toda la puta vida? Joder, el de los tipos que siempre mienten o dicen la verdad está demasiado manido ¡encima en su versión sencilla! Mira que se puede complicar con múltiples factores como que otro mienta una vez y diga la veradd a la siguiente. O que contesten en un idioma desconocido. Mil variantes. Aunque a fin de cuentas seguiría siendo el mismo acertijo de siempre.

De verdad creo que si querían hacer una recopilación de acertijos clásicos les hubiera salido más barato hacer un powerpoint y rularlo por e-mail.

La Hora del Planeta, en directo

Desde la página de la Red Eléctrica de España (REE) se puede seguir la evolución de la demanda de energía eléctrica en tiempo real.

Me ahorraré decir lo estúpido que me parecen iniciativas como ésta o el famoso apagón de cinco minutos de hace un par de años.

Los que lo defienden, principalmente argumentan que es una forma de que los que nos gobiernan se percaten de que estamos todos concienciados al respecto, que podemos participar juntos en protestas, y que así tomen medidas contra el Cambio Climático y la derrocha de energía.

Lo paradójico del asunto es que las ciudades que han apoyado la iniciativa y van a apagar las luces de los monumentos emblemáticos se cuentan por miles. Y quienes toman estas decisiones en cada ciudad son, precisamente, quienes nos gobiernan. Así que no sé quién tiene que tomar esas medidas para evitar el Calentamiento Global ¿quizás el Sol?.

A propósito, la web del REE no sólo permite ver la demanda en tiempo real, sino también de fechas pasadas. Y además de la demanda eléctrica también es posible observar la generación de energía por diferentes medios: eólica, nuclear, carbón…).

Aprovechando la opción de consultar la demanda en otras fechas, he buscado el 1 de febrero de 2007, cuando se produjo el anterior apagón por el cambio climático, pero de sólo cinco minutos, a las 20:00.

apagon-1-febrero-2007

A diferencia de hoy, entonces el apagón se produjo una vez ya se había «estabilizado» la demanda del día, de modo que es apreciable un un pequeño valle a esa hora, así como un pico justo después que sobrepasa los valores previstos. Esto es obvio, pues casi cualquier aparato que utilice electricidad necesita más en el momento de encenderse, y con tanta gente conectando todo a la vez…

hoy-21

Hoy, sin embargo, el apagón se ha producido durante el ascenso de demanda, de modo que lo que ha ocurrido es que en lugar de que veamos un valle, se ha estabilizado casi constante. La anterior foto son datos de las 21:00.

ACTUALIZO una hora después:

Han modificado la producción programada para la hora de la finalización, incrementándola ligeramente. Llevaba desde que había visto la gráfica al principio extrañado porque no predijesen un pico o algo similar al final la Hora del Planeta; no obstante, si comparáis esta gráfica con la que acababa de poner, se puede ver cómo ha cambiado. Eso sí, tampoco ha habido ningún incremento al finalizar como podría haber parecido razonable. Supongo que es debido a estar ya en la fase de descenso, y se han juntado los que encendían de nuevo con los que apagaban, resultando de nuevo en una gráfica constante. A continuación, los datos para las 22:10.

28-marzo-hora-del-planeta

NEOcom 2009: Dando señales de vida

Esta semana la Asociación de Alumnos de Telecomunicaciones de la Universidad de Zaragoza (AATUZ) ha organizado el ciclo de conferencias NEOcom por décimo año consecutivo, esta vez orientadas a las aplicaciones de su carrera a la medicina.

Me apunté fundamentalmente porque daban dos créditos de libre elección, y este año estoy aprovechando a sacarme todos los que pueda aprovechando que llevo pocas asignaturas.

Tengo que decir que las estoy disfrutando bastante, en casi todas cuentan temás de lo más interesantes y algunas me han encantado.

Una de las charlas del primer día fue sobre encimeras de inducción y la dió Jesus Acero de BSH (Bosch & Siemens Home Appliances Group, que además de estas dos empresas, también lo componen Balay, LINX, Neff y otras más de electrodomésticos).

Este grupo tiene montones de centros de investigación en el mundo, siete de los cuales están en España, y se ve que toda la tecnología de inducción que venden a nivel global está desarrollada en el Zaragoza, que además tienen un convenio con la propia universidad desde hace más de 20 años, durante los cuales ha habido decenas de Doctorados y PFCs sobre el tema. Incluso han creado recientemente una cátedra para fortalecer las relaciones.

Nos estuvo explicando la tecnología que llevan debajo, cómo funcionan exactamente (tenía una ligera idea en la cabeza) y por qué son mucho más eficientes que cualquier otro medio tradicional: el calor se genera en el propio recipiente que cocina la comida, por lo que la pérdida de energía y casi inexistente. Esta tecnología está triunfando mucho actualmente en Europa y Asia precisamente por esto, por la moda del ahorro energético. Sin embargo, parece ser que en los USA son más derrochadores, y todavía no han calado estas ideas, de modo que le mercado ahí es menor.

El segundo día la charla estrella fue, sin lugar a dudas, la de la misión Swarm del SSETI (con dos S). Es un proyecto a nivel mundial en el que se pretende que estudiantes de universidad desarrollen pequeños satélites y consigan ponerlos en órbita (aunque para esto colabora la ESA poniendo el cohete necesario) y realizar con ellos algunas mediciones o experimentos que deseen. La condición es ahorar lo máximo posible en materiales y todo lo que se utilice. No me extiendo más porque probablemente le dedique un post entero.

Este mismo día, para finalizar, vino Hector Blanco, de Warp, una empresa informática creada por un montón de frikazos. La primera diapositiva fue el jodido Enterprise y nos advirtió de que la charla no sería sobre el motor Warp de la nave de Star Trek que le permitía viajer a velocidades supralumínicas curvando el espacio-tiempo. Y en su blog publicaron el cartel que iban a colgar durante una fase de contratación hace un par de meses, en la parte de requerimientos podíamos leer: «Conocimientos: /dev/full. Idiomas: UNIX nativo, inglés».

Fuera de coñas, nos contó cómo la empresa recibió un gran impulso tras anunciar él en su blog un evento sobre MySQL y que lo leyese uno de los jefazos de la empresa creadora del programa. Tras conocerse han pasado a ser partners de MySQL y dar cursos de los más avanzados de Europa sobre él. Está claro que por eso acabo de publicar un par de noticias sobre Sun Microsystems. También nos habló de los problemas con los que tenían que lidiar para desarrollar un driver para un modem portátil de Vodafone, instalable en cualquier distribución de GNU/Linux. Y un entorno virtual para hacer pruebas automatizas de sistemas que me pareció bastante buena idea.

El miércoles hubo una mesa redonda en la que hicieron especial hincapie en la necesidad de respetar los estándares, y en la importancia de la interoperabilidad en cualquier sistema que se monte.

La mejor charla de este día, y de todas las conferencias, fue la que expuso Javier Mínguez sobre control de máquinas con la mente. Ésta también merece post aparte. Lo único malo es que tenía programada sólo una hora, que se le hizo demasiado corta (se excedió 20 minutos a toda prisa) y todos nos quedamos con ganas de que hubiera durado más.

Otra interesante este día fue la de Juan Carlos Moreno sobre un proyecto de la propia universidad, el DOMOCOM (pdf), que pretende ser un interface de acceso para todos los aparatos de la casa que soporten cualquier tipo de comunicación para poder tenerlos interconectados entre sí y enviarse mensajes entre cualesquiera. Supongo que publicaré también aparte sobre esto.

Me sorprendió que en por lo menos tres charlas se nombrase el patrón Modelo-Vista-Controlador. No sé cuánta programación les enseñan a los telecos, pero me extrañaría que llegasen a diseño por patrones. Obviamente hablaban del diseño de algunas de las aplicaciones que habían desarrollado.

También han machacado en muchas de las charlas sobre los problemas de no respetar la estandarización (o que no exista) en cantidad de ámbitos distintos, y lo que complica cualquier desarrollo. Tanto hardware como software.

Mi más sincera enhorabuena a los miembros de la AATUZ por organizar estas excelentes conferencias. A ver cómo las rematan el viernes.

Caché para discos duros

Qué casualidad que justo ayer hablé de Sun. Estoy suscrito a un par de boletines de noticias de esta compañía (no sé si mensuales, semanales o qué) y echando un vistazo al que me llegó hace poco he leído un post de Jonathan Schtwarz, el CEO y presidente de la compañía, sobre uno de los últimos dispositivos de almacenamiento que han presentado.

En la breve (pero intensa) historia de la informática siempre ha existido una enorme diferencia entre la velocidad de lectura/escritura en memoria y en el procesador. Esto no es nada óptimo porque de nada nos sirve un procesador rapidísimo que tiene que esperar a leer las instrucciones en la lenta memoria. Para esto se inventó la memoria caché, que es muchísimo más rápida que la memoria RAM habitual, y se sitúa en el propio procesador (al menos los primeros niveles). El problema de la caché es que es mucho más cara, y además no se puede poner mucha porque también se haría más lenta (al tener que buscar los datos en más espacio) y no se puede permitir que el procesador tenga que esperarla. Bajo estas ideas hay cientos de implementaciones distintas y problemas de diseño con los que este cuatrimestre me matan la cabeza a diario en DARQ. Pero es algo que se ha mantenido e incrementado desde que se inventó.

Pues bien, resulta que los muchachos de Sun Microsystems han aplicado una idea similar, pero a un servidor de almacenamiento. En el Sun Storage 7000, las funciones de la memoria caché las realizan tarjetas de memoria Flash.

Así «utiliza algoritmos (en lugar de administradores de almacenamiento) para colocar de forma adaptativa los datos a los que se accede con mayor frecuencia allí donde su recuperación sea más rápida: en la memoria flash. […] El sistema operativo interno (OpenSolaris, junto con ZFS) en realidad «calienta» el dispositivo después de que empiece a trabajar: vigila el tráfico, detecta a qué archivos se accede con mayor frecuencia y los almacena en caché en la memoria flash. De este modo están disponibles de forma casi inmediata».

Lo que me extraña es que no se le hubiese ocurrido esto a nadie antes. Además recuerda que las memorias flash, pese a su precio más caro, no necesitan corriente eléctrica para funcionar, con lo que a la larga utilizarlas puede salir hasta más económico.

IBM interesada en comprar Sun Microsystems

Parece ser que la semana pasada se filtraron noticias de una posible compra de Sun Microsystems por parte de IBM, dispuesta a pagar 6500 millones de dólares por ella. Esto habrá tenido que conmocionar a la blogosfera, pero yo me entero hoy por Mundo Geek.

Sun Microsystems es responable, entre otros muchos productos, del lenguaje de programación Java, el sistema operativo Solaris, y compró MySQL el año pasado. También desarrollaron durante los 80 su propia arquitectura de computador, el SPARC; están detrás de Open Office, una de las principales alternativas de software libre a la suite de Microsoft. También aportan soluciones hardware de almacenamiento en plan tocho y últimamente están ofreciendo servicios en torno al cloud-computing.

IBM no necesita presentación. La historia de la informática no tendría sentido sin el gigante azul, contando con infinidad de patentes en todos los campos imaginables. Gran parte de los protocolos, soluciones y sistemas que utiliza cualquier ordenador de hoy en día se gestaron en sus laboratorios. Como dato curioso, cuando se asignaros los diferentes dominios en los primeros tiempos de internet, se reservaron la mayoría para los diferentes países, pero alguno fue también concedido a IBM. En la actualidad es la segunda empresa de informática del mundo, detrás de HP.

A falta de más conocimiento sobre ambas empresas que el general, y sin ninguna posición al respecto, me he lanzado a leer el debate al respecto en Java Hispano. Al igual que lo visto en una rápida ojeada en Barrapunto, el flame principal está en el temor de que puedan cargarse NetBeans, el IDE para Java desarrollado por Sun, para favorecer a Eclipse, de origen en IBM.

Pese a todo, pueden llegar a leerse cosas interesantes y opiniones razonadas, sólo hay que saltarse las primeras respuestas escritas en el calor del momento. Hacia el final hay buenas reflexiones sobre las soluciones hardware y software que tienen en común, y que hacen dudar si en el futuro se mantendrían ambas. Esto mismo que es utilizado como una pega de la compra de IBM, es también utilizado como una baza a favor, contraargumentando a los que prefieren que sea Google quien compre Sun.

Google se ha erigido como un gigante bueno entre toda la comunidad virtual (y he de confesar que yo también lo miro con muy buenos ojos) pero tampoco creo que fuera el mejor comprador de Sun. Como bien argumentan algunos, el modelo de negocio de Google es completamente diferente, y no tiene la experiencia que posee IBM en la mayoría de asuntos que trata Sun. Además, Google sólo se hace con tecnologías en las que pueda incluir publicidad y hacer uso de su potente algoritmo de búsqueda. ¿Tendríamos que soportar AdSense mientras programamos? ¿Basarían los contenidos de los anuncios en los nombres de las clases y los métodos usados? Cuando utilicemos el patrón Singleton, nos mostrarán páginas de contactos; si detectan el patrón Observer, pondrán anuncios de binoculares. Así pues, creo que se le asegura un mejor futuro a todo lo desarrollado por Sun con una compra por parte de IBM, más afín a sus productos.

En otro orden de cosas, la noticia original del Wall Street Journal , asegura que Sun llevaba una temporada arrastrándose buscando un comprador; HP declinó la oferta, y Dell (la tercera compañía informática a nivel mundial) no hace declaraciones al respecto. Y parece razonable, viendo cómo han ido cayendo sus acciones desde los 25 dólares de noviembre de 2007, hasta los cuatro en que estaban antes de conocerse la oferta de IBM (tras lo que se han revalorizado un 65%) Y habían llegado a estar por debajo de los tres dólares; ahora mismo rondan los ocho.

Otra opinión al respecto, favorable esta vez, la dan en Between The Lines, donde argumentan que IBM estaría muy interesado para fortalecerse en el ámbito del hardware, especialmente almacenamiento, donde Sun parece bastante fuerte. Aquí por lo visto, el detonante lo ha puesto Cisco que, como apuntan en más lugares, había entrado recientemente al mercado de los servidores (que ahora mismo, con las redes evolucionando a pasos agigantados, parece ser la principal inversión por todas partes).

Bacterias, azufre y clima

Si ayer hablé de un artículo sobre la observación y control del cerebro que leí en la revista Investigación y Ciencia, hoy quiero destacar otra curiosidad del artículo Plancton bacteriano de los océanos, también del ejemplar de diciembre de 2008.

En el artículo se quiere destacar la increible diversidad y funciones ecológicas de estos organismos que han sido tan desconocidos hasta hace relativamente poco tiempo, y de los que cada vez es posible realizar mejores estudios y seguimientos.

Resulta abrumador descubrir que en un centímetro cúbico de la zona fótica (desde la superficie hasta los 200 metros de profundidad) hay una media de 500 000 bacterias. Por debajo disminuye, pero tampoco de forma exagerada, pues hay montones de bacterias que sobreviven sin luz, ni los compuestos orgánicos más habituales, y que sí que son capaces de vivir de los compuestos químicos que salen de la corteza oceánica. Así, la cantidad estimada de bacterias en los océanos se calcula en torno a las 1029.

Pero lo que me ha llevado a escribir este post no es eso, sino su relación directa con el clima.

En buena parte, el olor a mar se debe al sulfuro de dimetilo (DMS) presente en el aire. Escapan a la atmósfera unos 100 millones de toneladas de azufre (en forma DMS) al año. Un tercio de esa cantidad se origina, mediante procesos biológicos, en los océanos. Cierta fracción procede de la actividad volcánica. La mayor parte tiene un origen antropogénico, aunque al limitarse a los continentes, su impacto en los océanos es menor.
El DMS se origina por descomposición enzimática del dimetilsulfoniopropionato (DMSP). El DMSP es uno de los compuestos orgánicos simples más abundantes en los océanos. […] Las algas liberan DMSP al medio durante la lisis por senescencia o cuando son ingeridas por el zooplancton. Las bacterias lo metabolizan para obtener energía y carbono. Liberan entonces DMS, un compuesto muy volátil que escapa a la atmósfera, donde participa en la regulación del clima.
En la atmósfera el DMS es oxidado por la radiación ultravioleta; se forman aerosoles de sulfato que condensan la humedad e incrementan así la densidad de las nubes. Dado que las nubes limitan la cantidad de radiación que llega a la superficie terrestre, provocan una disminución de la temperatura. Se estima que, en ausencia DMS, la temperatura de la atmósfera seríad e 3 a 4 ºC superior. El DMS atenúa, por tanto, el efecto invernadero. De ahí el interés en conocer los factores que regulan la concentración atmosférica de DMS.
[…] El ciclo del azufre se halla sometido a un mecanismo de retroalimentación: la liberación de DMS a la atmósfera provoca el aumento de la densidad de las nubes, con lo que disminuye la lu z que recibe el fitoplancton y se limita, por tanto, la síntesis de DMSP.

El artículo continua explicando diversas técnicas de supervivencia de diferentes tipos de bacterias, analizando los cmopuestos que metabolizan para obtener el preciado carbono, dependiendo de su abundancia o condiciones.

Control cerebral a distancia

Hace unos días un amigo me dejó la revista Investigación y ciencia del pasado diciembre. Él se ha aficionado (y de hecho se ha hecho subscriptor recientemente) y en un intento por joderme la vida (son seis euros cada ejemplar) me la prestó para ver si yo también me enganchaba. Que esté dedicando un post a un artículo no es buena señal para los bolsillos.

Me ha llamado la atención uno llamado Observación y control del cerebro, en el que explican como, mediante pigmentos electrosensibles, se trata de analizar los flujos de impulsos entre las neuronas del cerebro al someter al individo a diferentes situaciones. Se pretende no sólo «cartografiar» el cerebro, sino aprender cómo reacciona y poder controlarlo.

Uno de los experimentos sobre este último aspecto lo realizan sobre moscas activando unas neuronas que provocan la huida del insecto. Para activarlas utilizaron un circuito fotosensible, de modo que cuando la mosca recibía un destello de luz ultravioleta salía volando.

Conforme lo leía pensé: «¿Y si la mosca huye porque ve la luz? Deberían apuntar con el láser a moscas modificadas y moscas normales«. Por supuesto, pronto hablan sobre este problema, pero la solución es mucho más radical:

«Para resolverlo, recurrimos a un sencillo, aunque burtal, experimento: cortar la cabeza a las moscas. Decapitados, esos insectos sobreviven uno o dos días y mantienen intactos los circuitos de generación de patrones en el interior de sus ganglios torácicos (un tosco equivalente de la médula espinal de un vertebrado). Al incidir la luz en tales circuitos, saltaron al aire cuerpos de otro modo inertes. Si bien los vuelos fueron inestables y acabaron en espectaculares caídas o colisiones, su mera existencia demostraba que el láser contrlaba el circuito generador de patrones; de ningún otro modo podían detectar la luz y reaccionar a ella unos animales sin cabeza.»

Más adelante, en este mismo artículo, se habla sobre un experimento español, en el que un científico controlaba a distancia el comportamiento de animales mediante señales de radio transmitidas a electrodos implantados en el cerebro. Para demostrar su sistema, José Manuel Rodríguez Delgado paró un toro furioso en plena embestida hacia él mismo.