Aprendizaje, Comportamiento y Símbolos

Como ya comenté en agosto, este verano tenía un trabajo para la asignatura de Sistemas Cognitivos, que presenté a mediados de septiembre.

Algunos me comentaron que se notaba un huevo, porque me he pegado todo este tiempo subiendo entradas sobre temas de Inteligencia Artificial, pero qué remedio. No sólo es un tema que me apasiona, sino que le 90% de lo que leía era sobre ello, así que apenas tenía otras fuentes para escribir.

Me he pegado la mayor parte del tiempo leyendo libros y artículos de forma totalmente azarosa, sin decidirme por un tema en concreto. Al principio me pareció muy interesante reflexionar sobre la computabilidad de la mente, pero pronto vi que era un terreno en el que poco tendría que aportar a la de J.R. Lucas (y que más tarde reutilizó Roger Penrose) que niega la equivalencia entre el cerebro y una máquina, pues el primero es capaz de ver la verdad tras el Teorema de la Incompletitud de Gödel, y mediante una máquina sería imposible. La primera vez que leí sobre este argumento me impactó muchísimo, y me invitó a reflexionar bastante no sólo sobre la IA, sino sobre el propio universo.

Sin embargo, finalmente di con el artículo clásico de Rodney Brooks «Elephants don’t play chess«, que me ayudó bastante a decidirme con el trabajo. Otro libro que me aclaró mucho las ideas y que me ha servido mucho para el ensayo, fue Inteligencia Artificial, de Jack Copeland. Además, cuando sugerí el tema al profesor, me recomendó leer Fridges, Elephants, and the Meaning of Autonomy and Intelligence de Ricardo Sanz, Fernando Matia y Santos Galan, donde cuentan algo parecido a lo que digo yo, pero sin la parte de las redes neuronales.

He estado esperando a conocer la nota para escribir este artículo, pero como ha sido valorado positivamente, creo que puedo colgarlo sin la vergüenza de haber escrito ninguna barbaridad. A continuación, pego la introducción a mi ensayo, y dejo el vínculo al mismo.

Desde los comienzos de la computación el hombre ha intentado, sin éxito, construir máquinas inteligentes. Han existido fundamentalmente dos principios para aproximarse a esta meta en los que los estudiosos han invertido la mayoría de sus esfuerzos: la manipulación simbólica, desde los primeros intentos por la inteligencia artificial; y las redes neuronales, que pese a estar definidas desde 1957 no adquirieron protagonismo hasta los años setenta y ochenta. Los sistemas expertos, que también tuvieron su época dorada durante los ochenta, no dejan de ser un tipo de manipulación simbólica con una extensa base de hechos. A principios de los 90 aparecieron los sistemas basados en comportamientos muy simples, desde los que pretendía emerger una inteligencia más compleja que la suma de ellos.

Los especialistas en cada campo, por lo general, se han mostrado escépticos con el alternativo, de modo que estos enfoques han seguido caminos de evolución separados, e incluso enfrentados, durante varios años de éxitos y fracasos a cada lado. De hecho, la programación basada en comportamientos, surgió como una aproximación diametralmente opuesta del modelo clásico.

Los logros obtenidos son completamente distintos en cada disciplina —los detallaré más adelante— quedando demostrado que cada una resulta una mejor aproximación para llevar a cabo diferentes tareas. A lo largo de este artículo, trataré de demostrar por qué la manipulación simbólica, las redes neuronales y el sistema basado en comportamientos no son modelos opuestos, sino complementarios.

 Aprendizaje, Comportamiento y Símbolos

Únete a la conversación

3 comentarios

Deja un comentario

Responder a Federico Lozada Mosto Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *