Por @Alvy — 16 de Enero de 2005

On Intelligence. Jeff Hawkins con Sandra Blakeslee. Times Books. Octubre 2004. Inglés. 272 páginas. Web oficial: OnIntelligence.org.

Hace un mes que comenté por aquí la existencia de este libro (ver Jeff Hawkins sobre el cerebro humano y el interesante hilo de comentarios original) y prometí una reseña completa en cuanto pudiera leerlo porque era de lo más prometedor.

Efectivamente, On Intelligence no defraudada en lo más mínimo. Es provocador, profundo y sin duda se podría decir que revolucionario (en cierto modo, tanto como A New Kind of Science). Habla sobre el cerebro, la mente, el funcionamiento de los sentidos, la memoria y el aprendizaje y, sobre todo, de la inteligencia artificial: por qué fracasó, pero también cómo funcionará realmente en el futuro — que no es como la mayoría de los expertos piensan.

Jeff Hawkins, ayudado por la periodista Sandra Blakeslee, comienza explicando con total humildad que tal vez él puede proponer esta teoría sobre el funcionamiento de la inteligencia precisamente por estar fuera de los circuitos científicos habituales. él es más conocido por haber fundado Palm Computing y haber inventado la Palm y el sistema de escritura Graffiti para las PDA. Resulta que él es un ingeniero (no un biólogo ni un neurocirujano), acostumbrado a traajar en productos que fallan, así que puede permitirse aprender de los errores — mientras que un científico probablemente vería frustrada su carrera para toda la vida si tras cinco o diez años investigando publicara se atreviera a publicar algo como este libro y resultara ser un fiasco.

El córtex cerebral

La teoría de Hawkins comienza explicando que en el córtex cerebral es donde residen realmente la memoria y por tanto la inteligencia — otras partes del cerebro se encargan de los instintos básicos, mas primitivos y automáticos. El córtex es básicamente igual en todas partes, y aunque se sabe que diversas zonas tienen relación con ciertos sentidos y atributos (ej. la visión, el tacto, el lenguaje, etc.) en realidad todas sus partes, capas celulares, densidad, etc. son básicamente iguales. Según Hawkins, todas las capas del córtex pueden realizar las mismas funciones. Lo cual explicaría por qué funciones en zonas que son dañadas por accidentes o enfermedad (ej. el lenguaje), se puedan volver a desarrollar en otra zona distinta. El hecho de que ciertas zonas del córtex esten relacionadas con ciertos sentidos o funciones se debe únicamente a dónde están conectadas (ej. al nervio óptico o auditivo). Pero esa situación es circunstancial, no «obligatoria». De hecho, ya se ha demostrado que se puede «ver» a traves de un sensor en la lengua, por ejemplo.

El número y disposición de las conexiones al córtex, así como la diferencia de tamaño relativo (cuerpo/cerebro), y el tipo y número de neuronas en el córtex humano y el de los animales es lo que nos hace básicamente diferentes: los humanos somos inteligentes porque somos en cierto modo más «conscientes» del mundo que nos rodea y porque tenemos mayor capacidad de predicción y «simulación mental».

El mundo de los sentidos

Conocemos el mundo a través de los sentidos. Incluso hay muchos más sentidos que los cinco habituales que suelen enseñar en el colegio. El equilibro, por ejemplo, podría considerarse un sentido. En cierto modo, todos estos sentidos «digitalizan» información del exterior y la transmiten al córtex a través del sistema nervioso. Hawkins propone que esa información entrante se procesa siempre mediante los mismos algoritmos, se guarda de la misma forma y se accede a ella de idéntica manera. Da igual si es la foto de un dálmata o el olor de una magdalena. Este proceso (algoritmo) es tan simple pero tan versátil que puede explicarlo todo sobre el funcionamiento de la mente. Incluso aunque el cerebro lo utilice para acciones tan distintas como ver, oler u ordenar mover una mano (que no es una sensación sino una acción).

La memoria

El algoritmo que utiliza la mente es un proceso que almacena patrones y hace predicciones sobre los patrones que encuentra o espera encontrar. La exposición a los diversos estímulos (inputs) se guarda en el córtex. Pero el córtex es muy diferente a lo que habitualmente conocemos como «la memoria» de un ordenador. Las diferencias fundamentales de cómo funciona la memoria en el cerebro respecto a otros tipos de memorias (como un archivo o un ordenador) son estas:

  • La memoria almacena secuencias de patrones en vez de los datos en sí. Esto es como almacenar las diferencias de una nota a otra en una canción en vez de almacenar las notas en sí. Esto permite reconocer canciones aunque estén en otra «escala» o palabras escritas aunque estén «en otro tipo de letra». Las secuencia, ademas, están almacenadas siempre en un orden determinado. Todo el mundo recuerda el alfabeto, pero es difícil recitarlo al revés. Lo mismo sucede con tu número de teléfono: tienes almacenada la secuencia pero no sabrías decirlo al revés sin pensarlo cuatro o cinco veces. Es como si en realidad no tuvieras memorizado el número en sí. Además, para recordar cosas, debemos hacerlo siempre en cierto orden («pensando en ello»: «ayer fui al parque y en el parque había un lago y en el lago peces...», no somos capaces de recordar todo de una sola vez «instantáneamente»).
  • La memoria es accesible de forma auto-asociativa. Todos los recuerdos están asociados unos con otros de algún modo: ver una parte de una cara está asociado con que esa cara corresponde a una cabeza completa. Las cabezas están encima de cuerpos, los cuerpos corresponden a personas, etc. Oímos una frase y la entendemos, aunque en realidad no hayamos escuchado todas las palabras exactamente (pero las completamos). Aunque fltn algns ltrs pdmos ntndr frss cm sta sn myr prblm. Eso eso porque lo que almacenamos son los patrones y sencuencias, y asociamos patrones incompletos con patrones que conocemos (y predecimos), a pesar de que a veces haya pequeños errores. Las imágenes imposibles nos llaman la atención y resultan divertidas precisamente por esto.
  • La memoria almacena los patrones enformato invariante. Una vez que has aprendido a leer, puedes reconocer las palabras y leerlas en cualquier ángulo, perspectiva, condición luminosa o aunque cambie el tipo de letra. Puedes reconocer una cara como perteneciente a la misma persona de día, noche, vista de perfil, etc. Imagine de John Lennon existe en miles de versiones, y podrías reconocerlas todas como tal oyendo unas pocas notas, aunque no las hayas escuchado completas nunca antes. Esta forma de almacenamiento es radicalmente distinta de forma en que se almacenan datos en los ordenadores. Además, funciona también «al revés»: puedes haber aprendido una poesía de memoria simplemente leyéndola, pero puedes reproducirla escribiéndola a mano, a máquina o recitándola de viva voz (incluso en otro idioma).
  • Los patrones se almacenan en una jerarquía. El concepto de jerarquía tiene que ver con las diversas capas del córtex, y básicamente consiste en una estructura que podría denominarse fractal, bellamente simétrica porque además cuenta con retroalimentación, en el que las regiones de menor nivel transmiten los patrones y los «nombres» que asignan a los patrones a las zonas de nivel superior. Pero todas son iguales y equivalentes en realidad. Esta jerarquía se corresponde, curiosamente, con el hecho de que también el Mundo en sí sea jerárquico. Las notas musicales forman melodías, las melodías secuencias, las secuencias canciones, las canciones álbumes, etc. Las hojas estan en las ramas, las ramas en los árboles, los árboles en el bosque. Las letras forman palabras que forman frases que forman párrafos, capítulos, libros y los libros están en estanterías, dentro de bibliotecas. Entendemos y almacenamos la información así la realidad del mundo es así, por tanto es la forma más práctica de hacerlo. Las diversas capas del córtex transmiten esa información según esos conceptos de «nombres» asignados a los patrones. La información más básica va primero, luego más elaborada, etc. asignándole «nombres» como «mmm... veo algo», «tiene forma de cara», «es una persona», «es Juan, mi hermano».

Acciones y comportamiento

Adicionalmente, todo esto funciona también al revés. La estructura del córtex está llena de señales que viajan en dirección opuesta a la de la percepción, hacia los centros motores. Está todo lleno de retroalimentación (feedback). Cuando queremos hacer algo como «voy a coger el vaso», realizamos la acción mediante una predicción, es decir «visualizamos» qué va a suceder («mi mano derecha agarrará el vaso así») y el hecho de recuperar ese patrón de la memoria automáticamente envía esas señales («patrones») a los lugares adecuados para que se cumpla esa predicción («mano, muévete y coge el vaso»). Al hacerlo, vemos el resultado, que queda reforzado en la memoria por el hecho de que ese patrón ha funcionado realmente. Todo esto puede sonar extraño, pero explica todas las habilidades aparentemente tan complicadas que demostramos los seres inteligentes. Explica cómo una persona (o un perro) pueden predecir la trayectoria de una pelota para cogerla, sin calcular ecuaciones físicas. También explica por qué muchos deportistas y personas mejoran su rendimiento «visualizando» que hacen algo, antes de hacerlo realmente, como por ejemplo descender una pista nevada o dar una conferencia.

El nuevo modelo de la inteligencia

En el capítulo dedicado al nuevo modelo de la Inteligencia [supongo que esa es la traducción habitual de framework] es donde Hawkins combina todas las ideas sobre cómo funciona el cerebro y la memoria para explicar qué es en realidad la inteligencia y cómo y por qué funciona como funciona. Previamente, también explica por qué cree que el Test de Turing no sirve para demostrar genuinamente que algo es inteligente. Tú puedes ser inteligente simplemente estando sentado en una habitación oscura sin hacer nada. Comportarse inteligentemente no quiere decir que realmente lo seas, como demuestra el experimento de la sala china. Deep Blue no es inteligente, simplemente calcula rápido jugadas de ajedrez.

Hawkins propone que la capacidad de predicción de patrones es la clave de la inteligencia. Durante nuestra existencia, aprendemos y memorizamos patrones. El córtex tiene algoritmos para almacenarlos y reconocerlos. Somos inteligentes porque somos capaces de predecir qué sigue a un patrón determinado en base a la experiencia. Y cuando fallamos, eso nos sorprende. Entonces podemos añadirlo a la lista y seguir aprendiendo. Tal vez más revolucionario es que ese modelo y la existencia de la retroalimentación de patrones en el córtex explique también por qué cuando pensamos «hacer algo» en realidad podemos hacerlo.

Aunque Hawkins admite que parte de estas ideas de es probable que ya existieran anteriormente, pero que su teoría las une todas en un conjunto comprensible, consistente, y mucho más simplificado, que cubre desde cómo funcionan los sentidos (y el hecho relevante de que todos funcionan igual) a cómo esto está relacionado con la memoria y la inteligencia, nuestra capacidad de aprender y llevar a cabo acciones — todo ello mediante un único algoritmo extremadamente simple.

Datos sobre el cerebro

Una buena parte del libro está dedicada a explicar cómo funciona físicamente el córtex. Es tal vez la más técnica y complicada, aunque no hace falta ser neurocirujano para entenderlo, dado que los autores han tenido la habilidad de simplificar y poner ejemplos suficientemente claros. A los autores, de todos modos, les puede achacar la falta de ejemplos visuales y de datos concretos que seguramente son importantes para entender mejor lo que cuentan. El libro sólo tiene unas diez o quince figuras y diagramas ilustrativos, y datos como el número de neuronas en el córtex, la velocidad de transmisión de las señales se mencionan sólo de pasada — aunque algunas veces es porque ni siquiera los neurocientíficos tienen claro todo eso.

Se calcula, por ejemplo, que en el córtex puede haber unos 32 billones de sinapsis en las neuronas, que podrían equivaler a unos 8 billones de bits informáticos. Eso son 8 terabytes, que a día de hoy puedes comprar en forma de discos duros por unos 10.000 euros y guardar en un cajón. Pero no tendrías la misma memoria que en tu cerebro. La diferencia es que en el cerebro la «memoria» está en realidad altamente interconectada, de modo que para replicarla el principal problema no es tanto de capacidad como de conectividad — aunque esto puede resolverse tanto en la teoría como en la práctica, del mismo modo que una misma línea telefónica puede contener señales para cientos de conversaciones.

Otro dato curioso del libro: se sabe que en un segundo una señal puede transmitirse digamos linealmente a través de unas 200 neuronas si estuvieran puestas en línea (en otras palabras: una neurona unos tarda 5 milisegundos en recibir, procesar y transmitir una señal). Esa es la «velocidad del pensamiento». No es nada espectacular, la verdad. Pero sí es sorprendente que si en un experimento nos enseñan una serie de fotos podamos reconocer en 0,5 segundos si hay en ellas un gato o no y pulsar rápidamente un botón — algo que ningún ordenador puede hacer hoy en día. Eso significa que la «solución» a ese problema visual (o a casi cualquier otro problema) existe realmente a menos de 100 neuronas de distancia en nuestro cerebro. Eso, según Hawkins es indicativo de que el cerebro no calcula la solución siguiendo una serie de «pasos», sino que simplemente recupera la solución, que ya existe, desde la memoria.

Cuando oí hablar de este libro una de mis dudas era si sería demasiado teórico y poco práctico o realista. Sin ser ningún experto, creo que no está demasiado alejado de la realidad. Las explicaciones sobre el funcionamiento real de las neuronas en el córtex están dentro de lo aceptado por la comunidad científica, y su modelo (teórico) sobre los patrones tiene la elegancia de la simplicidad, que tantas veces esta detrás de muchos aciertos. También tiene ese punto curioso de desvelar que «el emperador está desnudo» que tanto fastidia a muchos científicos (lo poco que en realidad se conoce sobre el tema XYZ, el hecho de que en realidad se estaban haciendo las preguntas equivocadas, etc.) así que es de esperar un buen número de críticas y refutaciones, que por supuesto habrá que leer con avidez.

Preguntas, respuestas y vacíos

En uno de los últimos capítulos Hawkins responde a las preguntas a las que habitualmente contesta cada vez que da conferencias: ¿Qué es la imaginación? ¿Son inteligentes los animales? ¿Qué es la creatividad? ¿Se puede ser más creativo? ¿Qué es la consciencia? Todas ellas tienen una respuesta clara, incluso diría que de sentido común, dentro de su modelo de la inteligencia.

La que más me llamó la atención es la descripción de por qué la inteligencia humana es fundamentalmente diferente de la de los animales. Según Hawkins se trata básicamente de diferencias físicas a las que hemos llegado tras siglos de evolución natural en cuanto al modelo de memoria y capacidad de predicción de patrones. Nuestro córtex es más grande y por tanto mejor que el de otros animales.

Los organismos más simples tenían una capacidad de predicción básica, del tipo «debo nadar hacia donde haya comida» pero eran incapaces de transmitirla. Sólo existía cierta capacidad de transmitir una especie de «memoria» generacional a través del ADN, durante la reproducción (y vinculada a la selección natural). De repente, se desarrolló una memoria predictiva que llegó a tener utilidad durante la vida del organismo (ya más larga), que es la que actualmente tienen los animales («no debo acercarme al fuego», «si veo un león, debo correr, porque ya ví cómo se comían a mis congéneres»). Los delfines probablemente tienen un modelo o conocimiento muy amplio del mundo que les rodea, memoria de todos los sitios que han visitado alguna vez e incluso pueden comunicar conceptos básicos a otros delfines y entender a las personas con el entrenamiento adecuado.

Pero solo el ser humano alcanzó la capacidad más diferenciadora de todas: desarrollar profundamente el lenguaje. El lenguaje nos permite intercambiar de forma práctica y rápida nuestras memorias (recuerdos y patrones) con otros seres de nuestra especie. Y no sólo durante nuestra vida, sino a través de generaciones. Y actualmente, no sólo con nuestros vecinos, sino con cualquier otro ser humano del planeta. Aunque otros mamíferos, animales e incluso plantas tienen sus particulares versiones del lenguaje, no son tan sofisticados y eso nos diferencia profundamente de ellos.

Algunas otras preguntas o temas se quedan por desgracia sin respuesta. Temas por ejemplo como qué son los sueños, por qué soñamos o por qué es necesario soñar, no se tratan a lo largo del libro. ¿Qué es realmente un déjà-vu? No hay comentarios. El libro sí explica en cambio cómo encajan en su teoría algunas enfermedades relacionadas con el cerebro (como la sinestesia o incluso la curiosa anterograde amnesia que sufre el protagonista de Memento), pero no cómo encajan otras como la amnesia normal, el Parkinson, los distintos tipos de retraso mental u otras deficiencias y enfermedades. Habla en cambio de por qué las alucionaciones son tan reales o por qué es tan fácil engañar al cerebro: sencillamente porque los humanos estamos diseñados para encontrar patrones, y tendemos a verlos incluso donde no los hay. Hawkins tampco entra a hablar, en cambio (todo un acierto) de las cuestiones filosóficas sobre la inteligencia, la personalidad, la consciencia y demás. Tal vez porque ese tipo de debates es para otro tipo de libros, y el suyo tiene un carácter más práctico.

Inteligencia y ordenadores

Jeff Hawkins es ingeniero. El supergeek. Inventó la Palm, incluyendo el sistema de reconocimiento de escritura Graffiti*, y posteriormente la Handspring (finalmente, todo eso se fusionó de nuevo cuando Palm compró Handspring). En el libro, afirma que creó Palm para poder ganar dinero en una industria que también le interesaba, pero para poder dedicarse realmente a investigar el cerebro. Con el dinero que ganó fundó el Redwood Neuroscience Institute que es donde realiza su trabajo científico.

(*) Curiosamente, Graffiti no es en sí un sistema inteligente que «aprenda» la escritura humana, al contrario de lo que mucha gente piensa. Hawkins explica exactamente cómo lo inventó: «En 1994 mis colegas y yo estábamos intentando adivinar cuál sería un buen sistema para introducir datos en los ordenadores de mano. Todo el mundo estaba concentrado en los sistemas de reconocimiento de texto inteligentes. Sin embargo, esos sistemas resultaron ser muy difíciles de realizar y nunca funcionaban bien (...) Un día, decidí dar un paso atrás y ver el problema desde otra perspectiva. Me dijo a mí mismo: «¿Cómo introducimos ahora texto en los ordenadores? Tecleamos en un teclado. ¿Cómo aprendemos a teclear? Bueno, no es fácil. Es un invento reciente y requiere su tiempo aprender (...) Sin embargo, millones de personas lo hacen. ¿Por qué? Sencillamente, porque funciona. De modo que continué mi analogía: Tal vez yo pueda inventar un sistema para introducir texto que no sea intuitivo, que requiera que la gente lo tenga que aprender, pero que lo utilicen sencillamente porque funcione. Literalmente, así es el proceso que seguí para inventarlo.»

Lógicamente, Hawkins no podía dejar pasar la oportunidad de explicar en su libro todas las diferencias entre el cerebro humano y los ordenadores, así como su visión sobre la inteligencia artificial, cómo cambia esa visión bajo la luz de su teoría y cuál es el posible futuro que nos espera.

Nada más empezar el libro dedica un capítulo a explicar el porqué del fracaso de la IA durante las últimas décadas del siglo XX. Ninguno de los sistemas era genuinamente inteligente. Algunos se comportaban «como si pensaran» pero en entornos terriblemente limitados (Eliza, Deep Blue). Todo el mundo creía que las capacidades de memoria y cálculo eran la verdadera limitación y que los ingenieros del hardware vendrían a salvar a la AI. Redes neurnales, redes bayesianas, sistemas expertos... nada. Todo esto demostró ser claramente un error.

Hawkins se atreve a predecir que no habrá en el futuro sistema de inteligencia artificial como Robbie el Robot, C-3PO o el malévolo HAL, que se comporten como humanos, sencillamente porque para eso deberían ser humanos: tener las mismas capacidades sensoriales que un humano, el mismo tipo de memoria y con la misma capacidad, exactamente el mismo algoritmos pero además... vivir exactamente la vida de un humano desde su nacimiento. Y además, aunque parezca que se haya desentrañado cómo funciona el cerebro, todavía desconocemos todavía muchos de los detalles (por ejemplo, los 30 millones de sinapsis de un cerebro típico podrían ser en realidad 300 ó 3.000) y algunos efectos como la conectividad exacta entre dichas sinapsis permanecen inexplorados.

En cambio, Hawkins sí predice que si su teoría es correcta se podrán crear sistemas inteligentes que tal vez no hablen como C-3PO, pero si que resulten prácticos y últiles, realmente revolucionarios. Basándose en su teoría de reconocimiento de patrones desarrolla ideas sobre de sistemas de reconocimiento de voz, coches verdaderamente inteligentes, sistemas de predicción del clima y de otras aplicaciones industriales.

Su ejempo de coche inteligente es realmente interesante. Si dentro de 10 ó 20 años (el plazo que él estima) se desarrolla un sistema predictivo con las capacidades que propone, los fabricantes crearían un coche con todo tipo de sensores visuales y de radar (e incluso otros: un sensor acústico podría predecir cierto tipo de situaciones). Dicho coche partiría de un conocimiento «cero». No habría que pre-programarle nada, pero sí que debería pasar meses o años aprendiendo del mundo real — como un bebé: circulando conducido por una persona. Con el tiempo, crearía un modelo de patrones predictivos en su interior y se formaría un modelo del mundo real — el primero paso para demostrar inteligencia. En un momento dado, el coche ya sería capaz de poder predecir situaciones y, con los mecanismos adecuados, de tomar el control del vehículo y circular como lo hace una persona. Haría cosas realizando acciones que cumplieran sus predicciones. Con el suficiente aprendizaje, ese coche sería incluso capaz de frenar si ve una pelota rebotando que cruza la carretera, porque sabría que probablemente saldrá un niño corriendo detrás de ella y no debe atropellarle. La diferencia entre la inteligencia de ese coche y la de una persona sería que se podrían tomar los patrones de la memoria del coche y «clonarlos» en toda una línea de coches idénticos, al instante. El fabricante podría decidir además que el coche siga aprendiendo (o no) tras vendérselo al propietario. El coche sería inteligente, sería útil y no tendría nada que ver con los coches actuales.

Esa tecnología tal vez no debería llamarse entonces «Inteligencia Artificial» porque en la práctica sería «Inteligencia Real».

Toda una revolución que, si Hawkins está en lo correcto en el fondo y en los plazos, tendremos la increíble suerte de ver y disfrutar a lo largo de nuestras vidas.

Compartir en Flipboard  Compartir en Facebook  Tuitear

27 comentarios

#1 — Alvy

Recordatorio: existe un hilo de comentarios original sobre este libro y sus planteamientos en una anotación anterior, recomiendo visitarlos.

#2 — BenKo

No dejo de preguntarme: Si el "algoritmo único" es tan sencillo, ¿cómo es que no sabemos cuál es?

El texto interesantísimo, a ver si lo trajeran a la biblioteca de mi universidad :)

#3 — Adrian

Estas ideas de Jeff Hawkins ya son bastante viejas, y muchos cientificos europeos trabajamos en ellas desde hace tiempo. Me refiero al proyecto europeo (IST-2000-28027) coordinado por la Universidad Politécnica de Cataluña y en el que participan la Universidad de York (Reino Unido), La Universidad de Glasgow (Reino Unido), la Universidad de Lausanne (Suiza) y la Escuela Politécnica Federal de Lausanne (Suiza).

Se trata del proyecto POEtic que consiste en el desarrollo de un substrato electrónico multicelular con capacidades inspiradas en las propiedades de evolución, desarrollo y aprendizaje presentes en sistemas biológicos. El cual ya ha demostrado su funcionamiento.

#4 — Alvy

BenKo: según Hawkins el algoritmo es sencillo, es simplemente el reconocimiento y almacenamiento de patrones en forma de secuencias, es decir, no hay nada más que eso. Reconocer un patrón es que si te llega la info 1, 2, 3, 4 y luego 1, 2, 3, 4 etc tras varias repeticiones te dicen 1, 2, 3 y el algoritmo adivina 4. Lo que no se conoce son algunos de los detalles, ni su capacidad exacta (ej. capacidad de ´memoriaª, pero Hawkins afirma que esa es la base de todo.

Creo que es como si no supieras nada de fotografía y quisieras adivinar cómo de una cámara fotográfica digital pueden salir fotos por la impresora... Podrías llegar a la teoría de que funciona mediante algún proceso digital, que hay algo que la hace sensible a la luz, que las imágenes se almacenan en forma de bits en una memoria digital, que los bits se transmiten de tal forma... aunque no sepas qué óptica lleva ni la capacidad en megabytes de la memoria -- y al mismo tiempo podrías deducir por ejemplo descartar que funcione a base de zumo de naranja. También podrías diferenciar que esa cámara digital (en este ejemplo equivalente a la inteligencia de un ser humano) tiene algo que la hace fundamentalmente distinta de una cámara analógica (un animal) aunque en muchas cosas se parezcan.

Adrián: Gracias por la info, corro a leerla, suena interesante. De todos modos, ¿podrías resumirnos algo más de POEtic en lenguaje llano para entender en plan rápido de qué trata y qué se ha conseguido? Sería interesante por ejemplo saber cómo soluciona el problema de la conectividad en la memoria (más que el de capacidad), si es que es parecido en planteamiento a lo que comenta Hawkins como dices. ¿En qué consiste la demostración que mencionas, podrías resumirla y que se pueda entender? Sobre el proyecto en sí, ¿Qué tipo de aprobación ha tenido por la comunidad científica tradicional? (la teoría de Hawkins imagino que será ligeramente diferente y que todavía estará siendo examinada, imagino). Última pregunta: ¿Si has leído ya el libro de Hawkins, qué te parece?

#5 — Anonymous

Gracias por el resumen.

Pues en este libro: Human Information Processing: An Introduction to Psychology, de 1977 (hay edición en castellano, "Introducción a la psicología cognitiva", creo que en Tecnos, pero no me hagas mucho caso) muchas de esas ideas ya estaban planteadas. Un enfoque más "práctico" en Psychology of everyday things. Ambos libros están muy bien, incluída la versión en español y están orientados a la divulgación seria.

Como comenté en el otro hilo de comentarios, las ideas no son nuevas, al menos no del todo nuevas, lo que no le quita mérito, pero sí el carácter "revolucionario". Yo no veo aquí un conflicto con la "comunidad científica internacional", a no ser que por tal entendamos, no sé, a los Psicoanalistas Freudiandos o al movimiento Conductista más Skinneriano, por poner un par de ejemplos.

Un apunte curioso cuando comentas lo de la Inteligencia Artificial: Eliza (el programa que simula un psicoterapeuta de la escuela de Karl Rogers) no fue escrito como un programa de Inteligencia Artificial, sino poco más o menos que para demostrar lo contrario. Weizenbaum (el autor) prácticamente escribió un libro para decir eso. El programa no es inteligente pues se limita a construir preguntas en base a lo que la gente escribe y es capaz de pasar el Test de Turing durante un rato (pero sólo un rato). Digamos que "simula" ser inteligente (y la gente picaba porque por las noches los estudiantes se conectaban a él para contarle sus problemas...)

No sé si se puede hablar de fracaso de la inteligencia artificial como disciplina. Parte del problema es que no creo que tengamos una definición de inteligencia (Turing al inventar su test, simplemente obvió el problema) y otra parte es que la vemos desde un punto de visto antropocéntrico y también mezclamos el tema de la conciencia (saber que sabemos, saber que somos, saber que pensamos...). O sea, que tendemos a pensar en C3PO o en los robots asimovianos al hablar del tema de la IA.

Sin embargo, ha habido muchos logros en el desarrollo de sistemas, llamémosles, inteligentes, para realizar todo tipo de tareas valiosas (empezando por la humilde cisterna del WC... y estoy hablando en serio).

El ejemplo de Graffitti me parece significativo porque de todos modos tiene que ser un sistema de econocimiento de características ("inteligente" y capz de aprender), aunque fuerces al usuario a utilizar un conjunto de signos algo más limitado (pero lo bastante cercano a la escritura estándar). Pero ese es un enfoque de "técnico". Me recuerda un cuento de Asimov (no tengo a mano referencia) en que hablaba de la construcción de naves de campos de energía: el "teórico" decía que rea imposible porque el campo se sostendría durante perídodos ínfimos de tiempo antes de colapsarse y el "técnico" construyó una nave basándose en el efecto estroboscópico (apagando y encendiendo el campo en intervalos lo bastante pequeños como para no colapsarse).

#6 — frankie

el de antes era yo, por cierto

#7 — Nokins

No conocía el experimento de la "Sala china", pero me parece una estupidez:

No hace falta irse a una "Sala china": en el test de Turing, si le damos a un ordenador un manual que le diga con que frase debe contestar a cada posible frase, estariamos en el mismo caso. La cuestión es que esto es imposible (se pueden formar infinitas frases con un alfabeto). Así pues, si el objeto de estudio responde inteligentemente (o así le parece al testeador) a todas las frases (o un número suficiente), es inteligente, pues no hay otra manera de que lo haga. Y lo de si es la sala o el operador el que entiende chino... es como preguntar si el que ve es el ojo o el cerebro (o la retina): el inteligente o el que sabe chino es el objeto de estudio (¿la ranura por la que se meten las hojas?).

Lo de los sueños pensaba que ya estaba más o menos explicado: es una reordenación-asimilación de lo aprendido durante la vigilia. En el esquema de Hawkins, una clasificación-ordenación-conexión-o-lo-que-sea de patrones. Y es necesario porque el cerebro no puede funcionar (bien) con patrones en la cola de espera de asimilación. Y durante la vigilia está demasiado ocupado para hacerlo.

¿El déjà-vu?. Reconocimiento de patrón parcial. Joder, eso me lo explicó mi profesor de diseño en el instituto hace veinte años. Un sitio con un olor, color y/o luz parecido a otro pero radicalmente distinto en otros "patrones", nos suena, pero no lo terminamos de reconocer.

Y lo de que no habrá IA (o C3POs) en el futuro... ¿cómo puede decirlo después de, supuestamente, desentrañar el funcionamiento del cerebro?. Seria lo primero que entendemos (o tenemos modelo de ello) y no duplicamos.

O no se entiende ni se entenderá el funcionamiento del cerebro, con lo que el libro es una patraña, o se entenderá y existirá IA (cuando se pueda reproducir o emular la capacidad de memoria, conectividad y aprendizaje del cerebro), con lo que el libro (o al menos la parte que dice que no habrá IA) es una patraña.

¿Coches inteligentes?. ¿Es que la inteligencia es hacer cosas sorprendentes?.

El coche del que habla no es mas que un sistema experto (algo ya inventado), pero a lo bestia. ¿Podría un sistema experto así llegar a hablar, a mantener una conversación, a pasar el test de Turing, a ser inteligente?. Según Hawkins, no. Entonces, ¿qué coño ha "descubierto"?, ¿la parte del cerebro reproducible en sistemas expertos?.

¿Podemos decir que hemos entendido por completo algo que no podemos reproducir?. No, porque si luego viene alguien y lo reproduce (y no es por azar), será porque... ¿lo ha entendido mejor que nosotros que lo entendiamos por completo?.

No, no he leido el libro. Y, por las dos reseñas aparecidas aquí, no me atrae en absoluto.

Creo que Hawkins está en pelotas... pero como ha hecho mucho dinero y ha escrito un libro en inglés, pues aquí estoy yo comentándolo.

#8 — Alvy

Algo más sobre el argumento/experimento de La Sala China del filósofo John Searle, y popularizado por Roger Penrose.

#9 — Adrian

Respondo las preguntas:

  • El acrónimo POEtic (POE-tic) viene de las iniciales de (1) Phylogenesis, (2) Ontogenesis y (3) Epigenesis.
    • (1) La filogénesis o evolución a nivel de poblaciones, engloba todos aquellos mecanismos dirigidos por la selección natural
    • (2) La ontogénesis, involucra a todos los mecanismos responsables del desarrollo de un individuo a partir de la información contenida en su código genético sin mediar influencia del entorno
    • (3) La epigénesis o aprendizaje, en la cual se incluyen los mecanismos que permiten a un determinado individuo modificar ciertos aspectos de su estructura interna o externa como resultado de la interacción con su entorno inmediato
    • (Jeff Hawkins nos vende este último mecanismo)

  • Cómo soluciona el problema de la conectividad: La organización de los dispositivos POEtic se estructura alrededor de tres subsistemas principales: (A) el subsistema de entorno, (B) el subsistema orgánico y (C) la interfaz de sistema.
    • (A) El subsistema de entorno es el encargado de gestionar la interacción (recepción de señales eléctricas procedentes de sensores y generación de señales eléctricas de salida que controlan actuadores) del dispositivo con el entorno inmediato en el que lleva a cabo su función.
    • (B) El subsistema orgánico constituye el substrato básico funcional del dispositivo, ya que se encarga de realizar físicamente los mecanismos ontogenéticos y epigenéticos. Este subsistema está organizado físicamente como una matriz bidimensional de elementos programables (basados en FPGAs ñ Field Programmable Gate Arrays), a los que se denomina moléculas. Las moléculas se pueden configurar para realizar funciones digitales básicas, de forma que combinando moléculas es posible construir células con una funcionalidad tan compleja como se desee.
    • (C) La interfaz de sistema permite una conectividad automática del plano de conexionado superpuesto al plano de funcionalidad física de las moléculas. Este plano de conexionado, constituido por unidades hardware específicas, permite llevar a cabo la conexión automática de células (conjuntos de moléculas) sin necesidad de intervención externa alguna.

  • Qué se ha conseguido? Un chip a partir del cual se puede construir un tejido electrónico del tamaño necesario para resolver una aplicación específica
  • Demostraciones de su funcionamiento: Se ha conseguido probar con éxito este tipo de chips en sistemas tan diversos como: navegación autónoma de robots, emulación de modelos de redes neuronales bio-inspirados de gran escala, síntesis de voz artificial utilizando métodos evolutivos o en una instalación multisensorial
  • Respecto al libro de Hawkings, creo que cae en errores de precisión, pero hubiese sido muy bueno hace tan solo diez años.

Para más información puedes descargar los documentos disponibles a través de POEtic.

#10 — ACid

El tema, como ya dije en el otro post breve, es muy interesante. Y me parece estupendo que se haga popular. Es un tema apasionante. Si es Jeff Hawkins el que lo hace popular con ayuda de una periodista, bienvenido sea. Si algún día le da por interesarse a más gente popular pues genial, me da igual que sea Jeff Bezos, Paul Allen, El Papa o -yo que se...- Ronaldo.

Pero, aparte de alegrarme de este interés por el tema y coincidir en varias cosas, también discrepo en algunas:

* La fundamental: no entiendo que diga que no habrá IA en el futuro. Es una conclusión a la que llegaba Penrose en "La nueva mente del emperador". Las razones de Penrose no me convencieron. Y estas razones tampoco me convencen. Si la razón fundamental es algo como "no habrá en el futuro sistemas de IA {...}, que se comporten como humanos, sencillamente porque para eso deberían ser humanos", yo me atrevo a corregir la frase con esta otra: "sí habrá IA, pero para ser lo más similar posible a la humana y lo más útil posible (para los humanos), deberá usar un cuerpo artificial muy similar al humano". Con esta frase le doy la razón en un obstáculo muy importante que es la simulación del cuerpo humano: simular los sentidos (ej: cámaras de video minúsculas y a la vez de altísima definición para la vista, etc), simular los comportamientos hormonales, simular los instintos, las articulaciones... Y algo que creo que es muy importante y que he echado en falta: simular el "modelo de objetivos" que orquestan todo el sistema global. Es decir, el ser humano trata patrones, memoriza, bla bla bla... pero ¿con qué objetivo? ¿con que criterio toma decisiones? En el caso del ser humano, tal como yo lo entiendo lleva escrito en sus genes uno objetivos: quizá los "objetivos últimos" tienen relación con perpetuarse (por un lado, perpetuar sus ideas, sus memes: escribiendo libros, haciendo obras; por otro lado, perpetuar sus genes teniendo hijos, etc...). Como objetivos a una escala menos profunda (pero muy importantes para cumplir los "objetivos últimos") estarían otros como los de sobrevivir (y para ello debo buscar comida, protegerme), aprender, ... el sexo (instinto básico que sirve al fin de perpetuarse).

Pero en el tema principal discrepo: sí habrá IA. Incluso diría que puede ser más perfecta que C3PO: como los replicantes de esa gran película llamada "Blade Runner", donde las criaturas articiales sean tan parecidas que es difícil diferenciarlas.

* Sobre los comentarios sobre el Test de Turing y la sala China, coincido con las críticas de otros. El Test de Turing, desde mi punto de vista sí es útil para reconocer Inteligencia. Un Test bien hecho (durante un tiempo suficiente, etc.) para mi es válido para afirmar con una gran seguridad (o probabilidad) que ese ente que ha pasado el Test es Inteligente. Puede ser un humano, un complejo sistema de IA que simula muy bien lo humano o podría ser un programa con varios Terabytes (como pueda ser las pa¥ginas que almacena Google) lleno de frases al azar que ha dado la casualidad que responden muy bien a cientos o miles de preguntas realizadas en el test... pero ¿qué probabilidad hay de que un sistema con billones de frases responda correctamente a las miles que pícaramente le van a formular? Si esa probabilidad no es cero, es tan baja que ni siquiera la calculo.

Lógicamente, cuando no se pasa el Test de Turing no se puede afirmar nada: puede ser un sistema artificial que no es inteligente, puede ser un ser inteligente que se queda callado o que simula una máquina, puede ser hasta una piedra. Vale, una piedra no pasa el Test de Turing ¿y?

Y sobre la habitación China, ¿cómo puede decir que una máquina que se basa en procesar patrones no es inteligente porque es algo mecánico y a la vez decir que el funcionamiento de la mente es muy sencillo y que se explica como un simple proceso de patrones? No se si pretende tomarnos por idiotas pero algo no me cuadra. Mi opinión sobre esto es que la inteligencia, por mucho que nos cueste aceptarlo, es algo mecánico. Muy muy complejo, millones de millones de células con miles de interconexiones entre sí y que además esas interconexiones cambian... pero no deja de ser algo mecánico como Internet. Y, por tanto, igual de mecánico es una persona traduciendo chino que un grupo de españoles en una habitación que sin saber chino sacan traducciones perfectas, como si pones un ordenador que hace lo mismo. Mecánico en todos los casos.

* "32 billones de sinapsis en las neuronas, que podrían equivaler a unos 8 billones de bits" ??? No entiendo estas cifras. Por un lado, la estimación del número de sinapsis no me parece muy mala pero creo que tira por lo bajo. Según he leido en varias fuentes el número de neuronas es unas 10^10 ó 10^11 y cada una tendría entre 10^3 y 10^5 sinapsis que la conectan con otras. Si en media nos quedamos con 10^4. El total de sinapsis del cerebro sería (tirando por lo bajo) de unas 10^14. Eso son 100 billones. Entonces 32 billones sería una estimación muy baja, a menos que se considere sólo una parte del cerebro (como el cortex). ¿eso es como decir que el resto del cerebro no vale para nada? Muy atrevida me parecería esa afirmación...

¡Y lo peor es lo del número de bits!... ¿un bit para cada cuatro sinapsis? ¿Hay una errata o está de cachondeo? (de entrada modelar algo como las neuronas como células identicas y que su diferencia sólo está en el valor de sus sinapsis ya puede ser una simplificación excesiva... pero además los modelos suelen usar al menos un byte por cada sinapsis)

#11 — ACid

Otro comentario.

Tirando por lo alto pueden ser 10^17 sinapsis y aunque cada sinapsis sean 4 bytes (que en un ordenador puede modelar un número Real, o un Entero largo). En total serían 32 * 10^17 bits

Eso parece lejos de la tecnología actual ¿no? Yo no lo creo tanto... Hay millones de ordenadores con conexión a Internet... Por ejemplo, con "sólo" 100 millones de PCs (si no los hay ahora en todo el mundo debe faltar poco) con 4 Gigabytes cada uno ¡¡ sería posible simular un cerebro !!. Bueno, sólo faltan unos "pequeños detallitos": unos órganos sensoriales perfectos, unos algoritmos de Redes Neuronales adecuados, tener todos estos recursos disponibles durante varios años para que vaya aprendiendo como un niño, una buena orquestación de todo... bah, "casi na" ;)

#12 — Alvy

Oops, error mío en lo de los bits, por no explicarlo. El libro dice que 32 billones de sinapsis son 8 billones de bytes (8 terabytes) porque cada sinapsis equivale a unos 2 bits más o menos (eso serían 64 billones de bits = 8 billones de bytes = 8 terabytes). ¡Sorry! De todos modos no tengo el libro aquí ahora, ya lo he prestado, pero intentaré reconfirmar el dato.

#13 — ACid

Aún así, como ya dije, no creo que esté bien usar 2 bits por sinapsis... Usar 2 bits es casi casi como usar un bit y usar un bit es como decir que una sinapsis es un interruptor... Me parece un modelo muy muy grosero. Penrose afirmaba que en los procesos neurales intervenían procesos cuánticos (que difícilmente se pueden simular con ordenadores actuales). Yo en principio no creo que haya razones para llegar tan lejos como dice Penrose... pero tampoco quedarse tan corto como 2 bits por sinapsis.

Las sinapsis del cerebro biológico humano vienen a ser (por lo que he leido) básicamente estados químicos y parece que basta con representarlos con un número. Ese número puede expresarse de 0 a 1, de 0% a 100%, en fin como se quiera pero con valores intermedios, claro. Con dos bits sólo puedes expresar 4 estados {0, 1, 2, 3}. Creo que sí hay razones que justifican modelarlo con más estados intermedios. Por ejemplo, con un byte se modela de 0 a 255 y ya empezaría a ser algo mínimamente decente. Aunque como dije, quizá sea mejor usar "números reales" en formato de punto flotante de 32 bits que sería muy asumible por procesadores actuales (procesadores de 32 bits, con coprocesador matemático para trabajar con 'floats').

Una frase de Arthur C. Clarke como réplica a la opinión de Hawkins y Penrose soble la imposibilidad de la IA. :

"Si un anciano pero distinguido científico dice que algo es posible estará casi seguro en lo cierto, pero si dice que algo es imposible estará probablemente equivocado". --Arthur C. Clarke.

Aún nos reimos de los que decían que no se podían hacer máquinas para volar que fueran más pesadas que el aire... Muchas afirmaciones creo que están guiadas por el ego humano: "la Tierra es el centro, es imposible que gire alrededor del sol", "el hombre no desciende de otros animales"... "la inteligencia humana no llegará a comprenderse, no podrá crearse artificialmente"

Esta será el tercer gran golpe al ego humano y el definitivo pues es de esperar que la revolución de la IA sea una "explosión" increible. Creo que el hombre no está preparado. Me da miedo lo que pueda pasar en 30 años o antes...

#14 — ACid

He estado leyendo algo más y encontre un artículo

(Book explains limits of AI, wonders of human brain - By Lynn Yarris - Special to the Mercury News)

donde viene a decir que Hawkins cree que _SÕ habrá máquinas verdaderamente inteligentes_. Que no serán los robots humanoides de películas como "Yo Robot" ...

Básicamente lo que yo decía, que sí habrá verdadera IA y que para ser verdadera deberá construirse un ser muy similar al humano, no un sucedáneo humanoide esclavo sin "sentimientos" (o lo que yo decía: hormonas, objetivos en la "vida", pasiones, criterio...)

También veo que realmente la reseña aquí expuesta no dice tampoco que Hawkins diga que no habrá IA. Dice que no habrá una IA como la de muchas películas (quizá se olvidó de otras como Blade Runner).

También he visto que efectivamente los 30 billones de neuronas se refiere a las del córtex sólo...

#15 — francisco

Creo que podrán existir robots como Vicky, la niña, pero no como C3PO; por que no nos comportamos ni hablamos unicamente con la inteligencia.

Para lograrlo habría que crear un robot orgánico con una inteligenia en blanco, con instintos, lo que alguien llamó "modelo de objetivos, etc. Para lograr esto último el robot necesariamente tendría que tener un tiempo limitado, o sea morir. Además lo tendría que adoptar la sociedad.

#16 — francisco

A la luz de la inteligencia como predicción de patrones...¿Qué es lo cómico? ¿Cómo se relaciona con lo "sorprendente"?

#17 — Alvy

El libro no habla de eso, pero creo que estaría bastante relacionado, algo gracioso o cómico sería algo inesperado, sorprendente, etc. algo que se sale de un patrón que esperabas y que encaja en otro que no esperabas. Muchas de la partes del chiste además requieren asociar patrones para entender el contexto y hacerlo te satisface (aunque luego resulte que el chiste te lleva a otro lado).

"Un oso panda entra en un bar..." (ya solo con el comienzo te partes de la risa, sabes que eso no sucede en la realidad y asocias que es un chiste).

Tal vez la capacidad de la gente para predecir patrones tenga que ver con su sentido del humor.

#18 — Nokins

Sobre el humor... en una estupenda revista de hace 20 años sobre juegos lógicos, Cacumen, lo explicaba muy parecido a como lo dice Alvy, "algo que se sale de un patrón que esperabas y que encaja en otro que no esperabas".

Y ponía el ejemplo más sencillo que se puede dar de esto: "¿Cual es la parte de mi cuerpo lo suficientemente grande y dura como para sujetar un sombrero?. La cabeza".

#19 — Desocupado Lector

Bueno, debo decir que sí he leído el libro. Lo tuve que pedir en amazon, pero me ha valido la pena. Soy un estudiante de medicina que espera dedicarse a la neurología, y estos temas me interesan bastante. Vamos por partes.

El libro está escrito con interés divulgativo, aunque contine en su última parte una serie de predicciciones a verificar experimentalmente. Este aspecto me resulta muy defendible: no se exige un acto de fe para la teoría, como ya se ha dicho no original, de Hawkins. De hecho, e incluso prescindiendo de esta toma de postura, el núcleo del libro How the neurocortex works es una hipótesis descriptiva y probablemente experimentable del funcionamiento columnar de la corteza. La argumentación previa a este capítulo contine elementos de la vida diaria que todos hemos presenciado alguna vez; por esto son muy persuasivos, muy intuitivos y accesibles a nuestro acuerdo, pero quizá demasiado brillantes para deslumbrar.

No estoy de acuerdo, por ejemplo, en el modo en que zanja ciertas asunciones más filosóficas que otras cosa sobre el problema del realismo vs idealismo (es decir, si la realidad existe independiente de un observador o si es creada por éste); en este punto, yo creo que un enfoque kantiano es más clarificador y compatible con su postura (percibimos de la realidad aquello que estamos preparados para recibir). De todas maneras, creo que en algunas ocasiones se mete en jardines de los que no sabe salir.

Como ya habéis dicho, la teoría original del algoritmo universal procede de Mountcastle. Debo añadir que después de haberme estudiado ad nauseam la neuroanatomía esta perspectiva es muy poderosa, y lo que es más importante susceptible de someterse al método científico, por lo que quizá por este camino se pueda llegar a algo productivo. En los primeros capítulos se menciona que podría llegarse a suplir la recepción periférica de un sentido dañado con un dispositivo que simulara el patrón de información adecuado a la recpeción original. Esto ya existe en los implantes cocleares, y ha sido un hecho que me ha conciliado con parte de la idea central del libro.

Bueno, en resumen, vale la pena leerlo. No es necesario creer en él, sino sólo esperar si las cosecuencias postuladas son correctas. Pasa un poco como con el Qué es la vida de Schrödinger, que predecía las propiedades del DNA (cristal aperiódico) antes de que se supiera su estructura.

(edited by siteowner)

#20 — bleuge

parece que hay una copia del libro en p2p, ya se que no está bien, pero estaba ansioso por leerlo mientras llega mi version "real" de amazon

siempre he creido que el proximo "salto" en la IA va a ser hyperexponencial, pasaremos de los sistemas actuales, que desde mi punto de vista son muy poco "inteligentes", a algo realmente interesante,

quiero decir que a mi entender, alguien (hawkins?) va a inventar algo totalmente distinto, nuevo y original, ya sea un tipo de memoria, o de procesamiento paralelo masivo, radicalmente distinto que funcionara,

la tecnología de computadoras actual se centra en conseguir mas ram y mas mhz, no creeis que eso no sirve para mucho en IA?

saludos

#21 — Guille

No conocía el libro, y ahora que sé que existe voy a tratar de conseguirlo. Por años he pensado en este tema como aficionado y coincido totalmente con la visión que parece plantear Hawkins. Me chifla la cabeza escuchar a médicos hablar hoy en día de áreas especializadas del cerebro, cuando los casos médicos demuestran constantemente lo contrario. En fin; de lo que quería hablar es sobre la posibilidad de tener robots del estilo de C-3PO. Hoy en día nos hemos dado cuenta que la memoria no es una lista de items del estilo "casa, la casa tiene puerta y ventanas; las ventanas son de vidrio; la puerta es de madera", etc. Nos dimos cuenta que la memoria se estructura como una red, y que para alcanzar el grado de complejidad de la memoria de un ser humano adulto se requiere normalmente la experiencia de un ser humano adulto (es decir, que el "sujeto de IA" o nuestro robot viva los mismos estímulos que recibió dicho humano a lo largo del período de vida que queremos emular). Esto no sólo es extremadamente difícil desde el punto de vista sensorial "obvio" (oídos, ojos, etc.) sino que se agregan otras sensibilidades rara vez mencionadas pero mucho más importantes para el aprendizaje primario: me refiero a los sensores químicos (hormonas y otras enzimas que determinan situaciones como hambre, miedo, sueño, etc.). Ni hablar de que no las conocemos con suficiente detalle. Sin embargo, yo pienso que cuando se haya avanzado lo suficiente en el estudio de la evolución de la memoria no humana (ej: el automóvil propuesto por Hawkins) se podrán desarrollar las herramientas para *diseñar* la supuesta memoria deseada. Parece una tarea prácticamente imposible, hasta que razonamos que con una máquina de turing lo suficientemente veloz y con la suficiente cantidad de memoria podríamos hacer tranquilamente el Tomb Raider o el Linux Red Hat 10. Es sólo cuestión de montar algoritmo sobre algoritmo y ya está.

#22 — georges

que made gratis postales del oso panda o otro animal

#23 — yanina

hola soy del peru y estudio en la universidad nacional y mi tema de un curso fue sobre la sinapsis relacionada con la inteligencia artificial y quisiera saber que es un algoritmo o a que le denominan algoritmo dentro del tema disculpas si ofende mi pregunta pero soy del segundo año de estudios superiores del a universidad y quisiera si me podrian informar agradeciendo de antemano me despido envienme la respuesta a mi correo por favor

#24 — Wicho

yanina, STFW.

#25 — Alvy

Comentario / Reseña sobre On Intelligence en la anotación A Theory of Intelligence en la bitácora de David Weinberger.

#26 — Roman

He leído el libro «On Intelligence» y después he encontrado este weblog. Quiero aclarar varios puntos comentados:

Primero felicitar a Alvy creo que ha realizado un mini resumen bastante aceptable del libro.

Por supuesto que Jeff Hawkins cree que se va a conseguir lo que nosotros entendemos por IA. Para él ser inteligente no significa algo que sea exactamente igual a un humano, hay un montón de gente en este weblog que no ha entendido en absoluto la esencia del libro y es una pena porque dicha esencia merece muy mucho la pena.

- No sé si este libro no aporta realmente nada nuevo, lo que si que sé es que yo nunca, soy un apasionado del tema, había encontrado un documento donde se explicara mejor el concepto que yo tengo de inteligencia. Además el 99% de las universidades y empresas privadas siguen con sus conceptos totalmente desfasados de inteligencia. Por lo tanto si no ha aportado nada nuevo, que lo dudo, por lo menos ha puesto en primera línea conceptos en mi opinión muy afortunados. La iniciativa es una virtud muy a alabar, grandes genios lo han sido simplemente por tener la iniciativa y narices necesarias como para apostar por algo más que los demás. En Jeff Hawkins, genio o no, es indudable su iniciativa mostrada. Ha escrito el libro, ha creado el Redwood Neuroscience Institute y ha fundado una empresa. Aunque lo haya hecho para ganar dinero es muy de alabar.

- Si alguien está interesado en seguir hablando del tema o en participar en un proyecto donde se intenta poner en práctica parte de los conceptos explicados en el libro aquí dejo mi mail romanmargon@eresmas.com

#27 — Ainvar

El tema desde luego es apasionante. No he leido el libro pero dede luego que voy a hacerlo. Sabeis si está traducido al español?.

Según el resumen, en el libro no se menciona el echo de la necesidad de dormir ni el echo de soñar. Creo que los sueños son la clave para entender el funcionamiento del cerebro. Parece ser que forma parte del proceso de realimentación de patrones. El echo de dormir sería como un estado de aprendizaje o asimilación de información. Es como si hubiera un supra-algorimo de control que afectara a todo el cerebro (como lo hay para controlar el corazón y residiría en el mismo órgano).