Por @Wicho — 18 de Septiembre de 2017

Pepe Cervera en Naukas 2017

No tenemos problemas de ningún tipo en desarrollar y crear máquinas de todo tipo físicamente más poderosas que nosotros. Pero en cuanto nos metemos en el campo de la inteligencia artificial las cosas se complican un poco e incluso nos da miedo. Claro que tenemos el pequeño problema de decidir qué es una inteligencia artificial más allá de hacerles un test de Voigt-Kampf o de someterlas al test de Turing.

Pepe Cervera argumentó en su charla Despegue: cuando la Inteligencia Artificial supera a la humana de Naukas 2017 que sabremos que estamos frente a una verdadera inteligencia artificial cuando esta pueda causarnos sorpresa con sus decisiones, como le pasó a Lee Sedol en su primera partida contra AlphaGo, o cuando termina por enfadarnos, como le pasó a Gary Kasparov en su enfrentamiento a Deeper Blue.

Para mí ni AlphaGo ni Deeper Blue son verdaderas inteligencias artificiales, o al menos desde luego no son inteligencias artificiales de propósito general. Pero no me deja indiferente eso que dice Pepe de que incluso IA tan limitadas como estas puedan causarnos reacciones como ese asombro de Lee Sedol o el enfado de Kasparov.

¿Debemos temer que algún día las inteligencias artificiales puedan llegar a superarnos?

Pepe dice que para nada; más bien todo lo contrario, que el que podamos llegar a disponer de herramientas capaces de darle luz a puntos oscuros que la propia construcción de nuestro sistema intelectual deja en nuestra comprensión del universo debe ser motivo de asombro y maravilla.

Relacionado,

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por @Wicho — 13 de Septiembre de 2017

¿Inteligencia asrtificial?

Os estáis preocupando demasiado por las máquinas que pasan el test de Turing y demasiado poco por los humanos que no pasan el Voigt‑Kampf.

– @NewIlluminatus
(vía RT de @retiario).

A los cerebros positrónicos de los robots de Isaac Asimov, a los que sin duda calificaríamos de inteligentes, les bastaban tres sencillas leyes para regir todo su comportamiento (o al menos les basaron durante muchos años hasta que apareció la Ley Cero). Esas tres leyes dicen más o menos esto:

  1. Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
  2. Un robot obedecerá las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que ello no entre en conflicto con la Primea o la Segunda ley.

Pero las leyes de Asimov funcionaban –o no, pues muchos de sus relatos de robots están basados precisamente en problemas con las tres leyes– en un mundo de ficción, mientras que en el MundoReal™ la inteligencia artificial es cada vez más ciencia y menos ficción, aunque aún le queda mucho, mucho, mucho.

Así que Oren Etizoni, director del Insituto Allen para la Inteligencia Artificial, cree que igual deberíamos ir pensando en unas leyes que regulen la inteligencia artificial, y hace esta propuesta de tres leyes, un poco en la línea de Asimov:

  1. Una inteligencia artificial debe estar sometida a todas las leyes que se apliquen a sus operadores humanos, ya sea una IA para uso particular, empresarial, o gubernamental; no queremos que hagan nada que sea ilegal para nosotros. Y también habría que modificar las leyes vigentes para que no se pudiera usar la excusa de que «mi IA lo hizo».
  2. Una IA debe dejar siempre claro que no es humana. Ya no es sólo que los bots puedan confundir a algunas personas, es que las IA son cada vez capaces de producir mejor información, información falsa incluida.
  3. Una IA no puede almacenar o diseminar información confidencial sin el permiso expreso de quien la ha generado, en especial teniendo en cuenta que ya hay productos en el mercado como Amazon Echo que está todo el rato a la escucha.

Etizoni reconoce que es una propuesta incompleta y que serviría más bien como punto de partida. Yo añado, como siempre que hablo de inteligencia artificial, que no creo que ninguno de los sistemas actuales a los que se le aplica la etiqueta puedan ser considerados realmente inteligentes. Y habría que ver si cuando por fin conseguimos construir una IA –suponiendo que acabemos por lograrlo– esta tendrá que esta dotada o no de libre albedrío –y discutir la existencia o no del libre albedrío es otro enorme debate– para que la consideremos verdaderamente inteligente.

Pero como dice él –y como nos urge desde hace años Elon Musk a hacer– igual no está de más que vayamos pensando en estas cosas, aunque sólo sea como ejercicio mental.

Relacionado,

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por @Alvy — 20 de Agosto de 2017

Ante muchos de los inquietantes avances que se ven cada día en los modernos robots muchas veces se oye a la gente exclamar «¡espero que los programen con las Tres leyes de la robótica!», haciendo referencia a las clásicas leyes del mundo de los robots que inventó Isaac Asimov para sus novelas. Pero el problema es que no son leyes reales, son solo ciencia-ficción. Y, aunque intentáramos programarlas en nuestros amiguitos mecánicos no servirían de nada.

En este vídeo de Computerphile uno de los expertos en Inteligencia Artificial cuyas disquisiciones ya hemos mencionado alguna vez, Rob Miles, explica bien la situación. Algo que dice que nunca se han tomado en serio los expertos en robótica e inteligencia artificial porque… ¡son un planteamiento de ficción para poder escribir novelas!

La cuestión es que se definan como se definan las tres leyes –incluso sin preocuparnos ahora del orden exacto– están escritas en un lenguaje humano, e indefectiblemente tienen un problema definición. Conceptos como «humano», «causar», «daño» u «obedecer» requerirían una definición clara y cristalina, además de todo un contexto sobre lo que consideramos ético, moral, correcto o no.

En ese contexto, por ejemplo, sería muy difícil precisar qué es un «humano». Claramente vemos humanos caminando por la calle todos los días, y un tornillo no es un humano, pero la filosofía ética y moral nos ha enseñado que hay otros casos en los que las cosas no están tan claras: ¿Es humano alguien que todavía no ha nacido o nacerá dentro de diez años? ¿Lo es alguien con muerte cerebral que se mantiene artificialmente en estado vegetativo? ¿Sería «humano» en el futuro una copia de un cerebro volcado en una inteligencia artificial?

Lo mismo sucede con el concepto «causar daño». ¿Si alguien está sufriendo y se le deja morir, se le causa daño o se le está ayudando a no sufrir? ¿Cuánto daño supone realmente «causar daño» si la sensibilidad puede variar según cada persona? ¿Todos los tipos de daño son iguales ?

Un buen ejemplo planteado en la explicación es el de una persona que muere atendida por un robot, que según tenga programados estos conceptos podría intentar realizar maniobras de reanimación cardiopulmonar o no. ¿Durante cuánto tiempo debería realizarlas? ¿Si el robot sabe que a veces la gente «resucita» con estas maniobras, las intentaría sin fin? ¿Acabaría un robot intentando reanimar a todos los humanos muertos del cementerio, para «evitarles el daño» en que se encuentran?

Si casi todas estas situaciones resuenan como «temas cotidianos» es porque convivimos con ellas cada día y están en los debates éticos y morales al que nos enfrentamos continuamente – y lejos de una solución única. No todo el mundo se pone de acuerdo.

De modo que resultaría imposible infundirle a un robot esas definiciones precisas y además el marco ético completo y «resuelto» necesario para procesar toda esa información. Equivaldría a resolver la ética: el comportamiento, la moral, la virtud, el deber, la felicidad… Así que de momento tendremos que dejar a los robots de Asimov para las novelas e ir pensando en otra cosa con la que controlar a los ingenios que inventamos cada día.

Relacionado:

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por @Alvy — 17 de Agosto de 2017

IA gato

Uno de los retos pendientes de la inteligencia artificial es un aspecto del que pocas veces se habla. A veces nos maravillamos por lo bien que funciona, por cómo toma decisiones o resuelve problemas pero pocas veces nos planteamos por qué hace lo que hace o sabe lo que sabe.

Por esta razón un proyecto de DARPA está intentando crear algoritmos capaces de explicar por qué toman sus decisiones. Lo llaman ingeligencia artificial explicable. Un centenar de investigadores están en ello y aunque el ejemplo del reconocimiento de la figura de un gato pueda parecer un tanto trivial, el asunto se complica cuando hay que justificar una decisión médica o de negocios – por no hablar de cuando la Skynet de turno decida atacar países o acabar con vidas humanas, que todo llegará.

El proyecto de momento se centra en los sistemas y algoritmos de aprendizaje automático (machine learning) que son en cierto modo los que aprenden de una forma más peculiar y cuyos «motivos» pueden resultados más insólitos. En el artículo del Wall Street Journal Inside Darpa’s Push to Make Artificial Intelligence Explain Itself ($) se entrevista a diversos expertos, que explican cómo funcionan algunos de estos algoritmos y lo que se puede esperar de ellos.

En cierto modo es como esa sensación que tienes cuando un software que has escrito de repente empieza a hacer cosas raras y mejores de lo que te habías planteado en un principio. Sólo puedes entenderlo si lo examinas concienzudamente y trazas los estados y variables que llevan a los resultados. Pues esto puede ser algo así pero a lo bestia.

Con el aprendizaje automático el problema es que prácticamente el propio aprendizaje es el programa, de modo que esas razones –que puede que tengan cierta lógica o, quién sabe, quizá no tanta– quedan mucho más escondidas todavía. Así que mejor para todos si los programas son capaces de explicarse a sí mismos. Eso sí: ¡mientras no nos engañen!

§

Véase también: What does the “we don’t understand how artificial intelligence takes decisions” statement mean? en Mapping Ignorance, sobre el teorema de aproximación universal en las redes neuronales artificiales.

Compartir en Flipboard  Compartir en Facebook  Tuitear