Por @Alvy — 27 de Noviembre de 2016

TEDxNapaValley

Un grupo de investigadores del MIT publicó un interesante trabajo titulado Rationalizing Neural Predictions en el que se describen algunas ideas sobre cómo debería ser el comportamiento moral de las inteligencias artificiales en situaciones críticas – como por ejemplo ante cuestiones de vida o muerte. Y no estamos hablando del clásico dilema del tranvía.

El trabajo propone una forma de crear una inteligencia artificial capaz de, cuando menos, explicar el porqué de sus decisiones. Esto es algo que raras veces se suele examinar en todo el proceso de alimentación, entrenamiento y análisis de una inteligencia artificial, pues lo más interesante y directo suele ser observar el resultado (que un coche conduzca solo, que un robot apriete tornillos con habilidad o que un robot médico acierte con los diagnósticos y soluciones que propone).

Como ejemplo explican un caso en el que alimentaron uno de estos sistemas con varios miles de informes de biopsias, de cara a obtener una explicación satisfactoria y también fácil de entender (con frases comunes) sobre por qué la IA planteaba cierto tratamiento peligroso cuando consideraba que se estaba ante un problema. La idea es que en esos casos críticos, que podrían ser un pequeño porcentaje, un humano pudiera incluso supervisar la moralidad de la decisión a partir del razonamiento declarado por la máquina al respecto.

{Foto (CC) TEDxNapaValley @ Flickr vía photopin.}

(Vía ExtremeTech.)

Compartir en Flipboard Publicar / Tuitear