Por @Alvy — 16 de Marzo de 2017

El valle inquietante de la mente

Un artículo titulado con el intrigante título Venturing into the uncanny valley of mind (Aventurándose en el valle inquietante de la mente) explica un experimento que se ha llevado a cabo respecto a cómo las personas percibimos la «humanidad» de las inteligencias artificiales dependiendo de cómo nos comuniquemos con ellas y lo que sepamos previamente que son realmente.

Utilizando un mundo virtual 3D los participantes tenían que interactuar con avatares, algunos de los cuales eran operadores humanos, otros inteligencias artificiales más o menos avezadas en su capacidad de comunicación y conocimientos. Además de esto a veces se le decía a los participantes previamente si iban a hablar con un ser humano o con una inteligencia artificial, y luego se examinaban sus sensaciones al respecto.

Los resultados sugieren que a los humanos nos resulta inquietante y desagradable tratar con ordenadores «demasiado humanos», pero también que tenemos esa misma sensación cuando hablamos con humanos que «siguen un guión fijo» (se me ocurre el ejemplo de los teleoperadores). Ambos casos son muy distintos de tratar con una inteligencia artificial que sabemos de antemano que está limitada como tal o con un ser humano empático normal y corriente. De hecho dicen que probablemente la empatía y nuestra capacidad de reconocer la humanidad en otros seres (sin necesidad de verlos, o independientemente de su aspecto) es lo que nos hace más humanos.

El valle inquietante (CC) Wikimedia

La teoría del valle inquietante (o inexplicable, como también se le llama) proviene de 1970, cuando se analizaron las reacciones de las personas ante el aspecto físico de los robots: nos resulta indiferente o agradable que un robot se parezca a un humano, pero superado cierto punto, el parecido es demasiado real cuando nos consta (por el aspecto o las respuestas que ofrece) que es un ser mecánico – o un software, como en este caso.

En Inverse cuentan que las sensaciones de los participantes en estos experimentos verbales –donde se intentaba evitar el aspecto físico y visual– acababan en descripciones como «son humanos sin sentimientos» o «parecen zombis filosóficos» para referirse a las inteligencias artificiales, aun en casos en los que sus respuestas eran verbalmente idénticas simplemente porque no se les decía que había personas detrás.

También menciona que el famoso valle sigue siendo un problema para que las ventas de robots aumenten en ciertos sectores. Quizá por razones similares a las del rechazo de los participantes en el estudio, que se citan sensaciones como «sentirse amenazado por la existencia de los robots» o considerar que «el ámbito de las emociones es un privilegio exclusivamente humano». Más vale que nos vayamos acostumbrando a lo contrario, que tendremos que llevarnos bien en los próximos siglos.

Relacionado:

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por Nacho Palou — 10 de Marzo de 2017

Machine learning next 2

El último avance de Google relacionado con su plataforma de inteligencia artificial (aprendizaje máquina y redes neuronales) permitirá realizar búsquedas de vídeos según el contenido, por sustantivos como ‘perro’, ‘flor’, ‘sombrero‘, ‘persona’ o verbos como ‘correr’, ‘nadar’, ‘volar’.

Es decir, que será posible buscar en YouTube aquellos vídeos en los que aparezca un tigre de bengala durmiendo la siesta, un señor con un gorro rojo o un gato volando.

Los sistemas de aprendizaje máquina y las redes neuronales proporcionan a los ordenadores la capacidad de reconocer objetos, personas o entidades que aparecen en imágenes y fotografías. De forma muy básica, el proceso pasa por proporcionar al ordenador muestras de imágenes con información sobre lo que aparece en ellas: perro, planta, persona, gorro, coche,...)

Después cuando el ordenador recibe una imagen sin esa información la compara con todas las demás imágenes que sí conoce para tratar de “averiguar” de forma automática qué es lo que hay o qué está sucediendo en la imagen. Esto permite, por ejemplo, que los programas de almacenamiento de fotografías (como Google Fotos) ya sean capaces reconocer los rostros de los familiares y amigos que aparecen habitualmente en las fotografías, independientemente de cuál sea la situación, la escena o la iluminación de las fotografías sucesivas.

La tecnología de reconocimiento de imágenes hace posible también la búsqueda de imágenes a partir de palabras clave o por sustantivos (montaña, vaca, árbol, camiseta,...) como hace la app The Roll, por ejemplo; también que los ordenadores sean capaces de reconocer dónde se tomó una fotografía con relativa precisión aunque no consten los datos GPS o reconstruir un rostro a partir de un puñado de píxeles.

La API de Google para la búsqueda en vídeos está disponible por ahora como beta privada. En un futuro próximo se tratará de un potente herramienta de búsqueda, casi imprescindible por el creciente uso de contenidos de vídeo.

Relacionado,

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por Nacho Palou — 9 de Marzo de 2017

Descartes labs geo visual search

La herramienta GeoVisual Search, desarrollada por Descartes Labs, utiliza el reconocimiento de imágenes y la inteligencia artificial para encontrar objetos o estructuras repartidas por todo el mundo: aerogeneradores, sembrados, estadios, aviones, aeropuertos... en imágenes por satélite que abarcan toda la superficie del planeta.

Las búsquedas se realizan por similitud. Es decir, partiendo de una escena concreta seleccionada (por ejemplo, un huerto solar) el buscador de imágenes de Descartes Labs analiza millones de imágenes por satélite “actualizadas diariamente” y devuelve aquellas escenas que coinciden con la escena inicial: básicamente un montón de otros huertos solares que hay repartidos por todo el planeta.

Las imágenes están compuestas por tres tipos de imágenes obtenidas por el satélite Landsat 8, con cobertura global y unos 15 metros de resolución. Adicionalmente se pueden usar otras dos fuentes de imágenes en el buscador: imágenes aéreas que cubren sólo EE UU (con un metro de resolución) e imágenes de PlanetScope que cubren China con menos de 5 metros de resolución.

El buscador es funcional y se puede probar, aunque se trata de una versión primigenia. Según Descartes Labs en el futuro el sistema “sabrá” qué es cada objeto y podrá contabilizarlos y entender otros métodos de búsqueda, según se puede leer en Search Earth with AI eyes via powerful satellite image tool.

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por Nacho Palou — 6 de Marzo de 2017

Google perspective toxico

Perspective es una herramienta de Google que utiliza el aprendizaje máquina para “conocer” y puntuar el tono y el impacto que tiene un texto en una conversación, en un tuit o en un comentario. La idea es que los desarrolladores y las publicaciones utilicen Perspective para obtener en tiempo real información útil para comentadores, moderadores o editores, o para filtrar y distinguir el contenido útil de la morralla.

En su primera fase de desarrollo Perspective está aprendiendo a distinguir cuándo un comentarios se considera hostil o tóxico: la demo permite evaluar comentarios de internet y ayudar al sistema a reconocerlo en una escala que va desde Muy saludable hasta Muy tóxico — irrespetuoso, despectivo o alejado de la conversación.

El acceso a Perspective se hace vía API (que hay que solicitar) pero el desarrollo se puede ver “en acción” en el apartado Reading Experiment (filtrando según el nivel de intolerancia de cada uno); mientras que en Writing Experiment puedes escribir cualquier texto, tuit o comentario y Perspectiva muestra cuán tóxico resulta según su conocimiento (esto es, según su similitud con otros comentarios considerados tóxicos).

Google perspective toxico 1

De momento Perspective tiene suficientes reacciones para evaluar textos en inglés con bastante buen ojo; en español parece que también se evalúa el texto pero o no funciona o no tiene suficiente referencias para evaluar bien el nivel de toxicidad, aunque en teoría es cuestión de tiempo y también de que la máquina aprenda.

Compartir en Flipboard  Compartir en Facebook  Tuitear