Por @Alvy — 22 de Mayo de 2017

Quick, Draw! Data

Google ha recopilado en Quick, Draw! – The Data los datos de unos de sus experimentos en inteligencia artificial más divertidos: Quick, Draw! Si no lo has probado ya estás tardando.

Los datos están publicados en Github e incluyen cada tipo de dibujo («icono») perfectamente clasificado junto con una descripción y los datos vectoriales del dibujo. Está disponible en diversos formatos que preservan la forma en que se dibujaron originalmente: coordenadas, trazos, etcétera. Una versión especial ya procesada simplifica un poco el lío que supone que los datos de entrada procedan de todo tipo de dispositivos en mapas de bits de todos los tamaños.

Los metadatos incluyen las fechas de creación y los países de origen; en total hay cerca de 50 millones de dibujos acumulados. Google espera que la gente pueda hacer uso inteligente de esta información y extraer algo notable de ella. Desde luego para los investigadores es una fuente de datos altamente interesante – ¡quién sabe qué puede salir de ahí!

(Vía Taxi.)

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por Nacho Palou — 15 de Mayo de 2017

Esta es la interpretación visual que Jarem Archer hace de Cortana, el asistente digital de Microsfot, una especie de holograma al estilo del juego Halo. Archer emplea el término holograma por simplificar la descripción, pero en Digital Trends explica que se trata de Fantasma de Pepper, una vieja técnica usada en el teatro y en el cine antiguo y espectáculos que utiliza reflejos en cristales para crear personajes fantasmagóricos.

En este caso la modelo utilizada para representar a Cortana es la esposa de Archer, cuyos movimiento se registraron con un par de sensores Microsoft Kinect y luego se trasladaron a la versión virtual modelada en 3D.

La estructura piramidal que refleja la imagen está hecho con plexiglás y una pantalla, de modo que la imagen puede verse desde ambos lados y de frente. Aunque esta versión es bastante funcional Archer afirma que se trata de un trabajo todavía en proceso

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por @Alvy — 11 de Mayo de 2017

Este planteamiento relativo al aprendizaje automático aplicado a los drones caseros es cuando menos interesante y diferente. En vez de diseñar complejos algoritmos parara evitar colisionar con los objetos que pueda encontrarse en su camino, en la Instituto de Robótica de la Carnegie Mellon han elegido el camino inverso: obligar a chocharse miles de veces a un dron para que aprenda de sus errores.

El resultado de este duro entrenamiento a lo Kárate Kid puede verse en el vídeo: utilizaron un AR Drone 2.0 en diversos escenarios, todos ellos cerrados. La cámara permitía grabar lo sucedido (a 30 fps) y además utilizarla como sistema de visión artificial. Los sensores de colisión y acelerómetros permitían analizar los resultados de cada intento.

Al principio hicieron cochar al dron de forma aleatoria para recopilar los primeros datos. En una red neuronal se planteaban alternativas tan simples para mejorar como avanzar/retroceder y hacer giros a uno u otro lado. Según lo que sucediera al elegir esas opciones (crash o no-crash) se iban ajustando los valores, premiando los que dejaban al dron sano y salvo, penalizando los otros. Como hemos visto tantas veces en simuladores pero con «objetos reales».

El resultado tras 11.600 interacciones y 40 horas de vuelo es un dron que aprende a volar y esquivar obstáculos. No es tan bueno como un humano en escenarios sencillos pero es entre 2 y 10 veces mejor y más rápido cuando la misión es más complicada – pasillos estrechos o llenos de sillas u objetos móviles. ¿Lo mejor de todo? Que el proceso de aprendizaje es casi 100% autónomo: nadie tiene que «enseñarle» nada, como en otros sistemas similares. Simplemente cambiarle las baterías de vez en cuando.

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por Nacho Palou — 11 de Mayo de 2017

Microsoft trabaja en el desarrollo de un buscador de objetos y de personas en el MundoReal™, un sistema de inteligencia artificial y de aprendizaje automático que identifica e indexa todo lo que ven las cámaras, en tiempo real.

De este modo, igual que es posible acceder al buscador de Google (o para el caso, al buscador Bing) para encontrar contenidos en la web es posible acceder al buscador del MundoReal™ de Microsoft para encontrar objetos y personas que estén o hayan estado bajo el objetivo de alguna de las cámaras del sistema. Lo cual, como apuntan en Popular Mechanics, es a la vez “increíble y espeluznante”.

El sistema permite además ejecutar acciones o secuencias en base a eventos o situaciones en el mundo real. Tal y como se puede ver en el vídeo, si el sistema detecta que recipiente de productos químicos está fuera de su sitio o ha caído al suelo se puede enviar una notificación al móvil del responsable de seguridad, que verá en su pantalla lo que ha sucedido y podrá tomar las medidas para resolverlo. O, más inquietante todavía, si un paciente sale a dar un garbeo por el hospital o trata de largarse el sistema lo reconocerá caminando por los pasillos y avisará a su médico o a seguridad.¡Ugh!

«Si pierdes las llaves de casa no tendrás más que abrir el buscador y pedirle al sistema que las encuentre. Una búsqueda rápida te dirá que el sistema las está viendo sobre la mesa. Esto no sólo es posible; es posible ahora.»

Microsoft mostró su buscador del MundoReal™ ayer durante la conferencia para desarrolladores Microsoft Build, aunque evitó hacer referencia a implicaciones relacionadas con la intimidad o la privacidad.

A pesar de los innegables beneficios que puede suponer un sistema así este aspecto relacionado con la intimidad despierta numerosas preguntas y preocupaciones, especialmente si el sistema se aplica a los espacios públicos, si se usa con fines comerciales o maliciosos o, en general, si no va acompañado de una estricta regulación. «Las cámaras inteligentes pueden cruzar todo tipo de líneas rojas antes de que nos demos cuenta.”

Compartir en Flipboard  Compartir en Facebook  Tuitear