Por Nacho Palou — 9 de Agosto de 2018

¿Dónde está Wally?

"Aquí está Wally" (o Waldo, según el país) es un robot cuya misión en esta vida es pasar páginas de los libros de ¿Dónde está Wally?, tomar una foto de la página y localiza en ella a Wally

"El robot utiliza OpenCV para encontrar y extraer caras de la foto. Los rostros se envían al servicio Google Auto ML Vision que compara cada uno de ellos con el modelo Waldo entrenado. Si se encuentra una coincidencia segura del 95% (0,95) o superior, el brazo del robot recibe instrucciones de extenderse hasta las coordenadas de la cara coincidente y señalarla. Si hay varios wallys en una misma página el robot señalará dónde está cada uno de ellos."

Según la agencia Red Pepper el robot "Aquí está Wally" es un prototipo y tarda algo más de 4 segundos en localizar a los wallys, "más rápido que la mayoría de los niños de 5 años."

Vía The Verge.

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por Nacho Palou — 31 de Julio de 2018

Según los investigadores de OpenAI esta mano robot llamada Dactyl aprende a manipular objetos por el método de ensayo y error equivalentes a 100 años de práctica.

Realizando múltiples movimientos consecutivos la red neuronal "aprende" cuáles son los movimiento más adecuados según el objetivo que desea alcanzar, como por ejemplo poner una cara de determinada del cubo en una posición concreta.

Por el camino la mano robot Dactyl, también "descubrió trucos humanos típicos como hacer girar el cubo entre dos dedos o aprovechar la gravedad para mover el bloque", dicen en Science Magazine, donde aseguran que hasta ahora " ninguna mano robot había hecho algo tan complicado."

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por @Alvy — 20 de Julio de 2018

Move Mirror es una de esas ocurrencias (ejem: «experimentos») de la gente de los laboratorios de Google. Consiste en un software de inteligencia artificial entrenado para reconocer los movimientos corporales de una persona frente a la cámara e «imitarlos». Primero se hace un poco el ganso moviendo el cuerpo y entonces se localizan imágenes con poses similares. Con el resultado se genera un GIF gracioso.

La técnica que utiliza consiste en identificar 17 partes del cuerpo (hombros, caderas, etcétera) y luego buscar esas poses en un banco de datos de unas 80.000 imágenes.

Está todo programado con PoseNet y TensorFlow.js, ambos disponibles en Github para quien quiera investigar las técnicas. Hay muchos más detalles técnicos en esta anotación: Move Mirror: An AI Experiment with Pose Estimation in the Browser using TensorFlow.js.

Relacionado:

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por @Alvy — 18 de Julio de 2018

Abhishek Singh muestra en este vídeo cómo ha enseñado a Alexa a entender el lenguaje de signos. O, más bien, cómo ha creado un sistema de aprendizaje automático capaz de interpretar lenguaje de signos con TensorFlow.js usando la webcam de un MacBook Pro. Los textos simplemente se envían a Alexa para que a su vez conteste con texto + voz.

En la demostración Singh hace las preguntas típicas del tipo «¿Qué tiempo hace?» «¿Cuánto son 5 pies en centímetros?», «¿Qué hora es?» o «Añade huevos a la lista de la compra» – y todas ellas se interpretan diligentemente para que Alexa las conteste. Naturalmente, quien no pueda hablar de viva voz a Alexa pero sí usar lenguaje de signos probablemente podrá teclear las mismas preguntas… pero no deja de ser interesante que sea relativamente fácil hacerlo de forma más natural. Además, puede haber situaciones en las que sea fácil gesticular pero no tanto teclear con precisión.

No hay de momento un enlace directo al código, pero seguramente aparecerá en su Github. Abhishek es conocido por haber creado un montón de «ocurrencias» similares, como el el famoso Super Mario en Realidad Aumentada, que junto con sus otros trabajos están recopilados en su página (shek.it).

Relacionado:

Compartir en Flipboard  Compartir en Facebook  Tuitear