Por @Alvy — 20 de Junio de 2018

Esta competición era una especie de mezcla entre el match Kasparov vs. Deep Blue y cuando Watson ganó a Jeopardy. Se trata de un sistema llamado IBM Debater, fruto del Project Debater que desde 2014 está siendo programado y entrenado en la noble ciencia de la retórica para debatirse en diversos temas contra profesionales de la argumentación.

Al igual que IBM Watson, la «máquina de debatir» de IBM reconoce el lenguaje natural al instante –nada de incómodos retardos–, lo cual en este caso tiene mérito porque su oponente hablaba a 218 palabras por minuto. El enfrentamiento fue contra Noa Ovadia, una oradora y «campeona de debates» de Israel. El tema elegido fue «El uso de fondos públicos para la exploración espacial» y las reglas decían que cada contendiente tenía 4 minutos para exponer, 4 minutos de réplica y 2 minutos de conclusión.

Cada uno de los participantes pudo previamente el tema, para lo que IBM Debater leyó todo el material existente sobre el tema «pero intentando comprenderlo» (como en el chiste). Técnicamente lo llaman minado de argumentos, separando el polvo de la paja e intentando comprobar la calidad de la información. Luego prepara un resumen con los puntos más importantes –también de las respuestas– y procura evitar repetirse (cosa que no siempre consigue) e incluso incluir algún chiste (!) Durante la competición IBM Debater no estaba conectada a Internet.

Es fácil decir que hay cosas más importantes en las que gastar dinero; eso no lo discuto. Nadie dice que la exploración espacial sea lo único en lo que debemos gastar el dinero: no viene al caso. Lo que viene al caso es que subvencionar la exploración espacial beneficiaría claramente a la sociedad, así que es algo en lo que el gobierno debería involucrarse.

– IBM Debater

IBM Debater ganó según los votos del público, al considerar su exposición y sus respuestas «más informativas». En el vídeo se ven partes del entrenamiento para otros temas como «el uso de fondos públicos para la educación musical» o «remedios médicos no científicos».

Me gustaría ver a la máquina en una «tertulia mañanera» de televisión o por qué no en un «debate internauta», bregando en Twitter o en algún foro de Internet – los piñazos y zascas iban a ser gloriosos.

Aunque todavía se sigue trabajando en el tema, parece que el marcador parcial ya está en «Inteligencia Artificial 1 – Humanos 0».

IBM Debater

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por @Alvy — 19 de Junio de 2018

Una introducción visual al aprendizaje automático

He aquí dos magníficos tutoriales para introducirse en el maravilloso mundo del aprendizaje automático (machine learning). Lo mejor de todo es que no hay que tener grandes conocimientos de programación, matemáticas o estadística – aunque todo eso ayuda, claro. Básicamente permiten entender cómo funcionan las herramientas de aprendizaje estadístico con ejemplos visuales, sin entrar en grandes detalles.

De este tutorial creado por Stephanie Yee de R2D3 y el diseñador Tony Chu de Noodle AI –visualmente espectacular, todo sea dicho– de momento se han publicado dos partes, a cual más interesantes:

  1. A visual introduction to machine learning
  2. Model Tuning and the Bias-Variance Tradeoff

Una introducción visual al aprendizaje automático

La primera parte presenta los conceptos y técnicas básicas, incluyendo un pequeño modelo de ejemplo, y la segunda cómo afinar esos modelos e intentar evitar los sesgos de los que adolecen muchos de estos sistemas.

El ejemplo sobre el que se trabaja es un clasificador alimentado con información inmobiliaria; debe predecir con algunos datos si una vivienda concreta (altitud, precio por metro cuadrado, año de construcción, etcétera) está situada en Nueva York o en San Francisco. El modelo es bastante preciso (~90%) pero la varianza suele producir sesgos y lo complicado es encontrar el equilibrio entre algo «extremadamente simple» y algo «demasiado escrupuloso».

Lo mejor de todo es que al final tiene un Continuará… así que podremos seguir disfrutando de materiales tan didácticos como amenos.

Relacionado:

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por @Alvy — 19 de Junio de 2018

Solving the Rubik’s Cube Without Human Knowledge

Este trabajo reciente resulta bastante interesante; es un pasito más en el campo de los algoritmos de inteligencia artificial que aprenden por sí mismos sin supervisión humana. En este caso el dominio es bastante limitado (un Cubo de Rubik) pero al aprendizaje reforzado que se ha empleado ha obtenido estupendos resultados sin supervisión alguna – más allá de la definición de las reglas y el objetivo. En arXiv: Solving the Rubik’s Cube Without Human Knowledge.

El método empleado por DeepCube –que es como se llama el algoritmo– se asemeja un poco a los que recientemente se han usado en juegos como el ajedrez y el go. Se definen las reglas –los movimientos del cubo– y el «objetivo» –el cubo resuelto– aunque curiosamente dicen que el algoritmo funciona «al revés»: imagina el cubo resuelto y busca cómo llegar al cubo desordenado inicial, para luego invertir los movimientos.

El método empleado se llama iteración autodidáctica e incluye búsquedas en profundidad, una función de evaluación y recompensas que dependen del estado del cubo en cada momento – básicamente si se está más cerca de la solución o no. De esta forma repitiendo una y otra vez diferentes movimientos el algoritmo aprende con qué giros se acerca más a la solución o cuáles no debe hacer porque le alejan. Repítase millones de veces.

El resultado es que DeepCube puede resolver el cubo en un promedio de unos 30 movimientos. Matemáticamente sabemos que 20 movimientos es el número máximo de giros necesarios para resolver el cubo desde cualquier posición –y por tanto el mejor algoritmo lo podría siempre hacer en 20 o menos– y en competición los speedcubers humanos suelen necesitar entre 50 y 60 movimientos (Fridrich) o alrededor de 25-30 en las competiciones de «soluciones óptimas» (donde se valora el menor número de movimientos y no el tiempo). Así que 30 movimientos es una marca que no está nada mal.

Relacionado:

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por Nacho Palou — 19 de Junio de 2018

Nvidia ha desarrollado un algoritmo basado en aprendizaje automático que puede producir vídeos a cámara superlenta "de alta calidad" a partir de vídeos convencionales de 30 fotogramas por segundo.

La ventaja potencial de este sistema es que de este modo no sería necesario grabar vídeos a alta velocidad, y además es aplicable a vídeos ya grabados a velocidad convencional: "aunque es posible grabar videos de 240 fotogramas por segundo con un móvil no es práctico grabar todo a alta velocidad, algo que además requiere mucho espacio de almacenamiento y supone un gran consumo de batería", explican.

El método desarrollado por Nvidia es el habitual en estos casos: producir "artificialmente" fotogramas intermedios que sean "especial y temporalmente coherentes". En este caso el sistema utiliza un sistema de aprendizaje automático propio entrenado con más de 11.000 vídeos de acción y de actividades rutinarias grabados a 240 fotogramas por segundo. A partir de esa información la red neuronal predice cómo debería ser los fotogramas que hay que añadir para ralentizar el vídeo.

La tecnología permite incluso ralentizar todavía más vídeos ya grabado a cámara lenta, como los clips de The Slow Mo Guys que aparecen en el vídeo de Nvidia.

Compartir en Flipboard  Compartir en Facebook  Tuitear