Por Nacho Palou — 12 de Enero de 2017

La propuesta del equipo de especialistas de inteligencia artificial de DeepDrive es aprovechar el mundo realista del juego Grand Theft Auto (GTA) como entorno virtual en el que los coches aprendan a conducir con «costes y riesgos cero»,

Los videojuegos modernos como GTA V generan un mundo donde los coches autónomos pueden recorrer grandes áreas urbanas, complejas y repletas de carreteras realistas, con meteorología variable, peatones, ciclistas y otros vehículos sin el problema que supone el riesgo de sufrir un accidente. Otra ventaja es que este tipo de simulación permite crear situaciones críticas de riesgo, algunas de las cuales sólo suceden en el mundo real una vez cada varios millones de kilómetros. Esto reduce drásticamente el tiempo que implica profundizar apropiadamente los distintos supuestos de la conducción.

Visto así la idea se podría calificar como brillante. La gente de DeepDrive ya tiene construida una plataforma de aprendizaje máquina aplicada a la conducción en el entorno virtual de Grand Theft Auto, en la que una red neuronal utiliza la imagen procedente del videojuego y actúa sobre los controles del vehículo para aprender a conducir.

El modelo es capaz de mantener el coche el carril, detenerse cuando otros coches frenan y circular bajo diferentes condiciones meteorológicas, de luminosidad y de tráfico, tal y como se puede ver en los vídeos de DeepDrive en YouTube.

Vía TNW + TechCrunch.

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por @Alvy — 27 de Diciembre de 2016

Esta demostración denominada simplemente Wavenet TTS es una especie de avance de la línea que está siguiendo Google con DeepMind para mejorar la tecnología de síntesis de text-a-voz (TTS).

Las voces actuales de Google, Siri (Apple) y Cortana (Microsoft) están bien pero claramente suenan un poco mecánicas, con entonaciones extremadamente raras y en el caso de Google, demasiado «alegre y dicharachera», casi de broma. Tal y como cuentan en Geek, una nueva tecnología que predice y modela directamente la forma de las ondas del sonido resulta mucho más «humano». Realizando miles de predicciones por segundo y usando la red neuronal de DeepMind –entrenada por grabaciones de humanos– es una idea bastante distinta de la «concatenación de sonidos» a la que estamos acostumbrados.

Según dicen, además de generar una voz más clara y natural también puede usarse para generar muchas voces distintas sin extraordinario esfuerzo o incluso, a cierto nivel, directamente música. Las demostraciones que hay hasta el momento no son muy numerosas, ni largas, pero hay que reconocer que suenan prometedoras.

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por @Alvy — 26 de Diciembre de 2016

MiniWorldBits

Mini World Of Bits es una idea para medir la «capacidad de aprendizaje» de agentes capaces de interactuar con sitios web y aprender mediante técnicas de refuerzo.

La idea consiste en estandarizar las pruebas de modo que los agentes reciben una pequeña pantalla con la tarea a realizar (zona en amarillo) y luego inteactúen con los formularios y páginas web: botones, menús, cajas de texto, gráficos, etcétera para superar las pruebas como lo haría un ser humano: un reto al estilo de los captchas que distinguen «humanos de robots». El resultado se valora entre 0,0 (fallo) y 1,0 (éxito) y también se tiene en cuenta el tiempo. Entonces se repite el proceso, cientos, miles o millones de veces si es necesario y en teoría el agente debería tender a mejorar, si acaso le es posible.

La idea de Andrej Karpathy, su creador, es que con esta batería de tests los desarrolladores puedan utilizar una colección más o menos estándar de pruebas contra la que chequear de forma genérica los agentes para resolver cualquier tipo de tarea, pudiendo compararlo con otros agentes y también con baterías de tests resueltos por humanos (cuyos resultados espera publicar en breve).

Todo esto forma parte de las iniciativas de OpenAI, un pequeño mundo virtual en el que se enfrentan inteligencias artificiales, sobre el que ya escribimos un artículo hace algunas semanas para la sección de tecnología de El País.

Como decían en @BitcraftLab, que es donde lo vi pasar: «Quizá fallar al resolver un captcha será pronto la única forma de demostrar que eres humano». ¿De qué me suena a mi eso?

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por @Alvy — 14 de Diciembre de 2016

Relajante música clásica… ¿Es obra de Johann Sebastian Bach? ¿Brahms? ¿Händel? ¡No! Es de… DeepBach, una inteligencia artificial que genera composiciones por sí misma tras haber aprendido del catálogo de cantatas corales de Bach, el genio de la música barroca.

Según cuentan MIT Technology Review sus creadores comenzaron con 352 corales compuestos por Bach y las transportaron para abarcar todo el rango vocal, para obtener 2.503 en total. Con 80 de ellas se entrenó la red neuronal y con el 20 por ciento restante se realizaron las comprobaciones para validar el método.

El equipo entonces pidió a 1.600 personas (incluyendo 400 músicos profesionales) que comparara una de las melodías generadas con un coral auténtico de Bach y a veces también con música generada mediante otros algoritmos, intentando averiguar cuál era la original compuesta por Bach. Más o menos el 50% de los entrevistados eligieron la composición de DeepBach. Curiosamente, en otras pruebas de verificación cuando se les presentaba música del auténtico Bach frente a otra tan solo el 75% acertaba en su elección.

Dicen que esto abre la posibilidad de generar música no solo de un autor sino de diversos creadores y estilos, con un grado de fiabilidad razonable. Si el resultado será mejor que el original o no está todavía por ver. Bieber y compañía ya están temblando.

Relacionado,

Compartir en Flipboard  Compartir en Facebook  Tuitear