Por @Wicho — 29 de Julio de 2017

The Home Of The Future: Year 1999 A.D. es un corto producido en 1967, año en el que la empresa cumplía 75 años, por la Philco-Ford Corporation en el que intentaban imaginar como sería el hogar del futuro, siendo el futuro el mítico 1999.

Tal y como ellos lo veían un ordenador central manejaría todos los sistemas de la casa como el generador de energía o el control de temperatura o la cocina, aunque controlado por las órdenes de sus habitantes mediante un montón de pantallas –cuasi planas– distribuidas por toda la casa.

Pantallas y pantallas

También se encargaría del control de la salud de la familia, enviando además los datos pertinentes al ordenador del centro médico, y permitiría la compra remota mediante imágenes de vídeo, enviando los pedidos al ordenador de la tienda y recibiendo de ésta los recibos para que el marido los autorizara, recibos que luego quedarían almacenados tanto en la memoria del ordenador de la casa como en el del banco.

El ordenador también guardaría registros de los gustos de los miembros de la familia, se encargaría de la educación de los hijos, y serviría de centro de entretenimiento.

Eso sí, por muy futuristas que quisieron ser, los guionistas del corto no fueron capaces de escapar de los esterotipos correspondientes a una típica familia de los 60.

Pero a pesar de esto, no deja de ser interesante ver como imaginaban el futuro –nuestro pasado ya– hace 50 años.

(Vía Pepe Cervera).

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por Nacho Palou — 28 de Julio de 2017

En este vídeo sistema de inteligencia artificial Pic2Recipe del MIT deduce cuál es la receta de unas galletas de azúcar que aparecen en una foto.

Pic2Recipe (de foto a receta) dispone de una enorme base de datos de fotografías de comida y otra con más de un millón de recetas. Así es como el desarrollo de aprendizaje máquina la red neuronal “aprende” a relacionar fotos con recetas. De modo que cuando ve una foto es capaz de identificar la presencia de ingredientes, como huevos, harina o mantequilla y a partir de ahí sugerir con cierta probabilidad a qué receta corresponde. En el ejemplo del vídeo el sistema identifica correctamente 8 ingredientes de 11.

El desarrollo se presentará en la conferencia sobre reconocimiento de patrones y visión artificial y en él han colaborado investigadores españoles. Según los expertos, lo más destacable es que el método funciona de forma similar a como lo hace el juicio humano.

“Las aparentemente inútiles fotografías de comida que inundan las redes sociales pueden servir para obtener pistas valiosas acerca de las preferencias dietéticas y de los hábitos alimenticios de la gente”, dice uno de los autores. De modo que tal vez desarrollo así dará sentido al gesto de fotografiar comida: a partir de esa foto la aplicación del MIT proporcionará y registrará la información nutricional con bastante exactitud para aquellos que deseen o necesiten hacer un seguimiento de lo que comenta. Además, bastará con fotografiar la comida de un restaurante para saber cómo preparar ese mismo plato después, en casa.

La aplicación se puede probar en la web Pic2Recipe!

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por Nacho Palou — 26 de Julio de 2017

Este vídeo de la ONR (Office of Naval Research), de la armada de EE UU, recoge una demostración de disparos repetidos realizado con el cañón electromagnético o de riel, que para finales de este año espera alcanzar una velocidad de disparo de 10 proyectiles por minuto. La carga del sistema recuerda un poco a la de la Estrella de la muerte, sí. El nuevo juguete de la armada podría recibir su bautismo de fuego el año que viene.

La principal diferencia entre un cañón convencional y un cañón de riel es que el primero recurre al uso de explosivos para lanzar el proyectil. El cañón de riel en cambio utiliza una corriente eléctrica de varios miles de amperios para acelerar horizontalmente el proyectil a gran velocidad. Gran velocidad puede ser tanto como lanzar proyectiles a 8.000 km/h (siete veces la velocidad del sonido) a una distancia de 160 km con una energía de 32 megajulios, equivalente al impacto de 32 coches de una tonelada lanzados a 260 km/h, según Engadget.

Con esa energía cinética un proyectil disparado con un cañón de riel no necesita carga explosiva para causar estragos, lo cual permite utilizar proyectiles más pequeños y simples, y también más baratos: 25.000 dólares la unidad en lugar de los entre 500.000 y 1,5 millones de dólares que cuesta un misil convencional. Y si además le ponen unos paneles solares al cañón igual hasta se ahorran algo en la factura de la luz.

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por Nacho Palou — 24 de Julio de 2017

Bikeedgecasepredictions1

En MIT Technology Review, This Image Is Why Self-Driving Cars Come Loaded with Many Types of Sensors,

Los fabricantes de coches a menudo enumeran con orgullo la larga lista de sensores que incorporan sus coches autónomos: cámaras, ultrasonidos, radar, lidar,... Pero si te preguntas para qué son necesarios tantos sensores esta imagen es una buena respuesta.

La imagen muestra lo que en la industria de los coches autónomos se conoce como un “caso extremo”, una situación en la que un vehículo se podría comportar de forma inesperada porque el software se encuentra ante un escenario inusual. En este ejemplo el sistema de reconocimiento de imagen mediante cámara se ve engañado por imágenes de ciclistas en el vinilo de una furgoneta.

En este caso concreto esa combinación de sensores permitiría al coche autónomo determinar qué tiene delante sin volverse loco. Se trata de que el conjunto de tecnologías proporcione redundancia al sistema, que el conjunto de varios sensores cubra las flaquezas que tiene cada uno de ellos individualmente.

Por ejemplo, el radar láser tridimensional lidar no puede lidiar con elementos transparentes como el vidrio, pero en cambio proporciona una imagen tridimensional del entorno que es más precisa de lo que consiguen el radar o los ultrasonidos, también por la noche. Pero lidar “ve” en blanco y negro así que tampoco puede reconocer si un semáforo está en rojo o en verde, cosa que la cámara sí puede ver incluso por la noche.

En esta situación en la que la cámara cree estar viendo una furgoneta y tres ciclistas delante, el radar o el lidar o los ultrasonidos no detectan movimiento individual e incluso los sensores de infrarrojos (que de haberlos —no todos los coches autónomos los llevan— detectarían la huella térmica de las personas en bicicleta) tampoco confirmarían la presencia de los ciclistas; sí en cambio confirmarían que hay una furgoneta. Con este informe de mayoría el coche autónomo determina qué tiene (y qué no tiene) delante realmente y por tanto no hará cosas extrañas cuando se encuentre ante una situación así.

Compartir en Flipboard  Compartir en Facebook  Tuitear