Por @Alvy — 23 de Febrero de 2019

Hoy en día podemos ver imágenes aéreas y de satélite de prácticamente cualquier lugar de la Tierra desde nuestro teléfono móvil mientras esperamos en la cola de la charcutería. ¡Vivimos en el futuro! Pero hace cincuenta años esto era alta tecnología de espías y de hecho supuso una de las mayores «carreras tecnológicas» entre los Estados Unidos y la Unión Soviética: espiar al vecino y conseguir imágenes de su territorio sin que pudieran hacer nada por impedirlo.

En este vídeo de Curious Droid se cuentan estupendamente los esfuerzos del programa de satélites de reconocimiento Corona, llamados eufemísticamente «de reconocimiento» por no decir a las claras «de espionaje». Comenzaron a operar en 1959 y eran un intento de evitar los problemillas propios de las fotos desde aviones a gran altitud, como el caso de el U‑2 de Gary Powers cuando fue derribado sobre terreno soviético. Estos satélites estaban en una órbita polar baja (160 km de altitud) y recorrían el globo terrestre a gran velocidad.

¿El problema? La tecnología de los años 60 para transmitir fotografías y vídeo de calidad no existía, de modo que lo mejor que podían hacer era preparar las mejores lentes, teleobjetivos y la mejor película fotográfica buscando la mayor nitidez. Al principio los teleobjetivos de 610mm y la película de 70mm proporcionaban «píxeles» –aunque en realidad no había píxeles, sino «detalles»– de unos 7 metros; con el tiempo se logró mejorar hasta 1,5 metros. Comparativamente Google Earth ofrece hoy en día zonas con píxeles equivalentes a 50-60 cm.

¿El otro problema? Estamos hablando de película fotográfica física, larguísimos rollos que debían guardarse, sellarse y de algún modo enviar a tierra para revelar y examinar. La solución era lanzarlos desde el espacio en unas «cápsulas de reentrada» que resistieran las altas temperaturas y posibles golpes, abriendo unos rudimentarios paracaídas para que pudiera ser capturadas con aviones en los lugares previstos. Si suena a «invento de ingeniero loco» es porque un poco lo era. Pero funcionó, al principio no se recuperaban más que el 6 por ciento de las cápsulas.

Con el tiempo se mejoraron todas las técnicas para garantizar cálculos de posición más precisos en la reentrada, mayor resistencia, mejores paracaídas y métodos de detección y captura más eficientes desde varios aviones. Si las cápsulas caían al mar, flotaban, pero gracias a un sensor de salinidad podían hundirse automáticamente a las 48h, evitando así que el enemigo las pudiera encontrar.

Toda esta tecnología vino muy bien en las décadas posteriores para todas las misiones espaciales: Gemini, Mercury, Apollo… Pero los satélites Corona y todos sus avanzados sistemas fotográficos no duraban mucho: tenían una vida útil de unas pocas semanas. Por eso se ganaron el apodo de

Las cámaras de usar-y-tirar más caras del mundo.

aunque una cosa es lo que costaran y otra el valor de la «inteligencia» que proporcionaban, que debió ser mucha.

Aquí otros estupendos vídeos de Curious Droid:

Y algunos enlaces sobre satélites, espías e imágenes desde gran altitud:

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por @Wicho — 23 de Febrero de 2019

Aunque aún falta más de un año para que la sonda New Horizons de la NASA termine de transmitir todos los datos –imágenes incluidas– que recogió durante su fugaz visita al objeto del cinturón de Kuiper 2014 MU69, también conocido como Ultima Thule, ya tenemos en casa las imágenes de más alta resolución que tomó.

Esta en concreto fue capturada a las 6:26 del 1 de enero de 2019 cuando la New Horizons estaba a 6.628 kilómetros de Ultima Thule, justo seis minutos y medio antes de la máxima aproximación. Su resolución es de unos 33 metros por pixel.

Pero aparte de lo que representa por ser el vistazo más cercano que hayamos echado al objeto más lejano que jamás hayamos visitado es un enorme logro del equipo de la misión teniendo en cuenta el reducido tamaño de 2014 MU69, que mide unos 33 kilómetros en su eje más largo, la incertidumbre sobre su órbita, y que la New Horizons viajaba a unos 51.500 kilómetros por hora en el momento de producirse el encuentro. Todo un trabajo de precisión que muy bien podía haber quedado en una serie de cuadros negros captados por Lorri, la cámara telescópica de la sonda, tan sólo con que los cálculos realizados para decirle hacia donde apuntar con la cámara hubieran estado mínimamente errados.

Esta versión de la imagen por Thomas Appéré, en la que ha utilizado la información de color proporcionada por la cámara MVIC, se parece más a la pinta que tiene Ultime Thule en el MundoReal™:

Hay que recordar, de todos modos, que Ultima Thule ha resultado ser mucho más plano de lo que se esperaba, en especial Thule, el lóbulo grande, algo que en estas imágenes no se aprecia.

El interés en estudiar un KBO como 2014 MU69 es que creemos que está formado por planetesimales, las partículas que con el paso del tiempo acabaron juntándose para formar planetas. Planetas como este sobre el que vivimos.

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por @Wicho — 23 de Febrero de 2019

Crew Dragon atracando en la EEI
Impresión artística de una Dragon 2 atracando en la EEI – NASA

Tras haber superado con éxito su flight readiness review (FRR) la primera misión de prueba de una Dragon 2 o Crew Dragon a la Estación Espacial Internacional ya tiene todos los permisos necesarios para ser llevada a cabo. Durante la FRR –obligatoria antes del lanzamiento de cualquier misión– todas las parte implicadas se reúnen para ver que se ha hecho todo lo posible para que la misión pueda ser llevada a cabo con éxito, tanto desde el punto de vista del hardware como del de los sistemas de tierra como del equipo humano y cualquier otro factor que pueda intervenir.

Por supuesto esto no quita para que un sensor obtenga una medida fuera de rango a última hora, que se atasque una válvula, o que simplemente haga mal tiempo, por supuesto. Pero haber pasado la FRR quiere decir que la DM-1 de SpaceX ya tiene fecha y hora oficialmente: las 8:48, hora peninsular española, del 2 de marzo de 2019.

No ha sido a principios de enero, tal y como la NASA había dicho en noviembre de 2018, pero el retraso tampoco es tan grande, en especial teniendo en cuenta el cierre de la administración estadounidense que ha habido por medio.

El objetivo de esta misión, no tripulada, es probar todos los sistemas de la Dragon 2, en especial los de soporte vital, guiado, pues a diferencia de las Dragon de carga la Dragon tripulada es capaz de atracar automáticamente en la EEI, y los paneles solares, que en ella no se despliegan sino que están en la parte exterior del módulo de servicio.

Después del lanzamiento la cápsula permanecerá atracada en la Estación un tiempo aún por determinar y terminará su misión amerizando frente a las costas de California, aunque esto es algo que hacen rutinariamente las Dragon de carga.

Pero aunque todo vaya bien a la Dragon 2 aún le queda otra importante prueba que hacer, la del sistema de escape con la cápsula ya en vuelo, prueba que podría tener lugar tan pronto como abril, al menos según un tuit de Elon Musk.

Una vez superada esa otra prueba y comprobados todos los resultados en principio nada impediría ya el lanzamiento de la DM-2, la primera misión tripulada de una Dragon 2, en la que Bob Benkhen y Doug Hurley se convertirán en los primeros astronautas de la historia en despegar en una cápsula diseñada por una empresa privada.

Relacionado,

Compartir en Flipboard  Compartir en Facebook  Tuitear
Por @Alvy — 23 de Febrero de 2019

¿Cómo reconoce una máquina un rostro? ¿Qué detalles concretos busca y cómo los distingue? ¿De qué depende que se pueda reconocer a una persona concreta entre miles en una fotografía? Son cuestiones que quien más quien menos se ha preguntado alguna vez, especialmente ahora que tenemos sistemas de reconocimiento facial hasta en la sopa: Google Photos, Fotos para MacOS, Facebook… De hecho es difícil ver en acción estos sistemas «adivinando quién es quién» sin imaginar cómo son capaces de hacerlo.

Por eso este vídeo de Function es una estupenda explicación, que reúne las virtudes de la concisión y la explicación visual. Cubre todos los pasos y además de una forma fácil de entender. De hecho no entran en demasiados detalles matemáticos, sino que se quedan a nivel divulgativo, algo siempre de agradecer.

Todo comienza por las imágenes digitalizadas, que se convierten a blanco y negro y luego a un histograma de gradientes orientados, que básicamente son vectores que indican hacia donde van las diferencias de brillo entre píxeles. Esto permite detectar los bordes de los objetos en la imagen. Con eso es relativamente fácil explorar con una especie de «plantillas» cada zona de la imagen, intentando identificar los llamados landmarks o puntos de referencia concretos: ojos, nariz, boca, etcétera, que se corresponden con círculos, trazos verticales/horizontales y demás. Se emplean hasta unos 68 de estos puntos normalmente. Cuando se tienen varios de ellos en la misma zona es porque probablemente hay un rostro humano a su alrededor.

Cómo funcionan los sistemas de reconocimiento facial: una explicación sencilla y visual

El siguiente paso es asegurarse de que la orientación del rostro es correcta, porque la persona puede estar «mirando» en diferentes direcciones. Dado que se sabe dónde están los puntos de referencia se puede deformar la imagen en un proceso llamado normalización, estirándola hasta que encaje. Podría decirse que no queda muy bonito pero es muy práctico. De este modo se consigue que todas «miren de frente»… Más o menos.

El último paso en el reconocimiento para distinguir unas personas de otras es la clasificación. Para esto hay diferentes algoritmos. En el vídeo ponen como ejemplo el uso de redes neuronales convolucionales, que básicamente se entrenan mediante aprendizaje automático con muchas imágenes de personas distintas, a las que se suman las de la persona que se está intentando encontrar, ya de nuevo en color. Aquí hay una combinación de estadística (cuantificar las diferencias entre los puntos de referencia de dos rostros) y factor humano (confirmar al algoritmo si ha acertado o no), lo cual se hace durante la fase de entrenamiento.

Tal y como recalcan en el vídeo los resultados serán sólo tan buenos como bueno sea el entrenamiento y la variedad de imágenes. Todo esto puede sonar muy complicado, pero se obtiene un resultado final que cuando se trata de comparar dos rostros no es más que una puntuación en forma de porcentaje de similitud, que puede traducirse también a un «sí, son iguales» o en un «no, son diferentes».

Aunque laborioso, es relativamente fácil para el algoritmo seguir todos los pasos con cualquier imagen nueva y acertar con un rostro entre los de la multitud con un alto grado de probabilidad o –al menos– hacerlo mejor y más rápido que muchas personas. A modo de ejemplo se puede probar al juego estilo ¿Dónde está Wally? que plantean en la explicación de vídeo: Where’s Munna? La verdad es que es bastante difícil hacerlo más rápido que la máquina.

Relacionado:

Compartir en Flipboard  Compartir en Facebook  Tuitear