Por @Wicho — 27 de Octubre de 2025

Una mano robot y una mano humana cuyos dedos índices están a punto de tocarse como en La Creación de Adán de Miguel ÁngelEl pasado lunes fue un lunes muy lunes en España, ya que no sólo tuvimos que lidiar con la caída de los servicios en la nube de Amazon, sino que además durante unas horas de esa mañana fallaron los pagos a través de RedSys, que da servicio a cosa de un millón y medio de establecimientos. Así que era un poco inevitable hablar de eso en Cruce de cables, el programa sobre tecnología de RNE en el que colaboramos todas las semanas.

Puedes escuchar mi intervención aquí:

El resumen es que:

  • Falló el DNS del centro de datos US‑EAST‑1 de Amazon. El DNS es el sistema que le dice a los ordenadores que quieren conectarse a otros «a dónde tienen que llamar» así que aunque las máquinas de Amazon funcionaban, muy pocos ordenadores sabían cómo conectarse con ellas.
  • Se supone que los servicios web de Amazon están distribuidos en 120 centros de datos en 38 zonas geográficas distintas. Pero US‑EAST‑1 es la opción por defecto cuando activas ciertos servicios de AWS. Así que soporta más tráfico que otros centros de datos.
  • Se supone también que los sistemas de Amazon detectan caídas de forma automática y redirigen el tráfico a otros centros de datos llegado el caso. Pero quizás la capacidad de respuesta no era suficiente frente a las demandas las que se ve sometido US-EAST-1.
  • Al parecer también hay ciertos servicios de AWS que, aunque estén replicados en otras zonas y centros de datos, dependen directamente del que tuvo problemas.
  • Así que varios miles de servicios y webs se vieron afectadas, desde cosas más o menos triviales como el Wordle hasta el equivalente británico de la Agencia tributaria.
  • Con el mercado mundial de este tipo de servicios, que por mucho que «estén en la nube» no dejan de ser utilizar un ordenador en remoto, en manos básicamente de Amazon, Google y Microsoft, es complicado que podamos escapar de ahí.
  • Pero quizás lo del pasado lunes sirva de toque de atención para que los departamentos de informática –y los usuarios de a pie– revisemos la configuración de las cosas y las garantías que nos dan esos servicios en la nube. Aunque no parece muy probable.

Aunque si quieres leer la versión de Amazon hay un resumen técnico detallado publicado por Amazon bajo el título Summary of the Amazon DynamoDB Service Disruption in the Northern Virginia (US-EAST-1) Region. Pero como dirían los joveznos, «demasiado texto».

Lo de la caída de RedSys fue una coincidencia debido, al parecer, a problemas de comunicación en su red, pero toda una faena.

Compartir en Flipboard Publicar en Bluesky
PUBLICIDAD


Por @Alvy — 23 de Octubre de 2025

Una impresionante colección de decenas de fotografías de microchips de CPUs de los años 70, 80 y 90

El proyecto personal de Pauli Rautakorpi «Birdman86» consiste en fotografiar microchips con máximo detalle y calidad cuando tiene un rato libre. Los tiene todos en Wikimedia Commons: Fotografías de microchips.

Las imágenes son principalmente de CPUs aunque también hay otros chips interesantes, como EPROMs, DSPs, codecs, cachés, memorias o microcontroladoras de bus y de red. Para verlas a máxima resolución hay que ir haciendo clic con el ratón.

No solo están los clásicos de Intel y Motorola, también hay chips de AMD, Silicon Graphics, Hewlett-Packard, Trident, Texas Instrument, NEC, Fairchild y otros grandes de la época. Desde un Zilog Z80 a un Motorola 68600 o el Intel i960. Su creador las ha recopilado además en varias listas con lo cual es más entretenido hojearlas y encontrar algunas en concreto.

Una impresionante colección de decenas de fotografías de microchips de CPUs de los años 70, 80 y 90

Ver el interior de todos estos chips es una auténtica gozada, con caminos que se bifurcan de forma laberíntica, arcoiris de colores en diversas capas, soladuras y componentes a veces visibles… Pequeñas ciudades en miniatura en el más puro espíritu original de Tron. Solo que aquí forman parte del mundo real y está a unos cuantos clics de zoom con el ratón.

Relacionado:

Compartir en Flipboard Publicar en Bluesky
PUBLICIDAD


Por @Alvy — 19 de Octubre de 2025

Cruce de cables: Premios Turing: los Nobel de la informáticaEste pasado fin de semana hablamos, en nuestra colaboración habitual con RNE en el programa Cruce de Cables [domingos de 03:00 a 04:00am] sobre los Premios Turing que, a falta de un «Nobel de informática», son lo más parecido que hay en el sector.

El audio está aquí:

Los Premios Turing los creó en 1966 la ACM (Association for Computing Machinery) y se consideran el máximo honor que puede recibir un investigador o ingeniero del sector. Se reservan para quienes han realizado contribuciones fundamentales a la ciencia de la computación.

El premio se concede anualmente y tiene una dotación económica que actualmente supera el millón de dólares, financiada por Google, aunque eso no es tanto como el prestigio que se consigue.

En las últimas seis décadas los Premios Turing han marcado la historia del progreso digital. Cada década refleja en cierto modo una tendencia dominante en la evolución de la informática:

  • 1960-1970s. Muchos de los premios fueron para los fundamentos teóricos de los algoritmos y la programación estructurada: Dijkstra (algoritmo de rutas, entre otras cosas), Backus (FORTRAN), McCarthy (LISP); también para la primera inteligencia artificial simbólica, con Marvin Minsky.
  • 1980-1990s. Fueron para el mundo de las bases de datos: por ejemplo para Codd (bases de datos relacionales, SQL)
  • 2000-2010. La criptografía, las bases de datos y el procesamiento a gran escala: Diffie-Hellman (criptografía de clave pública, 2015), Rivest, Shamir y Adleman (algoritmo criptográfico RSA, 2002).
  • 2010-2020s. La arquitectura de hardware eficiente y el aprendizaje profundo: Hennessy-Patterson (arquitectura RISC), Hinton-Bengio-LeCun (redes neuronales artificiales) y para Lamport (bases teóricas, orden lógico de eventos, sincronización de procesadores),

Cada galardón resume años de investigación aplicada que transforman industrias enteras. Así, no hay gran invento sin su premio: por la World Wide Web Tim Berners-Lee recibió el suyo en 2016; por el sistema operativo Unix Ken Thompson y Dennis Ritchie en 1998, y así hasta la IA que hoy domina el panorama tecnológico.

Los cinco últimos premiados ilustran lo importante que es conocer diversas disciplinas:

  • Alfred Aho y Jeffrey Ullman (2020) por los fundamentos de los compiladores.
  • Jack Dongarra (2021) por los algoritmos y bibliotecas de cálculo para superordenadores.
  • Bob Metcalfe (2022) inventor de Ethernet, la tecnología de redes locales que conecta millones de dispositivos (creada en 1973).
  • Avi Wigderson (2023) – Por las relaciones entre complejidad computacional y azar, pilares de la criptografía moderna.
  • Andrew Barto y Richard Sutton (2024) – Creadores de los algoritmos de aprendizaje por refuerzo, esenciales en IA actual.

El 15 de diciembre de 2025 termina el plazo de nominaciones para este año, y se conocerá al ganador o ganadora en la ceremonia de 2026.

Compartir en Flipboard Publicar en Bluesky
PUBLICIDAD


Por @Alvy — 14 de Octubre de 2025

El algoritmo de Wilson para resolver laberintos

Cruz Godar tiene unos cuantos applets que ha ido desarrollando a modo de entretenimiento, entre los que está este generador de laberintos mediante el algoritmo de Wilson. Es entretenido y agradable de ver en acción; basta elegir el tamaño y otros detalles para ponerlo en marcha.

Estos laberintos se podrían considerar los más «justos» porque el algoritmo genera árboles aleatorios uniformes: cada posible laberinto (entendido como un conjunto de caminos sin ciclos que conecta todos los puntos del mapa) tiene la misma probabilidad de aparecer. Técnicamente es porque en el Wilson se emplean caminatas aleatorias sin bucles: cada vez que el algoritmo traza un camino desde un punto al azar hasta el conjunto ya generado elimina los bucles en cuanto aparecen. Este proceso no favorece ningún tipo de trayectoria ni dirección.

Crear y resolver laberintos son tareas igualmente complejas: diseñarlos exige cierto equilibro entre que sean claros e interesantes a la vez, evitando tanto los caminos triviales como los callejones sin salida demasiado rebuscados. Resolverlos requiere recorrer un espacio finito pero con un número enorme de combinaciones, y puede llegar a ser bastante lioso.

En informática, ambos procesos se relacionan con problemas de búsqueda y optimización. Es por esto que, tanto en papel como en simulaciones digitales, los laberintos resultan un estupendo ejercicio de lógica, probabilidad y paciencia.

Relacionado:

Compartir en Flipboard Publicar en Bluesky
PUBLICIDAD