Por @Alvy — 22 de Abril de 2013

Un equipo del CERN ha preparado esta pieza divulgativa sobre cómo se procesan los datos generados por el Gran Colisionador de Hadrones (LHC) cada día. Los datos hablan por si solo: se trata de capturar información sobre 600 millones de colisiones por segundo de partículas subatómicas que viajan al 99,9999991 por ciento de la velocidad de la luz, y de las cuales tan solo uno de cada millón son «interesantes», según definen los científicos.

Una vez se han filtrado los datos más interesantes, lo cual requiere ejecutar más de 1,5 millones de tareas cada día, se transfieren por todo el planeta a los centros colaboradores a 10 gigabits por segundo. En total se capturan y almacenan más de 25 petabytes de datos al año.

Más información y datos: Worldwide LHC Computing Grid.

Compartir en Flipboard Compartir en Facebook Tuitear

PUBLICIDAD




PUBLICIDAD


Encuesta AIMC 2020

Microsiervos Selección


Decoding the Universe: How the New Science of Information Is Explaining Everything in the Cosmos, from Our Brains to Black Holes

EUR 12,21 (Reseña en Microsiervos)

Comprar


Historia del tiempo: del Big Bang a los agujeros negros

EUR 11,87

Comprar


Amazon Associates

Los productos aquí enlazados están a la venta en Amazon. Incluyen un código de Afiliado Amazon Associates que nos cede un pequeño porcentaje de las ventas. Los productos están seleccionados por los autores del blog, pero ni Amazon ni los editores de los libros o fabricantes de los productos participan en dicha selección.

Más libros y productos en:

Microsiervos Selección