Por @Alvy — 22 de Abril de 2013

Un equipo del CERN ha preparado esta pieza divulgativa sobre cómo se procesan los datos generados por el Gran Colisionador de Hadrones (LHC) cada día. Los datos hablan por si solo: se trata de capturar información sobre 600 millones de colisiones por segundo de partículas subatómicas que viajan al 99,9999991 por ciento de la velocidad de la luz, y de las cuales tan solo uno de cada millón son «interesantes», según definen los científicos.

Una vez se han filtrado los datos más interesantes, lo cual requiere ejecutar más de 1,5 millones de tareas cada día, se transfieren por todo el planeta a los centros colaboradores a 10 gigabits por segundo. En total se capturan y almacenan más de 25 petabytes de datos al año.

Más información y datos: Worldwide LHC Computing Grid.

Compartir en Flipboard  Compartir en Facebook  Tuitear

Microsiervos Selección


El placer de la X: Una visita guiada por las matemáticas, del uno al infinito

EUR 9,49

Comprar


Freakonomics

EUR 5,22 (Reseña en Microsiervos)

Comprar


Amazon Associates

Los productos aquí enlazados están a la venta en Amazon. Incluyen un código de Afiliado Amazon Associates que nos cede un pequeño porcentaje de las ventas. Los productos están seleccionados por los autores del blog, pero ni Amazon ni los editores de los libros o fabricantes de los productos participan en dicha selección.

Más libros y productos en:

Microsiervos Selección