Por @Alvy — 5 de Octubre de 2008

El ingente volumen de datos para analizar que generará el inmenso Gran Colisionador de Hadrones (LHC) se calcula en unos 15 petabytes al año (eso son unos 15.000 terabytes). Para procesar esa vasta cantidad de información se ha tenido que recurrir a montar un grid de computación distribuida que consta de 100.000 procesadores situados en 140 instituciones científicas a su vez repartidas por 33 países del globo. [Fuente: CERN Officially Unveils Its Grid en ReadWriteWeb.]

Compartir en Flipboard Compartir en Facebook Tuitear

Microsiervos Selección


Hidden Figures: The American Dream and the Untold Story of the Black Women Mathematicians Who Helped Win the Space Race

EUR 9,31

Comprar


Kick-Ass

EUR 18,95 (Reseña en Microsiervos)

Comprar


Pi: the first million digits and visualization with Python (Japanese Edition)

EUR 2,99 (Reseña en Microsiervos)

Comprar


Amazon Associates

Los productos aquí enlazados están a la venta en Amazon. Incluyen un código de Afiliado Amazon Associates que nos cede un pequeño porcentaje de las ventas. Los productos están seleccionados por los autores del blog, pero ni Amazon ni los editores de los libros o fabricantes de los productos participan en dicha selección.

Más libros y productos en:

Microsiervos Selección