Google puede clasificar un PB de información en seis horas

Para poner esta cifra en perspectiva, es 12 veces los datos web archivados por la biblioteca del congreso estadounidense. Para el almacenamiento se utilizaron 48.000 discos duros y para asegurar la integridad de los datos se escribieron tres copias de cada archivo en tres discos diferentes.

El responsable de todo el sistema es la arquitectura de software MapReduce, un framework desarrollado por Google para soportar computación paralela en la inmensa cantidad de datos que mueven los distintos servicios de la compañía, desde el procesado de las imágenes por satélites o el análisis de páginas.

MapReduce procesaba en enero de 2008, un promedio de 20 petabytes de datos diarios.

vINQulos

Google Blog, vía Slashdot

jranchal TI

Recent Posts

Marketing por SMS en Mailchimp, ya disponible en España

Este servicio se expande por Europa, incluyendo también a Francia, Alemania, Países Bajos, Suiza, Austria…

37 mins ago

El ‘ransomware’, el ‘phishing’ y los ataques a la cadena de suministro acechan a las pymes

La mayoría de empresas de pequeño y mediano tamaño ha sufrido durante el último año…

1 hora ago

Bitdefender ofrece un descifrador a las víctimas del ‘ransomware’ ShrinkLocker

ShrinkLocker Decryptor es una herramienta gratuita que ayuda a recuperar los datos perdidos.

2 horas ago

Dell Technologies introduce avances en Dell NativeEdge

Dell pretende que "las organizaciones puedan utilizar continuamente los últimos avances de IA en el…

20 horas ago

HPE anuncia más soluciones de supercomputación

Introduce cinco nuevas soluciones HPE Cray con arquitectura de refrigeración líquida directa y dos servidores…

21 horas ago

Meta Park Montseny-Riells abre las puertas a la realidad aumentada

Las entradas para acudir a este parque temático que defiende un turismo sostenible saldrán a…

22 horas ago