Google puede clasificar un PB de información en seis horas

Para poner esta cifra en perspectiva, es 12 veces los datos web archivados por la biblioteca del congreso estadounidense. Para el almacenamiento se utilizaron 48.000 discos duros y para asegurar la integridad de los datos se escribieron tres copias de cada archivo en tres discos diferentes.

El responsable de todo el sistema es la arquitectura de software MapReduce, un framework desarrollado por Google para soportar computación paralela en la inmensa cantidad de datos que mueven los distintos servicios de la compañía, desde el procesado de las imágenes por satélites o el análisis de páginas.

MapReduce procesaba en enero de 2008, un promedio de 20 petabytes de datos diarios.

vINQulos

Google Blog, vía Slashdot

jranchal TI

Recent Posts

Los mensajes RCS, otra vía de acceso para ciberataques

Los mensajes RCS ofrecen muchas más posibilidades que los SMS, pero también abren la puerta…

2 horas ago

Telefónica Empresas ayudará a Microsoft a expandir los Copilot+ PC por España

Acompañará a las empresas en sus procesos de equipamiento, desde la elección del hardware hasta…

22 horas ago

IBM y Esade promueven el uso de la IA en los Consejos de Administración

Juntos, trabajarán en la formación y la actualización de habilidades para que los consejeros impulsen…

23 horas ago

ASUS lanza un Mini PC con inteligencia artificial

Este dispositivo incluye entre sus especificaciones procesador Intel Core Ultra (Serie 2) y botón Copilot.

24 horas ago

EasyVisa adquiere una participación mayoritaria en OTRS Group

Ya cuenta en su poder con más del 90 % de las acciones del proveedor…

1 día ago

SoftwareOne y Crayon acuerdan fusionarse

Los actuales consejeros delegados, Raphael Erb y Melissa Mulholland, se convertirán en co-CEOs de la…

1 día ago