Este dato proviene de un informe publicado en ACM por parte de dos de los miembros de Google, que han realizado un estudio en el que han determinado la cantidad de información que se maneja diariamente, y que pasa a través de una media de 100.000 procesos denominados MapReduce y que se gestionan en sus clusters. Este proceso es que el convierte las búsquedas en datos ‘analizables’ a partir de los cuales Google es capaz, por ejemplo, de implementar de forma exitosa su programa AdSense.
Los datos se procesan en nodos que constan de Xeon a 2 GHz con HyperThreading, 4 Gbytes de memoria, dos discos duros de 160 Gbytes y conectividad Gigabit Ethernet. No son malas máquinas, pero parece sorprendente comprobar que Google no haya hecho uso ya de micros más nuevos de Intel – e incluso de AMD, más potentes y que sobre todo consumen menos.
vINQulos
Ofrece hasta 1 millón de dólares de compensación económica en caso de incidente, con la…
Este cambio refleja los avances que se producen a nivel de infraestructura TI y el…
El evento espera reunir a 17.000 directivos, que podrán escuchar a medio centenar expertos en…
Como resultado de esta operación, ampliará sus servicios en el "bronze layer" del ciclo de…
Durante el segundo trimestre de su año fiscal 2025 acumuló 1.660 millones de dólares, la…
También incluye un SDK open source para potencia el desarrollo de aplicaciones y agentes, especialmente…