Los “grandes datos” de Facebook: 500 TB de información generada cada día

Habíamos apuntado que el verdadero valor de Facebook no se encuentra en la publicidad que es capaz de mostrar, sino en la información que generan sus usuarios a cada segundo que pasa… y no nos equivocábamos.

La red social acaba de revelar parte de sus estadísticas en Big Data y el poderío es asombroso. Por ejemplo, se sabe que Facebook procesa 2.500 millones de piezas de contenido y más de 500 terabytes de información cada día. En ese mismo intervalo de tiempo, sus usuarios producen 2.700 millones de “Me gusta” y suben a la red unos 300 millones de fotografías.

“Big Data se trata realmente de obtener conocimiento y provocar algún impacto en tu negocio. Si no te aprovechas del saber que recolectas, entonces sólo posees un montón de datos, no tienes Big Data”, razona el vicepresidente de ingeniería de Facebook, Jay Parikh, tal y como recoge TechCrunch.

Esto implica que, al procesar todos esos datos que se producen en cuestión de minutos, el equipo de Mark Zuckerberg puede comprender mejor las reacciones de sus clientes, implementar nuevos productos y modificar ciertos diseños casi en tiempo real. “Al mirar los datos históricos, podemos validar un modelo antes de su puesta en producción”, añade el directivo. “Basta con poner los datos en una simulación”.

Otro dato revelado es que Facebook almacena más de 100 petabytes de datos en un único disco en clúster de Hadoop, lo que lleva a Parikh a sostener que “operamos con el sistema de Hadoop más grande del mundo”.

Para poder hacer frente a la que se le avecina, la empresa de Menlo Park ha trazado lo que internamente se conoce como Project Prism. En la actualidad toda la vida interna de Facebook está acumulada en un único centro de datos, con instalaciones secundarias encargadas de tareas de redundancia. Cuando sus dimensiones se vuelvan insoportables, se moverá a nuevos espacios diseñados ad hoc sin mayores gastos de recursos.

“Este proyecto nos permitirá tomar este almacén monolítico y separarlo físicamente, pero manteniendo una visión centralizada de los datos”, señalan desde Facebook. De este modo se podrá dividir el contenido a través de los centros que la compañía posee en otras zonas de Estados Unidos o incluso llevarlos a Suecia.

Mónica Tilves

Licenciada en Xornalismo por la Universidad de Santiago de Compostela en la especialidad de Periodismo Electrónico y Multimedia. Apasionada de los gadgets, la fotografía digital, el diseño web y el arte. Tras un primer contacto con el mundo de la prensa escrita y con la suficiencia investigadora debajo del brazo, me decanto por los medios online. Cubro la actualidad informativa en Silicon Week desde 2011, además de colaborar en otras publicaciones del grupo NetMediaEurope en España como Silicon News. Ahora en Silicon.es.

Recent Posts

Bitdefender lanza un programa de garantía contra violaciones de seguridad

Ofrece hasta 1 millón de dólares de compensación económica en caso de incidente, con la…

8 horas ago

Cloud Expo evoluciona a Cloud & AI Infrastructure

Este cambio refleja los avances que se producen a nivel de infraestructura TI y el…

9 horas ago

DES2025 se centrará en la IA y ofrecerá una zona de experiencia tecnológica

El evento espera reunir a 17.000 directivos, que podrán escuchar a medio centenar expertos en…

10 horas ago

Snowflake llega a un acuerdo con Datavolo para su adquisición

Como resultado de esta operación, ampliará sus servicios en el "bronze layer" del ciclo de…

10 horas ago

NetApp aumenta un 6 % sus ingresos trimestrales

Durante el segundo trimestre de su año fiscal 2025 acumuló 1.660 millones de dólares, la…

11 horas ago

Denodo Platorm 9.1 estrena asistente de inteligencia artificial

También incluye un SDK open source para potencia el desarrollo de aplicaciones y agentes, especialmente…

11 horas ago