La estructura de Microsoft se ha apuntalado sobre dos pilares desde que Satya Nadella se encuentra al frente. Uno de ellos es la movilidad . El otro consiste en la nube. En casa Redmond no se cansan de repetir que vivimos en un mundo donde lo móvil y el cloud computing es lo primero. Sus anuncios de productos, sus confirmaciones sobre adquisiciones, sus informes financieros y sus investigaciones suelen recordarlo una y otra vez, así que el trasfondo del Project Natick no podía ser diferente. Este proyecto para centros de datos en el que se encuentra inmersa Microsoft permitirá perfeccionar el futuro cloud al que nos dirigimos si sus pruebas continúan cosechando éxitos durante meses venideros.
Hace tres años, en febrero de 2013, un empleado de Microsoft vinculado a la Armada de Estados Unidos presentó un documento a nivel directivo que exploraba la idea de trasladar servidores al agua, sirviéndose para su funcionamiento de energía limpia. Sean James tenía experiencia en el medio, ya que había trabajado en un submarino. Y lo que Project Natick hace precisamente es sumergir equipos informáticos bajo el océano. Entre agosto y noviembre de 2015, Microsoft ha llevado a cabo sus primeras investigaciones a 1 kilómetro de distancia de la Costa Oeste americana. Para ello, ha utilizado un prototipo llamado Leona Philpot que el pasado mes de diciembre regresó a Washington para ser analizado. Microsoft todavía va camino de certificar si los centros de datos submarinos pueden convertirse en realidad para los proveedores de servicios que se sustentan en la nube.
Por el momento, se habla de beneficios como la velocidad. Esta nueva clase de centros de datos puede implementarse en un máximo de 90 días, en vez de tardar años. Según explican desde Microsoft, también es capaz de responder sin problemas a las necesidades de cada momento, incluidos imprevistos como desastres naturales o picos de demanda por eventos masivos. Por ejemplo, ante la celebración de un evento deportivo. La latencia, la capacidad de respuesta y la calidad del servicio se verían, respectivamente, reducida, acelerada y mejorada. Esto se explica por la propia posición de la infraestructura de Project Natick. Microsoft razona que buena parte de la población vive próxima al mar, aproximadamente el 50 % se encuentra a menos de 200 kilómetros de la costa, por lo que su experimento no hace más que acercar la tecnología a la gente.
Y eso no es todo. Rodearse de agua equivale a tener una fuente de refrigeración a mano, sin consumos costosos. En sus ensayos Microsoft habría observado que no se perjudica a la vida marina. Y además, Project Natick se ha impuesto un objetivo ecológico. Aprovecha recursos energéticos renovables para una emisión cero de residuos y tira de materiales reciclados que permiten presumir de sostenibilidad aunque la vida de las instalaciones se agote. Los equipos que forman parte de dichos datacenters están pensados para aguantar un lustro sin cambios y, al cabo de ese tiempo, ser recuperados y reemplazados por otros. El invento en su conjunto debería durar un par de décadas en funcionamiento, plantando cara a la Ley de Moore.
Antes de Project Natick, Microsoft ya había experimentado en materia de centros de datos mediante la construcción del Data Plant autosuficiente de Cheyenne, en Wyoming. En esa ocasión lo que llamó la atención fue el hecho de recurrir al biogás generado en plantas de tratamiento de aguas residuales. También antes de que Leona Philpot haya entrado y salido del mar, Google o la compañía tecnológica que ahora se conoce como Alphabet, patentó un sistema para lanzar servidores al océano. El objetivo era similar al de Microsoft: servirse de la fría agua salada en materia de temperatura, además de la energía olamotriz en cuestión de carga. La empresa International Data Security se ha interesado por montar su infraestructura directamente en barcos. Y otras como Radix y Sun Microsystems han buscado emplazamientos que se salen de lo habitual. La primera instaló un centro de datos dentro de un búnker construido en los Alpes suizos durante la II Guerra Mundial. A la segunda, colaborando con más firmas, le llamó la atención una antigua mina de carbón en la isla japonesa de Honshu.
Los casos de centros de datos poco convencionales, que innovan por ubicación o recursos utilizados, se están convirtiendo en algo cada vez más frecuente. Pero no por ello resulta menos sorprendente. El antiguo centro comercial Eastgate Shopping Center, en Indiana, fue rescatado de una muerte por demolición por Lifeline Data Centers. El bello supercomputador MareNostrum del Barcelona Supercomputing Center – Centro Nacional de Supercomputación ha sido levantado sobre lo que fue una capilla. Bahnhof diseñó un centro de datos a partir de un gasómetro del siglo XIX y Google, de una fábrica de papel asentada al lado del Mar Báltico. Buscar fuentes naturales e imponerse metas verdes parece clave. Amazon, Apple, Facebook y otras organizaciones con operaciones online se han propuesto de un tiempo a esta parte ser menos contaminantes gracias a sus respectivos proyectos de energía eólica, solar y demás trucos. Un claro ejemplo es el centro que la red social tiene en Luleå, a menos de 100 kilómetros del Círculo Polar Ártico, donde la temperatura media es de 2º C.
Girará en torno a tres temáticas: desinformación, contrainteligencia y credenciales expuestas.
El 57 % de las compañías españolas está manteniendo este año su nivel de inversión…
Entre los problemas a los que se enfrentan las compañías con infraestructura distribuida geográficamente se…
Juniper Research prevé un incremento del 50 % en el tráfico de mensajes para 2025.
Aumentaron un 20,4 % durante los meses de julio, agosto y septiembre para llegar a…
CrowdStrike celebra este evento en Ámsterdam entre el 5 y el 7 de noviembre.