Los centros de datos siguen consumiendo demasiada energía

A pesar de la adoptar tecnologías de virtualización y otras que permiten gestionar el uso de energía y por tanto su consumo, los centros de datos siguen gastando demasiado. Esta es, al menos, una de las conclusiones a las que se llegó durante el Uptime Symposium 2010, celebrado la semana pasada en Nueva York.

Rob Bernard, responsable de estrategias medioambientales de Microsoft comentó durante su comparecencia que la mayoría de la gente no se da cuenta de que se agotará la energía y no se podrá mantener el centro de datos lo suficientemente frío.

El consumo de energía de los centros de datos es un problema público desde que en 1996 el departamento de energía de Estados Unidos predijo que el consumo de energía de los datacenters se duplicará para 2011 hasta los 120.000 millones de kWh, una predicción que se ha cumplido. A esta hay que añadir otras, como que las empresas gastarían más en mantener los centros de datos, por la energía que consumen, que en el propio hardware.

Hace pocos años que despegó con fuerza la conciencia ecológica en el sector TIC, generándose el movimiento de Green IT al que muchas empresas se han apuntado con más o menos acierto. Pero para Bernard, a pesar de que se ha adelantado mucho a nivel de infraestructura y a nivel de tecnología, “pero no hemos cambiado en conducta”.

Muchos de los asistentes estuvieron de acuerdo en que parte del problema es la manera en que están desarrolladas las aplicaciones, ya que los desarrolladores crean aplicaciones que requieren mucha memoria y mantienen el procesador activo durante mucho tiempo. Conque haya un solo programa que no esté escrito para ponerse en reposo cuando no esté en uso se incrementa el consumo de energía de todo el servidor.

La Ley de Moore, que afirma que cada nueva generación de procesadores duplica el rendimiento de sus predecesores porque el número de transistores en cada nuevo chip se duplica cada dos años, también es culpable de que los centros de datos sigan consumiendo demasiado. Es cierto que cada nueva generación funciona mejor consumiendo lo mismo, pero hay que tener en cuenta que incluso los núcleos no utilizados consumen gran cantidad de energía, a lo que hay que añadir que los asistentes a la conferencia estimaron que la utilización media de la CPU es de entre un 5% y un 25%.

Las organizaciones no piensan en la consolidación de las cargas de trabajo, de forma que cada nueva aplicación añadida por una empresa tiende a funcionar por sí misma, de manera independiente, y se hace poco trabajo compartiendo recursos.

Poniendo como ejemplo a su compañía, Rob Bernard, comentó durante el Uptime Symposium 2010 que los servicios online de Microsoft como Hotmail y Bing tienen ratios de utilización de la CPU altos, pero que otros proyectos, tanto internos como externos, utilizan una pequeña capacidad de los servidores consagrados a los mismos. Cada nuevo proyecto utiliza demasiados servidores y cuando el hardware se actualiza el ratio de utilización de la CPU cae aún más.

Por lo tanto, aunque los fabricantes de servidores y otros componentes tienden a incorporar tecnologías que limitan el consumo, el bajo nivel de utilización de la CPU y los hábitos de las organizaciones hacen que esos ahorros de energía sean mínimos.

La empresa de investigación The 451 Group ha realizado una encuesta sobre los usos de la energía entre los miembros de Uptime y ha llegado a la conclusión de que las fluctuaciones en el tráfico de los servidores no se corresponden con las fluctuaciones en la cantidad de energía que consumen los mismos.

Es decir que aunque los servidores incorporen opciones de ahorro de energía, la manera en la que se generan las cargas de trabajo hace que no se consigan grandes reducciones en la cantidad de energía consumida.

Incluso cuando está en reposo, un servidor puede utilizar cientos de vatios y la clave, según algunos de los asistentes, es encontrar una manera más dinámica para que el centro de datos escale su consumo de energía dependiendo de la cantidad de trabajo que necesite hacer.

Fue Dean Nelson, director de centro de datos de eBay, quien planteó la idea de que son necesarias aplicaciones que trabajen con la frecuencia con la que la CPU del servidor pueda aumentar o reducir de forma dinámica la demanda, y que además estas aplicaciones puedan incluso gestionar el grado de refrigeración.

Este tipo de informática escalable es, por cierto, lo que Intel está intentando conseguir con sus nuevas generaciones de procesadores. El objetivo de Intel es desarrollar chips que utilicen “sólo la cantidad de energía necesaria para escalar la carga de trabajo”.

Silicon Redacción

La redacción de Silicon está compuesta por periodistas y redactores especializados en Tecnologías de la Información y Comunicaciones.

Recent Posts

Los mensajes RCS, otra vía de acceso para ciberataques

Los mensajes RCS ofrecen muchas más posibilidades que los SMS, pero también abren la puerta…

2 días ago

Telefónica Empresas ayudará a Microsoft a expandir los Copilot+ PC por España

Acompañará a las empresas en sus procesos de equipamiento, desde la elección del hardware hasta…

3 días ago

IBM y Esade promueven el uso de la IA en los Consejos de Administración

Juntos, trabajarán en la formación y la actualización de habilidades para que los consejeros impulsen…

3 días ago

ASUS lanza un Mini PC con inteligencia artificial

Este dispositivo incluye entre sus especificaciones procesador Intel Core Ultra (Serie 2) y botón Copilot.

3 días ago

EasyVisa adquiere una participación mayoritaria en OTRS Group

Ya cuenta en su poder con más del 90 % de las acciones del proveedor…

3 días ago

SoftwareOne y Crayon acuerdan fusionarse

Los actuales consejeros delegados, Raphael Erb y Melissa Mulholland, se convertirán en co-CEOs de la…

3 días ago