HPE presenta HPE GreenLake para Grandes Modelos de Lenguaje (LLMs)

HPE GreenLake para Grandes Modelos de Lenguaje (LLMs), es una nueva clase de nube de IA en la que combina la potencia de las supercomputadoras tradicionales con la agilidad y facilidad de uso de la nube.

Desde la compañía también anuncian que está será la primera de una serie de aplicaciones de IA: Entrena, ajusta y despliega rápidamente LLMs bajo demanda en una nube multiinquilino. HPE GreenLake para LLMs se ejecuta en una plataforma de supercomputación sostenible que combina las supercomputadoras líderes en el mercado de HPE y el software de IA, ofreciendo capacidades para casos de uso que requieren procesamiento y análisis de texto e imágenes.

En cuanto a sus capacidades desde el lanzamiento, HPE GreenLake para LLMs cuenta con acceso a Luminous, un modelo de lenguaje grande preentrenado de Aleph Alpha. Además, los usuarios pueden cargar sus propios datos, entrenar y ajustar un modelo personalizado para obtener información en tiempo real.

Por otro lado, desde HPE también han destacado que la nueva herramienta cuenta con aplicaciones futuras, como el Modelado climático, el descubrimiento de medicamentos, aplicaciones para servicios financieros, manufacturero y el transporte.

HPE Acelera la IA de manera responsable

El funcionamiento de HPE GreenLake para LLMs esta basado en biblioteca de modelos, ya sean de código abierto o de modelos propietarios disponibles para su compra, como Luminous de Aleph Alpha.

HPE también ha dispuesto dos Plataformas de software de IA. La primera de ellas destinada al entorno de desarrollo de aprendizaje automático de HPE. Esta plataforma permitirá entrenar rápidamente modelos generativos de IA de forma distribuida. Además, también dará pie a la optimización inteligente de hiperparámetros, y contará con soporte integrado para TensorBoard y Jupyter Notebooks.

Por otro lado, la segunda de las plataformas estará destinada a la gestión de datos de aprendizaje automático de HPE, con la que se podrá integrar, rastrear y auditar datos con IA reproducible. Además, tambié permitirá procesar cargas de trabajo de ML a escala de petabytes hasta un 40% más rápido y reproducir cualquier resultado capturando la genealogía de los datos. Se trata por lo tanto de una nube híbrida real: agnóstica del lenguaje y las herramientas.

En cuanto a la optimización de la infraestructura de HPE y IA, el entorno de programación HPE Cray consiste en un conjunto de software completamente integrado para optimizar aplicaciones de HPC e IA completo de herramientas para desarrollar, portar, depurar y ajustar código, que cuenta con una mayor tasa de finalización de trabajos que permite obtener ideas más rápidamente en el mercado.

Antonio Adrados Herrero

Recent Posts

Silicon Pulse: Titulares de la semana #33

Bienvenido a un nuevo episodio del podcast semanal Silicon Pulse, un espacio en el que…

2 horas ago

Los ingresos por productos de Snowflake superan los 900 millones de dólares

De los 942,1 millones de dólares que ingresó en el tercer trimestre, 900,3 millones corresponden…

10 horas ago

Check Point: 2024, récord en ciberataques con la IA como enemiga y aliada

“En 2024 se ha registrado un crecimiento exponencial en los ciberataques, con empresas de todo…

11 horas ago

Los ingresos trimestrales de NVIDIA aumentan un 94 %

Durante su trimestre más reciente acumuló un total de 35.100 millones de dólares.

12 horas ago

Sage concluye “un año de éxito”

Durante su ejercicio fiscal 2024 mejoró un 9 % los ingresos totales subyacentes, por encima…

13 horas ago

Inetum quiere duplicar su plantilla en Aragón

Ha estrenado oficinas en Zaragoza, está presente en el Parque Tecnológico Walqa y tiene previsto…

14 horas ago