Categories: CloudServidores

Graviton4 y Trainium2, los nuevos chips diseñados por AWS

Durante el congreso AWS re:Invent que se está celebrando estos días en Las Vegas, el proveedor ha anunciado la disponibilidad de su nueva generación de chips Graviton y Trainium, diseñados íntegramente por la compañía para responder a las cada vez más existentes cargas de trabajo en la nube.

Se trata del complemento ideal para las instancias tradicionales basadas en chips de Intel AMD y Nvidia, que seguirán teniendo una gran relevancia como parte de la oferta de computación de AWS, pero lo cierto es que estos nuevos procesadores ofrecerán más alternativas para los clientes del mayor proveedor de nube pública a nivel mundial.

Además, AWS reducirá su dependencia de terceras empresas a la hora de proporcionar computación en Amazon EC2 mientras aumenta considerablemente las posibilidades de escalabilidad y la relación precio/rendimiento.

AWS Graviton4

La nueva generación de chips Graviton, basada en arquitectura ARM de 64-bit, mejora un 30% el rendimiento de su predecesora, al tiempo que aumenta un 50% el número de núcleos y un 75% el ancho de banda con la memoria de las instancias.

Hasta la fecha, AWS ha fabricado más de 2 millones de procesadores Graviton y ya cuenta con más de 50.000 clientes que han elegido estas configuraciones para sus instancias en Amazon EC2.

El nuevo chip AWS Graviton4

Desde bases de datos a servidores de aplicaciones, pasando por servidores web, analitica o ejecución de microservicios, los chips Graviton4 están diseñados para todas estas cargas de trabajo de lo más variopinto pero que cada vez requieren un mayor rendimiento mientras se reduce el consumo energético.

De forma paralela a este lanzamiento, AWS también ha anunciado las instancias Amazon R8g para EC2, compatibles con los nuevos chips Graviton4. Esta combinación permitirá triplicar tanto el número de CPUs virtuales como la cantidad de memoria disponible en cada instancia.

AWS Trainium2

Como su propio nombre indica, los nuevos chips AWS Trainium2 se han diseñado específicamente para procesos de aprendizaje de máquina y entrenamiento de modelos de inteligencia artificial, incluida la IA generativa.

AWS asegura que los procesos de entrenamiento de IA serán 4 veces más rápidos que la anterior generación de chips Trainium. Sin embargo, el dato que probablemente marque la diferencia es la capacidad de construir clusters en Amazon EC2 de hasta 100.000 chips Trainium2 para procesar de forma mucho más rápida y eficiente cualquier modelo de lenguaje grande (LLM) o modelo básico (FM) que tenga miles de millones de parámetros, lo que es cada vez más habitual en estos ámbitos de alto rendimiento.

AWS Trainium2

Según la compañía, “con este nivel de escala es posible entrenar un LLM de 300.000 millones de parámetros en semanas en lugar de meses”.

AWS y NVIDIA expanden su colaboración

Sin dejar de lado el hardware para la computación de procesos relacionados con inteligencia artificial y aprendizaje de máquina, AWS también anunciaba una colaboración estratégica con NVIDIA para ofrecer nueva infraestructura, software y servicios para este tipo de cargas de trabajo.

Era el propio Adam Selipsky, CEO de AWS, el que invitaba al escenario a Jensen Huang, fundador y CEO de NVIDIA, para ofrecer más detalles sobre la expansión de la colaboración entre ambas compañías.

Como parte de este acuerdo, AWS será el primer proveedor cloud en proporcionar a sus clientes los chips NVIDIA GH200 Grace Hopper junto con la tecnología NVLink para interconectar nodos en la nube. Estas instancias de supercomputación especializadas en IA generativa, permitirán construir verdaderos monstruos con una capacidad nunca vista hasta ahora en la nube gracias a su conexión mediante la red de alta velocidad Amazon EFA.

Otro de los puntos de este acuerdo es la colaboración de ambas compañías para proporcionar NVIDIA DGX Cloud (el entrenamiento de IA como servicio diseñado por NVIDIA) en la nube pública de AWS.

Por último, conviene destacar las tres nuevas instancias EC2 que AWS comenzará a comercializar próximamente: P5e (con GPUs NVIDIA H200 Tensor Core), G6 (con GPUs NVIDIA L4) y G6e (con GPUs NVIDIA L40S), para una amplia variedad de cargas de trabajo menos exigentes pero que también solicitan grandes capacidades de computación.

Pablo Fernández

Informático reconvertido a periodista, Pablo Fernández Torres comenzó su andadura profesional como redactor técnico y coordinador web en la revista PC Actual. Tras 7 años en esta publicación decidió dar el salto al segmento IT profesional para liderar el lanzamiento a finales de 2008 de la cabecera Silicon en España y posteriormente en la región LATAM. En la actualidad ejerce como director editorial Internacional de NetMedia Group, que edita otras publicaciones online como ITespresso, Channelbiz, SiliconWeek, B!T y ZDnet Germany.

Recent Posts

Salesforce lanza Agentforce 2.0: la plataforma de trabajo digital impulsada por agentes de IA autónomos

Salesforce presenta Agentforce 2.0, la plataforma digital que transforma el trabajo empresarial con agentes de…

8 horas ago

@aslan prepara un plan de divulgación sobre tendencias tecnológicas para 2025

Estas tendencias giran en torno a la resiliencia de los datos, la ciberseguridad, el puesto…

8 horas ago

Linda, de Bewe software, una asistente de IA para optimizar pymes en LATAM y España

Linda, el innovador asistente de IA desarrollado por Bewe Software, ha sido galardonado como Caso…

9 horas ago

Sandisk renueva su identidad corporativa

Bajo el lema Mindset of Motion, defiende que las personas puedan experimentar el potencial de…

10 horas ago

El próximo smartphone de OnePlus ya tiene fecha de salida: el 7 de enero

Será el primer terminal OnePlus con doble certificación IP68 e IP69.

10 horas ago

Mate X6, el nuevo móvil plegable de HUAWEI

HUAWEI introduce también la serie de teléfonos móviles Nova 13 y los auriculares FreeClip y…

11 horas ago