AWS sigue apostando por el núcleo de su infraestructura
Arranca una nueva edición de AWS re:Invent con los ‘building blocks’ manteniendo gran relevancia a pesar del empuje de la IA generativa.
AWS está celebrando esta semana en Las Vegas su congreso anual AWS re:Invent. Como ya es tradicional, el proveedor está anunciando una gran batería de novedades que cubren todos los ámbitos en los que está trabajando para proporcionar servicios en la nube, aunque en esta ocasión nos centraremos en los principales ‘building blocks’ que ha estado ofreciendo la compañía prácticamente desde sus inicios: cómputo, almacenamiento y bases de datos.
Son los bloques en los que prácticamente gira el resto de servicios para conformar una oferta cada vez más extensa y que permite a cualquier tipo de organización, ya sea una pyme o una gran corporación, centrarse en su negocio mientras consume lo último en tecnología a través del modelo de nube pública que proporciona AWS.
El propio Matt Garman, CEO de AWS, aprovechaba el comienzo de su intervención para hablar de los ‘building blocks’ como parte del éxito del proveedor: “Casi cualquier aplicación puede descomponerse en componentes individuales o servicios fundamentales, a los que llamamos ‘building blocks’. La idea era que si tenías servicios que fueran los mejores del mundo en realizar una tarea específica, y si estos podían combinarse fácilmente de maneras nuevas y únicas, entonces las personas podrían crear cosas muy interesantes”. Así es como se estableció un nuevo modelo para consumir tecnología y construir empresas.
“Este concepto de ‘building blocks’ ha sido fundamental en la creación de los servicios de AWS durante los últimos 18 años y, quizá más importante, todas nuestras prácticas de desarrollo de software. Hoy en día, contamos con cientos de servicios de AWS que los usuarios combinan de formas únicas e innovadoras”, añadía Gartman, que procedió a desgranar las primeras novedades del AWS re:Invent 2024.
EC2, más fuerte en IA
En el apartado de cómputo, AWS ha anunciado la disponibilidad general de las instancias EC2 Trn2, basadas en el nuevo chip Trainium2. Además, ha presentado los sistemas Trn2 UltraServers, diseñados para entrenar y desplegar modelos de inteligencia artificial avanzados, como los modelos de lenguaje grande (LLM) y modelos fundacionales (FM), con un rendimiento superior y costes reducidos. La compañía también ha ofrecido detalles del próximo chip Trainium3, tal y como explicamos a continuación.
* Instancias EC2 Trn2 con Trainium2: Las instancias EC2 Trn2 ofrecen un rendimiento-precio entre un 30% y 40% mejor que las actuales instancias GPU EC2 P5. Cada instancia combina 16 chips Trainium2, proporcionando hasta 20.8 petaflops de capacidad de cómputo. Están diseñadas para entrenar y desplegar modelos con miles de millones de parámetros, manteniendo alta eficiencia en costos y tiempos.
* Trn2 UltraServers: Estas nuevas soluciones combinan cuatro servidores Trn2 en una estructura interconectada por NeuronLink, sumando un total de 64 chips Trainium2 con una capacidad máxima de 83.2 petaflops. Los UltraServers ofrecen un rendimiento y capacidad de escalado sin precedentes, facilitando el entrenamiento de modelos más grandes en menos tiempo. AWS está desarrollando un UltraCluster con la empresa Anthropic, denominado Project Rainier, que incluirá cientos de miles de chips Trainium2 para entrenar los modelos más avanzados del mundo.
* Trainium3: La próxima generación de chips para entrenamiento de IA estará fabricada con tecnología de 3 nanómetros y promete un rendimiento 4 veces mayor que Trainium2. Se espera que las primeras instancias con Trainium3 estén disponibles a finales de 2025.
* Neuron SDK: AWS proporciona el paquete desarrollo Neuron SDK para optimizar el uso de Trainium2 y ayudar a los profesionales en la construcción de servicios basados en IA. Este kit incluye compiladores y herramientas compatibles con frameworks populares como PyTorch y JAX. Con soporte para más de 100,000 modelos en Hugging Face, busca facilitar la adopción de Trainium para desarrolladores.
Las novedades que llegan al almacenamiento Amazon S3
AWS también ha anunciado nuevas características para Amazon S3, destacando innovaciones que mejoran significativamente la capacidad de análisis de datos y la gestión de metadatos. Estas actualizaciones posicionan a S3 como el primer sistema de almacenamiento en la nube con soporte totalmente gestionado para tablas Apache Iceberg, un formato de tabla de código abierto ampliamente utilizado en análisis de datos tabulares, como veremos a continuación:
* Amazon S3 Tables: AWS ha introducido un nuevo tipo de bucket optimizado para datos tabulares almacenados como tablas Apache Iceberg. Esta funcionalidad mejora el rendimiento de consultas en hasta tres veces y aumenta las transacciones por segundo (TPS) hasta diez veces en comparación con los buckets S3 tradicionales. Las tablas S3 automatizan tareas críticas como la compactación de datos y la gestión de snapshots, facilitando a las organizaciones manejar grandes volúmenes de datos sin la necesidad de equipos dedicados a tareas de mantenimiento. Empresas como Genesys planean utilizar S3 Tables para simplificar flujos de trabajo complejos y mejorar la eficiencia en el análisis de datos.
* Amazon S3 Metadata: Esta nueva función permite generar automáticamente metadatos consultables en tiempo casi real, eliminando la necesidad de construir sistemas externos para capturar y gestionar metadatos. Los usuarios pueden consultar estos metadatos utilizando SQL, lo que facilita la búsqueda, organización y preparación de datos para análisis o aplicaciones de inteligencia artificial. Empresas como Roche planean aprovechar S3 Metadata para gestionar grandes volúmenes de datos no estructurados en proyectos de IA generativa, mejorando la identificación y uso de conjuntos de datos relevantes.
Principales beneficios:
Rendimiento Optimizado: S3 Tables ofrece capacidades avanzadas de transacciones y consultas rápidas para lagos de datos, con compatibilidad total con herramientas de análisis como Amazon Athena y Apache Spark.
Gestión Simplificada: Las mejoras automatizan la gestión de tablas y metadatos, reduciendo la complejidad operativa.
Innovación en IA: Estas actualizaciones son esenciales para potenciar aplicaciones basadas en inteligencia artificial y análisis en tiempo real.
Bases de datos SQL y NoSQL
El tercer ‘building block’ que tratamos en estas líneas hace referencia a las bases de datos, otro de los elementos clave para AWS. En esta ocasión, el proveedor ha anunciado nuevas capacidades para Amazon Aurora y Amazon DynamoDB, diseñadas para mejorar el rendimiento, la disponibilidad y la consistencia en aplicaciones distribuidas globalmente. Estas actualizaciones están enfocadas en facilitar la gestión de cargas de trabajo exigentes, ofreciendo alta disponibilidad, consistencia fuerte entre regiones y baja latencia, tanto para bases de datos SQL como NoSQL.
* Amazon Aurora DSQL: Se trata de una nueva base de datos SQL distribuida y sin servidor, que ofrece escalabilidad casi ilimitada, mayor consistencia entre múltiples regiones, y una disponibilidad del 99.999%. Aurora DSQL ofrece un rendimiento de lectura y escritura hasta cuatro veces más rápido en comparación con otras bases de datos SQL distribuidas. Su arquitectura activa-activa y la recuperación automática ante fallos garantizan alta disponibilidad, permitiendo a las aplicaciones leer y escribir en cualquier punto de Aurora DSQL, con sincronización en tiempo real entre regiones. Esta solución es compatible con PostgreSQL, lo que facilita la adopción por parte de los desarrolladores.
Según la compañía Aurora DSQL aborda desafíos históricos de las bases de datos distribuidas, como la sincronización de transacciones entre regiones con latencia mínima. Utiliza Amazon Time Sync Service para garantizar la precisión de microsegundos en la sincronización global de datos, crucial para aplicaciones críticas como las del sector financiero.
* Amazon DynamoDB Global Tables con mayor consistencia entre regiones: DynamoDB, una base de datos NoSQL totalmente gestionada, ahora incluye soporte para consistencia fuerte en sus tablas globales. Esta capacidad asegura que las aplicaciones distribuidas lean siempre los datos más recientes sin necesidad de modificar el código. DynamoDB global tables ya ofrecía disponibilidad del 99.999% y escalabilidad ilimitada; ahora, con la consistencia fuerte, se convierte en una solución más robusta para aplicaciones críticas que requieren precisión en tiempo real.
Beneficios Clave:
Alto Rendimiento: Aurora DSQL y DynamoDB ofrecen mejoras significativas en la velocidad de lectura y escritura, así como consistencia fuerte entre regiones.
Escalabilidad y Disponibilidad: Ambas soluciones eliminan la necesidad de gestionar infraestructura, permitiendo a las organizaciones escalar sin límites.
Innovación Técnica: La combinación de sincronización precisa y arquitectura activa-activa ofrece nuevas oportunidades para construir aplicaciones globales resilientes.
Durante los próximos días ampliaremos nuestra cobertura del AWS re:Invent 2024 para acercar a los lectores el resto de novedades mostradas por el proveedor de nube pública en Las Vegas.