Red Hat Summit 2024: Resumen de anuncios más destacados
El congreso de Red Hat 2024 ha servido de escenario para la presentación de las últimas innovaciones y colaboraciones de la compañía.
Red Hat ha presentado una serie de innovaciones significativas en el ámbito de la inteligencia artificial (IA) y la automatización de políticas durante la celebración del Red Hat Summit 2024 en Denver, Colorado (USA). La introducción de “Política como Código” en su Plataforma de Automatización Red Hat Ansible representa un avance clave para abordar las complejidades inherentes a la IA a escala, al proporcionar gobernanza y consistencia en la nube híbrida.
Además, Red Hat ha expandido su cartera Lightspeed para incluir IA generativa, promoviendo la eficiencia y accesibilidad de las tareas de TI. Colaboraciones estratégicas con Intel y AMD buscan impulsar el uso empresarial de la IA, ofreciendo soluciones integrales que abarcan desde el centro de datos hasta el edge.
Por último, el anuncio de Podman AI Lab demuestra el compromiso de Red Hat con la democratización de la IA, al ofrecer a los desarrolladores una herramienta intuitiva para construir, probar y ejecutar aplicaciones de IA en entornos de contenedores. Estas iniciativas reflejan el continuo impulso de Red Hat hacia la innovación en IA y la simplificación de su adopción en diversos entornos empresariales.
Policy as Code
Red Hat ha presentado “Política como Código” como parte de su Plataforma de Automatización Red Hat Ansible, con el objetivo de abordar las complejidades de la inteligencia artificial a escala. Esta capacidad automatizada busca impulsar la automatización específica de políticas en la nube híbrida, brindando gobernanza y mayor consistencia tanto a la explosión de la IA como a las operaciones de TI tradicionales. La implementación de políticas como código permite aplicar estándares críticos de cumplimiento a medida que surgen aplicaciones y sistemas generados por IA, convirtiendo la automatización en un componente estratégico en la evolución de la IA.
El desafío de adoptar y escalar cargas de trabajo de IA junto con la nube híbrida genera más complejidad y dispersión. La política como código ayuda a poner orden en esta dispersión, tanto actual como potencial, al hacer cumplir estándares críticos de cumplimiento a medida que surgen aplicaciones y sistemas generados por IA, convirtiendo la automatización en un componente estratégico real en la evolución de la IA.
Red Hat Lightspeed portfolio cloud
Red Hat también ha anunciado la expansión de Red Hat Lightspeed para incluir IA generativa en todo su portfolio de nube híbrida. Esta iniciativa busca hacer que las tareas de TI sean más eficientes y accesibles para todos los niveles de habilidad. Red Hat Lightspeed, integrado en plataformas como Red Hat OpenShift y Red Hat Enterprise Linux, aprovecha la IA para mejorar la productividad y la eficiencia de los equipos que utilizan estas plataformas, ayudando a superar las brechas de habilidades en el sector y simplificando la gestión del ciclo de vida de las aplicaciones.
Por otro lado, Red Hat Lightspeed aplicará IA generativa en Red Hat OpenShift para simplificar la gestión del ciclo de vida de las aplicaciones en clústeres OpenShift, lo que permitirá a los usuarios construir habilidades más rápidamente y a los expertos utilizar la plataforma de manera más eficiente. Esto incluye funciones como sugerencias de escalado automático y recomendaciones de ajustes basadas en patrones de uso. Además, Red Hat Enterprise Linux Lightspeed ayudará a simplificar el despliegue, gestión y mantenimiento de entornos Linux, aprovechando décadas de experiencia de Red Hat en Linux empresarial y utilizando IA generativa para ayudar a los clientes a responder más rápidamente a problemas y preguntas comunes.
Procesadores Intel hasta el Edge
Red Hat e Intel buscan potenciar el uso empresarial de la inteligencia artificial (IA) a través de Red Hat OpenShift AI. Esta alianza tiene como objetivo ofrecer soluciones integrales de IA que aprovechen los productos de IA de Intel, incluidos los aceleradores Intel Gaudi, los procesadores Intel Xeon y Core, y las GPU Intel Arc. La infraestructura de nube híbrida resultante permitirá a las organizaciones desarrollar, entrenar y desplegar modelos de IA de manera fluida y escalable desde el centro de datos hasta el edge, garantizando la interoperabilidad y la portabilidad de las cargas de trabajo.
Red Hat OpenShift AI proporciona una base sólida para las aplicaciones de IA en cualquier entorno, desde la nube hasta el edge, optimizando el soporte para los productos de IA de Intel. Esta colaboración también implica la certificación de las soluciones de hardware de Intel en Red Hat OpenShift AI, garantizando así la interoperabilidad y habilitando capacidades integrales de IA. Mediante el enfoque de código abierto, Red Hat e Intel buscan acelerar el despliegue de soluciones de IA en cualquier plataforma, lo que redunda en una mayor rapidez en el tiempo de comercialización y en la creación de bloques de construcción de IA rentables a escala.
Colaboración con GPUs de AMD
Red Hat y AMD colaborarán para ampliar las opciones de los clientes en la implementación de cargas de trabajo de inteligencia artificial (IA). Esta asociación se centra en permitir que los operadores de GPU de AMD en Red Hat OpenShift AI proporcionen la potencia de procesamiento necesaria para cargas de trabajo de IA en la nube híbrida, facilitando así a las organizaciones la adopción de la IA. Al trabajar juntos, Red Hat y AMD buscan fomentar la innovación y cultivar un entorno donde las soluciones de IA puedan adaptarse eficientemente a las necesidades empresariales únicas.
Las GPUs de AMD en Red Hat OpenShift AI permiten a los clientes acceder, implementar y aprovechar un GPU Operator validado, lo que agiliza los flujos de trabajo de IA y cubre las brechas en las cadenas de suministro de GPUs. Esta colaboración combina la experiencia en hardware de IA de AMD con la experiencia en software de código abierto e IA de Red Hat, ofreciendo a los clientes herramientas, pruebas y mejoras validadas para una implementación eficiente de la IA. Además, se espera que esta colaboración impulse la innovación en IA al ofrecer a los clientes una mayor selección de recursos de GPU en entornos de nube híbrida abierta de Red Hat.
Integración de microservicios NVIDIA NIM
A pesar de ser competencia de AMD, Red Hat ha anunciado la próxima integración de los microservicios NVIDIA NIM en Red Hat OpenShift AI, una plataforma de nube híbrida IA/ML de código abierto. Esta colaboración permitirá a los usuarios combinar modelos de IA entrenados utilizando Red Hat OpenShift AI con microservicios NVIDIA NIM para desarrollar aplicaciones de IA generativa en una única plataforma MLOps de confianza. Esto facilitará la integración y gestión de múltiples despliegues de IA, proporcionando escalado, monitorización integrada y seguridad empresarial para una transición fluida del prototipado a la producción.
La integración ofrecerá una vía más simple para implantar NVIDIA NIM en flujos de trabajo comunes, garantizando mayor coherencia y una gestión más sencilla. Además, permitirá el escalado y la monitorización integrados de los despliegues de NVIDIA NIM en coordinación con otros modelos de IA en entornos de nube híbrida, así como seguridad, asistencia y estabilidad de nivel empresarial para garantizar una transición fluida a la producción. Los microservicios NVIDIA NIM están diseñados para acelerar la implementación de la IA generativa en las empresas, ofreciendo capacidades escalables e integradas en la infraestructura del cliente o en la nube mediante interfaces de programación de aplicaciones estándar del sector.
Podman AI Lab
Por último, Red Hat ha anunciado Podman AI Lab, una extensión para Podman Desktop que permite a los desarrolladores construir, probar y ejecutar aplicaciones potenciadas por inteligencia artificial generativa (GenAI) en contenedores, utilizando una interfaz gráfica intuitiva en su estación de trabajo local. Esto contribuye a la democratización de GenAI, brindando a los desarrolladores los beneficios de conveniencia, simplicidad y eficiencia de costos de su experiencia de desarrollo local mientras mantienen la propiedad y el control sobre datos sensibles. Podman AI Lab proporciona un entorno conocido y fácil de usar para que los desarrolladores apliquen modelos de IA a su código y flujos de trabajo de manera segura y más segura, sin necesidad de inversiones costosas en infraestructura o experiencia extensa en IA.
En un entorno donde el uso de aplicaciones habilitadas para IA está en aumento, Podman AI Lab presenta una herramienta familiar y fácil de usar, así como un entorno de juego para aplicar modelos de IA a código y flujos de trabajo de manera segura y más segura, sin requerir inversiones costosas en infraestructura o experiencia extensa en IA. Podman AI Lab incluye un catálogo de recetas con aplicaciones de muestra que permiten a los desarrolladores comenzar con algunos de los casos de uso más comunes para modelos de lenguaje de gran tamaño (LLMs), como chatbots, resumidores de texto, generadores de código, detección de objetos y transcripción de audio a texto. Estos ejemplos proporcionan un punto de entrada para que los desarrolladores revisen el código fuente, vean cómo se construye la aplicación y aprendan las mejores prácticas para integrar su código con un modelo de IA.