Llega Cloudera AI Inference para gestionar inteligencia artificial a escala

Este servicio está impulsado por los microservicios NVIDIA NIM y promete un despliegue más rápido de modelos de lenguaje de gran tamaño.

Cloudera avanza en su acuerdo con NVIDIA a través del lanzamiento de Cloudera AI Inference, un servicio impulsado por los microservicios NVIDIA NIM.

AI Inference busca aprovechar el potencial de los datos empresariales a la hora de desplegar proyectos de inteligencia artificial (IA), como chatbots y asistentes virtuales. Para ello, promete protección frente a posibles filtraciones a terceros, así como una gestión de modelos a escala. Cloudera asegura que los desarrolladores podrán construir, personalizar y desplegar modelos de lenguaje de gran tamaño treinta y seis veces más rápido utilizando las GPU NVIDIA Tensor Core.

“Estamos muy felices de colaborar con NVIDIA para lanzar Cloudera AI Inference al mercado, proporcionando una única plataforma de IA y ML”, o aprendizaje automático, “que soporta casi todos los modelos y casos de uso”, comenta Dipto Chakravarty, director de producto de Cloudera. “Así las empresas pueden crear potentes aplicaciones de IA con nuestro software además de ejecutarlas directamente en nuestra plataforma”.

“Hoy en día, las empresas necesitan integrar la IA generativa con su infraestructura de datos existente de manera fluida para obtener mejores resultados de negocio”, señala por su parte Kari Briski, vicepresidenta de software, modelos y servicios de IA en NVIDIA. “Al incorporar los microservicios NVIDIA NIM en la plataforma AI Inference de Cloudera, estamos dando más herramientas a los desarrolladores para que creen fácilmente aplicaciones de IA generativa de calidad”.

AI Inference conecta interfaz gráfica y las API con los contenedores de microservicio. Y su integración con el Registro de Modelos de IA de Cloudera redunda en la gobernanza.