Zoho Corporation desarrollará modelos de lenguaje grandes con NVIDIA NeMo

“Nuestra misión”, explican desde la compañía india, “es desarrollar LLM adaptados específicamente para una amplia gama de casos de uso empresarial”.

Zoho Corporation se ha aliado con NVIDIA en el área de la inteligencia artificial (IA). Utilizará su plataforma de computación acelerada por IA para crear y desplegar modelos de lenguaje grandes (LLM) en aplicaciones SaaS.

La compañía india defiende un enfoque es multimodal para obtener inteligencia contextual y contribuir a la toma de decisiones.

A través de la colaboración con NVIDIA impulsará sus LLM en la plataforma de NVIDIA con GPU NVIDIA Hopper usando la NVIDIA NeMo para una IA generativa personalizada. Una vez desarrollados e implantados, estos LLM estarán disponibles a través de ManageEngine y Zoho.com en todo el mundo.

Zoho también está probando NVIDIA TensorRT-LLM para optimizar los LLM y agilizando tareas en la infraestructura de cálculo acelerado de NVIDIA como la conversión de voz a texto.

“Mucho LLMs actualmente en el mercado están diseñados para uso del consumidor, ofreciendo un valor reducido para las empresas. En Zoho”, explica su director de IA, Ramprakash Ramamoorthy, “nuestra misión es desarrollar LLM adaptados específicamente para una amplia gama de casos de uso empresarial”.

“Ser propietarios de toda nuestra tecnología, con productos que abarcan varias funciones de negocio, nos permite integrar el componente esencial que hace que la IA sea realmente efectiva: el contexto“, señala.

Vishal Dhupar, director general de NVIDIA para el sur de Asia, comenta que “la capacidad de elegir entre una gama de tamaños de modelos de IA permite a las empresas adaptar sus soluciones de IA con precisión a sus necesidades, equilibrando el rendimiento con la rentabilidad”.

“Con el software de IA y la plataforma de computación acelerada de NVIDIA”, indica, “Zoho está construyendo una amplia gama de modelos para ayudar a satisfacer las diversas necesidades de sus clientes empresariales”.