Categories: DevOpsProyectos

Los grandes modelos lingüísticos no tienen una varita mágica, pero pueden potenciar a los equipos DevOps

La narrativa que rodea a la IA suele dibujar un futuro en el que todos nos convertiremos en superhumanos, dominando sin esfuerzo cualquier profesión con su ayuda. Esta idea viene de lo que entendemos que es la IA. Lo que conocemos como IA -herramientas como ChatGPT, DALL-E y Descript- no son los propios sistemas de inteligencia autónoma. Son grandes modelos lingüísticos (LLM), vastos conjuntos de datos dotados de capacidades analíticas y algorítmicas. No son varitas mágicas, pero pueden ser poderosas herramientas que aumenten las capacidades humanas, especialmente en el ámbito del desarrollo de software.

En la comunidad de desarrolladores somos conscientes del valor que estas herramientas pueden aportar al mundo empresarial. Pueden sugerir y revisar código, autocompletar scripts y playbooks, y probar y depurar programas. En el ámbito del desarrollo de software, especialmente dentro de DevOps, los LLM cambiarán las reglas del juego. Ofrecen una oportunidad única para optimizar el rendimiento y la productividad, acelerando el proceso de desarrollo y reduciendo la probabilidad de errores. Con los LLM, los desarrolladores pueden centrarse en aspectos más complejos y creativos de su trabajo.

Por ejemplo, WatsonX de IBM, con sus avanzadas capacidades LLM. Puede analizar grandes cantidades de datos para proporcionar información que ayude en la toma de decisiones, la evaluación de riesgos y la resolución de problemas. Incluso puede aprender de incidentes pasados para predecir y prevenir problemas futuros, mejorando así la eficiencia y la fiabilidad de las operaciones DevOps. A su vez, los desarrolladores pueden aprender de incidentes pasados, revisiones de código y registros del sistema, creando espirales de mejora continua y mejores resultados.

Los LLM también pueden ayudar a traducir la jerga técnica a un lenguaje sencillo para los grupos de interés que no están especializados en términos técnicos; priorizar comunicaciones, como alertas y notificaciones, basándose en su comprensión del lenguaje y el contexto; y ayudar a crear, mantener y buscar documentación, haciendo que el intercambio de conocimientos sea más eficiente y eficaz. Esta mejora de la colaboración y la comunicación es una de las piedras angulares de DevOps, y los LLM tienen un papel clave que desempeñar para hacerla posible.

Sin embargo, la rápida proliferación de estas herramientas puede resultar desalentadora. La elección de la herramienta adecuada requiere una evaluación cuidadosa de sus características y su compatibilidad con el software existente, al mismo tiempo que hay que explorar las cuestiones de la procedencia de los datos de entrenamiento y la soberanía de los mismos. Tomar la decisión correcta es cada vez más difícil y requiere la experiencia de los desarrolladores que han estado trabajando en este campo.

En la última década, hemos asistido a grandes cambios en el mundo de los desarrolladores, con la introducción de conceptos como contenedores, microservicios, despliegue continuo e infraestructura como código (IaC). Ahora, estamos asistiendo a otro cambio con el auge de la IA y los LLM. Pero a diferencia de la imagen que ofrecen los medios de comunicación, lo desarrolladores saben que no se trata de un cambio radical. Se trata más bien de otro paso adelante que requiere una supervisión y una gestión cuidadosas para hacerlo bien.

La IA, y más concretamente los LLM, son herramientas que se optimizan mejor en manos de quienes tienen experiencia en las tareas para las que se emplean. Los beneficios potenciales son enormes. Pueden liberar a los equipos de DevOps de tareas mundanas, permitiéndoles centrarse en iniciativas innovadoras.

El verdadero riesgo de la IA no es el miedo sensacionalista a que las máquinas sustituyan a los humanos. Más bien, es la incomprensión de lo que la IA y los LLM pueden y no pueden hacer. Creer que la IA (o una herramienta que se haga pasar por IA) puede sustituir a un profesional experimentado en DevOps es tan erróneo como pensar que un niño puede utilizar ChatGPT para ganar el Pulitzer. DevOps es una iniciativa compleja que requiere una mezcla de IA, coeficiente intelectual e inteligencia emocional. La estrategia más eficaz no es la sustitución, sino la coexistencia, aprovechando los puntos fuertes tanto de los humanos como de la IA para lograr resultados óptimos.

Firma invitada

Nombres destacados del sector TIC opinan sobre las principales tendencias de la industria.

Recent Posts

Tendencias en almacenamiento HDD para 2025, una perspectiva completa

En esta tribuna, Rainer W. Kaese, director sénior de Desarrollo de Negocio de HDD de…

5 días ago

IA generativa: cinco razones por las que lo más pequeño puede ser más inteligente

En esta tribuna, Enric Delgado, director de Client Engineering Team de España, Portugal, Grecia e…

1 semana ago

Pensando en pequeño para pensar en grande: la arquitectura modular de AMD impulsa la sostenibilidad

En esta tribuna, Justin Murrill, director de Responsabilidad Corporativa en AMD, explica cómo la arquitectura…

1 semana ago

Observabilidad: La herramienta de la que todos hablan…

En esta tribuna, Mario Carranza, especialista en observabilidad de CPO WOCU-Monitoring, explica cómo la observabilidad…

2 semanas ago

Cómo combatir los ataques de los Estados-Nación y de los ciberdelincuentes: trabajando desde dentro de la amenaza

Adam Meyers, responsable de operaciones contra adversarios en CrowdStrike, explica cómo combatir las amenazas transversales…

2 semanas ago

El impacto de la IA generativa en las cadenas de suministro de la industria manufacturera

Ana Belén González Bartolomé, Head of Manufacturing, Logistics, Energy, and Utilities para España, Portugal e…

3 semanas ago