En los mayores procesos de desarrollo de Inteligencia Artificial, la cantidad de datos y procesos informáticos empleados han aumentado exponencialmente; de hecho, se duplica casi cada tres meses y medio, y la eficiencia algorítmica de esta tecnología se está duplicando cada 16 meses, eclipsando de esta manera al período de duplicación de dos años según la Ley Moore. Estas tasas significativas de mejora permiten que se ejecuten más cargas de trabajo de IA con menos hardware y menos recursos de procesamiento, y continuarán aumentado en 2021 y a medida que la adopción y la omnipresencia de la IA alcance a cada una de las empresas y sectores.
El concepto de IA no es algo nuevo; pero, gracias a los avances en deep learning, la IA está preparada, tal como lo hizo la electricidad hace un siglo, para transformar prácticamente todas las industrias. Para el año 2022, según IDC, en torno al 80% de las empresas que cambien a un modelo híbrido gastarán cuatro veces más en una infraestructura en el edge segura y habilitada para la IA, pudiendo así ofrecer agilidad empresarial e información en tiempo real.
Con cargas de trabajo que la IA es capaz ahora de analizar, se recopilan y preprocesan grandes cantidades de datos que se utilizan para la predicción o la inferencia con la posibilidad de poder ajustarse de forma repetitiva. Las clouds públicas han sido tradicionalmente un lugar atractivo para implementar IA, ya que los algoritmos y la capacitación de IA funcionan mejor con gran cantidad de datos y clústeres de computación que sean capaces de escalar automáticamente. Sin embargo, para un número creciente de tipos de uso, es necesario implementar la IA de forma distribuida y en el edge.
En torno al 80% de la población urbana o metropolitana de Estados Unidos es capaz de conectarse hoy a los data centers de Equinix en un tiempo de ida y vuelta de 10 milisegundos. En estos casos, un conjunto adicional de requisitos estrictos relacionados con la latencia, el rendimiento, la privacidad y la seguridad requieren que algunos datos y procesamiento de IA, —tanto para la inferencia como para la capacitación— se encuentren cerca de los usuarios, del consumo de los datos y de las fuentes de creación.
A lo largo de este año seremos testigos de un ritmo acelerado de implementaciones de IA en el edge para su entrenamiento e inferencia junto a capacidades mejoradas as-a-service y así optimizar la automatización de la implementación de infraestructura y la orquestación de entornos híbridos de IA multi-cloud.
A la hora de ejecutar cargas de trabajo de entrenamiento de la IA en el edge, deben de tenerse en cuenta consideraciones y compensaciones que incluyen la potencia, el rendimiento, la privacidad y la seguridad de los datos, la gravedad y agregación de datos y la simplicidad. De manera similar, para procesos como el de inferencia en edge, las consideraciones incluyen latencia, disponibilidad, recursos del dispositivo, privacidad de datos, seguridad y agregación de datos. Todo esto solo es posible gracias a grandes infraestructuras digitales que formen grandes plataformas de interconexión, como Platform Equinix que está formada por más de 225 data centers en más de 60 mercados. Una plataforma global y más cerca del usuario.
En esta tribuna, Ignacio Zaera, fundador y CEO de Simpling.pro, explica la importancia del sampling…
Sergio Rodríguez de Guzmán, CTO de PUE, explica en esta tribuna cómo la calidad de…
Zoom presenta su nueva versión de AI Companion y Zoom Workplace, con herramientas para optimizar…
En esta tribuna, Mark Ryland, Director de Seguridad de Amazon, explica la importancia de una…
En esta tribuna, Antonio Espuela, Director Technical Sales EMEA Western de Hitachi Vantara, explica el…
En esta tribuna, Sandy Ono, Executive Vice President y Chief Marketing Officer en OpenText, explica…