Especial desde Las Vegas
El uso de algoritmos de inteligencia artificial y aprendizaje automático no es nuevo, pero las grandes capacidades de computación neuronal que proporciona la nube pública han permitido que estas tecnologías se estén incorporando a cualquier área de la computación donde se manejen datos.
Es una tendencia que no tiene marcha atrás, tal y como AWS ha demostrado fehacientemente durante su congreso re:Invent, celebrado esta semana en Las Vegas. Allí, el proveedor de servicios y soluciones en la nube, ha anunciado una batería de novedades en todos los campos, pero aquellas relacionadas con el Machine Learning han tomado especial protagonismo ante una audiencia de más de 50.000 personas.
Además de los servicios nombrados más adelante, Amazon Web Services ha anunciado la apertura de todos sus cursos internos sobre ML, aquellos diseñados a formar a su propia plantilla de desarrolladores e ingenieros. A partir de ahora, los más de 30 cursos online de Machine Learning University estarán disponibles para todo el mundo y formarán parte del programa de certificación de la compañía. “Queremos llevar el Machine Learning a las manos de cada desarrollador”, declaraba Andy Jassy, CEO de AWS, durante la sesión inaugural.
Pero la aplicación de estas técnicas avanzadas de inteligencia artificial y aprendizaje automático no es fácil, tal y como recalcaba el ejecutivo. Las compañías que quieran desplegar ML se enfrentan a tres grandes retos que deben resolver para no morir en el intento:
En primer lugar se encuentran los costes. La ejecución de este tipo de tareas complejas requiere grandes recursos de computación. A sabiendas de ello, AWS ha mejorado su compatibilidad con las principales plataformas existentes en la actualidad, como es el caso de TensorFlow, MXNet, PyTorch, Caffe2 y ONNX, pero también ha diseñado un servicio optimizado para lanzar los modelos de ML en pago por uso: Amazon Elastic Inference, que incorpora procesadores diseñados específicamente para estas tareas a los que ha denominado AWS Inferentia, lo que permite reducir los costes de computación al estar basado en una arquitectura similar a la que ofrecen las GPUs. El resultado de este conjunto asegura Jassy, permite reducir los costes asociados en torno al 75 por ciento.
El segundo de los retos a los que se enfrentan las organizaciones son sus propios datos. Antes de construir los modelos de ML, es necesario tener los datos adecuados, aquellos necesarios para que las máquinas puedan desarrollar el aprendizaje de forma automática. En este apartado, AWS ha anunciado diversas novedades como parte del servicio Amazon SageMaker. Es el caso de Sagemaker Ground Truth y SageMaker ML, que producen la información necesaria para esos procesos. En una entrevista con Joel Minnick, Head of Product Marketing de AWS, el directivo nos explicaba que las empresas tienen grandes cantidades de datos que no son válidos como tal, sino que hay que traducirlos en cierta forma a un lenguaje que los modelos de ML entiendan. Ese es el propósito principal de los nuevos servicios desarrollados por el proveedor cloud.
En este sentido, conviene recordar que la gran mayoría de las funcionalidades que va lanzando AWS al mercado están basadas en necesidades que tienen los clientes. “Desde hace años intentamos dar respuesta a lo que nos piden [los clientes]. El 95% de las capacidades que hemos desarrollado son gracias a ellos”, explicaba Jassy.
En tercer lugar se encuentra la facilidad de uso, un reto que tampoco es fácil afrontar. De forma tradicional la aplicación de modelos de ML siempre ha sido una barrera para las empresas ya que no suelen estar familiarizadas con entornos de inteligencia artificial y tampoco es fácil construirlos desde cero. “Nuestros servicios gestionados, con modelos ya entrenados, facilitan enormemente la tarea a los clientes para que puedan enfocarse en la lógica de los negocios y dedicar más recursos a lo que realmente importa para su continuidad”, añadía Minnick.
Como parte de los lanzamientos relacionados con Machine Learning, Amazon Web Services ha querido potenciar la creación de nuevos modelos basados en su plataforma por parte de los desarrolladores. El caso más llamativo es AWS DeepRacer, un coche de carreras autónomo a escala 1/18, un “juguetito” con un potencial enorme. Dispone, como no podía ser de otra forma, de un kit de desarrollo para que la comunidad pueda comenzar a desarrollar un entorno totalmente autónomo a través del aprendizaje reforzado. “El aprendizaje reforzado está basado en el mismo aprendizaje de los niños cuando aprenden a caminar, por ejemplo. Hay que ir poco a poco enseñándoles, consiguiendo movimientos cada vez más complejos, ordenados y coordinados. es algo que se puede realizar con Amazon SageMaker”, indicaba Minnick.
Para que los desarrolladores puedan demostrar sus avances con este coche de carreras, Amazon Web Services también ha anunciado la competición DeepRacer League, de tal forma que estos pequeños dispositivos autónomos puedan demostrar todo lo aprendido a través de los modelos de ML desarrollados por la comunidad. “Se trata de la primera liga mundial de coches autónomos y está abierta a cualquiera”, sentenciaba Minnick.
A continuación, los 13 servicios anunciados por AWS en materia de ML:
Ofrece hasta 1 millón de dólares de compensación económica en caso de incidente, con la…
Este cambio refleja los avances que se producen a nivel de infraestructura TI y el…
El evento espera reunir a 17.000 directivos, que podrán escuchar a medio centenar expertos en…
Como resultado de esta operación, ampliará sus servicios en el "bronze layer" del ciclo de…
Durante el segundo trimestre de su año fiscal 2025 acumuló 1.660 millones de dólares, la…
También incluye un SDK open source para potencia el desarrollo de aplicaciones y agentes, especialmente…