Especial desde Las Vegas
En la conferencia se desarrollaron más de 1.000 sesiones técnicas, además de contar con una zona de exposiciones con soluciones de los partners de Amazon y eventos tanto de ocio como de trabajo capaces de atraer la atención de los más de 42.000 asistentes que esta edición llenaron varios espacios en la ciudad de Las Vegas.
En ediciones anteriores el grueso de los eventos estuvo en el Hotel The Venetian, pero esta edición también se desarrollaron actividades en el Hotel MGM Grand, el Aria, el Encore y el Mirage.
Si vamos al número de asistentes, en 2016 hubo unos 30.000, y en 2017, nada menos que casi 43.000. La magnitud del evento es tal, que resulta complicado resumir lo acontecido en el plazo de cuatro días en apenas 2.000 palabras. Más que nada, porque la magnitud de la compañía empieza a escapar fuera de lo manejable a nivel informativo.
Por lo pronto, estamos ante una empresa que surgió en 2002 como efecto colateral de un trabajo interno de despliegue de una infraestructura propia de e-coomerce para gestionar las operaciones de Amazon, que se puso a disposición de terceros para ser usada como plataforma de e-commerce como servicio, por decirlo de un modo que hoy se entienda, pero que entonces era un concepto totalmente nuevo. Además, se abrió la plataforma a los desarrolladores para abrir las puertas a aplicaciones y servicios innovadores y a la medida de cada empresa sobre esa primera plataforma.
Poco a poco, AWS fue adquiriendo identidad propia como negocio independiente fuera de Amazon, y ofreciendo servicios cloud como S3 para almacenamiento o EC2 (Elastic Cloud) para aplicaciones en la nube, hasta llegar a hoy, en un momento en el que se ofrecen en torno a 100 servicios diferentes a las empresas que desean desplegar sus infraestructuras IT y sus servicios online en la nube pública en vez de mantener sus propios servidores.
El blog de AWS se inauguró en 2004 y en 2012 Amazon organizó su primera conferencia para desarrolladores en Las Vegas: AWS re:invent, con unos 6.000 asistentes y unas 150 sesiones técnicas. En la sexta edición, el número de asistentes ha sido de unos 43.000 con más de 2.200 sesiones en su catálogo de ponencias. En la edición de 2016 hubo 30.000 asistentes, con lo que tenemos un aumento de nada menos que 15.000 profesionales como asistentes a la conferencia re:invent. Todo un espectáculo de cifras alrededor de la nube, que se consolida como la tendencia más relevante en las tecnologías de la información, mucho más grande que Big Data, IoT o las más recientes IA o Blockchain.
Precisamente, en este evento re:invent 2017, Andy Jassy, CEO de AWS, no hizo mención explícita alguna a la Inteligencia Artificial ni a Blockchain. Tan solo en la sesión de pregutas y respuestas con la prensa se vio “forzado” a usar el término IA, pero para volver rápidamente a conceptos mucho más terrenales como Machine Learning o Deep Learnig.
Sobre Blockchain, que parece ser la siguiente revolución en el mercado IT, Jassy simplemente aludió a la frágil realidad de este fenómeno, y remitió a la audiencia a un momento en el que se demostrase que Blockchain tiene una utilidad práctica real y tangible más alla del “hype” del momento actual. AWS es una plataforma que pretende trasladar a los desarrolladores herramientas y servicios útiles y probados que se conviertan en soluciones tangibles de un modo ágil y fiable. Así que Blockchain, de momento, se queda fuera de la ecuación de AWS.
Durante un evento como AWS hay que enfrentarse a decenas de novedades. No es que sean las únicas que presenta AWS. Es más, actualmente AWS se pasa el año presentando nuevos servicios y herramientas para los desarrolladores alrededor de sus instancias de computación en la nube. Centenares de ellas, en un proceso en el que AWS es el propio ejemplo de aceleración en el despliegue de nuevos servicios.
Si hay un movimiento que resulta interesante en la nube, ese es de serverless. Si bien al principio las empresas trataban de replicar sus servidores on premise en la nube sin más, manteniendo su forma de trabajar encapsulada dentro de los confines de los servidores, desde hace unos pocos años (podría decirse que desde la presentación de lambda por parte de AWS en 2014 y paralelamente a la adopción de los contenedores tras la buena acogida de Docker y Kubernetes ).
Los contenedores fueron un primer paso en la adopción de tecnologías más cercanas a la filosofía cloud frente al inmovilismo de las infraestructuras bare metal y el concepto de servidores, clusters y máquinas virtuales. Los contenedores no dependían de la máquina donde se ejecutasen, por ejemplo. Son aplicaciones “encapsuladas” junto con todas sus dependencias. Algo así como las versiones “portables” de algunas apps de Windows que podían ejecutarse sin instalación previa.
De todos modos, los contenedores están siempre ejecutándose y consumen recursos aunque no se esté haciendo nada con ellos. Y eso, en la nube, tiene un coste, claro. Con lambda, era posible ejecutar el código únicamente cuando se necesitase, con una tarificación por tramos de 100 ms de uso de los recursos. Lambda responde a eventos, de modo que solo se ejecuta el código de las aplicaciones y servicios de los clientes cuando se necesita. Por ejemplo, si se tiene un servicio de redimensionamiento de imágenes, solo se activará si se detecta que una imagen ha sido visualizada y desde qué dispositivo o conexión de modo que ante tal evento se ejecute el código de redimensionado.
Para AWS, serverless es un objetivo estratégico importante por un “pequeño” detalee: las empresas que despliegan sus servicios y aplicaciones bajo esta premisa, no tienen fácil irse de Amazon después. Los contenedores pueden migrarse a cualquier proveedor cloud sin demasiados problemas. Las aplicaciones y servicios serverless dependen de las instancias y tecnologías de Amazon.
Las ventajas son importantes a nivel económico, para empezar. Si solo se cobra por tramos de 100 ms, y por uso, es posible hacer cálculos muy precisos sobre cuánto cuesta mantener un servicio, por ejemplo. No es lo mismo tener que pagar una cantidad X para provisionar unos recursos dados esperando un uso de cien mil usuarios que pagar otra para cien usuarios. Si se paga y no se usa, eso que se pierde. Con la filosofía serverless, el escalado de recursos es automático.
Por supuesto que AWS sigue dependiendo de sus instancias de computación clásicas “serverfull”, más servicios de bases de datos, almacenamiento, redes, etcétera, pero serverless está en el punto de mira de muchas empresas. Y conversando con algunos asistentes, comentaban que serverlees (FaaS) estaba en su radar como tendencia a seguir y eventualmente a adoptar.
Otra de las tendencias de re:invent 2017 fueron los datos. Y para trabajar con datos, se necesitan bases de datos…. O no, como veremos más adelante al hablar del anuncio de un nuevo servicio de bases de datos “serverless” en AWS.
La anécdota del evento estuvo en la caricatura que Andy Jassy mostró en la Keynote inaugural en la que aparece Larry Ellison en una ronda de reconocimiento en una comisaría. Un policía pregunta a una señora: “¿Quién la asustó la pasada noche?” Y ella responde, “El hombre con la barba de chivo”.
La razón para esta nota irónica está en el cambio de los precios de las licencias de uso de SQL de Oracle en AWS, doblando el precio original. Oracle, por su parte, ofrece servicios cloud para usar su base de datos fuera de AWS, con precios más agresivos que los de AWS como se puede suponer. La cuestión es que los clientes que siguen con AWS usando Oracle, solo es cuestión de tiempo y de que AWS ofrezca un servicio de base de datos equivalente para que abandonen a Oracle y se pasen a AWS.
Amazon ya cuenta con su propia base de datos, Aurora, que, según Jassy, es el servicio de AWS con un crecimiento más rápido en toda su historia. Y, a partir de ahora, con una modalidad de acceso serverless con Aurora Serverlees, que traslada el modelo de la computación al de uso de una base de datos con lo que eso supone en cuanto a reducción de gastos.
En cuanto a las bases de datos no relacionales, Amazon cuenta con propuestas como DynamoDB y ahora también Neptune, pero aiempre con el foco puesto en agilizar el acceso a los datos, estén en la región que estén y con el menor coste posible en un modelo de bases de datos abierto.
El almacenamiento, por su parte, además de ser uno de los primeros servicios de AWS, sigue siendo una de las áreas donde esta compañía tiene una ventaja más grande sobre sus competidores, tal y como muestra el cuadrante mágico de Gartner para almacenamiento en la nube de 2017, con AWS a gran distancia de su más directo competidor: Microsoft.
Pero ahora, S3 ya no se trata solo de almacenar. También se trata de ofrecer la posibilidad de realzar operaciones de analítica de datos sobre los objetos guardados en el data lake. Y en este punto, Andy Jassy también realizó diferentes anuncios en la dirección de agilizar las tareas de analítica ofreciendo métodos mucho más rápidos que los actuales para acceder a los datos que necesitamos en el momento en el que se necesitan. S3 Select o Glacier Select fueron dos de las novedades que se anunciaron en re:invent.
Andy Jassy no parece muy dado a hablar de Inteligencia Artificial, pero cuando se trata de Machine Learning, el panorama cambia radicalmente. De hecho, AWS está apostando por ML como una parte fundamental de su cartera de soluciones y servicios.
La pregunta es cómo puede ayudar AWS a hacer llegar a los desarrolladores una forma sencilla de programar usando algoritmos de ML y DL. Por lo pronto, Jassy dedicó un buen rato a describir la arquitectura de AWS en lo que a ML se refiere. Por debajo está el API de AWS para enlazar con los diferentes frameworks para ML que existen en la actualidad, como Caffe o Tensor Flow por nombrar a dos de los más conocidos. Por encima, están dos novedades interesantes de AWS esta edición de re:invent: AWS SageMaker y Deep Lens, y en la capa de aplicaciones ofrece herramientas para análisis y gestión de imágenes, vídeo y voz/sonido.
Por debajo, están las instancias de computación P2 y ahora la P3, esta última equipada con tarjetas NVIDIA Volta V100 capaces de aumentar el rendimiento en escenarios de ML mas de 14x.
AWS SageMaker está pensado para facilitar a los desarrolladores todo el proceso de creación de algoritmos para ML, la gestión de variables y pesos en el cálculo de los modelos de probabilidad y el entrenamiento de los modelos, así como el despliegue de las soluciones.
DeepLens es un producto hardware que enlaza con una tendencia que ya se planteó en su momento con la llegada del terminal Huawei Mate 10: la gestión de IA en el propio dispositivo en vez de delegar todo el procesamiento ML en la nube. DeepLens es una cámara que viene “precargada” con tecnología capaz de procesar algoritmos de DL en el propio dispositivo que hayan sido entrenados y programados antes usando SageMaker. DeepLens es una cámara para desarrolladores, de modo que puedan poner en producción sus soluciones ML en un entorno controlado como este para luego desarrollar sus propias soluciones a medida.
Ahora es posible entender un poco mejor la filosofía de Huawei en cuanto a la IA, que en el fondo no deja de ser ML. Y empieza a cobrar sentido la estrategia con el Mate 10, el Kirin 970 y futuros desarrollos de modo que en el terminal se puedan procesar de un modo acelerado algoritmos de ML previamente programados y entrenados que posteriormente se cargarán en el dispositivo para, por ejemplo, identificar elementos en una imagen, o detectar emociones en una cara o una especie vegetal a partir de una foto de una planta.
Las aplicaciones de AWS relacionadas con ML contemplan herramientas para analizar imágenes y contenido en vídeos, así como otras para procesamiento, reconocimiento y traducción del lenguaje. AWS Rekognition para imágenes y para vídeo, Amazon Comprenhend para procesamiento de lenguaje natura, Amazon Transcribe para transcribir texto y Amazon Translate para la traducción son algunos de los componentes presentados por Jassy.
El Internet de las Cosas lleva siendo parte de AWS desde la presentación de Lambda. Es un win win scenario en el que los sensores y los objetos conectados son el “trigger” perfecto para lambda, realizando operaciones de forma asíncrona cuando se necesita y consumiendo los mínimos recursos ya sean diez sensores o diez millones. Los retos del IoT pasan por gestionar las acciones de los objetos conectados, gestionar grandes cantidades de objetos conectados y proporcionar seguridad a esos dispositivos, así como herramientas de analítica para extraer información a partir de las mediciones y datos capturados.
Para responder a estos retos, se presentaron diferentes soluciones: IoT One Click, que permite crear fácilmente un trigger para AWS Lambda asociado a objetos conectados
Servicios críticos a la nube. IoT Device Management, servicio pensado para provisionar y gestionar un elevado número de objetos conectados, con énfasis especial en la escalabilidad y con funciones de monitorización. AWS IoT Defender es la herramienta para la seguridad, con funciones de auditoría de las políticas de los dispositivos IoT, análisis del comportamiento, detección de anomalías de funcionamiento y generación de alertas. Por último AWS IoT Analytics, recolecta, almacena, realiza búsquedas y prepara los datos para el procesamiento ML.
La guinda la puso el anuncio de Amazon FreeRTOS, un sistema operativo “tuneado” por AWS para su instalación en dispositivos conectados basados en micro controladores, basado en FreeRTOS y cargado con todo lo necesario para que los dispositivos se conecten con la nube de Amazon y con otros dispositivos bajo el paraguas de GreenGrass de AWS.
Los servicios y soluciones mencionados hasta ahora son solo los destacados por Andy Jassy en su intervención. Pero en la página dedicada a listar las novedades hay nada menos que 61. Puedes ver la lista completa aquí.
Entre otros que puedan resultar más o menos familiares para audiencias más generalistas podemos destacar Amazon Sumerian para la creación y ejecución de aplicaciones de realidad virtual y aumentada para hardware conocido como Oculus Rift, HTC Vive o dispositivos móviles.
Alexa for Business es el servicio de AWS que integra Alexa en entornos empresariales con funcionalidades específicas para las empresas que lo adopten en áreas relacionadas con la interacción de empleados con calendarios, notificaciones, bases de datos empresariales, etcétera, usando la voz y el lenguaje natural.
En contenedores, la evolución es constante. Soluciones como AWS Fargate facilita la implementación y administración de contenedores. ECS para Kubernetes es otra innovación interesante que permite usar Kubernetes en AWS.
Hay mejoras en instancias “tradicionales” de AWS como M5 de EC2 o las instancias T2 de EC2. Lambda también ha visto evolucionar algunas de sus características como la gestión de memoria o la consola.
En cuanto a herramientas para desarrolladores, se han introducido herramientas como Cloud9 un entorno de desarrollo basado en la nube.
En IoT, la inferencia de Machine Learning de AWS GreenGrass combina la captura de datos IoT con el potencial de los algoritmos de ML pero realizando las inferencias en los propios dispositivos conectados reduciendo la latencia y el ancho de banda.
En el capítulo de servicios multimedia se han añadido diversas herramientas relacionadas con el vídeo, como Elenental MediaConvert o Elenental MediaLive.
Como decíamos, hay decenas de incorporaciones, que se pueden consultar de forma detallada en https://aws.amazon.com/es/new/reinvent/.
Una parte siempre interesante de los eventos re:invent son las intervenciones de los partners y empresas que usan los servicios y soluciones de Amazon. Hay centenares de compañías conocidas usando AWS, con ejemplos como Netflix siempre recurrentes a la hora de hacer entender los beneficios de la nube. Pero hay más empresas que Netflix, desde luego. Y hay que recordar que AWS tiene un 44% de cuota de mercado dentro del área de cloud pública. Un mercado que Gartner predice que crecerá nada menos que un 18% en 2017, el año que ahora acaba, hasta los 246.800 millones de dólares, tomando como referencia los 209.200 millones de dólares de 2016.
Autodesk es una compañía un tanto especiai, en tanto en cuanto lleva usando los servicios y la plataforma IaaS de AWS desde el principio. Y estuvo presente en re:invent 2017 como caso de éxito dentro de la keynote del martes, “Tuesday Night Live with Peter Desantis”, siendo Peter Desantis VP de AWS Global Infrastructure. Autodesk explicó cómo se beneficia de la nube para implementar metodologías de Diseño Generativo o Generative Design.
Esta modalidad se basa en la escalabilidad de la computación cloud, donde es posible lanzar centenares o miles de instancias de un trabajo de cálculo y renderizado de estructuras en vez de usar un número limitado de ellas. “En vez de estar cientos o miles de horas esperando a que acaben los diferentes cálculos de estructuras obtenidos modificando las variables que intervienen en el diseño con AWS somos capaces de lanzar centenares o miles de instancias simultáneamente con lo que obtenemos los resultados en cuestión de minutos. Y el precio es el mismo, tanto usando una instancia cientos de horas como usando cientos de instancias durante unos minutos”, afirmaba Brian Mathews, VP of Platform Engineering Autodesk durante la conversación que mantuvimos con él durante el evento re:invent 2017.
Brian Mathews también nos habló de la evolución de Autodesk dentro de AWS: “Autodesk empezó a usar sus propios centros de datos muy tempranamente. Ya a partir de 1996 vimos el potencial de la nube e implementamos servicios para acceder a nuestras herramientas de software para las industrias de la construcción y la manufactura, como Buzzsa.com. Teníamos nuestros propios centros de datos: cinco concretamente repartidos por todo el globo. Cuando Amazon apareció en escena, empezamos a experimentar con las herramientas que ofrecía la nube pública, y más concretamente EC2 y S3. Y empezamos a escribir nuestro propio código para organizar todas las bases de datos, instancias EC2 y otros recursos dentro de AWS. Y eventualmente empezamos a abrir el uso de nuestras herramientas a nuestros clientes de un modo similar a cómo Amazon abrió su plataforma de Retail a terceros.
En AWS empezamos a construir herramientas de diseño como conversores de ficheros de CAD, herramientas de renderizado, simulación, etcétera. Y progresivamente hemos ido cerrando nuestros centros de datos para usar exclusivamente los servicios de cloud pública de AWS. Nos queda un único centro de datos donde hemos dejado activos algunos servicios legacy hasta que los pocos usuarios que siguen usándolos migren a las nuevas versiones.”
Sobre este punto, preguntamos a Brian Mathews acerca de los riesgos de depender de un único proveedor cloud. Y la respuesta es significativa en tanto en cuanto es el reflejo de una tendencia: la creciente pérdida de miedo a la nube pública por parte de las empresas, incluyendo aquellas que tradicionalmente se han mostrado recelosas de delegar sus datos y su conocimiento a una empresa externa. “Originalmente creamos un middleware sobre AWS a modo de capa de aislamiento con el propósito de poder migrar nuestras herramientas a otros proveedores cloud y no estar ligados a uno solo de forma exclusiva. Pero al ver cómo AWS ha ido reduciendo los precios y aumentando la capacidad de sus servidores y el numero y la diversidad de sus instancias de computación, decidimos eliminar ese middleware y aprovechar todo el potencial de la nube pública de Amazon”.
Actualmente, las técnicas de Diseño Generativo de Autodesk no podrían tener lugar sin la escalabilidad de AWS y las instancias de computación y cálculo avanzado como son P2 o P3.
Autodesk no es la única empresa que está eliminando sus middleware de aislamiento: Expedia o Goldman Sachs fueron otros casos de éxito en los que los responsables IT han ido moviendo los servicios desde centros de datos on-premise a la nube pública, incluyendo los de misión crítica.
Pie: Expedia está moviendo todos sus servicios a la nube pública de AWS, incluyendo los de misión crítica que, tradicionalmente se preferían dejar en centros de datos on-premise dentro de modalidades de nube privada o híbrida.
Parte de la “culpa” de esta migración de on-premise a la nube pública la tiene la apuesta de AWS por las regiones. En la keynote del martes con Peter Desantis, se explicó la estrategia de AWS, que un días más tarde se completaría con la sesión de Q&A con la prensa en la que se dejó claro que en un futuro todos los países relevantes tendrán su propia región.
Las regiones son la estructura organizativa básica de AWS a nivel de datacenter. Una región cuenta con su propia infraestructura de computación con uno o varios centros de datos. Cuenta con su propia infraestructura energética y varios cientos de miles de servidores.
Las regiones están conectadas a través de fibra metro, de modo que dentro de cada región se tiene acceso a diferentes zonas de disponibilidad (Availability Zones o AZs). Todas cuentan con 2 AZ, muchas con mas de tres y algunas hasta 6 Availability Zones.
Actualmente hay 18 regiones y 49 AZs, aunque en breve habrá 22 regiones con la incorporación de Baréin, Hong Kong, Suecia y AWS GovCloud en US-East.
La experiencia bare-metal en la que se usa hardware físico y tangible no virtualizado sigue siendo más ágil que la virtualizada. El objetivo de AWS es reducir las diferencias entre la experiencia bare-metal y la virtualizada. Para ello, ha introducido Nitro, un ASIC diseñado a medida tras la compra de la empresa Annapurna Labs en 2015. Las instancias EC2 han ido moviendo las cargas de trabajo relacionadas con el networking a hardware específico para ello.
Las instancias EC2 C4 fueron un comienzo usando “Silicio” comercial, pero ahora, tras la adquisición de Annapurna Labs, AWS ya tiene su propio Silicio diseñado a medida para mover toda la carga de computación a nivel de hypervisor a un ASIC específico: el Nitro Hyoervisor, de modo que las instancias EC2 C5 ya pueden descargar las tareas de netowrking, almacenamiento y gestión de recursos en este ASIC, con lo que prácticamente el 100% de los recursos de computación de los hosts pueden asignarse a las instancias de computación “compradas” por los clientes.
Otras mejoras a nivel de hardware pasan por las instancias P3, basadas en computación paralela usando tecnologías de GPU computing. Con la introducción de Volta por parte de NVIDIA, el rendimiento se ha multiplicado en varios órdenes de magnitud al tiempo que se reducen los costes.
Otro encuentro de gran interés para entender un poco mejor las tendencias alrededor de la nube en general y AWS en particular fue con Marco Argenti, VP en AWS Mobile e IoT. Una de las preguntas que hicimos a Marco fue acerca del papel de Edge Computing y su razón de ser: “hay varias razones. Por un lado están las leyes de la física. Tenemos clientes que generan un petabyte de datos al día y el ancho de banda es limitado. No es posible mover tantos datos de forma habitual. Además, tampoco es económico poner todo en la nube. Imagina las transmisiones y los enlaces vía satélite, con un coste muy elevado para la transmisión de datos. Por otro lado, no siempre es conveniente que los datos se alejen del origen de los mismos, ya sea por seguridad o por regulaciones legales. Así que se necesita manejar estos datos en el extremo, en el edge pero de un modo tal que se mantenga la continuidad dentro del contexto de los servicios de AWS”.
Precisamente, en este contexto es donde el concepto “serverless” encaja perfectamente. No en vano Lambda surgió como una herramienta que se aplicaba principalmente para aplicaciones de IoT, extendiéndose después a otros ámbitos dentro de AWS: “el concepto serverless es perfecto. No hay dependencias con el hardware, es stateless y usa la memoria de un modo muy eficiente y responde a eventos como respuesta a cambios físicos o a la interacción humana. El modelo de uso asíncrono es óptimo para la computación en el edge y es posible usar dispositivos aparentemente modestos como una Raspberry Pi o microcontroladores en los que se instala Greengrass de Amazon”.
En este escenario, entra en acción otro elemento presentado en re:invent 2017: “Amazon FreeRTOS (a:FreeRTOS). FreeRTOS es un sistema operativo para microcontroladores donde Amazon ha estado contribuyendo desde hace años añadiendo funcionalidades como OTA o mensajería y hablando con los fabricantes de chips para que soporten FreeRTOS de forma nativa”, comentaba Marco Argenti.
En cuanto a la seguridad en el IoT y Edge Computing, Marco detalló la estrategia detrás de AWS IoT Device Defender: “Defender no está pensado para la seguridad propiamente dicha entendida como protección frente a hackers o malware. Defender detecta anomalías, errores de configuración o incidencias con políticas de configuración y gestión. En otro orden de cosas están las funcionalidades de analítica, en las que se trabaja bajo la premisa de que los datos son ruidosos e incorrectos. Con IoT Analytics podemos limpiar, procesar, almacenar y analizar los datos procedentes del IoT en incluso preparar los datos para enviarlos a SageMaker para entrenamiento de algoritmos de Machine Learning”.
Con re:invent 2017 nos llevamos la confirmación de que la nube es “la” tendencia por excelencia de nuestro tiempo. Y también la realidad tangible de centenares de empresas que ya han perdido el miedo inicial a la nube pública, abandonando los centros de datos on-premise a favor de la facilidad, inmediatez y escalabilidad e la nube.
Con AWS las empresas eliminan la complejidad inherente al mantenimiento de los centros de datos propios, y reducen el coste en el uso de los recursos de computación al pagar únicamente por el uso.
Los avances en la infraestructura de AWS permiten reducir las distancias en el rendimiento cloud respecto al uso de sistemas bare-metal. El desarrollo de ASICs propios da una idea de la escala a la que trabaja AWS.
En cuanto a servicios y aplicaciones, el ritmo al que AWS añade nuevas funcionalidades es sencillamente abrumador. Los clientes no siempre usan los servicios más innovadores en primer lugar, quedándose con EC2 y S3 en muchos casos, pero a medida que se encuentran modelos de negocio que se benefician de las nuevas instancias de computación, se adoptan de un modo más generalizado.
Sigue habiendo mucho camino por recorrer, y empresas como Microsoft, Google o IBM hacen un trabajo notable en aras de ofrecer sus propias soluciones cloud en un momento en el que las empresas pueden pasar de reportar beneficios a sufrir pérdidas en cuestión de uno o dos ejercicios fiscales o incluso de un trimestre para otro.
De momento, el salto cuantitativo del evento re:invent, pasando de 30.000 asistentes a 45.000 es una buena metáfora de la evolución de la propia AWS.
En los próximos años asistiremos al ‘boom’ de las monedas digitales de bancos centrales. En…
La popularidad de la tecnología de inteligencia artificial se dejará notar el año que viene…
La mayoría de las compañías de nuestro país ha sido blanco de los cibercriminales en…
Experimentó una mejoría del 20 % en comparación con los seis primeros meses del ejercicio…
La compañía espera incrementar sus ingresos entre un 3 % y un 5 % en…
Este proyecto complementario a la oferta de ventas flash ya existe en Francia y Bélgica…