AWS: “Serverless es la evolución lógica de la tecnología”
Entrevistamos a Carlos Sanchiz, arquitecto de soluciones senior en AWS España, para conocer en detalle la apuesta tecnológica del proveedor y las novedades que más interés han suscitado durante el pasado AWS Summit 2018 celebrado en Madrid.
El pasado jueves 17 de mayo Amazon Web Services celebraba en Madrid su evento anual, al que asistieron más de 4.500 profesionales entre clientes y partners, una cifra que ha batido todos los records para el proveedor a nivel local y que es fiel reflejo del crecimiento mundial experimentado por AWS en el último año, situado en el 43% con respecto al ejercicio anterior para llegar a los 51.000 millones de dólares en facturación.
Con motivo de esta reunión tuvimos la oportunidad de charlar con Carlos Sanchiz, arquitecto de soluciones senior en AWS España y fiel conocedor de la tecnología detrás de la nube pública de miles de empresas a nivel mundial, tanto pymes como grandes cuentas. Una entrevista que reproducimos a continuación:
– ¿Qué áreas de AWS son las que más interés han generado durante esta edición del AWS Summit en Madrid?
El mundo del Machine Learning está teniendo mucho impacto este año. Se está viviendo una especie de renacimiento gracias a las capacidades que hacen posible análisis muy complejos con la capacidad de computación actual. Ahora es más asequible el entrenamiento en base a esos volúmenes de datos. La gente espera que AWS tenga esos servicios y que sean fáciles de utilizar en sus proyectos. Machine Learning no es nada nuevo, lo que sí es nuevo es la forma de usar esos datos.
También está teniendo mucho interés todo lo relacionado con IoT, especialmente en determinadas economías fuertemente industrializadas. Es el caso de los mantenimientos preventivos, mediciones de todo tipo de sensores…
Y también hay mucho ruido en todo lo relacionado con Blockchain. Bajo mi punto de vista esta parte está un escalón por debajo de las áreas que he comentado anteriormente, pero sí hay cada vez más interés.
– Blockchain no está tan maduro como la inteligencia Artificial, el Internet de las Cosas…
Efectivamente, las empresas tienen ya estrategias muy definidas con lo que quieren hacer en aprendizaje de máquina o IoT, pero Blockchain aún está en una etapa inicial de adopción para que las empresas puedan sacarle partido.
– En IoT cada vez está más presente el concepto de Edge Computing, moviendo cargas de trabajo de la nube al extremo, algo necesario para reducir latencias y tiempos de respuesta. ¿Cuál es la visión de AWS en esta tendencia?
Cada vez se hace más necesario el despliegue de dispositivos fuera del cloud capaces de hacer computación. Si somos capaces de darle inteligencia a esos dispositivos, mucho mejor.
El acercamiento de AWS llega a través de servicios como Greengrass, que dotan de capacidad de computación a todos esos elementos que normalmente la tienen pero muy reducida. De esta forma pueden tomar decisiones utilizando algoritmos de Machine Learning, pero también otras cosas que no sean tan complejas como el procesamiento de datos, generación de alarmas, etc.
El camino va por ahí: facilitar toda esa gestión de miles de dispositivos interconectados y hacerlo de una manera segura a pesar de que muchas veces se encuentren en entornos adversos. Nuestra plataforma Greengrass facilita el despliegue y actualización de software en ellos para añadir nuevas funcionalidades de forma automatizada y mantener el control fuera de la nube, en lugares más cercanos a todos esos sensores. Para entenderlo fácilmente: con Greengrass podemos situar entre la nube y los dispositivos IoT una Raspberry Pi [con el sistema operativo AWS FreeRT OS] y que ésta haga de enlace entre la computación en la nube y la gestión de todos esos sensores desplegados, enviándoles instrucciones y recopilando los datos que generan.
– A la hora de afrontar proyectos de IoT, muchos recomiendan desplegarlos poco a poco, sin dar el paso hacia proyectos mastodónticos que corran el riesgo de quedarse obsoletos en poco tiempo debido a que estas tecnologías se están desarrollando muy rápido. ¿Cuáles son vuestras recomendaciones en este sentido?, ¿algún proyecto del que nos puedas hablar?
Aquí estamos viendo muchas pruebas de concepto y nuestro acercamiento es similar al que comentas. Por ejemplo, tenemos un cliente que fabrica trenes donde despliega muchos sensores en los vagones y locomotoras: puertas, aire acondicionado, componentes mecánicos, etc. El problema es que hasta ahora toda esa información se estaba almacenando de forma local para realizar los mantenimientos clásicos, por lo que no se hacía un uso eficiente de los datos. Actualmente manda a los técnicos a realizar más tareas de las necesarias, lo que supone un sobrecoste. Con un despliegue correcto de IoT los ahorros pueden ser importantes gracias a los mantenimientos predictivos, entre otros. Y eso es lo que está comenzando a hacer.
– Centrándonos ahora en la conectividad con los centros de datos de AWS, la nube pública siempre ha adolecido de no proporcionar suficiente seguridad a las organizaciones ya que los datos viajan por Internet, junto con los de millones de usuarios. Pero esto está cambiando gracias a los enlaces de extremo a extremo que proporcionáis a través de centros de datos neutros como los de Interxion o Itconic. ¿Es algo que esté abriendo las puertas a usar la nube pública?
Es la típica funcionalidad poco vistosa, que está ahí detrás, pero que es determinante. El hecho de tener una conectividad local y privada gracias a nuestros backbones [sistemas con cables directos de fibra óptica que llegan directos a los centros de datos de AWS], es una puerta de entrada fantástica a nuestros servicios. Esta funcionalidad a través de AWS Direct Connect no suele estar dentro de nuestros mensajes principales, pero sí los tratamos con los clientes cuando hablamos con ellos. Les damos la posibilidad de utilizar estos enlaces directos con nuestras regiones para mejorar la velocidad, reducir la latencia y aportar más seguridad a los datos que viajan por estas redes privadas. Además, al hacer uso de dos proveedores distintos, aseguramos la disponibilidad del servicio en caso de caída de uno de ellos, una característica crítica para muchas empresas. Sin hacer mucho ruido, esta funcionalidad se ha convertido en un factor diferenciador para nosotros.
– Tal vez esto influye en la decisión de AWS de no construir por el momento un datacenter [región] en España…
Estas decisiones se toman en base a múltiples factores. En primer lugar entra en juego el feedback que recibimos de nuestros clientes. A la hora de la verdad, utilizar servicios como Direct Connect o disponer de una región en París con unas latencias tan bajas como las que proporcionamos, hace que no se justifique crear una nueva región para España. Cualquier empresa de la Unión Europea que quiera adoptar nuestros servicios tiene unos tiempos de respuesta prácticamente iguales que si se conectara a un datacenter local. Pero en el futuro seguiremos abriendo nuevas regiones en función del mercado y España podría ser una de ellas.
– Hablando de la Unión Europea. Ya está aquí la GDPR y AWS tiene mucho que decir al respecto.
Es una normativa que va a mejorar la seguridad y privacidad de todos los ciudadanos europeos y nosotros la abrazamos. De hecho, nuestra infraestructura cumple con los requisitos de esta regulación desde hace más de dos meses para ayudar a los clientes a que fueran preparándose para su entrada en vigor.
Es cierto que aún hay muchas dudas sobre la GDPR pero también hay cosas muy claras que son de sentido común, como el derecho a ser olvidado, el derecho a saber cuáles son los datos que las empresas tienen de nosotros, la portabilidad de estos datos, la obligación de las organizaciones de notificarnos en caso de haber tenido alguna brecha de seguridad… Nosotros ofrecemos estas certificaciones y servicios concretos como Identity and Access Management, pero también es deber de nuestros clientes mantener el cumplimiento de la normativa a través de sus propias aplicaciones, datos y servicios… de lo que tienen dentro de la nube de Amazon Web Services.
– He dejado uno de los temas que más me interesan para el final. ¿Qué está suponiendo para AWS el concepto serverless del que tanto estáis hablando desde el pasado congreso AWS re:Invent?
Es la evolución lógica de la tecnología. Todo comenzó con la gestión de servidores físicos, después se comenzaron a virtualizar y desplegar a través de contenedores. El último paso que AWS ha dado se llama Lambda, el paso natural que permitir una escalabilidad y disponibilidad automática sin que los clientes se tengan que preocupar por nada. Incluso no pagarán por los recursos que no usan, sino que pagarán únicamente por el consumo que hacen. Llevamos hablando tiempo de ello porque es un mensaje muy potente que todo el mundo quiere poner en práctica. Las empresas se pueden olvidar de la gestión de servidores, procesadores, núcleos… y centrarse en lo que saben hacer, centrarse en el core de sus negocios.
Durante este tiempo hemos ido lanzando herramientas y plug-ins para desarrolladores más allá de AWS Lambda que facilitan la construcción de aplicaciones y servicios sin que se tengan que preocupar por la configuración de los servidores. Por ejemplo, estamos creando una variedad serverless de Aurora uno de nuestros motores de bases de datos, que es verdaderamente revolucionaria. Aquí, los clientes solamente pagarán por consulta (query), de forma independiente al volumen de datos que tengan en sus BB.DD.
– Lo que significa que los desarrolladores tendrán que aprender a hacer lo mismo con menos queries para que la factura sea menor, ¿es así?
Efectivamente. De hecho forma parte de los cursos de formación que impartimos tanto nosotros como nuestros partners.
– … Y estáis llevando el concepto de serverless también al mundo de los contendores. ¿Cómo se consigue esto?
Es otro de los servicios de más reciente creación y tal vez de los menos conocidos: AWS Fargate. A mí me gusta denominarlo como “el serverless para containers”. A día de hoy, para tener una solución de contenedores en el cloud es necesario tener un cluster de servidores. Hay herramientas que facilitan su gestión, pero hasta ahora era necesario controlar personalmente los sistemas operativos, parchearlos, etc. AWS Fargate va más allá de esas herramientas para abstraer todas las capas de gestión de los servidores y el cliente lo único que tiene que hacer es coger el contenedor y ponerlo en el servicio, que se encargará de escalarlo, desplegar la infraestructura necesaria, etc. de forma totalmente automatizada.
– ¿Llegará un momento en que AWS deje de hablar de procesadores, hilos de proceso, memoria RAM…?
Ya nos gustaría, pero la realidad es que aún existe mucho ‘legacy’ y muchas aplicaciones de clientes y partners donde se hace necesario el control de estos parámetros físicos de los servidores. Por nuestra parte haremos lo posible para facilitar la vida a los desarrolladores, pero tenemos que ser realistas: un buen porcentaje de software requiere el control de los servidores virtuales para poder ser ejecutado. Y nuestro Marketplace (tienda de aplicaciones de AWS y de terceras empresas) es una prueba de ello.