NetApp organiza su primer hackaton entre la élite de devops madrileños

NetApp se dio a conocer en el cambio de siglo por sus appliances dedicados para almacenamiento y seguridad. Pero con las nubes flotando sobre las infraestructuras TI y su capacidad de virtualización ilimitada, la compañía hace tiempo que emprendió un nuevo rumbo hacia el almacenamiento definido por software. Ya lo tenía integrado en sus equipos, y ahora lo ofrece para que los proveedores de cloud públicos o privados puedan construir sin miedo sus plataformas sobre NetApp dada su compatibilidad 100% con los sistemas más punteros basados en OpenShift, OpenStack, Hadoop, Docker o Kubernetes. Y es que la marca tiene presencia en nueve de cada diez proveedores a través de NetApp Data Fabric tanto en local como en virtual.

“La estrategia de NetApp pasa por estar presente en los tres tipos de nubes: proveedores específicos de almacenamiento, proveedores públicos de hiperescala para atender migraciones, y proveedores privados como operadoras de telefonía para sus clientes particulares y sus propias necesidades”, señala Javier Martínez, Technical Manager Iberia. “El cliente tiene que tener la oportunidad de poner sus datos donde quiera, nosotros con nuestros productos Cloud OnTap facilitamos esa movilidad y replicación de datos con nuestro almacenamiento persistente”.

Y es que cada vez es más complicado vender una cabina de 400 Kg y 200 discos, teniendo a disposición la tecnología AllFlash FAS en ubicaciones virtualizadas y que pueden alquilarse por horas o por gigabytes. “El día de mañana nos va a dar igual, porque el mundo va a ser definido por software. Todo va a ser compatible y la movilidad extrema para poder llevar de un lado a otro mis sistemas”, asegura Javier Martínez. Por eso el porqué de compras recientes como AltaVault y SolidFire y su plugin para Docker y compatibilidad con Jenkins, GitHub, ChatOps, Slack, Trello…

Esto va a facilitar la replicación de cualquier sistema (mediante clon o snapmirror) para hacer pruebas de producto y acelerar la innovación y time to market. Se facilita la tarea a los equipos DevOps, a la vez que se abarata el consumo de recursos, que pueden ir adaptándose a cada fase del proyecto, desde la ideación hasta la puesta en el mercado. La transformación digital debe llegar a todas las empresas independientemente de su tamaño o sector de actividad, cambiando el enfoque hacia la creación de APIs, microservicios y contenedores.

“Se trata de desacoplar los datos de las aplicaciones. Llevamos años diciéndolo en almacenamiento… ‘no pongáis los datos en la máquina virtual’, ¡y años después es un Docker!”. Mientras que con una máquina virtual se necesita un hipervisor, con los microservicios se ahorra la capa del sistema operativo del host, y solo se precisa los binarios y librerías en el kernel. En cuanto al almacenamiento, se puede ofrecer de tres maneras, según el nivel de servicio: por bloques (FCP, iSCASI) que sería el caso de las cabinas, por ficheros (CIFS, NFS) que sería por discos de estado sólido, o por objetos (S3, CDMI) que sería por contenedores tipo StorageGrid. Entre un extremo y otro hay variaciones de latencia (mayor cuanto más físico el proceso) y de flexibilidad (mayor cuanto más virtualizado), con también la variable del precio interfiriendo en uno y otro sentido.

“Así, mientras que el footprint de un contenedor es de menos de 1 GB, con una máquina virtual se tiene que elevar a partir de 10 GB; el tiempo de arranque de un contenedor es de menos de 1 segundo, y una máquina virtual de más de 30 segundos; la escala de un contenedor de hasta por mil, mientras que con máquina virtual es de por diez; solo es en cuanto a la seguridad donde las máquinas virtuales se muestran más fuertes, mientras que los contenedores aún tiene puntos mejorables”, señala Javier Martínez.

Los contenedores se cargan por capas de imágenes “estacadas”, Docker funciona como una pila (stack) de instancias que le dan vida, pero son “read-only” y además efímeras (la vida media de un contenedor es en el 75% de los casos de 25 minutos, y en el resto de menos de 25 minutos), aunque por otra parte hay imágenes disponibles en la Web para cualquier propósito ya listas y reutilizables, y si no son fácilmente customizables, lo que agiliza su composición y puesta en producción. Docker facilita la creación de clones, una imagen congelada en el tiempo, da igual el tamaño y reglas. Los contenedores se orquestan y manejan con Kubernetes, y Trident equivale a Kubernetes en el almacenamiento, que monitoriza, despliega, escala, etc. Si se tiene en mente un negocio de impacto planetario tipo Pokémon Go, este solo es posible bajo estas reglas.

NetApp en la tercera plataforma

Manfred Buchman, Vice President Systems Engineering EMEA, lleva 16 años en NetApp y ha labrado su carrera como consultor experto para integraciones con SAP y Fujitsu Siemens Computers, principalmente, y ha creado multitud de equipos de desarrollo en entornos de gran escalabilidad para Big Data. Se vino desde su Alemania natal para acompañar a NetApp Ibérica en esta primera experiencia, que si cunde el ejemplo, se repetirá en otras ciudades españolas.

Javier Martínez, Technical Manager Iberia (izqda) y Manfred Buchman, Vice President Systems Engineering EMEA, (dcha).

Nos cuenta cómo ha evolucionado la compañía en estos años: “de ser una compañía de gestión de datos on-premise, nos hemos movido hasta las nubes públicas de AWS, Azure o Softlayer. Bueno, realmente nos hemos visto movidos, porque en el 90% de los casos son los proveedores los que han confiado en nuestra tecnología para soportar sus infraestructuras. Nosotros simplemente hemos intentado facilitar la compatibilidad y las conexiones con todo el ecosistema, aportando la inteligencia a las máquinas y estableciendo las bases del almacenamiento definido por software. Por eso no vemos al cloud y al modelo de pago por uso como un enemigo, todo lo contrario, creemos que hay que dar a la gente a capacidad de elección. Pero por la misma razón, no nos hemos metido a competir en este terreno con nuestras propias nubes privadas de almacenamiento, porque es otro negocio y nuestro modelo es el de trabajar con socios clave como proveedores. Al final, al usuario no le importa tanto conocer quién está detrás como tener alta disponibilidad y acceso rápido a sus datos, y sobre todo en cuanto a seguridad, disponer de copias de recuperación ante desastres o ataques de ransomware. Sin duda, toda esta tecnología es la que sustenta los nuevos modelos de negocio que se están creando en la tercera plataforma: coches autónomos, Internet de las Cosas…”.

Javi Rinus

Recent Posts

Silicon Pulse: Titulares de la semana #33

Bienvenido a un nuevo episodio del podcast semanal Silicon Pulse, un espacio en el que…

7 horas ago

Los ingresos por productos de Snowflake superan los 900 millones de dólares

De los 942,1 millones de dólares que ingresó en el tercer trimestre, 900,3 millones corresponden…

15 horas ago

Check Point: 2024, récord en ciberataques con la IA como enemiga y aliada

“En 2024 se ha registrado un crecimiento exponencial en los ciberataques, con empresas de todo…

16 horas ago

Los ingresos trimestrales de NVIDIA aumentan un 94 %

Durante su trimestre más reciente acumuló un total de 35.100 millones de dólares.

17 horas ago

Sage concluye “un año de éxito”

Durante su ejercicio fiscal 2024 mejoró un 9 % los ingresos totales subyacentes, por encima…

18 horas ago

Inetum quiere duplicar su plantilla en Aragón

Ha estrenado oficinas en Zaragoza, está presente en el Parque Tecnológico Walqa y tiene previsto…

19 horas ago