NetApp organiza su primer hackaton entre la élite de devops madrileños

NetApp se dio a conocer en el cambio de siglo por sus appliances dedicados para almacenamiento y seguridad. Pero con las nubes flotando sobre las infraestructuras TI y su capacidad de virtualización ilimitada, la compañía hace tiempo que emprendió un nuevo rumbo hacia el almacenamiento definido por software. Ya lo tenía integrado en sus equipos, y ahora lo ofrece para que los proveedores de cloud públicos o privados puedan construir sin miedo sus plataformas sobre NetApp dada su compatibilidad 100% con los sistemas más punteros basados en OpenShift, OpenStack, Hadoop, Docker o Kubernetes. Y es que la marca tiene presencia en nueve de cada diez proveedores a través de NetApp Data Fabric tanto en local como en virtual.

“La estrategia de NetApp pasa por estar presente en los tres tipos de nubes: proveedores específicos de almacenamiento, proveedores públicos de hiperescala para atender migraciones, y proveedores privados como operadoras de telefonía para sus clientes particulares y sus propias necesidades”, señala Javier Martínez, Technical Manager Iberia. “El cliente tiene que tener la oportunidad de poner sus datos donde quiera, nosotros con nuestros productos Cloud OnTap facilitamos esa movilidad y replicación de datos con nuestro almacenamiento persistente”.

Y es que cada vez es más complicado vender una cabina de 400 Kg y 200 discos, teniendo a disposición la tecnología AllFlash FAS en ubicaciones virtualizadas y que pueden alquilarse por horas o por gigabytes. “El día de mañana nos va a dar igual, porque el mundo va a ser definido por software. Todo va a ser compatible y la movilidad extrema para poder llevar de un lado a otro mis sistemas”, asegura Javier Martínez. Por eso el porqué de compras recientes como AltaVault y SolidFire y su plugin para Docker y compatibilidad con Jenkins, GitHub, ChatOps, Slack, Trello…

Esto va a facilitar la replicación de cualquier sistema (mediante clon o snapmirror) para hacer pruebas de producto y acelerar la innovación y time to market. Se facilita la tarea a los equipos DevOps, a la vez que se abarata el consumo de recursos, que pueden ir adaptándose a cada fase del proyecto, desde la ideación hasta la puesta en el mercado. La transformación digital debe llegar a todas las empresas independientemente de su tamaño o sector de actividad, cambiando el enfoque hacia la creación de APIs, microservicios y contenedores.

“Se trata de desacoplar los datos de las aplicaciones. Llevamos años diciéndolo en almacenamiento… ‘no pongáis los datos en la máquina virtual’, ¡y años después es un Docker!”. Mientras que con una máquina virtual se necesita un hipervisor, con los microservicios se ahorra la capa del sistema operativo del host, y solo se precisa los binarios y librerías en el kernel. En cuanto al almacenamiento, se puede ofrecer de tres maneras, según el nivel de servicio: por bloques (FCP, iSCASI) que sería el caso de las cabinas, por ficheros (CIFS, NFS) que sería por discos de estado sólido, o por objetos (S3, CDMI) que sería por contenedores tipo StorageGrid. Entre un extremo y otro hay variaciones de latencia (mayor cuanto más físico el proceso) y de flexibilidad (mayor cuanto más virtualizado), con también la variable del precio interfiriendo en uno y otro sentido.

“Así, mientras que el footprint de un contenedor es de menos de 1 GB, con una máquina virtual se tiene que elevar a partir de 10 GB; el tiempo de arranque de un contenedor es de menos de 1 segundo, y una máquina virtual de más de 30 segundos; la escala de un contenedor de hasta por mil, mientras que con máquina virtual es de por diez; solo es en cuanto a la seguridad donde las máquinas virtuales se muestran más fuertes, mientras que los contenedores aún tiene puntos mejorables”, señala Javier Martínez.

Los contenedores se cargan por capas de imágenes “estacadas”, Docker funciona como una pila (stack) de instancias que le dan vida, pero son “read-only” y además efímeras (la vida media de un contenedor es en el 75% de los casos de 25 minutos, y en el resto de menos de 25 minutos), aunque por otra parte hay imágenes disponibles en la Web para cualquier propósito ya listas y reutilizables, y si no son fácilmente customizables, lo que agiliza su composición y puesta en producción. Docker facilita la creación de clones, una imagen congelada en el tiempo, da igual el tamaño y reglas. Los contenedores se orquestan y manejan con Kubernetes, y Trident equivale a Kubernetes en el almacenamiento, que monitoriza, despliega, escala, etc. Si se tiene en mente un negocio de impacto planetario tipo Pokémon Go, este solo es posible bajo estas reglas.

NetApp en la tercera plataforma

Manfred Buchman, Vice President Systems Engineering EMEA, lleva 16 años en NetApp y ha labrado su carrera como consultor experto para integraciones con SAP y Fujitsu Siemens Computers, principalmente, y ha creado multitud de equipos de desarrollo en entornos de gran escalabilidad para Big Data. Se vino desde su Alemania natal para acompañar a NetApp Ibérica en esta primera experiencia, que si cunde el ejemplo, se repetirá en otras ciudades españolas.

Javier Martínez, Technical Manager Iberia (izqda) y Manfred Buchman, Vice President Systems Engineering EMEA, (dcha).

Nos cuenta cómo ha evolucionado la compañía en estos años: “de ser una compañía de gestión de datos on-premise, nos hemos movido hasta las nubes públicas de AWS, Azure o Softlayer. Bueno, realmente nos hemos visto movidos, porque en el 90% de los casos son los proveedores los que han confiado en nuestra tecnología para soportar sus infraestructuras. Nosotros simplemente hemos intentado facilitar la compatibilidad y las conexiones con todo el ecosistema, aportando la inteligencia a las máquinas y estableciendo las bases del almacenamiento definido por software. Por eso no vemos al cloud y al modelo de pago por uso como un enemigo, todo lo contrario, creemos que hay que dar a la gente a capacidad de elección. Pero por la misma razón, no nos hemos metido a competir en este terreno con nuestras propias nubes privadas de almacenamiento, porque es otro negocio y nuestro modelo es el de trabajar con socios clave como proveedores. Al final, al usuario no le importa tanto conocer quién está detrás como tener alta disponibilidad y acceso rápido a sus datos, y sobre todo en cuanto a seguridad, disponer de copias de recuperación ante desastres o ataques de ransomware. Sin duda, toda esta tecnología es la que sustenta los nuevos modelos de negocio que se están creando en la tercera plataforma: coches autónomos, Internet de las Cosas…”.

Javi Rinus

Recent Posts

Los mensajes RCS, otra vía de acceso para ciberataques

Los mensajes RCS ofrecen muchas más posibilidades que los SMS, pero también abren la puerta…

1 día ago

Telefónica Empresas ayudará a Microsoft a expandir los Copilot+ PC por España

Acompañará a las empresas en sus procesos de equipamiento, desde la elección del hardware hasta…

2 días ago

IBM y Esade promueven el uso de la IA en los Consejos de Administración

Juntos, trabajarán en la formación y la actualización de habilidades para que los consejeros impulsen…

2 días ago

ASUS lanza un Mini PC con inteligencia artificial

Este dispositivo incluye entre sus especificaciones procesador Intel Core Ultra (Serie 2) y botón Copilot.

2 días ago

EasyVisa adquiere una participación mayoritaria en OTRS Group

Ya cuenta en su poder con más del 90 % de las acciones del proveedor…

2 días ago

SoftwareOne y Crayon acuerdan fusionarse

Los actuales consejeros delegados, Raphael Erb y Melissa Mulholland, se convertirán en co-CEOs de la…

2 días ago