Los analistas insisten, y nosotros también, los “grandes datos” que almacenan las empresas en sus sistemas, como parte de su actividad diaria, son un activo que encierra un gran potencial en su interior. Por una parte permiten estar alerta de oportunidades de negocio y adelantarse a la competencia en el lanzamiento de novedades. Pero también sirven para otras muchas cosas, como conocer el comportamiento de los consumidores, mejorar la atención al cliente, calcular riesgos y beneficios, discernir amenazas, mejorar resultados y tomar decisiones prácticamente en tiempo real. Lo inteligente, por lo tanto, es sacar a estos repositorios el máximo partido posible. Y ahora es viable con la cantidad descomunal de tecnologías de Big Data, Business Intelligence y análisis predictivo que están apareciendo en el mercado y que prometen convertir la información recabada en una mercancía más a comercializar.

Esto no quiere decir que todas las empresas estén concienciadas de la riqueza de esta tendencia, ni mucho menos. Gran parte de ellas carece de las capacidades necesarias para beneficiarse de los datos que ellas mismas generan y otras tantas no saben ni por dónde empezar cuando se les habla de sumarse al Big Data. Mientras tanto, el volumen de textos, vídeos, fotografías, correos electrónicos, posts, comentarios en redes sociales, transacciones online y demás no deja de crecer. En Silicon News hemos identificado cinco cuestiones básicas para entender los entresijos de este mundo de unos y ceros sinfín, que pueden ayudar a la hora de dar los primeros pasos hacia su implementación:

1. Evita caer en el síndrome de Diógenes: La cantidad de datos que puede llegar a acumular una organización es prácticamente ilimitada, por lo que la primera regla es guardar aquellos bits de información que tengan un valor intrínseco para tu negocio. ¿Cómo diferenciar unos de otros? Parándote un segundo (o todos los que sean necesarios) a identificar de antemano los problemas concretos que deseas solucionar mediante su disección y, en consecuencia, tomándote la molestia de clasificar únicamente la información asociada que se revele como trascendente. Algunos archivos son críticos para la empresa, otros no y habrá que relegarlos a un segundo plano. Sólo una vez que se ha establecido un objetivo se puede decidir con propiedad qué datos son relevantes para cada caso y cuáles son las reglas a aplicar para recabarlos, filtrarlos, conservarlos y analizarlos con éxito. De este modo ahorrarás en recursos, tiempo y dinero.

2. Piensa en “open source”: Otro paso fundamental es encontrar la herramienta que más se adecue a tus necesidades. En este sentido, una buena alternativa es optar por soluciones de cloud computing y tecnologías de código abierto, lo que evita ampliar las instalaciones propias y abonar grandes pagos por licencias de software. Especialmente en el caso de pequeñas y medianas empresas donde las partidas de gastos son más limitadas. Unos de los frameworks más extendidos es Hadoop, con el que se pueden procesar grandes cantidades de datos al mismo tiempo, a muy bajo coste, mediante una licencia de distribución libre Apache 2.0. Creado a partir de programas como MapReduce y Google File System, es capaz de impulsar tareas computacionales muy intensivas en entornos distribuidos y matener altos grados de escalabilidad. Además, puede trabajar tanto con datos estructurados como no estructurados sin importar su tamaño.

3. La seguridad es un grado: En el capítulo de responsabilidades, destaca el tema de la seguridad. El giro hacia la nueva generación de grandes volúmenes de datos provoca, o debería provocar, un cambio paralelo de estrategia hacia controles más inteligentes. Dichos controles también deben ser tenidos en cuenta “a priori”, antes de tomar ninguna otra decisión, de modo que puedan seguir el ritmo de crecimiento explosivo del Big Data y cortar los problemas de raíz. Y es que los sistemas actuales se quedan cortos. En primer lugar, debes revisar las herramientas de cifrado, autenticación y autorización de usuarios, blindando tanto los datos en reposo como los que están en movimiento o manteniendo separadas las contraseñas utilizadas de la información protegida, por ejemplo; también hay que atender a la gestión de eventos y la monitorización de red, recurriendo a soluciones automatizadas; e impulsar la detección de fraude y fugas, estableciendo una arquitectura de datos compartidos bajo una estrategia holística de ciberseguridad.

4. No tengas miedo de rectificar: Una vez que tengas el instrumental necesario para funcionar, hayas cubierto la parte de la seguridad y comenzado a reunir datos, será el momento de poner la magia del Big Data en práctica. En este punto es importante recordar que la información que tienes que manejar no es estática y, en consecuencia, tampoco debería serlo tu estrategia de Big Data. Procura ser lo más flexible posible, escapando del temido encorsetamiento en ciertos patrones y evitando la pérdidas de tendencias subyacentes. Y, sobre todo, no tengas miedo a cambiar de enfoque cuando la táctica utilizada se vuelva ineficaz para conseguir tus objetivos. Los usuarios de un servicio o producto pueden variar de opinión en cualquier momento o pueden desplazar sus comentarios de una a otra plataforma, dependiendo de cuál sea la red social más en boga. Éstas y otras casuísticas afectarán a los resultados de tu análisis, así que cúrate en salud revisando constantemente las variables.

5. Forma expertos: Especialistas en programación, analistas de negocios, ingenieros, estadísticos, matemáticos… o cualquier otro profesional experto en minería de datos y preparado para darle sentido a grandes volúmenes de información con técnicas de modelado predictivo y aprendizaje automático. Ése será el tipo de talento que tu empresa necesitará para abordar la gestión eficiente de Big Data, y que desafortunadamente escasea. De no apostar por un reciclaje de las habilidades de la plantilla, se seguirá revalorizando la figura del bróker de información, esto es, el intermediario encargado de adquirir datos de una empresa o de asociarse con ella para revenderlos posteriormente al mejor postor. Aunque esta última no es una profesión de reciente creación, sí que se antoja mucho más lucrativa ahora, con las incipientes tecnologías para el análisis de grandes volúmenes de archivos.

[nggallery template=nme images=40 id=38]

Mónica Tilves

Licenciada en Xornalismo por la Universidad de Santiago de Compostela en la especialidad de Periodismo Electrónico y Multimedia. Apasionada de los gadgets, la fotografía digital, el diseño web y el arte. Tras un primer contacto con el mundo de la prensa escrita y con la suficiencia investigadora debajo del brazo, me decanto por los medios online. Cubro la actualidad informativa en Silicon Week desde 2011, además de colaborar en otras publicaciones del grupo NetMediaEurope en España como Silicon News. Ahora en Silicon.es.

Recent Posts

La ciberseguridad del IoT crecerá un 120% en el próximo lustro

El internet de las cosas (IoT) trae muchas ventajas, pero también comporta nuevos riesgos. El…

6 horas ago

Bitdefender lanza un programa de garantía contra violaciones de seguridad

Ofrece hasta 1 millón de dólares de compensación económica en caso de incidente, con la…

1 día ago

Cloud Expo evoluciona a Cloud & AI Infrastructure

Este cambio refleja los avances que se producen a nivel de infraestructura TI y el…

1 día ago

DES2025 se centrará en la IA y ofrecerá una zona de experiencia tecnológica

El evento espera reunir a 17.000 directivos, que podrán escuchar a medio centenar expertos en…

1 día ago

Snowflake llega a un acuerdo con Datavolo para su adquisición

Como resultado de esta operación, ampliará sus servicios en el "bronze layer" del ciclo de…

1 día ago

NetApp aumenta un 6 % sus ingresos trimestrales

Durante el segundo trimestre de su año fiscal 2025 acumuló 1.660 millones de dólares, la…

1 día ago