Enfrentados cara a cara: IBM y Oracle en la era del Big Data
Analizamos el fenómeno del Big Data de la mano de Gonzalo Smith, responsable de Smart Analytics en IBM Global Business Services España y de Pau Contreras, Director de Desarrollo de Negocio de Oracle para Europa, Oriente Medio y África.
Los analistas lo encumbran como uno de los fenómenos a tener en cuenta durante los próximos años. El Big Data, o ese conjuntos de datos tan desmesuradamente grande que es imposible capturar con las herramientas analíticas convencionales y procesar en un margen de tiempo razonable, está siendo alimentado por la aparición de nuevas fuentes de valor informativo entre las que destacan las redes sociales o los clips de vídeo, y fenómenos paralelos como el Internet móvil. En números contantes y sonantes esto significa que, de los cerca de 1,8 zettabytes de datos generados el año pasado en todo el mundo se pasará a registrar más de 3,6 en 2013, mientras que el tráfico IP alcanzará por su propia cuenta el zettabyte (1 millón de petabytes o 1.000 millones de terabytes) en un período de tres años.
Esto en cuanto a las previsiones de crecimiento que todos los implicados han convenido en aceptar como factibles, porque los niveles de actualización de las empresas dejan bastante que desear. Al menos en España. Según el primer informe para nuestro país que trata el tema de la adopción de soluciones de Big Data, elaborado por la consultora IDC y publicado hace apenas unas semanas, sólo el 4,8% de las organizaciones ha integrado estas tecnologías en su día a día y al llegar diciembre la cifra todavía permanecerá, con toda probabilidad, por debajo de los dos dígitos (7,6%). También se constata un gran desconocimiento acerca de su potencial para conocer mejor a los consumidores, ofrecerles servicios personalizados, tomar decisiones más acertadas o mejorar resultados de negocio, y que el interés por su implementación futura es moderado. ¿Por qué, qué es lo que está fallando?
El “boom” del Big Data, según IBM
“Hay que tener en cuenta que la tecnología Big Data es bastante reciente y todas las novedades tecnológicas necesitan un tiempo de adopción” contesta Gonzalo Smith, responsable de Smart Analytics en IBM Global Business Services (GBS) España. De hecho, “sólo ha pasado un año desde que IBM anunció su compromiso de invertir 100 millones de dólares para continuar con la investigación de tecnologías analíticas” que gestionen grandes volúmenes de información cada día y ayuden a las empresas a adecuar sus infraestructuras e interpretar todo tipo de fuentes y formatos “que les den las claves de cómo tener clientes fieles y satisfechos, que les elijan como proveedor frente a sus competidores”, recuerda Smith. “No nos cabe duda que esta tecnología terminará imponiéndose ya que el conocimiento del cliente será clave para que las empresas tengan éxito”.
Por norma general, un proyecto de Big Data se define como exitoso cuando cumple un mínimo de dos de las famosas “tres uves”: velocidad, volumen y variedad. A este combinado el Gigante Azul añade otras dos condiciones ineludibles, “la uve de veracidad y la uve de valor”. La primera significa que, si no se quieren sacar conclusiones en falso, el material a analizar debe ser fiable. “Con Big Data vamos a incorporar información que puede estar más basada en emociones que en hechos. Un claro ejemplo es el análisis de los datos vertidos por los usuarios de las redes sociales”, explica el directivo de IBM GBS. “El otro parámetro es quizás aún más importante, ya que con él no nos referimos al valor económico que pueda tener la información sino al fin para el cual queremos utilizar un escenario de Big Data”. En este caso aunar los datos de venta físicos con el análisis de los web logs de una tienda online arrojaría una idea más precisa de si realmente se ofrecen productos que interesan a los consumidores y permitiría lanzar campañas mejor enfocadas.
¿Y el código abierto? “Las tecnologías inMemory en el contexto de Big Data también son claves, por este motivo una de la fuertes apuestas de IBM son las soluciones de SAP HANA y la combinación de soluciones Big Data como la plataforma de Hadoop”, señala este portavoz para España. El framework del elefante amarillo, cuya popularidad no cesa de proyectarse, dispone de una versión Enterprise Ready “enriquecida y fortalecida por el gran abanico de innovaciones que IBM incluye en su porfolio”, es decir, InfoSphere BigInsights. Junto con InfoSphere Streams, este software incorpora más de medio centenar de patentes y es capaz de analizar tanto información estructurada basada en situaciones tradicionales como desestructurada procedente de tuits, posts, blogs, imágenes y vídeos, entre otros orígenes. Por otra parte, “una veintena de servicios, que se traducen en 28 nuevas herramientas analíticas, permiten a los profesionales de TI utilizar sus infraestructuras de forma más eficiente y ayudan a mejorar la seguridad”, recalca Smith, en referencia a soluciones tipo Cloud Workload Analysis, que identifica oportunidades para instalar tecnologías de cloud computing un 90% más rápido, o Data Center Lifecycle Cost Analysis Tool, que reduce los costes totales en centros de datos hasta un 30%.
IBM ha estado trabajando durante los últimos años en el desarrollo de capacidades de análisis a gran escala e invirtiendo unos 14.000 millones de dólares en la compra de activos como Filenet, Infoshpere, Cognos, Alghoritmics y Vivisimo, donde trabajan actualmente más de 8.000 consultores y 200 matemáticos. “Por lo que hoy nos encontramos mejor posicionados que cualquier otra compañía para ofrecer las tecnologías que el mercado demanda”, proclaman desde Armonk.
[Página 2]