Fujitsu y su batería de software para gestionar “Big Data”
El procesamiento y análisis de grandes volúmenes de datos ya forma parte de la oferta de software de Fujitsu. El siguiente paso será un hardware optimizado para estas tareas.
Fujitsu es la siguiente compañía en anunciar nuevas herramientas para la gestión de grandes volúmenes de datos. En esta ocasión ha anunciado diversos paquetes que conforman una suite diseñada para procesar y analizar toda esa información que se genera alrededor de las empresas y que es de vital importancia para mejorar la competitividad y asegurar la continuidad de sus negocios.
De entre sus capacidades estará el manejo de grandes y diversos sistemas de ficheros, rápido escaneado y almacenamiento de la información y acceso eficaz a esas bases de datos no estructuradas que son generadas cada segundo que pasa.
Este es el primer paso de una estrategia que se conforma como prioritaria para la multinacional japonesa. No en vano, más adelante comenzará la comercialización de un bundle compuesto por este software y un hardware totalmente optimizado para tales procesos. El objetivo de Fujitsu es generar un volumen de negocio anual que supere los mil millones de dólares.
De entre los aplicativos anunciados se encuentra Interstage Big Data Parallel Processing Server, basado en Apache Hadoop pero del que Fujitsu asegura un aumento del rendimiento de 5 veces con respecto al desarrollo basado en código abierto.
También destaca Complex Event Processing Server, diseñado para encontrar tendencias en esos grandes volúmenes de datos en base a analíticas avanzadas y complejas. Según la compañía, es ideal para conocer en todo momento la cercanía de los clientes ante cualquier producto comercializado.
En enero pasado, Fujitsu anunció una iniciativa similar bajo el modelo de servicios cloud. En esta ocasión permitirá a sus clientes que puedan desplegar este software en sus propios centros de datos.