Durante el DataWorks Summit, la compañía muestra la importancia de contar con una plataforma moderna para dar respuesta al crecimiento exponencial de la información.

Durante el DataWorks Summit, la compañía muestra la importancia de contar con una plataforma moderna para dar respuesta al crecimiento exponencial de la información.
La oferta de Oracle en sus distintas capas (aplicaciones, plataforma e infraestructura) cuenta ya con un denominador común: la capacidad de aplicar inteligencia artificial y ‘machine learning’ a todas ellas para responder al negocio e ...
Un nuevo estudio de SAS ha analizado la gestión del Big Data en las empresas.
Hortonworks Data Platform se certificará en Power con IBM Spectrum Scale y en x86 con IBM Spectrum Scale, avanzando en temas de almacenamiento y Big Data.
La firma de Big Data y aplicaciones de Marketing anuncia nuevas opciones implementación.
La compañía ha dado a conocer su nueva estrategia de Big Data para automatizar, acelerar y asegurar entornos Hadoop en las empresas.
Es Iván Rodríguez, Account Executive en Cloudera, defiende Hadoop ante aquellos que afirman que "está muerto".
La plataforma iWay Big Data Integrator 1.2 ha sido certificada para interoperar con Cloudera Enterprise 5.7.
Un nuevo estudio ha analizado los conocimientos de programación que permiten a los desarrolladores alcanzar una mayor remuneración.
Manuel Zaforas, es Scrum Master y Arquitecto BigData en Paradigma, argumenta por qué está Hadoop muerto y por qué se impondrán otras herramientas.
Doug Cutting cree el beneficio de Hadoop para las empresas es su capacidad de escalar a costes reducidos.
Para Nacho Herranz, responsable de iniciativa Cloud en Paradigma, la clave de la diferenciación en el mercado de software pasa por utilizar tecnologías Open Source.
Hadoop Summit 2016. La compañía de software para la gestión de datos sigue apostando por el open source, el “único modelo capaz de gestionar la información del mundo”.
Capacidad de adaptación y facilidad de uso.
La nueva plataforma de Cloudera promete optimizar los datos activos para las cargas de trabajo sobre Hadoop.
HP e Intel han celebrado el evento ReimagineIT en Madrid, en el que han mostrado las últimas tendencias en Movilidad, Cloud, Seguridad y Big Data que buscan dar respuesta a las necesidades reales de las organizaciones.
La intención de Teradata es comenzar a ofrecer la nueva versión de su "appliance" antes de que finalice el mes de septiembre.
El responsable de Estrategia de la compañía descarta el movimiento.
En tan sólo seis semanas, Terdata ya ha adquirido tres compañías que le permitirán potenciar su negocio de gestión de grandes cantidades de datos.
La empresa de Santa Clara ha anunciado "la inversión en tecnología para centros de datos más cuantiosa" de toda su historia, que le vale para convertirse en accionista y miembro de la Junta de Cloudera.
SAS In-Memory Statistics for Hadoop está pensada para potenciar los análisis veloces de datos y llegará al mercado antes de verano.
Todas aquellas empresas que cuentan con grandes volúmenes de datos deben tener presente que su futuro inmediato pasa por la analítica en tiempo real. Desde las administraciones públicas hasta fabricantes de todo tipo confiarán en el B ...
Cisco y NetApp presentan FlexPod Select, una tecnología pensada para actuar sobre cargas de trabajo intensivas y gestionar cantidades masivas de información.
El Gigante Azul no quiere quedarse atrás en la carrera del análisis de ‘Big Data’ y presenta nuevas tecnologías para mejorar la gestión y análisis de grandes volúmenes de datos no estructurados.
Además de presentar los sistemas BLU Acceleration y PureData System para Hadoop, el Gigante Azul ha anunciado nuevas versiones de InfoSphere BigInsights, InfoSphere Streams e Informix.
El diseñador de chips ARM tiene claro que la entrada en producción masiva de servidores basados en su arquitectura coincidirá con la adopción –en la mayoría de casos– de software con código abierto.
MapR Technologies y Canonical han anunciado la integración de Apache Hadoop en las distribuciones de Ubuntu para el procesamiento de grandes volúmenes de datos no estructurados.
Intel Distribution for Apache Hadoop es compatible con la plataforma Intel Xeon y puede analizar un terabyte de datos en tan sólo siete minutos.
Gartner también cree que el 70% de los proveedores de Business Intelligence habrá incorporado capacidades de lenguaje hablado a sus productos en un plazo máximo de tres años.
Big Data (algo así como “grandes datos”) está en boca de todos los analistas como una de las tendencias más pujantes de los últimos tiempos y una oportunidad que ninguna empresa debería desaprovechar.