Amazon Redshift, la revolución en Data Warehousing

Amazon sigue expandiendo su oferta de servicios basados en cloud computing a través de la línea AWS (Amazon Web Services). En esta ocasión ha presentado una nueva oferta para el almacenamiento de grandes volúmenes de datos relacionales denominada Amazon Redshift.

Básicamente se trata de un Data Warehouse optimizado para albergar bases de datos relacionales provenientes de múltiples fuentes y sistemas y ofrecer un alto rendimiento en procesos de análisis e informes. En este tipo de infraestructuras se recopilan los datos de transacciones financieras, de ventas, de cadenas de suministro… y se unifican para que los responsables de las compañías puedan analizarlos y tomar las decisiones correctas para los negocios.

Tal y como explica la compañía, el mayor problema que tienen estos sistemas es que no es fácil ni barato mantenerlos, escalarlos y ejecutarlos ya que los modelos tradicionales cuentan con múltiples recursos de hardware, software, almacenamiento y redes. Partiendo de esa base ha desarrollado Redshift, que se base en los modelos que ha estado implementado en sus Servicios Web basados en cloud computing.

“Haciendo cálculos encontramos que una oferta media viene a costar entre 19.000 y 25.000 dólares por TeraByte por año. A través de Amazon Redshift los clientes pagarán menos de 1.000 dólares por TeraByte por año, siempre con los mismos niveles de servicio y escalabilidad pero eliminando los quebraderos de cabeza asociados con la administración y la monitorización cuando se gestiona un Data Warehouse propio”.

De ser correcta esta información, estaríamos hablando de una oferta realmente atractiva para aquellas empresas que necesitan manejar datos del orden de PetaBytes.

El proceso de configuración de Amazon Redshift (clic para ampliar)

En el comunicado hecho público desde el blog de Amazon Web Services explican que el proceso de puesta en marcha no puede ser más sencillo:

  1. Aprovisionar un cluster a través de la consola de gestión AWS
  2. Instalar los controladores (JDBC y ODBC)
  3. Obtener un cliente SQL
  4. Cargar los datos

En el lado de la seguridad e integridad de los datos, Amazon propone el almacenamiento en dos instancias hardware exactas, de tal forma que si una falla (los discos están continuamente monitorizados), se cambia a la otra automáticamente.

Pablo Fernández

Informático reconvertido a periodista, Pablo Fernández Torres comenzó su andadura profesional como redactor técnico y coordinador web en la revista PC Actual. Tras 7 años en esta publicación decidió dar el salto al segmento IT profesional para liderar el lanzamiento a finales de 2008 de la cabecera Silicon en España y posteriormente en la región LATAM. En la actualidad ejerce como director editorial Internacional de NetMedia Group, que edita otras publicaciones online como ITespresso, Channelbiz, SiliconWeek, B!T y ZDnet Germany.

Recent Posts

IA y Ciberresiliencia abanderarán el congreso ASLAN2025

Las dos temáticas elegidas por la asociación @aslan estarán muy presentes en el encuentro TIC…

7 horas ago

ISACA y la Academia de Competencias en Ciberseguridad de la UE seguirán colaborando

Vuelven a renovar su alianza para impulsar las competencias en seguridad en el Viejo Continente.

10 horas ago

Dassault Systèmes profundiza en la economía generativa con 3D UNIV+RSES

Esta plataforma, que integra IA generativa en la gestión del ciclo de vida de la…

10 horas ago

Zyxel Networks anuncia el asistente SecuPilot

Se trata de una función de inteligencia artificial que está disponible dentro de SecuReporter Cloud…

11 horas ago

CrowdStrike avanza en las operaciones de seguridad impulsadas por IA autónoma

Anuncia Charlotte AI Detection Triage, que promete detecciones de vulnerabilidades con más de un 98…

12 horas ago

La francesa Converteo abre una filial en Madrid

Escoge España para arrancar su expansión por Europa. La compañía también está presente en Estados…

12 horas ago