Italia bloquea el uso de OpenAI y su popular herramienta ChatGPT

El país transalpino ha ordenado la limitación temporal de su procesamiento de datos por un presunto incumplimiento de la RGPD.

Italia ha abierto una investigación a través de la entidad Garante per la Protezione dei dati personali para estudiar si OpenAI cumple el Reglamento General de Protección de Datos europeo (RGPD).

El organismo regulador del país transalpino ha ordenado, en consecuencia, la limitación temporal del procesamiento de datos que corresponden a usuarios italianos por parte de OpenAI. Esto afecta, por tanto, a su popular herramienta ChatGPT.

Esta medida se produce tras la filtración sufrida por la solución de inteligencia artificial, que ha expuesto conversaciones, datos de facturación y tarjetas de crédito.

Se trata de una decisión que pone en tela de juicio la relación entre seguridad e inteligencia artificial y podría desencadenar las acciones de otros países o de la propia Unión Europea.

Las autoridades italianas señalan que ChatGPT “no proporciona ninguna información a los usuarios, ni a los interesados cuyos datos han sido recopilados por OpenAI” y apuntan a “la ausencia de una base jurídica adecuada en relación con la recopilación de datos personales y su tratamiento”, como incumplimiento de los artículos 5, 6, 8, 13 y 25 de la RGPD.

Preocupación en la industria

El ingeniero de seguridad de Check Point Software Paal Aaserudseter identifica “el potencial del uso indebido de datos” como una de las “mayores preocupaciones con respecto a ChatGPT”.

“El problema en cuestión es que la mayoría de los usuarios no son conscientes del riesgo que implica cargar este tipo de información sensible“, indica. “Con suerte, el efecto positivo en Italia de la prohibición de ChatGPT es que la Ley de IA de la UE entrará en vigor mucho más rápido“.

ChatGPT no sólo está causando furor entre unos usuarios y preocupación entre otros. También está en el punto de mira de los ciberdelincuentes, que ya están aprovechando su tecnología para automatizar procesos y crear campañas de phishing dirigidas.

Para mitigar los riesgos asociados con la inteligencia artificial, los expertos defienden la colaboración entre investigadores y legisladores para el establecimiento de pautas éticas, la promoción de la transparencia o la priorización de seguridad y privacidad.