ChatGPT incumple el RGPD pero no parece que importe. Esta demanda puede conseguir que Europa actúe

OpenAI enfrenta desafíos significativos en Europa en relación con las normativas de protección de datos. La autoridad italiana ha sido especialmente crítica con ChatGPT, prohibiéndolo temporalmente en 2023 por incumplimientos con el Reglamento General de Protección de Datos (RGPD) de la UE. Aunque se permitió su vuelta tras hacer cambios, expertos en protección de datos sugieren que estos son insuficientes. El principal problema radica en que ChatGPT puede inventar información sobre personas, violando el artículo 5 del RGPD, que demanda precisión en los datos personales y permite a los usuarios solicitar rectificaciones. OpenAI no ha mostrado transparencia sobre las fuentes de datos usadas, un aspecto que el RGPD requiere.

Una tasa de invención de datos entre el 3% y el 27% pone de manifiesto la gravedad del problema. Además, se ha presentado una demanda contra OpenAI por parte de NOYB, una organización defensora de los derechos digitales liderada por Max Schrems, conocida por su activismo en la protección de datos en Europa. La demanda, realizada en Austria, busca exponer a OpenAI a sanciones económicas significativas bajo la Ley de Servicios Digitales de la UE, que podría llevar a multas de hasta el 4% de su facturación global anual.

OpenAI ha argumentado su incapacidad para controlar o rectificar la información generada por ChatGPT, diciendo que su modelo de IA puede filtrar o bloquear ciertos prompts pero no modificar su base de datos fundacional. Mientras tanto, la respuesta de las autoridades de protección de datos europeas parece lenta, aún cuando NOYB pide acciones decisivas. Se ha creado un grupo de trabajo para investigar estas preocupaciones, pero los avances han sido limitados. La situación de ChatGPT en Europa sigue siendo ambigua, con retos legales pendientes de resolución.