Polonia inicia una investigación sobre protección de datos contra ChatGPT

En medio de la creciente preocupación por la privacidad, Polonia investiga el cumplimiento del GDPR por parte de ChatGPT de OpenAI.

El famoso sistema de chatbot de IA de OpenAI, ChatGPT, vuelve a ser objeto de escrutinio para comprobar si cumple la legislación de la UE sobre protección de datos. Tras una denuncia presentada en Polonia, las autoridades locales han confirmado públicamente el inicio de una investigación.

Las acusaciones

La Oficina Polaca de Protección de Datos Personales (UODO) está examinando la denuncia contra ChatGPT, en la que se acusa a OpenAI de procesar datos de forma ilícita y poco clara. La autoridad hizo hincapié en el desafío, dada la ubicación de OpenAI fuera de la UE y la tecnología innovadora del chatbot de IA generativa que se está examinando.

Jan Nowak, presidente de la UODO, declaró que el caso afecta a varias disposiciones del GDPR y exige que OpenAI responda a una serie de preguntas para garantizar una revisión exhaustiva.

Jakub Groszkowski, vicepresidente de la UODO, reiteró que las entidades deben cumplir el GDPR independientemente de los avances tecnológicos. La denuncia cuestiona que OpenAI cumpla las normas europeas de protección de datos.

Cuestiones básicas

La denuncia, presentada por el investigador de privacidad y seguridad Lukasz Olejnik, se centra en la incapacidad de OpenAI para corregir los datos personales erróneos creados por ChatGPT sobre él. Además, afirma que OpenAI no ha respondido satisfactoriamente a su solicitud de acceso a los datos y ha proporcionado respuestas vagas y contradictorias.

La tecnología subyacente de ChatGPT, un denominado gran modelo lingüístico (LLM), se entrenó con una gran variedad de datos, a veces sin consentimiento. Este método de recopilación de datos y la generación ocasional de información falsa sobre las personas han hecho que ChatGPT entre en conflicto con la normativa de la UE.

Un contexto más amplio

Esta investigación es un capítulo más en la creciente lista de retos normativos a los que se enfrenta OpenAI en la UE. Anteriormente, la Autoridad de Protección de Datos (APD) italiana había suspendido temporalmente ChatGPT, y la APD española ha iniciado una investigación. Además, un grupo de trabajo creado a través del Consejo Europeo de Protección de Datos está examinando las tecnologías de chatbot de IA, allanando el camino para un enfoque unificado de la regulación de dichas tecnologías en toda la UE.

A pesar de estos retos, OpenAI intenta navegar por el complejo panorama normativo de la UE. La empresa ha abierto recientemente una oficina en Dublín, posiblemente para optimizar sus interacciones normativas en el ámbito de la protección de datos. Sin embargo, como la toma de decisiones sigue produciéndose en la sede de EE.UU., las DPA de toda la UE conservan la jurisdicción para investigar los problemas con ChatGPT en sus regiones.

Maciej Gawronski, de GP Partners, en representación de Olejnik, expresó su esperanza de un diálogo constructivo con OpenAI en relación con el cumplimiento del GDPR por parte de ChatGPT. Sin embargo, OpenAI aún no ha hecho comentarios sobre la investigación en curso.

Palabra final

La evolución del panorama de la IA y sus interacciones con las leyes de protección de datos ponen de relieve la necesidad de claridad y adaptación por ambas partes. Las experiencias de OpenAI en la UE podrían aportar valiosas lecciones a todo el sector tecnológico para alinear la innovación con la protección de datos.


Publicado en

en

por