La Pologne ouvre une enquête sur la protection des données à l'encontre de ChatGPT

Dans un contexte de préoccupations croissantes en matière de protection de la vie privée, la Pologne enquête sur la conformité au GDPR de la solution ChatGPT d'OpenAI.

Le célèbre système de chatbot d'OpenAI, ChatGPT, fait une nouvelle fois l'objet d'un examen minutieux quant à sa conformité avec les lois européennes sur la protection des données. À la suite d'une plainte déposée en Pologne, les autorités locales ont confirmé publiquement l'ouverture d'une enquête.

Les allégations

L'Office polonais de protection des données personnelles (UODO) examine la plainte déposée contre ChatGPT, dans laquelle OpenAI est accusée d'avoir traité des données de manière illégale et peu claire. L'autorité a souligné le défi que représente la localisation d'OpenAI en dehors de l'UE et la technologie révolutionnaire du chatbot d'IA générative qui fait l'objet de l'examen.

Jan Nowak, le président de l'UODO, a déclaré que l'affaire concernait plusieurs dispositions du GDPR et exigeait qu'OpenAI réponde à une série de questions afin de garantir un examen approfondi.

Jakub Groszkowski, vice-président de l'UODO, a rappelé que les entités doivent se conformer au GDPR indépendamment des avancées technologiques. La plainte met en cause la conformité d'OpenAI avec les normes européennes en matière de protection des données.

Questions essentielles

La plainte, déposée par le chercheur en sécurité et en protection de la vie privée Lukasz Olejnik, porte sur l'incapacité d'OpenAI à corriger les données personnelles erronées créées par ChatGPT à son sujet. En outre, il affirme qu'OpenAI n'a pas répondu de manière satisfaisante à sa demande d'accès aux données et a fourni des réponses vagues et contradictoires.

La technologie sous-jacente de ChatGPT, un modèle linguistique de grande taille (LLM), a été entraînée à l'aide d'une variété de données, parfois sans consentement. Cette méthode de collecte de données et la production occasionnelle de fausses informations sur les individus ont mis ChatGPT en conflit avec les réglementations de l'UE.

Un contexte plus large

Cette enquête est un nouveau chapitre dans la liste croissante des défis réglementaires auxquels OpenAI est confrontée dans l'UE. Précédemment, l'autorité italienne de protection des données (DPA) avait temporairement suspendu ChatGPT, et la DPA espagnole a ouvert une enquête. De plus, un groupe de travail mis en place par le Conseil européen de la protection des données examine les technologies de chatbot d'IA, ouvrant la voie à une approche unifiée de la réglementation de ces technologies dans l'UE.

Malgré ces défis, OpenAI tente de naviguer dans le paysage réglementaire complexe de l'UE. L'entreprise a récemment ouvert un bureau à Dublin, peut-être pour optimiser ses interactions réglementaires dans le domaine de la protection des données. Toutefois, comme les décisions continuent d'être prises au siège des États-Unis, les autorités chargées de la protection des données dans l'ensemble de l'Union européenne restent compétentes pour enquêter sur les problèmes liés à ChatGPT dans leurs régions respectives.

Maciej Gawronski de GP Partners, représentant Olejnik, a exprimé l'espoir d'un dialogue constructif avec OpenAI concernant la conformité de ChatGPT au GDPR. Cependant, OpenAI n'a pas encore commenté l'enquête en cours.

Mot de la fin

L'évolution du paysage de l'IA et ses interactions avec les lois sur la protection des données soulignent le besoin de clarté et d'adaptation de part et d'autre. L'expérience de l'OpenAI dans l'UE pourrait être riche d'enseignements pour l'ensemble de l'industrie technologique afin d'aligner l'innovation sur la protection des données.


Affiché

en

par