Alemania investiga al ChatGPT de OpenAI por posible incuplimiento de privacidad de datos

chatgpt episodio black mirror

Alemania se convierte en la última nación europea en cuestionar oficialmente el cumplimiento del GDPR por parte de OpenAI.

OpenAI se enfrenta a otro obstáculo en su intento de seguir haciendo negocios en la Unión Europea, ya que las autoridades alemanas han iniciado una investigación sobre las prácticas de privacidad de la empresa y el cumplimiento del Reglamento General de Protección de Datos (RGPD).

Según informa Agence France-Presse, los reguladores alemanes exigen respuestas sobre las intenciones de la empresa y su capacidad para cumplir las estrictas leyes de privacidad de datos consagradas en el GDPR de la UE.

Marit Hansen, comisaria del estado de Schleswig-Holstein, en el norte de Alemania, dijo a los periodistas de AFP que los reguladores de Alemania “quieren saber si se ha llevado a cabo una evaluación de impacto de la protección de datos y si los riesgos de protección de datos están bajo control.” El comisario añadió que el país también estaba pidiendo a OpenAI “información sobre cuestiones derivadas del Reglamento General de Protección de Datos europeo.”

Aunque esta noticia no es una sorpresa -los grupos de vigilancia alemanes han recomendado recientemente un mayor escrutinio-, se suma a una situación ya de por sí compleja para OpenAI.

La empresa lanzó su modelo GPT-4 a mediados de marzo. Desde entonces, OpenAI se ha enfrentado a un creciente escrutinio por parte de los organismos reguladores, especialmente europeos. Italia ha sido el primer país occidental en prohibir los productos. Al mismo tiempo, la empresa y los reguladores locales están resolviendo si OpenAI puede cumplir el GDPR y las leyes de privacidad italianas.

Por el momento no está claro cómo piensa responder OpenAI (no se han recibido respuestas inmediatas a las solicitudes de comentarios), pero los reguladores alemanes han señalado que esperan que la empresa responda a sus preguntas a más tardar el 11 de junio.

Básicamente, los principales problemas planteados por los reguladores europeos se refieren a los datos de entrenamiento utilizados para construir los modelos de inteligencia artificial de GPT. Actualmente, los usuarios no pueden optar por que no se incluyan sus datos, ni pueden corregir los modelos si cometen un error.

Según el RGPD, las personas tienen derecho a que sus datos se modifiquen para reflejar la exactitud o se eliminen por completo de los sistemas.

En medio de esta situación se encuentran los numerosos usuarios de OpenAI, especialmente los que pagan cuotas de suscripción premium por el acceso personal y empresarial a la API GPT de la empresa.

Los operadores y analistas de criptomonedas que creen bots avanzados sobre la propia API, o los que utilicen aplicaciones de terceros basadas en la API para pronosticar el mercado u operar de forma autónoma en la UE, podrían verse envueltos en litigios vinculantes o prohibiciones generalizadas.

Si tal prohibición entra en vigor, podría obligar a cualquier empresa o particular que utilice estos bots para el comercio y el análisis de criptomonedas -incluidas las bolsas, los sitios de noticias y las empresas de blockchain- a realizar tales operaciones fuera de la UE.

Related Posts