OpenAI está en escrutinio en la Unión Europea otra vez, esta vez se acabó ChatGPT alucinaciones sobre personas.
Un grupo sin fines de lucro de derechos de privacidad llamado noyb presentó una queja el lunes ante la Autoridad Austriaca de Protección de Datos (DPA) contra la compañía de inteligencia artificial en nombre de un individuo por no corregir la información generada por ChatGPT sobre las personas.
A pesar de alucinacioneso la tendencia de grandes modelos de lenguaje (LLM) como ChatGPT a inventar información falsa o sin sentido, son centros comunes de quejas sobre el Reglamento General de Protección de Datos de la UE (GDPR). regula cómo se procesan los datos personales de las personas en el bloque se recoge y almacena.
A pesar de los requisitos del GDPR, «OpenAI admite abiertamente que no puede corregir información incorrecta en ChatGPT», dijo noyb en un comunicado, y agregó que la compañía tampoco «puede decir de dónde provienen los datos o qué datos almacena ChatGPT sobre personas individuales», y que es «muy consciente de este problema, pero no parece importarle».
Según el GDPR, las personas en la UE tienen derecho a que se corrija la información incorrecta sobre ellos, lo que hace que OpenAI no cumpla debido a su incapacidad para corregir los datos, dijo noyb en su queja.
Si bien las alucinaciones “pueden ser tolerables” para las tareas, Noyb dijo que son “inaceptables” cuando se trata de generar información sobre las personas. En el caso de Noyb contra OpenAI, se trata de un individuo público que preguntó a ChatGPT sobre su cumpleaños, pero «repetidamente se le proporcionó información incorrecta», según noyb. Luego, OpenAI supuestamente «rechazó su solicitud de rectificar o eliminar los datos, argumentando que no era posible corregirlos». , OpenAI supuestamente le dijo al denunciante que podía filtrar o bloquear los datos según determinadas indicaciones, como el nombre del denunciante.
El grupo pide a la DPA que investigue cómo OpenAI procesa los datos y cómo la empresa garantiza datos personales precisos en la formación de sus LLM. Noyb también está pidiendo a la DPA que ordene a OpenAI que cumpla con la solicitud del denunciante de acceder a los datos. justo bajo el GDPR que requiere que las empresas mostrar a los individuos qué datos tienen sobre ellos y cuáles son las fuentes de esos datos.
OpenAI no respondió de inmediato a una solicitud de comentarios.
«La obligación de cumplir con las solicitudes de acceso se aplica a todas las empresas», afirmó Maartje de Graaf, abogado de protección de datos de noyb, en un comunicado. «Es claramente posible mantener registros de los datos de formación que se utilizaron para al menos tener una idea sobre las fuentes de información. Parece que con cada ‘innovación’, otro grupo de empresas piensa que sus productos no tienen que cumplir con los ley.»
El incumplimiento de las normas del RGPD puede dar lugar a sanciones de hasta 20 millones de euros o el 4% de la facturación anual mundial —cualquiera que sea el valor más alto—y aún más daño si los individuos deciden buscarlos. OpenAI ya se enfrenta a casos similares de protección de datos en los estados miembros de la UE Italia y Polonia.
Este artículo apareció originalmente en Cuarzo.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, puede haber ligeras diferencias. Para la versión original, haga clic aquí.