Más

    OpenAI enfrenta queja por resultados ficticios

    - Advertisement -

    Grupo europeo de defensa de la protección de datos noyb ha presentado una denuncia contra AbiertoAI por la incapacidad de la empresa para corregir información inexacta generada por ChatGPT. El grupo alega que el hecho de que OpenAI no garantice la exactitud de los datos personales procesados ​​por el servicio viola el Reglamento General de Protección de Datos (GDPR) en la Unión Europea.

    “Inventar información falsa es bastante problemático en sí mismo. Pero cuando se trata de información falsa sobre personas, puede haber consecuencias graves”, afirmó Maartje de Graaf, abogado de protección de datos de noyb.

    “Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la legislación de la UE cuando procesan datos sobre individuos. Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir con los requisitos legales y no al revés”.

    El RGPD exige que los datos personales sean exactos y las personas tienen derecho a rectificación si los datos son inexactos, así como derecho a acceder a información sobre los datos procesados ​​y sus fuentes. Sin embargo, OpenAI ha admitido abiertamente que no puede corregir la información incorrecta generada por ChatGPT ni revelar las fuentes de los datos utilizados para entrenar el modelo.

    «La precisión objetiva en grandes modelos lingüísticos sigue siendo un área de investigación activa», ha argumentado OpenAI.

    El grupo de defensa destaca un New York Times informe que encontró que los chatbots como ChatGPT «inventan información al menos el 3 por ciento de las veces, y hasta el 27 por ciento». En la denuncia contra OpenAI, noyb cita un ejemplo en el que ChatGPT proporcionó repetidamente una fecha de nacimiento incorrecta del denunciante, una figura pública, a pesar de las solicitudes de rectificación.

    ❯ También te interesa:Ofrecer soluciones de IA transformadoras de forma responsableOfrecer soluciones de IA transformadoras de forma responsable

    «A pesar de que la fecha de nacimiento del denunciante proporcionada por ChatGPT es incorrecta, OpenAI rechazó su solicitud de rectificar o borrar los datos, argumentando que no era posible corregir los datos», afirmó noyb.

    OpenAI afirmó que podía filtrar o bloquear datos según ciertas indicaciones, como el nombre del denunciante, pero no sin impedir que ChatGPT filtre toda la información sobre el individuo. La empresa tampoco respondió adecuadamente a la solicitud de acceso del denunciante, que el RGPD exige que las empresas cumplan.

    “La obligación de cumplir con las solicitudes de acceso aplica para todas las empresas. Es claramente posible mantener registros de los datos de entrenamiento que se utilizaron para al menos tener una idea sobre las fuentes de información”, dijo de Graaf. «Parece que con cada ‘innovación’, otro grupo de empresas piensa que sus productos no tienen por qué cumplir la ley».

    Los organismos europeos de vigilancia de la privacidad ya han examinado las imprecisiones de ChatGPT: la Autoridad Italiana de Protección de Datos impuso una restricción temporal al procesamiento de datos de OpenAI en marzo de 2023 y la Junta Europea de Protección de Datos estableció un grupo de trabajo sobre ChatGPT.

    En su denuncia, noyb solicita a la Autoridad de Protección de Datos de Austria que investigue el procesamiento de datos de OpenAI y las medidas para garantizar la exactitud de los datos personales procesados ​​por sus grandes modelos lingüísticos. El grupo de defensa también solicita que la autoridad ordene a OpenAI que cumpla con la solicitud de acceso del denunciante, alinee su procesamiento con el GDPR e imponga una multa para garantizar el cumplimiento futuro.

    Puedes leer la denuncia completa aquí (PDF)

    ❯ También te interesa:OpenAI toma medidas para impulsar la transparencia del contenido generado por IAOpenAI toma medidas para impulsar la transparencia del contenido generado por IA

    (Foto por Gruta Eleonora Francesca)

    Ver también: Igor Jablokov, Pryon: Construyendo un futuro de IA responsable

    ¿Quiere aprender más sobre IA y big data de la mano de los líderes de la industria? Verificar Exposición de IA y Big Data que tendrá lugar en Amsterdam, California y Londres. El evento integral comparte ubicación con otros eventos importantes, incluidos bloquex, Semana de la Transformación Digitaly Exposición de seguridad cibernética y nube.

    Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

    Etiquetas: ai, alucinaciones, ética, europa, ue, europa, gdpr, gobierno, inteligencia artificial, intimidad, legal, ley, modelo de lenguaje grande, noyb, openai, sociedad, unión europea

    ❯ También te interesa:Integraciones de Airflow listas para producción con herramientas críticas de IAIntegraciones de Airflow listas para producción con herramientas críticas de IA

    Fuente: OpenAI enfrenta queja por resultados ficticios

    Populares

    Más de esta categoría

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aquí

    Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.