Más

    OpenAI toma medidas para impulsar la transparencia del contenido generado por IA

    - Advertisement -

    AbiertoAI se une a la Coalición para la procedencia y autenticidad del contenido (C2PA) e integrará los metadatos del estándar abierto en sus modelos de IA generativa para aumentar la transparencia en torno al contenido generado.

    El estándar C2PA permite certificar el contenido digital con metadatos que demuestren su origen, ya sea creado íntegramente por IA, editado con herramientas de IA o capturado de forma tradicional. OpenAI ya ha comenzado a agregar metadatos C2PA a las imágenes de su último modelo DALL-E 3 en ChatGPT y la API de OpenAI. Los metadatos se integrarán en el próximo modelo de generación de video de OpenAI, Sora, cuando se lance de manera más amplia.

    «Las personas aún pueden crear contenido engañoso sin esta información (o pueden eliminarlo), pero no pueden falsificar o alterar esta información fácilmente, lo que la convierte en un recurso importante para generar confianza», explicó OpenAI.

    La medida se produce en medio de crecientes preocupaciones sobre la posibilidad de que el contenido generado por IA engañe a los votantes antes de las elecciones importantes en los EE. UU., el Reino Unido y otros países de este año. La autenticación de los medios creados por IA podría ayudar a combatir los deepfakes y otros contenidos manipulados destinados a campañas de desinformación.

    Si bien las medidas técnicas ayudan, OpenAI reconoce que permitir la autenticidad del contenido en la práctica requiere una acción colectiva de las plataformas, los creadores y los manejadores de contenido para retener los metadatos para los consumidores finales.

    Además de la integración de C2PA, OpenAI está desarrollando nuevos métodos de procedencia, como marcas de agua a prueba de manipulaciones para clasificadores de detección de audio e imágenes para identificar imágenes generadas por IA.

    OpenAI ha abierto solicitudes para acceder a su clasificador de detección de imágenes DALL-E 3 a través de su Programa de Acceso a Investigadores. La herramienta predice la probabilidad de que una imagen se origine a partir de uno de los modelos de OpenAI.

    «Nuestro objetivo es permitir una investigación independiente que evalúe la efectividad del clasificador, analice su aplicación en el mundo real, surja consideraciones relevantes para dicho uso y explore las características del contenido generado por IA», dijo la compañía.

    Las pruebas internas muestran una alta precisión al distinguir las imágenes sin IA de las imágenes DALL-E 3, con alrededor del 98 % de las imágenes DALL-E identificadas correctamente y menos del 0,5 % de las imágenes sin IA marcadas incorrectamente. Sin embargo, el clasificador tiene más dificultades para diferenciar entre las imágenes producidas por DALL-E y otros modelos de IA generativa.

    OpenAI también ha incorporado marcas de agua en su modelo de voz personalizado Voice Engine, actualmente en versión preliminar limitada.

    La compañía cree que una mayor adopción de estándares de procedencia conducirá a que los metadatos acompañen al contenido durante todo su ciclo de vida para llenar «un vacío crucial en las prácticas de autenticidad del contenido digital».

    OpenAI se une a Microsoft para lanzamiento un fondo de resiliencia social de $2 millones para apoyar la educación y la comprensión de la IA, incluso a través de AARP, IDEA Internacional y la Asociación sobre IA.

    «Si bien soluciones técnicas como las anteriores nos brindan herramientas activas para nuestras defensas, habilitar efectivamente la autenticidad del contenido en la práctica requerirá una acción colectiva», afirma OpenAI.

    “Nuestros esfuerzos en torno a la procedencia son solo una parte de un esfuerzo más amplio de la industria: muchos de nuestros laboratorios de investigación pares y empresas de IA generativa también están avanzando en la investigación en esta área. Elogiamos estos esfuerzos: la industria debe colaborar y compartir ideas para mejorar nuestra comprensión y continuar promoviendo la transparencia en línea”.

    (Foto por Marc Sendra Martorell)

    Ver también: Chuck Ros, SoftServe: Ofrecer soluciones de IA transformadoras de forma responsable

    ¿Quiere aprender más sobre IA y big data de la mano de los líderes de la industria? Verificar Exposición de IA y Big Data que tendrá lugar en Ámsterdam, California y Londres. El evento integral comparte ubicación con otros eventos importantes, incluidos Conferencia de automatización inteligente, bloquex, Semana de la Transformación Digitaly Exposición de seguridad cibernética y nube.

    Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

    Etiquetas: ai, inteligencia artificial, c2pa, ética, genai, ai generativa, openai, sociedad

    Fuente: OpenAI toma medidas para impulsar la transparencia del contenido generado por IA

    Populares

    Más de esta categoría

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aquí

    Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.