Más

    La herramienta OpenAI tiene como objetivo descubrir texto generado por IA

    - Advertisement -

    IA abierta ha lanzado una herramienta para detectar texto generado utilizando servicios como el suyo ChatGPT.

    Los modelos de IA generativa utilizados para servicios como ChatGPT han planteado muchas preguntas sociales y éticas: ¿Podrían utilizarse para generar información errónea a una escala sin precedentes? ¿Qué pasa si los estudiantes hacen trampa usándolos? ¿Se debe acreditar un AI cuando se utilizan extractos para artículos o documentos?

    A papel (PDF) del Centro sobre Terrorismo, Extremismo y Contraterrorismo del Instituto de Estudios Internacionales de Middlebury incluso descubrió que GPT-3 es capaz de generar texto «influyente» que tiene el potencial de radicalizar a las personas en ideologías extremistas de extrema derecha.

    OpenAI se fundó para promover y desarrollar una «IA amigable» que beneficie a la humanidad. Como creador de poderosos modelos de IA generativa como GPT y DALL-E, OpenAI tiene la responsabilidad de garantizar que sus creaciones tengan medidas de seguridad para evitar, o al menos minimizar, su uso con fines dañinos.

    La nueva herramienta lanzada esta semana afirma ser capaz de distinguir el texto escrito por un humano del de una IA (no solo GPT). Sin embargo, Open AI advierte que actualmente no es confiable.

    En un conjunto de desafíos de textos en inglés, OpenAI dice que su herramienta solo identifica el 26 por ciento del texto escrito por IA como «probablemente escrito por IA». La herramienta clasifica falsamente el texto escrito por humanos alrededor del nueve por ciento de las veces.

    “Si bien es imposible detectar de manera confiable todo el texto escrito por IA, creemos que los buenos clasificadores pueden informar las mitigaciones de afirmaciones falsas de que el texto generado por IA fue escrito por un humano: por ejemplo, ejecutar campañas automatizadas de desinformación, usar herramientas de IA para la deshonestidad académica, y posicionar un chatbot de IA como un ser humano”, dice OpenAI.

    “[The tool] no debe usarse como una herramienta principal para la toma de decisiones, sino como un complemento de otros métodos para determinar la fuente de un texto”.

    Otras limitaciones clave de la herramienta son que es «muy poco confiable» en textos cortos de menos de 1,000 caracteres y es «significativamente peor» cuando se aplica a textos que no están en inglés.

    OpenAI originalmente proporcionó acceso a GPT a un pequeño número de investigadores y desarrolladores de confianza. Si bien desarrolló salvaguardas más sólidas, luego se introdujo una lista de espera. La lista de espera se eliminó en noviembre de 2021, pero el trabajo para mejorar la seguridad es un proceso continuo.

    “Para garantizar que las aplicaciones respaldadas por API se construyan de manera responsable, brindamos herramientas y ayudamos a los desarrolladores a usar las mejores prácticas para que puedan llevar sus aplicaciones a producción de manera rápida y segura”, escribió OpenAI en una entrada de blog.

    “A medida que nuestros sistemas evolucionan y trabajamos para mejorar las capacidades de nuestras protecciones, esperamos continuar simplificando el proceso para los desarrolladores, refinando nuestras pautas de uso y permitiendo aún más casos de uso con el tiempo”.

    OpenAI compartió recientemente su opinión de que hay demasiada publicidad en torno a la próxima versión principal de GPT, GPT-4, y que la gente «ruega que se sienta decepcionada». También cree que vendrá un modelo de generación de video, pero no fijará cuándo.

    Los videos que han sido manipulados con tecnología de IA, también conocidos como deepfakes, ya están demostrando ser problemáticos. Las personas se convencen fácilmente de lo que pensar ellos pueden ver.

    Hemos visto deepfakes de figuras como el deshonrado fundador de FTX, Sam Bankman-Fried cometer fraudeel presidente de Ucrania, Volodymyr Zelenskyy, para desinformar, y la presidenta de la Cámara de Representantes de EE. UU., Nancy Pelosi difamar y hacerla parecer borracha.

    OpenAI está haciendo lo correcto al tomarse su tiempo para minimizar los riesgos, mantener las expectativas bajo control y crear herramientas para descubrir contenido que afirma falsamente haber sido creado por un humano.

    Puede probar la herramienta de trabajo en progreso de OpenAI para detectar texto generado por IA aquí. Investigadores de la Universidad de Stanford están creando una alternativa llamada ‘DetectGPT’ y está disponible para demostración aquí.

    (Foto por Shane Aldendorff en Unsplash)

    Relacionado: OpenAI abre lista de espera para la versión paga de ChatGPT

    ¿Quiere aprender más sobre IA y big data de los líderes de la industria? Verificar Exposición de IA y Big Data teniendo lugar en Ámsterdam, California y Londres.

    Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

    Etiquetas: ai, inteligencia artificial, chatgpt, ética, ai generativa, openai, sociedad, generador de texto, herramienta

    Fuente: La herramienta OpenAI tiene como objetivo descubrir texto generado por IA

    Populares

    Más de esta categoría

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aquí

    Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.