M谩s

    OpenAI interrumpe cinco operaciones de influencia encubiertas

    - Advertisement -

    En los 煤ltimos tres meses, AbiertoAI ha interrumpido cinco operaciones de influencia encubierta (IO) que intentaban explotar los modelos de la empresa para actividades enga帽osas en l铆nea. Hasta mayo de 2024, estas campa帽as no han mostrado un aumento sustancial en la participaci贸n o el alcance de la audiencia debido a los servicios de OpenAI.

    OpenAI afirma que su compromiso de dise帽ar modelos de IA teniendo en cuenta la seguridad a menudo ha frustrado los intentos de los actores de amenazas de generar el contenido deseado. Adem谩s, la compa帽铆a afirma que las herramientas de inteligencia artificial han mejorado la eficiencia de las investigaciones de OpenAI.

    Los informes detallados sobre amenazas por parte de las plataformas de distribuci贸n y la comunidad de c贸digo abierto han contribuido significativamente a combatir las IO. OpenAI comparte estos hallazgos para promover el intercambio de informaci贸n y las mejores pr谩cticas entre la comunidad m谩s amplia de partes interesadas.

    Interrupci贸n de IO encubiertas

    En los 煤ltimos tres meses, OpenAI interrumpi贸 varias operaciones de IO utilizando sus modelos para diversas tareas, como generar comentarios breves, crear perfiles falsos en redes sociales, realizar investigaciones de c贸digo abierto, depurar c贸digo simple y traducir textos.

    Las operaciones espec铆ficas interrumpidas incluyen:

    • Mala gram谩tica: Una operaci贸n rusa de la que no se hab铆a informado anteriormente y que ten铆a como objetivo Ucrania, Moldavia, los Estados b谩lticos y Estados Unidos. Este grupo utiliz贸 los modelos de OpenAI para depurar c贸digo para ejecutar un bot de Telegram y crear comentarios pol铆ticos en ruso e ingl茅s, publicados en Telegram.
    • Doble: Otra operaci贸n rusa que genera comentarios en m煤ltiples idiomas en plataformas como X y 9GAG, traduce y edita art铆culos, genera titulares y convierte art铆culos de noticias en publicaciones de Facebook.
    • Spamouflage: Una red china que utiliza los modelos de OpenAI para investigar la actividad de las redes sociales p煤blicas, generar textos en varios idiomas y depurar c贸digo para administrar bases de datos y sitios web.
    • Uni贸n Internacional de Medios Virtuales (IUVM): Una operaci贸n iran铆 que genera y traduce art铆culos extensos, titulares y etiquetas de sitios web, publicados en un sitio web vinculado.
    • Cero Zen贸n: Una empresa comercial en Israel, con operaciones que generan art铆culos y comentarios publicados en m煤ltiples plataformas, incluidas Instagram, Facebook, X y sitios web afiliados.

    El contenido publicado por estas operaciones se centr贸 en diversos temas, incluida la invasi贸n rusa de Ucrania, el conflicto de Gaza, las elecciones indias, la pol铆tica europea y estadounidense y las cr铆ticas al gobierno chino.

    鉂 Tambi茅n te interesa:Arm presenta nuevos dise帽os y software de inteligencia artificial para tel茅fonos inteligentesArm presenta nuevos dise帽os y software de inteligencia artificial para tel茅fonos inteligentes

    A pesar de estos esfuerzos, ninguna de estas operaciones mostr贸 un aumento significativo en la participaci贸n de la audiencia debido a los modelos de OpenAI. Utilizando la escala de ruptura de Brookings, que eval煤a el impacto de las operaciones de informaci贸n encubiertas, ninguna de las cinco operaciones obtuvo una puntuaci贸n superior a 2, lo que indica actividad en m煤ltiples plataformas pero ninguna ruptura en comunidades aut茅nticas.

    Tendencias de los atacantes

    Las investigaciones sobre estas operaciones de influencia revelaron varias tendencias:

    • Generaci贸n de contenido: Los actores de amenazas utilizaron los servicios de OpenAI para generar grandes vol煤menes de texto con menos errores de idioma de los que los operadores humanos podr铆an lograr por s铆 solos.
    • Mezclando lo viejo y lo nuevo: La IA se utiliz贸 junto con formatos tradicionales, como textos escritos manualmente o memes copiados.
    • Fingir compromiso: Algunas redes generaron respuestas a sus propias publicaciones para crear la apariencia de participaci贸n, aunque ninguna logr贸 atraer una participaci贸n aut茅ntica.
    • Ganancias de productividad: Los actores de amenazas utilizaron IA para mejorar la productividad, resumiendo publicaciones en redes sociales y depurando c贸digo.

    Tendencias defensivas

    Las investigaciones de OpenAI se beneficiaron del intercambio de la industria y de la investigaci贸n de c贸digo abierto. Las medidas defensivas incluyen:

    • Dise帽o defensivo: Los sistemas de seguridad de OpenAI impusieron fricciones a los actores de amenazas, impidi茅ndoles a menudo generar el contenido deseado.
    • Investigaci贸n mejorada por IA: Las herramientas impulsadas por IA mejoraron la eficiencia de la detecci贸n y el an谩lisis, reduciendo los tiempos de investigaci贸n de semanas o meses a d铆as.
    • La distribuci贸n importa: El contenido de IO, al igual que el contenido tradicional, debe distribuirse de forma eficaz para llegar a una audiencia. A pesar de sus esfuerzos, ninguna de las operaciones interrumpidas logr贸 un compromiso sustancial.
    • Importancia de compartir la industria: Compartir indicadores de amenazas con pares de la industria aument贸 el impacto de las interrupciones de OpenAI. La empresa se benefici贸 de a帽os de an谩lisis de c贸digo abierto por parte de la comunidad de investigaci贸n en general.
    • El elemento humano: A pesar de utilizar IA, los actores de amenazas eran propensos a cometer errores humanos, como publicar mensajes de rechazo de los modelos de OpenAI en sus redes sociales y sitios web.

    OpenAI dice que sigue dedicado a desarrollar una IA segura y responsable. Esto implica dise帽ar modelos teniendo en cuenta la seguridad e intervenir de forma proactiva contra el uso malicioso.

    Si bien admite que detectar e interrumpir abusos multiplataforma, como operaciones de influencia encubiertas, es un desaf铆o, OpenAI afirma que est谩 comprometido a mitigar los peligros.

    鉂 Tambi茅n te interesa:La UE inaugura una oficina para implementar la Ley de IA y fomentar la innovaci贸nLa UE inaugura una oficina para implementar la Ley de IA y fomentar la innovaci贸n

    (Foto por Chris Yang)

    Ver tambi茅n: La UE inaugura una oficina para implementar la Ley de IA y fomentar la innovaci贸n

    驴Quiere aprender m谩s sobre IA y big data de la mano de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data que tendr谩 lugar en Amsterdam, California y Londres. El evento integral comparte ubicaci贸n con otros eventos importantes, incluidos Conferencia de automatizaci贸n inteligente, bloquex, Semana de la Transformaci贸n Digitaly Exposici贸n de seguridad cibern茅tica y nube.

    Explore otros pr贸ximos eventos y seminarios web de tecnolog铆a empresarial impulsados 鈥嬧媝or TechForge aqu铆.

    Etiquetas: ai, inteligencia artificial, ai generativa, operaciones de influencia, openai

    Fuente: OpenAI interrumpe cinco operaciones de influencia encubiertas

    鉂 Tambi茅n te interesa:TickLab: revolucionando las finanzas con Quant Hedge Fund impulsado por IA y EDITHTickLab: revolucionando las finanzas con Quant Hedge Fund impulsado por IA y EDITH

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.