M√°s

    Microsoft detalla el jailbreak con inteligencia artificial ‘Skeleton Key’

    - Advertisement -

    Microsoft tiene revelado un nuevo tipo de ataque de jailbreak de IA denominado ‚ÄúSkeleton Key‚ÄĚ, que puede eludir las barreras de seguridad de la IA responsable en m√ļltiples modelos de IA generativa. Esta t√©cnica, capaz de subvertir la mayor√≠a de las medidas de seguridad integradas en los sistemas de IA, destaca la necesidad cr√≠tica de medidas de seguridad s√≥lidas en todas las capas de la pila de IA.

    El jailbreak de Skeleton Key emplea una estrategia de m√ļltiples turnos para convencer a un modelo de IA de que ignore sus salvaguardas incorporadas. Una vez que tiene √©xito, el modelo deja de poder distinguir entre solicitudes maliciosas o no autorizadas y solicitudes leg√≠timas, lo que efectivamente otorga a los atacantes control total sobre la salida de la IA.

    El equipo de investigación de Microsoft probó con éxito la técnica Skeleton Key en varios modelos de IA destacados, incluidos Llama3-70b-instruct de Meta, Gemini Pro de Google, GPT-3.5 Turbo y GPT-4 de OpenAI, Mistral Large, Claude 3 Opus de Anthropic y Cohere Commander R Plus. .

    Todos los modelos afectados cumplieron plenamente con las solicitudes en varias categorías de riesgo, incluidos explosivos, armas biológicas, contenido político, autolesiones, racismo, drogas, sexo explícito y violencia.

    El ataque funciona ordenando al modelo que aumente sus pautas de comportamiento, convenci√©ndolo de responder a cualquier solicitud de informaci√≥n o contenido y al mismo tiempo advirtiendo si el resultado podr√≠a considerarse ofensivo, da√Īino o ilegal. Este enfoque, conocido como ‚Äúexpl√≠cito: seguimiento forzado de instrucciones‚ÄĚ, result√≥ eficaz en m√ļltiples sistemas de IA.

    ¬ęAl eludir las salvaguardas, Skeleton Key permite al usuario hacer que el modelo produzca comportamientos normalmente prohibidos, que podr√≠an ir desde la producci√≥n de contenido da√Īino hasta anular sus reglas habituales de toma de decisiones¬Ľ, explic√≥ Microsoft.

    ‚ĚĮ Tambi√©n te interesa:OpenAI cierra la puerta a ChinaOpenAI cierra la puerta a China

    En respuesta a este descubrimiento, Microsoft ha implementado varias medidas de protección en sus ofertas de IA, incluidos los asistentes Copilot AI.

    Microsoft dice que también ha compartido sus hallazgos con otros proveedores de IA a través de procedimientos de divulgación responsable y ha actualizado sus modelos administrados por Azure AI para detectar y bloquear este tipo de ataque utilizando Prompt Shields.

    Para mitigar los riesgos asociados con Skeleton Key y t√©cnicas similares de jailbreak, Microsoft recomienda un enfoque de m√ļltiples capas para los dise√Īadores de sistemas de IA:

    • Filtrado de entrada para detectar y bloquear entradas potencialmente da√Īinas o maliciosas
    • Ingenier√≠a r√°pida y cuidadosa de mensajes del sistema para reforzar el comportamiento apropiado
    • Filtrado de salida para evitar la generaci√≥n de contenidos que infrinjan los criterios de seguridad
    • Sistemas de vigilancia de abusos Entrenado en ejemplos adversarios para detectar y mitigar contenido o comportamientos problem√°ticos recurrentes

    Microsoft también ha actualizado su PyRIT (Python Risk Identification Toolkit) incluirá Skeleton Key, lo que permitirá a los desarrolladores y equipos de seguridad probar sus sistemas de IA contra esta nueva amenaza.

    El descubrimiento de la técnica de jailbreak Skeleton Key subraya los desafíos actuales para proteger los sistemas de inteligencia artificial a medida que se vuelven más frecuentes en diversas aplicaciones.

    (Foto por Matt Artz)

    ‚ĚĮ Tambi√©n te interesa:SoftBank lanza empresa de atenci√≥n m√©dica con Tempus AISoftBank lanza empresa de atenci√≥n m√©dica con Tempus AI

    Ver también: Un grupo de expertos pide un sistema de notificación de incidentes mediante IA

    ¬ŅQuiere aprender m√°s sobre IA y big data de la mano de los l√≠deres de la industria? Verificar Exposici√≥n de IA y Big Data que tendr√° lugar en √Āmsterdam, California y Londres. El evento integral comparte ubicaci√≥n con otros eventos importantes, incluidos Conferencia de automatizaci√≥n inteligente, bloquex, Semana de la Transformaci√≥n Digitaly Exposici√≥n de ciberseguridad y la nube.

    Explore otros pr√≥ximos eventos y seminarios web de tecnolog√≠a empresarial impulsados ‚Äč‚Äčpor TechForge aqu√≠.

    Etiquetas: ai, inteligencia artificial, ciberseguridad, exploit, jailbreak, microsoft, ingeniería rápida, seguridad, llave maestra, vulnerabilidad

    Fuente: Microsoft detalla el jailbreak con inteligencia artificial ‚ÄėSkeleton Key‚Äô

    ‚ĚĮ Tambi√©n te interesa:La UE investiga los acuerdos de inteligencia artificial entre Microsoft y OpenAI y Google y SamsungLa UE investiga los acuerdos de inteligencia artificial entre Microsoft y OpenAI y Google y Samsung

    Populares

    Más de esta categoría

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aquí

    Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.