M谩s

    El riesgo y la recompensa de ChatGPT en ciberseguridad

    - Advertisement -

    A menos que haya estado en un retiro en alg煤n lugar remoto sin acceso a Internet durante los 煤ltimos meses, es probable que est茅 al tanto de la exageraci贸n y el miedo que ha habido. ChatGPT, el chatbot de inteligencia artificial (IA) desarrollado por OpenAI. Tal vez hayas visto art铆culos sobre acad茅mica y maestros preocup谩ndose de que har谩 que hacer trampa sea m谩s f谩cil que nunca. En el otro lado de la moneda, es posible que haya visto los art铆culos que evangelizan todos los ChatGPT aplicaciones potenciales.

    Alternativamente, es posible que le hayan hecho cosquillas algunos de los ejemplos m谩s esot茅ricos de personas que usan la herramienta. Un usuario, por ejemplo, consigui贸 que escribiera una gu铆a de instrucciones para sacar s谩ndwiches de mantequilla de man铆 de una VCR en el estilo de la Biblia King James. Otro le pidi贸 que escribiera una canci贸n al estilo de Nick Cave; el cantante era menos que entusiasmado sobre los resultados

    Pero en medio de toda esa exageraci贸n y discusi贸n, no se ha prestado suficiente atenci贸n a los riesgos y recompensas que las herramientas de IA como ChatGPT presentan en el campo de la ciberseguridad.

    Comprender ChatGPT

    Para tener una idea m谩s clara de c贸mo son esos riesgos y recompensas, es importante comprender mejor qu茅 es ChatGPT y de lo que es capaz.

    ChatGPT (ahora en su 煤ltima versi贸n, ChatGPT-4, lanzada el 14 de marzo de 2023) es parte de una familia m谩s grande de herramientas de inteligencia artificial desarrollada por la empresa estadounidense OpenAI. Si bien se llama oficialmente chatbot, eso no cubre su versatilidad. Entrenado usando ambos supervisado y reforzamiento t茅cnicas de aprendizaje, puede hacer mucho m谩s que la mayor铆a de los chatbots. Como parte de sus respuestas, puede generar contenido a partir de toda la informaci贸n con la que fue capacitado. Esa informaci贸n incluye conocimientos generales, as铆 como lenguajes de programaci贸n y c贸digo. Como resultado, puede, por ejemplo, simule una sala de chat completa; jugar juegos como tic-tac-toe; y simular un cajero autom谩tico.

    M谩s importante a煤n, para las empresas y otras grandes organizaciones, puede ayudar a mejorar el servicio al cliente de las empresas a trav茅s de mensajes m谩s personalizados y precisos. Incluso puede escribir y depurar programas de computadora. Algunas de esas y otras caracter铆sticas significan que podr铆a ser tanto un aliado de ciberseguridad como una amenaza.

    Educaci贸n, filtrado y refuerzo de las defensas

    En el frente positivo, hay mucho que decir sobre ChatGPT. Uno de los roles m谩s valiosos que podr铆a desempe帽ar es tambi茅n uno de los m谩s simples: detectar el phishing. Las organizaciones podr铆an arraigar un h谩bito en sus empleados mediante el cual usan ChatGPT para determinar si alg煤n contenido del que no est谩n seguros es phishing o si se gener贸 con intenciones maliciosas.

    Eso es importante porque, a pesar de todos los avances tecnol贸gicos realizados en los 煤ltimos a帽os, los ataques de ingenier铆a social como el phishing siguen siendo una de las formas m谩s efectivas de ciberdelincuencia. De hecho, la investigaci贸n muestra que, de los ataques cibern茅ticos identificados con 茅xito en el Reino Unido en 2022, 83% involucrado alguna forma de phishing.

    Por supuesto, hay muchas otras maneras que ChatGPT se puede utilizar para reforzar los esfuerzos de ciberseguridad. Podr铆a, por ejemplo, brindar un grado de asistencia a los trabajadores de seguridad m谩s j贸venes, ya sea comunicando cualquier problema que puedan tener o ayud谩ndolos a comprender mejor el contexto en el que deben trabajar en un momento dado. Tambi茅n podr铆a ayudar a los equipos con recursos insuficientes a curar las 煤ltimas amenazas e identificar vulnerabilidades internas.

    鉂 Tambi茅n te interesa:馃摲 La IA puede ayudar con desafios dificiles pero los riesgosLa IA puede ayudar con desaf铆os dif铆ciles, pero los riesgos deben abordarse

    Los malos tambi茅n lo est谩n usando.

    Pero mientras los profesionales de la ciberseguridad exploran formas de usar ChatGPT en su beneficio, los ciberdelincuentes tambi茅n lo hacen. Podr铆an, por ejemplo, hacer uso de su capacidad para generar c贸digo malicioso. Alternativamente, podr铆an usarlo para generar contenido que parece ser generado por humanos, potencialmente utilizado para enga帽ar a los usuarios para que hagan clic en enlaces maliciosos, lo que sin saberlo tiene consecuencias peligrosas.

    Algunos incluso est谩n usando ChatGPT para imitar convincentemente asistentes leg铆timos de IA en sitios web corporativos, abriendo una nueva v铆a en el frente de batalla de la ingenier铆a social. Recuerde, el 茅xito de los ciberdelincuentes depende en gran medida de poder atacar tantas vulnerabilidades posibles, con la mayor frecuencia y rapidez posible. Las herramientas de IA como ChatGPT les permiten hacer eso actuando esencialmente como un asistente supercargado que puede ayudar a crear todos los activos necesarios para campa帽as maliciosas.

    Usa las herramientas disponibles

    Debe quedar claro entonces que, si los ciberdelincuentes usan ChatGPT y otras herramientas de IA para mejorar sus ataques, su equipo de seguridad tambi茅n deber铆a usarlas para reforzar sus esfuerzos de ciberseguridad. Afortunadamente, no tienes que hacerlo solo.

    El proveedor de seguridad adecuado no solo se involucrar谩 en una investigaci贸n constante sobre c贸mo los ciberdelincuentes usan las 煤ltimas tecnolog铆as para mejorar sus ataques, sino tambi茅n c贸mo se pueden usar esas tecnolog铆as para mejorar la detecci贸n, prevenci贸n y defensa de amenazas. Y con el da帽o que un ataque de seguridad cibern茅tica puede causar a su infraestructura cr铆tica, es algo que tambi茅n deber铆an informarle de manera proactiva.

    ChatGPT-4

    Con la 煤ltima versi贸n de ChatGPT (ChatGPT-4), OpenAI ha puesto a disposici贸n el 煤ltimo y m谩s poderoso modelo conversacional, y tambi茅n ha introducido m谩s controles para evitar su mal uso. Le preguntamos a ChatGPT 鈥驴Qu茅 podr铆a evitar que los actores maliciosos usen ChatGPT con intenciones maliciosas?y esta fue la respuesta:

    鈥淓xisten varias medidas que podr铆an evitar que los actores maliciosos usen ChatGPT con intenciones maliciosas:

    1. Controles de acceso: OpenAl, la organizaci贸n detr谩s de ChatGPT, ha implementado controles de acceso para limitar qui茅n puede acceder a su API y usar su tecnolog铆a. Al restringir el acceso, pueden evitar que los actores maliciosos utilicen su tecnolog铆a con fines maliciosos.

    2. Monitoreo y detecci贸n: OpenAl monitorea el uso de su tecnolog铆a para detectar y prevenir actividades maliciosas. Utilizan modelos de aprendizaje autom谩tico para identificar patrones y anomal铆as en el uso que podr铆an indicar un posible mal uso.

    3. Pautas 茅ticas: OpenAl ha publicado pautas para el uso responsable de su tecnolog铆a, que describen las mejores pr谩cticas y consideraciones 茅ticas. Al seguir estas pautas, los usuarios pueden asegurarse de que est谩n utilizando la tecnolog铆a de manera responsable y 茅tica.

    4. Educaci贸n del usuario: la educaci贸n y la concientizaci贸n pueden ayudar a prevenir el mal uso de la tecnolog铆a.

    鉂 Tambi茅n te interesa:馃摲 Como la IA puede transformar la forma en que lasC贸mo la IA puede transformar la forma en que las empresas prueban las experiencias digitales

    OpenAl proporciona recursos y materiales educativos para ayudar a los usuarios a comprender las capacidades y limitaciones de su tecnolog铆a, as铆 como los posibles riesgos de uso indebido.

    5. Consecuencias legales: existen consecuencias legales por el uso de tecnolog铆a como chatGPT con fines maliciosos. Los gobiernos y los organismos encargados de hacer cumplir la ley cuentan con leyes y reglamentos para castigar a las personas y organizaciones que utilizan la tecnolog铆a para actividades ilegales.

    En general, evitar que los actores maliciosos usen ChatGPT con intenciones maliciosas requiere una combinaci贸n de controles t茅cnicos, pautas 茅ticas, educaci贸n del usuario y consecuencias legales. Es importante usar modelos de lenguaje Al como ChatGPT de manera responsable y 茅tica para evitar que la tecnolog铆a se use indebidamente con fines da帽inos鈥.

    Entonces ChatGPT sigui贸 adelante y enumer贸 todas las medidas que OpenAI ha tomado para evitar su uso indebido.

    OpenAI, en el blog de lanzamiento de ChatGPT-4Explic贸 c贸mo este modelo es supuestamente m谩s seguro que sus antecesores: 鈥Pasamos 6 meses haciendo que GPT-4 sea m谩s seguro y m谩s alineado. GPT-4 tiene un 82 % menos de probabilidades de responder a solicitudes de contenido no permitido y un 40 % m谩s de probabilidades de producir respuestas f谩cticas que GPT-3.5 en nuestras evaluaciones internas鈥.

    Todo esto indica que se siguen mejorando las medidas adecuadas para evitar su mal uso, pero como todos sabemos, los malos seguir谩n encontrando formas de superar esas limitaciones a medida que el modelo sea m谩s utilizado y comprendido.

    驴Quiere aprender m谩s sobre IA y big data de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data teniendo lugar en 脕msterdam, California y Londres. El evento es co-ubicado con Exposici贸n de seguridad cibern茅tica y nube.

    Explore otros pr贸ximos eventos y seminarios web de tecnolog铆a empresarial impulsados 鈥嬧媝or TechForge aqu铆.

    Etiquetas: ai, inteligencia artificial, chatgpt, ciberseguridad, gpt, infosec, seguridad

    鉂 Tambi茅n te interesa:馃摲 Alibaba presenta su rival ChatGPT y sus LLM personalizadosAlibaba presenta su rival ChatGPT y sus LLM personalizados


    Fuente: El riesgo y la recompensa de ChatGPT en ciberseguridad

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.