M谩s

    Las empresas luchan por abordar las implicaciones de seguridad de la IA generativa

    - Advertisement -

    En un estudio reciente, la empresa de detecci贸n y respuesta de redes nativas de la nube salto extra revel贸 una tendencia preocupante: las empresas est谩n luchando con las implicaciones de seguridad del uso de IA generativa por parte de los empleados.

    Su nuevo informe de investigaci贸n, El punto de inflexi贸n de la IA generativaarroja luz sobre los desaf铆os que enfrentan las organizaciones a medida que la tecnolog铆a de IA generativa se vuelve m谩s frecuente en el lugar de trabajo.

    El informe profundiza en c贸mo las organizaciones est谩n afrontando el uso de herramientas de IA generativa, revelando una importante disonancia cognitiva entre los l铆deres de seguridad y TI. Sorprendentemente, el 73 por ciento de estos l铆deres confesaron que sus empleados utilizan con frecuencia herramientas de inteligencia artificial generativa o modelos de lenguaje grande (LLM) en el trabajo. A pesar de esto, una abrumadora mayor铆a admiti贸 no estar segura de c贸mo abordar eficazmente los riesgos de seguridad asociados.

    Cuando se les pregunt贸 sobre sus preocupaciones, los l铆deres de TI y seguridad expresaron m谩s preocupaci贸n por la posibilidad de respuestas inexactas o sin sentido (40%) que por problemas cr铆ticos de seguridad como la exposici贸n de informaci贸n de identificaci贸n personal (PII) de clientes y empleados (36%) o p茅rdidas financieras ( 25%).

    Raja Mukerji, cofundador y cient铆fico jefe de ExtraHop, dijo: 芦Al combinar la innovaci贸n con s贸lidas salvaguardias, la IA generativa seguir谩 siendo una fuerza que mejorar谩 industrias enteras en los pr贸ximos a帽os禄.

    Una de las revelaciones sorprendentes del estudio fue la ineficacia de las prohibiciones de IA generativa. Alrededor del 32 por ciento de los encuestados afirmaron que sus organizaciones hab铆an prohibido el uso de estas herramientas. Sin embargo, solo el cinco por ciento inform贸 que los empleados nunca usaron estas herramientas, lo que indica que las prohibiciones por s铆 solas no son suficientes para frenar su uso.

    El estudio tambi茅n destac贸 un claro deseo de orientaci贸n, particularmente por parte de los organismos gubernamentales. Un significativo 90 por ciento de los encuestados expres贸 la necesidad de la participaci贸n del gobierno, un 60 por ciento abog贸 por regulaciones obligatorias y un 30 por ciento apoy贸 est谩ndares gubernamentales para que las empresas los adopten voluntariamente.

    A pesar de una sensaci贸n de confianza en su infraestructura de seguridad actual, el estudio revel贸 lagunas en las pr谩cticas b谩sicas de seguridad.

    鉂 Tambi茅n te interesa:UMG presenta una demanda hist贸rica contra el desarrollador de inteligencia artificial AnthropicUMG presenta una demanda hist贸rica contra el desarrollador de inteligencia artificial Anthropic

    Si bien el 82 por ciento confiaba en la capacidad de su paquete de seguridad para proteger contra amenazas de IA generativa, menos de la mitad hab铆a invertido en tecnolog铆a para monitorear el uso de la IA generativa. Es alarmante que s贸lo el 46 por ciento hab铆a establecido pol铆ticas que gobernaran el uso aceptable y apenas el 42 por ciento proporcion贸 capacitaci贸n a los usuarios sobre el uso seguro de estas herramientas.

    Los hallazgos surgen a ra铆z de la r谩pida adopci贸n de tecnolog铆as como ChatGPT, que se han convertido en una parte integral de las empresas modernas. Se insta a los l铆deres empresariales a comprender el uso de la IA generativa de sus empleados para identificar posibles vulnerabilidades de seguridad.

    Puede encontrar una copia completa del informe. aqu铆.

    (Foto por Hennie Stander en desempaquetar)

    Ver tambi茅n: BSI: Cerrar la ‘brecha de confianza en la IA’ es clave para desbloquear beneficios

    驴Quiere aprender m谩s sobre IA y big data de la mano de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data que tendr谩 lugar en 脕msterdam, California y Londres. El evento integral comparte ubicaci贸n con Semana de la Transformaci贸n Digital.

    Explore otros pr贸ximos eventos y seminarios web de tecnolog铆a empresarial impulsados 鈥嬧媝or TechForge aqu铆.

    鉂 Tambi茅n te interesa:Jaromir Dzialo, Exfluency: C贸mo las empresas pueden beneficiarse de los LLMJaromir Dzialo, Exfluency: C贸mo las empresas pueden beneficiarse de los LLM

    • ryan daws

      Ryan es editor senior en TechForge Media con m谩s de una d茅cada de experiencia cubriendo la 煤ltima tecnolog铆a y entrevistando a figuras l铆deres de la industria. A menudo se le puede ver en conferencias tecnol贸gicas con un caf茅 fuerte en una mano y una computadora port谩til en la otra. Si es geek, probablemente le guste. Encu茅ntrelo en Twitter (@Gadget_Ry) o Mastodon (@[email protected])

      Ver todas las publicaciones

    Etiquetas: ai, ciberseguridad, empresa, estudio, genai, inteligencia artificial, investigar, informe, seguridad cibern茅tica, seguridad

    Fuente: Las empresas luchan por abordar las implicaciones de seguridad de la IA generativa

    鉂 Tambi茅n te interesa:Deutsche Telekom y SK Telecom se asocian en un LLM centrado en las telecomunicacionesDeutsche Telekom y SK Telecom se asocian en un LLM centrado en las telecomunicaciones

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.