En un estudio reciente, la empresa de detección y respuesta de redes nativas de la nube salto extra reveló una tendencia preocupante: las empresas están luchando con las implicaciones de seguridad del uso de IA generativa por parte de los empleados.
Su nuevo informe de investigación, El punto de inflexión de la IA generativaarroja luz sobre los desafíos que enfrentan las organizaciones a medida que la tecnología de IA generativa se vuelve más frecuente en el lugar de trabajo.
El informe profundiza en cómo las organizaciones están afrontando el uso de herramientas de IA generativa, revelando una importante disonancia cognitiva entre los líderes de seguridad y TI. Sorprendentemente, el 73 por ciento de estos líderes confesaron que sus empleados utilizan con frecuencia herramientas de inteligencia artificial generativa o modelos de lenguaje grande (LLM) en el trabajo. A pesar de esto, una abrumadora mayoría admitió no estar segura de cómo abordar eficazmente los riesgos de seguridad asociados.
Cuando se les preguntó sobre sus preocupaciones, los líderes de TI y seguridad expresaron más preocupación por la posibilidad de respuestas inexactas o sin sentido (40%) que por problemas críticos de seguridad como la exposición de información de identificación personal (PII) de clientes y empleados (36%) o pérdidas financieras ( 25%).
Raja Mukerji, cofundador y científico jefe de ExtraHop, dijo: «Al combinar la innovación con sólidas salvaguardias, la IA generativa seguirá siendo una fuerza que mejorará industrias enteras en los próximos años».
Una de las revelaciones sorprendentes del estudio fue la ineficacia de las prohibiciones de IA generativa. Alrededor del 32 por ciento de los encuestados afirmaron que sus organizaciones habían prohibido el uso de estas herramientas. Sin embargo, solo el cinco por ciento informó que los empleados nunca usaron estas herramientas, lo que indica que las prohibiciones por sí solas no son suficientes para frenar su uso.
El estudio también destacó un claro deseo de orientación, particularmente por parte de los organismos gubernamentales. Un significativo 90 por ciento de los encuestados expresó la necesidad de la participación del gobierno, un 60 por ciento abogó por regulaciones obligatorias y un 30 por ciento apoyó estándares gubernamentales para que las empresas los adopten voluntariamente.
A pesar de una sensación de confianza en su infraestructura de seguridad actual, el estudio reveló lagunas en las prácticas básicas de seguridad.
Si bien el 82 por ciento confiaba en la capacidad de su paquete de seguridad para proteger contra amenazas de IA generativa, menos de la mitad había invertido en tecnología para monitorear el uso de la IA generativa. Es alarmante que sólo el 46 por ciento había establecido políticas que gobernaran el uso aceptable y apenas el 42 por ciento proporcionó capacitación a los usuarios sobre el uso seguro de estas herramientas.
Los hallazgos surgen a raíz de la rápida adopción de tecnologías como ChatGPT, que se han convertido en una parte integral de las empresas modernas. Se insta a los líderes empresariales a comprender el uso de la IA generativa de sus empleados para identificar posibles vulnerabilidades de seguridad.
Puede encontrar una copia completa del informe. aquí.
(Foto por Hennie Stander en desempaquetar)
Ver también: BSI: Cerrar la ‘brecha de confianza en la IA’ es clave para desbloquear beneficios
¿Quiere aprender más sobre IA y big data de la mano de los líderes de la industria? Verificar Exposición de IA y Big Data que tendrá lugar en Ámsterdam, California y Londres. El evento integral comparte ubicación con Semana de la Transformación Digital.
Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados por TechForge aquí.
Fuente: Las empresas luchan por abordar las implicaciones de seguridad de la IA generativa