Más

    Evaluación de los riesgos de la IA generativa en el lugar de trabajo

    - Advertisement -

    En medio del crecimiento exponencial de la IA generativa, existe una necesidad apremiante de evaluar las implicaciones legales, éticas y de seguridad de estas soluciones en el lugar de trabajo.

    Una de las preocupaciones destacadas por los expertos de la industria es a menudo la falta de transparencia con respecto a los datos en los que se entrenan muchos modelos de IA generativa.

    No hay información suficiente sobre los detalles de los datos de entrenamiento utilizados para modelos como GPT-4, que impulsa aplicaciones como ChatGPT. Esta falta de claridad se extiende al almacenamiento de información obtenida durante las interacciones con usuarios individuales, lo que aumenta los riesgos legales y de cumplimiento.

    La posibilidad de fuga de datos o códigos confidenciales de la empresa a través de interacciones con soluciones de IA generativa es motivo de gran preocupación.

    “Los empleados individuales pueden filtrar datos o códigos confidenciales de la empresa cuando interactúan con soluciones populares de IA generativa”, dice Vaidotas Šedys, Jefe de Gestión de Riesgos de Oxylabs.

    “Si bien no hay evidencia concreta de que los datos enviados a ChatGPT o cualquier otro sistema generativo de inteligencia artificial puedan almacenarse y compartirse con otras personas, el riesgo aún existe ya que el software nuevo y menos probado a menudo tiene brechas de seguridad”.

    OpenAI, la organización detrás de ChatGPT, ha sido cautelosa al proporcionar información detallada sobre cómo se manejan los datos de los usuarios. Esto plantea desafíos para las organizaciones que buscan mitigar el riesgo de que se filtren fragmentos de código confidencial. Se hace necesario el monitoreo constante de las actividades de los empleados y la implementación de alertas para el uso de plataformas generativas de IA, lo que puede ser una carga para muchas organizaciones.

    “Otros riesgos incluyen el uso de información incorrecta o desactualizada, especialmente en el caso de especialistas jóvenes que a menudo no pueden evaluar la calidad de los resultados de la IA. La mayoría de los modelos generativos funcionan en conjuntos de datos grandes pero limitados que necesitan una actualización constante”, agrega Šedys.

    Estos modelos tienen una ventana de contexto limitada y pueden encontrar dificultades al tratar con nueva información. OpenAI tiene admitido que su último marco, GPT-4, todavía adolece de inexactitudes fácticas, lo que puede conducir a la difusión de información errónea.

    Las implicaciones se extienden más allá de las empresas individuales. Por ejemplo, Stack Overflow, una popular comunidad de desarrolladores, prohibió temporalmente el uso de contenido generado con ChatGPT debido a las bajas tasas de precisión, lo que puede inducir a error a los usuarios que buscan respuestas codificadas.

    Los riesgos legales también entran en juego cuando se utilizan soluciones de IA generativas gratuitas. Copilot de GitHub ya ha enfrentado acusaciones y demandas por incorporar fragmentos de código con derechos de autor de repositorios públicos y de código abierto.

    “Dado que el código generado por IA puede contener información patentada o secretos comerciales que pertenecen a otra empresa o persona, la empresa cuyos desarrolladores están utilizando dicho código podría ser responsable de la infracción de los derechos de terceros”, explica Šedys.

    “Además, el incumplimiento de las leyes de derechos de autor podría afectar la evaluación de la empresa por parte de los inversores si se descubre”.

    Si bien las organizaciones no pueden lograr de manera factible una vigilancia total del lugar de trabajo, la conciencia y la responsabilidad individuales son cruciales. Educar al público en general sobre los riesgos potenciales asociados con las soluciones de IA generativa es esencial.

    Los líderes de la industria, las organizaciones y las personas deben colaborar para abordar la privacidad de los datos, la precisión y los riesgos legales de la IA generativa en el lugar de trabajo.

    (Foto por Sean Pollock en Unsplash)

    Ver también: Las universidades quieren asegurarse de que el personal y los estudiantes estén ‘alfabetizados en IA’

    ¿Quiere aprender más sobre IA y big data de los líderes de la industria? Verificar Exposición de IA y Big Data teniendo lugar en Ámsterdam, California y Londres. El evento es co-ubicado con Semana de la Transformación Digital y Exposición de seguridad cibernética y nube.

    Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

    • ryan daws

      Ryan es editor senior en TechForge Media con más de una década de experiencia cubriendo la última tecnología y entrevistando a figuras líderes de la industria. A menudo se lo puede ver en conferencias tecnológicas con un café fuerte en una mano y una computadora portátil en la otra. Si es geek, probablemente le guste. Encuéntralo en Twitter (@Gadget_Ry) o Mastodon (@[email protected])

      Ver todas las publicaciones

    Etiquetas: ai, inteligencia artificial, ciberseguridad, ciberseguridad, empresa, ética, ai generativa, infosec, ley, legal, Sociedad

    Fuente: Evaluación de los riesgos de la IA generativa en el lugar de trabajo

    Populares

    Más de esta categoría

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aquí

    Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.