M谩s

    Evaluaci贸n de los riesgos de la IA generativa en el lugar de trabajo

    - Advertisement -

    En medio del crecimiento exponencial de la IA generativa, existe una necesidad apremiante de evaluar las implicaciones legales, 茅ticas y de seguridad de estas soluciones en el lugar de trabajo.

    Una de las preocupaciones destacadas por los expertos de la industria es a menudo la falta de transparencia con respecto a los datos en los que se entrenan muchos modelos de IA generativa.

    No hay informaci贸n suficiente sobre los detalles de los datos de entrenamiento utilizados para modelos como GPT-4, que impulsa aplicaciones como ChatGPT. Esta falta de claridad se extiende al almacenamiento de informaci贸n obtenida durante las interacciones con usuarios individuales, lo que aumenta los riesgos legales y de cumplimiento.

    La posibilidad de fuga de datos o c贸digos confidenciales de la empresa a trav茅s de interacciones con soluciones de IA generativa es motivo de gran preocupaci贸n.

    鈥淟os empleados individuales pueden filtrar datos o c贸digos confidenciales de la empresa cuando interact煤an con soluciones populares de IA generativa鈥, dice Vaidotas 艩edys, Jefe de Gesti贸n de Riesgos de Oxylabs.

    鈥淪i bien no hay evidencia concreta de que los datos enviados a ChatGPT o cualquier otro sistema generativo de inteligencia artificial puedan almacenarse y compartirse con otras personas, el riesgo a煤n existe ya que el software nuevo y menos probado a menudo tiene brechas de seguridad鈥.

    OpenAI, la organizaci贸n detr谩s de ChatGPT, ha sido cautelosa al proporcionar informaci贸n detallada sobre c贸mo se manejan los datos de los usuarios. Esto plantea desaf铆os para las organizaciones que buscan mitigar el riesgo de que se filtren fragmentos de c贸digo confidencial. Se hace necesario el monitoreo constante de las actividades de los empleados y la implementaci贸n de alertas para el uso de plataformas generativas de IA, lo que puede ser una carga para muchas organizaciones.

    鈥淥tros riesgos incluyen el uso de informaci贸n incorrecta o desactualizada, especialmente en el caso de especialistas j贸venes que a menudo no pueden evaluar la calidad de los resultados de la IA. La mayor铆a de los modelos generativos funcionan en conjuntos de datos grandes pero limitados que necesitan una actualizaci贸n constante鈥, agrega 艩edys.

    Estos modelos tienen una ventana de contexto limitada y pueden encontrar dificultades al tratar con nueva informaci贸n. OpenAI tiene admitido que su 煤ltimo marco, GPT-4, todav铆a adolece de inexactitudes f谩cticas, lo que puede conducir a la difusi贸n de informaci贸n err贸nea.

    鉂 Tambi茅n te interesa:馃摲 1689786670 Meta lanza Llama 2 LLM de codigo abiertoMeta lanza Llama 2 LLM de c贸digo abierto

    Las implicaciones se extienden m谩s all谩 de las empresas individuales. Por ejemplo, Stack Overflow, una popular comunidad de desarrolladores, prohibi贸 temporalmente el uso de contenido generado con ChatGPT debido a las bajas tasas de precisi贸n, lo que puede inducir a error a los usuarios que buscan respuestas codificadas.

    Los riesgos legales tambi茅n entran en juego cuando se utilizan soluciones de IA generativas gratuitas. Copilot de GitHub ya ha enfrentado acusaciones y demandas por incorporar fragmentos de c贸digo con derechos de autor de repositorios p煤blicos y de c贸digo abierto.

    鈥淒ado que el c贸digo generado por IA puede contener informaci贸n patentada o secretos comerciales que pertenecen a otra empresa o persona, la empresa cuyos desarrolladores est谩n utilizando dicho c贸digo podr铆a ser responsable de la infracci贸n de los derechos de terceros鈥, explica 艩edys.

    鈥淎dem谩s, el incumplimiento de las leyes de derechos de autor podr铆a afectar la evaluaci贸n de la empresa por parte de los inversores si se descubre鈥.

    Si bien las organizaciones no pueden lograr de manera factible una vigilancia total del lugar de trabajo, la conciencia y la responsabilidad individuales son cruciales. Educar al p煤blico en general sobre los riesgos potenciales asociados con las soluciones de IA generativa es esencial.

    Los l铆deres de la industria, las organizaciones y las personas deben colaborar para abordar la privacidad de los datos, la precisi贸n y los riesgos legales de la IA generativa en el lugar de trabajo.

    (Foto por Sean Pollock en Unsplash)

    Ver tambi茅n: Las universidades quieren asegurarse de que el personal y los estudiantes est茅n ‘alfabetizados en IA’

    鉂 Tambi茅n te interesa:馃摲 El cofundador de Google Sergey Brin se involucra en losEl cofundador de Google, Sergey Brin, se involucra en los esfuerzos de IA

    驴Quiere aprender m谩s sobre IA y big data de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data teniendo lugar en 脕msterdam, California y Londres. El evento es co-ubicado con Semana de la Transformaci贸n Digital y Exposici贸n de seguridad cibern茅tica y nube.

    Explore otros pr贸ximos eventos y seminarios web de tecnolog铆a empresarial impulsados 鈥嬧媝or TechForge aqu铆.

    • ryan daws

      Ryan es editor senior en TechForge Media con m谩s de una d茅cada de experiencia cubriendo la 煤ltima tecnolog铆a y entrevistando a figuras l铆deres de la industria. A menudo se lo puede ver en conferencias tecnol贸gicas con un caf茅 fuerte en una mano y una computadora port谩til en la otra. Si es geek, probablemente le guste. Encu茅ntralo en Twitter (@Gadget_Ry) o Mastodon (@[email protected])

      Ver todas las publicaciones

    Etiquetas: ai, inteligencia artificial, ciberseguridad, ciberseguridad, empresa, 茅tica, ai generativa, infosec, ley, legal, Sociedad

    鉂 Tambi茅n te interesa:馃摲 Sobre revolucionar el aprendizaje profundo con CPUSobre revolucionar el aprendizaje profundo con CPU

    Fuente: Evaluaci贸n de los riesgos de la IA generativa en el lugar de trabajo

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.