M谩s

    La legislaci贸n de la UE sobre IA genera controversia sobre la transparencia de los datos

    - Advertisement -

    La Uni贸n Europea introdujo recientemente la Ley de IA, un nuevo marco de gobernanza que obliga a las organizaciones a mejorar la transparencia con respecto a los datos de entrenamiento de sus sistemas de IA.

    Si esta legislaci贸n entra en vigor, podr铆a penetrar las defensas que muchos en Silicon Valley han construido contra un escrutinio tan detallado de los procesos de desarrollo e implementaci贸n de la IA.

    Desde el lanzamiento p煤blico de ChatGPT de OpenAI, respaldado por Microsoft hace 18 meses, ha habido un crecimiento significativo en el inter茅s y la inversi贸n en tecnolog铆as de IA generativa. Estas aplicaciones, capaces de escribir texto, crear im谩genes y producir contenidos de audio a velocidades r茅cord, han atra铆do una atenci贸n considerable. Sin embargo, el aumento de la actividad de IA que acompa帽a a estos cambios plantea una pregunta intrigante: 驴C贸mo obtienen realmente los desarrolladores de IA los datos necesarios para entrenar sus modelos? 驴Es mediante el uso de material no autorizado con derechos de autor?

    Implementaci贸n de la Ley de IA

    El Ley de IA de la UE, que se pretende implementar gradualmente durante los pr贸ximos dos a帽os, tiene como objetivo abordar estas cuestiones. Se necesita tiempo para incorporar nuevas leyes, y una implementaci贸n gradual permite a los reguladores el tiempo necesario para adaptarse a las nuevas leyes y a las empresas para adaptarse a sus nuevas obligaciones. Sin embargo, la aplicaci贸n de algunas normas sigue siendo dudosa.

    Una de las secciones m谩s pol茅micas de la ley estipula que las organizaciones que implementan modelos de IA de prop贸sito general, como ChatGPT, deben proporcionar 芦res煤menes detallados禄 del contenido utilizado para entrenarlos. La reci茅n creada Oficina de IA ha anunciado planes para publicar una plantilla que las organizaciones podr谩n seguir a principios de 2025, tras consultar con las partes interesadas.

    Las empresas de IA han expresado una fuerte resistencia a revelar sus datos de capacitaci贸n, describiendo esta informaci贸n como secretos comerciales que proporcionar铆an a los competidores una ventaja injusta si se hicieran p煤blicos. El nivel de detalle requerido en estos informes de transparencia tendr谩 implicaciones significativas tanto para las nuevas empresas de IA m谩s peque帽as como para las principales empresas tecnol贸gicas como Google y Meta, que han posicionado la tecnolog铆a de IA en el centro de sus operaciones futuras.

    鉂 Tambi茅n te interesa:Un mundo completamente nuevo esperando ser abordadoUn mundo completamente nuevo esperando ser abordado

    Durante el a帽o pasado, varias empresas de tecnolog铆a importantes (Google, OpenAI y Stability AI) se enfrentaron a demandas de creadores que afirman que su contenido se utiliz贸 sin permiso para entrenar modelos de IA. Sin embargo, bajo un creciente escrutinio, algunas empresas tecnol贸gicas, en los 煤ltimos dos a帽os, han levantado su propio velo corporativo y negociado acuerdos de licencia de contenido con medios de comunicaci贸n y sitios web individuales. Algunos creadores y legisladores siguen preocupados de que estas medidas no sean suficientes.

    La divisi贸n de los legisladores europeos

    En Europa, las diferencias entre los legisladores son marcadas. Dragos Tudorache, quien dirigi贸 la redacci贸n de la Ley de IA en el Parlamento Europeo, sostiene que se deber铆a exigir a las empresas de IA que abran sus conjuntos de datos. Tudorache enfatiza la importancia de la transparencia para que los creadores puedan determinar si su trabajo se ha utilizado para entrenar algoritmos de IA.

    Por el contrario, bajo el liderazgo del presidente Emmanuel Macron, el gobierno franc茅s se ha opuesto en privado a la introducci贸n de reglas que podr铆an obstaculizar la competitividad de las nuevas empresas europeas de IA. El ministro de Finanzas franc茅s, Bruno Le Maire, ha enfatizado la necesidad de que Europa sea un l铆der mundial en inteligencia artificial, no simplemente un consumidor de productos estadounidenses y chinos.

    La Ley de IA reconoce la necesidad de equilibrar la protecci贸n de los secretos comerciales con la facilitaci贸n de derechos para las partes con intereses leg铆timos, incluidos los titulares de derechos de autor. Sin embargo, lograr este equilibrio sigue siendo un desaf铆o importante.

    Las diferentes industrias var铆an en este asunto. Matthieu Riouf, director ejecutivo de la empresa de edici贸n de im谩genes Photoroom, basada en inteligencia artificial, compara la situaci贸n con las pr谩cticas culinarias y afirma que hay una parte secreta de la receta que los mejores chefs no compartir铆an. Representa s贸lo un ejemplo en la larga lista de posibles escenarios en los que este tipo de delito podr铆a proliferar. Sin embargo, Thomas Wolf, cofundador de una de las empresas emergentes de inteligencia artificial m谩s importantes del mundo, Hugging Face, sostiene que si bien siempre habr谩 un apetito por la transparencia, eso no significa que toda la industria adoptar谩 un enfoque que priorice la transparencia.

    Una serie de controversias recientes han dejado claro lo complicado que es todo esto. OpenAI demostr贸 la 煤ltima versi贸n de ChatGPT en una sesi贸n p煤blica, donde la compa帽铆a fue duramente criticada por usar una voz sint茅tica que sonaba casi id茅ntica a la de la actriz Scarlett Johansson. Estos ejemplos se帽alan la posibilidad de que las tecnolog铆as de inteligencia artificial violen los derechos personales y de propiedad.

    鉂 Tambi茅n te interesa:NVIDIA presenta los 煤ltimos avances en IA visualNVIDIA presenta los 煤ltimos avances en IA visual

    A lo largo del desarrollo de estas regulaciones, ha habido un acalorado debate sobre sus efectos potenciales en la innovaci贸n y la competitividad futuras en el mundo de la IA. En particular, el gobierno franc茅s ha instado a que el punto de partida sea la innovaci贸n, no la regulaci贸n, dados los peligros de regular aspectos que no se han comprendido plenamente.

    La forma en que la UE regula la transparencia de la IA podr铆a tener impactos significativos en las empresas de tecnolog铆a, los creadores digitales y el panorama digital en general. Por lo tanto, los formuladores de pol铆ticas enfrentan el desaf铆o de fomentar la innovaci贸n en la din谩mica industria de la IA y al mismo tiempo guiarla hacia decisiones seguras y 茅ticas y prevenir la infracci贸n de la propiedad intelectual.

    En resumen, si se adopta, la Ley de IA de la UE ser铆a un paso significativo hacia una mayor transparencia en el desarrollo de la IA. Sin embargo, la implementaci贸n pr谩ctica de estas regulaciones y sus resultados en la industria podr铆an estar lejos. En el futuro, especialmente en los albores de este nuevo paradigma regulatorio, el equilibrio entre la innovaci贸n, el desarrollo 茅tico de la IA y la protecci贸n de la propiedad intelectual seguir谩 siendo una cuesti贸n central y controvertida que deber谩n abordar las partes interesadas de todo tipo.

    Ver tambi茅n: Seg煤n se informa, Apple obtendr谩 acceso gratuito a ChatGPT

    驴Quiere aprender m谩s sobre IA y big data de la mano de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data que tendr谩 lugar en Amsterdam, California y Londres. El evento integral comparte ubicaci贸n con otros eventos importantes, incluidos Conferencia de automatizaci贸n inteligente, bloquex, Semana de la Transformaci贸n Digitaly Exposici贸n de seguridad cibern茅tica y nube.

    Explore otros pr贸ximos eventos y seminarios web de tecnolog铆a empresarial impulsados 鈥嬧媝or TechForge aqu铆.

    鉂 Tambi茅n te interesa:Generador de mensajes ChatGPT: liberar el poder de las conversaciones de IAGenerador de mensajes ChatGPT: liberar el poder de las conversaciones de IA

    Etiquetas: ai, chatgpt, 茅tica, ai generativa, openai

    Fuente: La legislaci贸n de la UE sobre IA genera controversia sobre la transparencia de los datos

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.