La Unión Europea introdujo recientemente la Ley de IA, un nuevo marco de gobernanza que obliga a las organizaciones a mejorar la transparencia con respecto a los datos de entrenamiento de sus sistemas de IA.
Si esta legislación entra en vigor, podría penetrar las defensas que muchos en Silicon Valley han construido contra un escrutinio tan detallado de los procesos de desarrollo e implementación de la IA.
Desde el lanzamiento público de ChatGPT de OpenAI, respaldado por Microsoft hace 18 meses, ha habido un crecimiento significativo en el interés y la inversión en tecnologías de IA generativa. Estas aplicaciones, capaces de escribir texto, crear imágenes y producir contenidos de audio a velocidades récord, han atraído una atención considerable. Sin embargo, el aumento de la actividad de IA que acompaña a estos cambios plantea una pregunta intrigante: ¿Cómo obtienen realmente los desarrolladores de IA los datos necesarios para entrenar sus modelos? ¿Es mediante el uso de material no autorizado con derechos de autor?
Implementación de la Ley de IA
El Ley de IA de la UE, que se pretende implementar gradualmente durante los próximos dos años, tiene como objetivo abordar estas cuestiones. Se necesita tiempo para incorporar nuevas leyes, y una implementación gradual permite a los reguladores el tiempo necesario para adaptarse a las nuevas leyes y a las empresas para adaptarse a sus nuevas obligaciones. Sin embargo, la aplicación de algunas normas sigue siendo dudosa.
Una de las secciones más polémicas de la ley estipula que las organizaciones que implementan modelos de IA de propósito general, como ChatGPT, deben proporcionar «resúmenes detallados» del contenido utilizado para entrenarlos. La recién creada Oficina de IA ha anunciado planes para publicar una plantilla que las organizaciones podrán seguir a principios de 2025, tras consultar con las partes interesadas.
Las empresas de IA han expresado una fuerte resistencia a revelar sus datos de capacitación, describiendo esta información como secretos comerciales que proporcionarían a los competidores una ventaja injusta si se hicieran públicos. El nivel de detalle requerido en estos informes de transparencia tendrá implicaciones significativas tanto para las nuevas empresas de IA más pequeñas como para las principales empresas tecnológicas como Google y Meta, que han posicionado la tecnología de IA en el centro de sus operaciones futuras.
Durante el año pasado, varias empresas de tecnología importantes (Google, OpenAI y Stability AI) se enfrentaron a demandas de creadores que afirman que su contenido se utilizó sin permiso para entrenar modelos de IA. Sin embargo, bajo un creciente escrutinio, algunas empresas tecnológicas, en los últimos dos años, han levantado su propio velo corporativo y negociado acuerdos de licencia de contenido con medios de comunicación y sitios web individuales. Algunos creadores y legisladores siguen preocupados de que estas medidas no sean suficientes.
La división de los legisladores europeos
En Europa, las diferencias entre los legisladores son marcadas. Dragos Tudorache, quien dirigió la redacción de la Ley de IA en el Parlamento Europeo, sostiene que se debería exigir a las empresas de IA que abran sus conjuntos de datos. Tudorache enfatiza la importancia de la transparencia para que los creadores puedan determinar si su trabajo se ha utilizado para entrenar algoritmos de IA.
Por el contrario, bajo el liderazgo del presidente Emmanuel Macron, el gobierno francés se ha opuesto en privado a la introducción de reglas que podrían obstaculizar la competitividad de las nuevas empresas europeas de IA. El ministro de Finanzas francés, Bruno Le Maire, ha enfatizado la necesidad de que Europa sea un líder mundial en inteligencia artificial, no simplemente un consumidor de productos estadounidenses y chinos.
La Ley de IA reconoce la necesidad de equilibrar la protección de los secretos comerciales con la facilitación de derechos para las partes con intereses legítimos, incluidos los titulares de derechos de autor. Sin embargo, lograr este equilibrio sigue siendo un desafío importante.
Las diferentes industrias varían en este asunto. Matthieu Riouf, director ejecutivo de la empresa de edición de imágenes Photoroom, basada en inteligencia artificial, compara la situación con las prácticas culinarias y afirma que hay una parte secreta de la receta que los mejores chefs no compartirían. Representa sólo un ejemplo en la larga lista de posibles escenarios en los que este tipo de delito podría proliferar. Sin embargo, Thomas Wolf, cofundador de una de las empresas emergentes de inteligencia artificial más importantes del mundo, Hugging Face, sostiene que si bien siempre habrá un apetito por la transparencia, eso no significa que toda la industria adoptará un enfoque que priorice la transparencia.
Una serie de controversias recientes han dejado claro lo complicado que es todo esto. OpenAI demostró la última versión de ChatGPT en una sesión pública, donde la compañía fue duramente criticada por usar una voz sintética que sonaba casi idéntica a la de la actriz Scarlett Johansson. Estos ejemplos señalan la posibilidad de que las tecnologías de inteligencia artificial violen los derechos personales y de propiedad.
A lo largo del desarrollo de estas regulaciones, ha habido un acalorado debate sobre sus efectos potenciales en la innovación y la competitividad futuras en el mundo de la IA. En particular, el gobierno francés ha instado a que el punto de partida sea la innovación, no la regulación, dados los peligros de regular aspectos que no se han comprendido plenamente.
La forma en que la UE regula la transparencia de la IA podría tener impactos significativos en las empresas de tecnología, los creadores digitales y el panorama digital en general. Por lo tanto, los formuladores de políticas enfrentan el desafío de fomentar la innovación en la dinámica industria de la IA y al mismo tiempo guiarla hacia decisiones seguras y éticas y prevenir la infracción de la propiedad intelectual.
En resumen, si se adopta, la Ley de IA de la UE sería un paso significativo hacia una mayor transparencia en el desarrollo de la IA. Sin embargo, la implementación práctica de estas regulaciones y sus resultados en la industria podrían estar lejos. En el futuro, especialmente en los albores de este nuevo paradigma regulatorio, el equilibrio entre la innovación, el desarrollo ético de la IA y la protección de la propiedad intelectual seguirá siendo una cuestión central y controvertida que deberán abordar las partes interesadas de todo tipo.
Ver también: Según se informa, Apple obtendrá acceso gratuito a ChatGPT
¿Quiere aprender más sobre IA y big data de la mano de los líderes de la industria? Verificar Exposición de IA y Big Data que tendrá lugar en Amsterdam, California y Londres. El evento integral comparte ubicación con otros eventos importantes, incluidos Conferencia de automatización inteligente, bloquex, Semana de la Transformación Digitaly Exposición de seguridad cibernética y nube.
Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados por TechForge aquí.
Fuente: La legislación de la UE sobre IA genera controversia sobre la transparencia de los datos