A diferencia de los alimentos, las medicinas y los automóviles, todavía tenemos que ver regulaciones o leyes claras para guiar el diseño de IA en los EE. UU. Sin pautas estándar, las empresas que diseñan y desarrollan modelos de ML han trabajado históricamente con sus propias percepciones de lo correcto y lo incorrecto.
Esto está a punto de cambiar.
A medida que la UE finaliza su Ley de IA y la IA generativa continúa evolucionando rápidamente, veremos que el panorama regulatorio de la inteligencia artificial cambia de marcos generales sugeridos a leyes más permanentes.
La Ley de IA de la UE ha estimulado conversaciones significativas entre los líderes empresariales: ¿Cómo podemos prepararnos para regulaciones de IA más estrictas? ¿Debo diseñar proactivamente una IA que cumpla con este criterio? ¿Qué tan pronto pasará antes de que se apruebe una regulación similar en los EE. UU.?
Continúe leyendo para comprender mejor cómo será la regulación de la IA para las empresas en el futuro cercano.
Cómo afectará la Ley de IA de la UE a su empresa
como los de la UE Reglamento General de Protección de Datos (RGPD) publicado en 2018, se espera que la Ley de IA de la UE se convierta en un estándar mundial para la regulación de la IA. Está previsto que el Parlamento vote sobre el borrador a finales de marzo de 2023 y, si se cumple este plazo, la Ley AI final podría adoptarse a finales de año.
Se prevé que los efectos de la Ley de IA se sentirán más allá de las fronteras de la UE (leer: efecto Bruselas), aunque se trate de normativa europea. Las organizaciones que operen a escala internacional deberán cumplir directamente con la legislación. Mientras tanto, las empresas estadounidenses y otras empresas independientes se darán cuenta rápidamente de que les conviene cumplir con esta regulación.
Estamos empezando a ver esto ya con otra legislación similar como la de Canadá. Ley de datos e inteligencia artificial propuesta y de la ciudad de Nueva York regulación de empleo automatizada.
Categorías de riesgo del sistema de IA
Según la Ley de IA, los sistemas de IA de las organizaciones se clasificará en tres categorías de riesgocada uno con su propio conjunto de pautas y consecuencias.
- Riesgo inaceptable. Los sistemas de IA que cumplan con este nivel serán prohibidos. Esto incluye sistemas de manipulación que causan daño, sistemas de identificación biométrica en tiempo real utilizados en espacios públicos para el cumplimiento de la ley y todas las formas de puntuación social.
- Alto riesgo. Estos sistemas de inteligencia artificial incluyen herramientas como modelos de escaneo de solicitantes de empleo y estarán sujetos a requisitos legales específicos.
- Riesgo limitado y mínimo. Esta categoría abarca muchas de las aplicaciones de IA que usan las empresas en la actualidad, incluidos los chatbots y las herramientas de gestión de inventario impulsadas por IA, y en gran medida no se regularán. Sin embargo, las aplicaciones de riesgo limitado orientadas al cliente requerirán la divulgación de que se está utilizando IA.
¿Cómo será la regulación de la IA?
Debido a que la Ley de IA aún está en borrador y sus efectos globales están por determinarse, no podemos decir con certeza cómo será la regulación para las organizaciones. Sin embargo, nos hacer sepa que variará según la industria, el tipo de modelo que esté diseñando y la categoría de riesgo en la que se encuentre.
La regulación probablemente incluirá escrutinio con un tercero, donde su modelo se prueba contra la población a la que intenta servir. Estas pruebas evaluarán preguntas que incluyen ‘¿Está el modelo funcionando dentro de márgenes de error aceptables?’ y ‘¿Está divulgando la naturaleza y el uso de su modelo? ‘
Para organizaciones con sistemas de IA de alto riesgola Ley AI ya ha esbozado varios requisitos:
- Implantación de un sistema de gestión de riesgos.
- Gobierno y gestión de datos.
- Documentación técnica.
- Mantenimiento de registros y registros.
- Transparencia y suministro de información a los usuarios.
- Supervisión humana.
- Precisión, robustez y ciberseguridad.
- Evaluación de la conformidad.
- Registro con el gobierno del estado miembro de la UE.
- Sistema de seguimiento post-mercado.
También podemos esperar regular pruebas de confiabilidad para que los modelos (similares a los cheques electrónicos para automóviles) se conviertan en un servicio más generalizado en la industria de la IA.
Cómo prepararse para las regulaciones de IA
Muchos líderes de IA ya han priorizado la confianza y la mitigación de riesgos al diseñar y desarrollar modelos de ML. Cuanto antes acepte la regulación de la IA como nuestra nueva realidad, más éxito tendrá en el futuro.
Estos son solo algunos pasos que las organizaciones pueden tomar para prepararse para una regulación de IA más estricta:
- Investigar y educar sus equipos sobre los tipos de regulación que existirán y cómo afectará a su empresa hoy y en el futuro.
- Auditoría sus modelos existentes y planificados. ¿Con qué categoría de riesgo se alinean y qué regulaciones asociadas lo afectarán más?
- Desarrollar y adoptar un marco para diseñar soluciones de IA responsables.
- Piense en su Estrategia de mitigación de riesgos de IA. ¿Cómo se aplica a los modelos existentes y a los que se diseñen en el futuro? ¿Qué acciones inesperadas debe tener en cuenta?
- Establecer un Estrategia de informes y gobernanza de IA eso asegura múltiples controles antes de que un modelo entre en funcionamiento.
A la luz de la Ley de IA y la inevitable regulación futura, el diseño de IA ético y justo ya no es «agradable de tener», sino «imprescindible». ¿Cómo puede su organización prepararse para el éxito?
(Foto por ALEJANDRO LALLEMAND en Unsplash)
¿Quiere aprender más sobre IA y big data de los líderes de la industria? Verificar Exposición de IA y Big Data teniendo lugar en Ámsterdam, California y Londres. El evento es co-ubicado con Semana de la Transformación Digital.
Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados por TechForge aquí.
Fuente: ¿Cómo será la regulación de la IA para las empresas?