M谩s

    驴C贸mo ser谩 la regulaci贸n de la IA para las empresas?

    - Advertisement -

    A diferencia de los alimentos, las medicinas y los autom贸viles, todav铆a tenemos que ver regulaciones o leyes claras para guiar el dise帽o de IA en los EE. UU. Sin pautas est谩ndar, las empresas que dise帽an y desarrollan modelos de ML han trabajado hist贸ricamente con sus propias percepciones de lo correcto y lo incorrecto.

    Esto est谩 a punto de cambiar.

    A medida que la UE finaliza su Ley de IA y la IA generativa contin煤a evolucionando r谩pidamente, veremos que el panorama regulatorio de la inteligencia artificial cambia de marcos generales sugeridos a leyes m谩s permanentes.

    La Ley de IA de la UE ha estimulado conversaciones significativas entre los l铆deres empresariales: 驴C贸mo podemos prepararnos para regulaciones de IA m谩s estrictas? 驴Debo dise帽ar proactivamente una IA que cumpla con este criterio? 驴Qu茅 tan pronto pasar谩 antes de que se apruebe una regulaci贸n similar en los EE. UU.?

    Contin煤e leyendo para comprender mejor c贸mo ser谩 la regulaci贸n de la IA para las empresas en el futuro cercano.

    C贸mo afectar谩 la Ley de IA de la UE a su empresa

    como los de la UE Reglamento General de Protecci贸n de Datos (RGPD) publicado en 2018, se espera que la Ley de IA de la UE se convierta en un est谩ndar mundial para la regulaci贸n de la IA. Est谩 previsto que el Parlamento vote sobre el borrador a finales de marzo de 2023 y, si se cumple este plazo, la Ley AI final podr铆a adoptarse a finales de a帽o.

    鉂 Tambi茅n te interesa:馃摲 El Reino Unido detalla el enfoque pro innovacion para la regulacionEl Reino Unido detalla el enfoque ‘pro-innovaci贸n’ para la regulaci贸n de la IA

    Se prev茅 que los efectos de la Ley de IA se sentir谩n m谩s all谩 de las fronteras de la UE (leer: efecto Bruselas), aunque se trate de normativa europea. Las organizaciones que operen a escala internacional deber谩n cumplir directamente con la legislaci贸n. Mientras tanto, las empresas estadounidenses y otras empresas independientes se dar谩n cuenta r谩pidamente de que les conviene cumplir con esta regulaci贸n.

    Estamos empezando a ver esto ya con otra legislaci贸n similar como la de Canad谩. Ley de datos e inteligencia artificial propuesta y de la ciudad de Nueva York regulaci贸n de empleo automatizada.

    Categor铆as de riesgo del sistema de IA

    Seg煤n la Ley de IA, los sistemas de IA de las organizaciones se clasificar谩 en tres categor铆as de riesgocada uno con su propio conjunto de pautas y consecuencias.

    • Riesgo inaceptable. Los sistemas de IA que cumplan con este nivel ser谩n prohibidos. Esto incluye sistemas de manipulaci贸n que causan da帽o, sistemas de identificaci贸n biom茅trica en tiempo real utilizados en espacios p煤blicos para el cumplimiento de la ley y todas las formas de puntuaci贸n social.
    • Alto riesgo. Estos sistemas de inteligencia artificial incluyen herramientas como modelos de escaneo de solicitantes de empleo y estar谩n sujetos a requisitos legales espec铆ficos.
    • Riesgo limitado y m铆nimo. Esta categor铆a abarca muchas de las aplicaciones de IA que usan las empresas en la actualidad, incluidos los chatbots y las herramientas de gesti贸n de inventario impulsadas por IA, y en gran medida no se regular谩n. Sin embargo, las aplicaciones de riesgo limitado orientadas al cliente requerir谩n la divulgaci贸n de que se est谩 utilizando IA.

    驴C贸mo ser谩 la regulaci贸n de la IA?

    Debido a que la Ley de IA a煤n est谩 en borrador y sus efectos globales est谩n por determinarse, no podemos decir con certeza c贸mo ser谩 la regulaci贸n para las organizaciones. Sin embargo, nos hacer sepa que variar谩 seg煤n la industria, el tipo de modelo que est茅 dise帽ando y la categor铆a de riesgo en la que se encuentre.

    La regulaci贸n probablemente incluir谩 escrutinio con un tercero, donde su modelo se prueba contra la poblaci贸n a la que intenta servir. Estas pruebas evaluar谩n preguntas que incluyen ‘驴Est谩 el modelo funcionando dentro de m谩rgenes de error aceptables?’ y ‘驴Est谩 divulgando la naturaleza y el uso de su modelo? ‘

    Para organizaciones con sistemas de IA de alto riesgola Ley AI ya ha esbozado varios requisitos:

    • Implantaci贸n de un sistema de gesti贸n de riesgos.
    • Gobierno y gesti贸n de datos.
    • Documentaci贸n t茅cnica.
    • Mantenimiento de registros y registros.
    • Transparencia y suministro de informaci贸n a los usuarios.
    • Supervisi贸n humana.
    • Precisi贸n, robustez y ciberseguridad.
    • Evaluaci贸n de la conformidad.
    • Registro con el gobierno del estado miembro de la UE.
    • Sistema de seguimiento post-mercado.

    Tambi茅n podemos esperar regular pruebas de confiabilidad para que los modelos (similares a los cheques electr贸nicos para autom贸viles) se conviertan en un servicio m谩s generalizado en la industria de la IA.

    鉂 Tambi茅n te interesa:馃摲 Clearview AI utilizado por la policia de EE UU paraClearview AI utilizado por la polic铆a de EE. UU. para casi 1 mill贸n de b煤squedas

    C贸mo prepararse para las regulaciones de IA

    Muchos l铆deres de IA ya han priorizado la confianza y la mitigaci贸n de riesgos al dise帽ar y desarrollar modelos de ML. Cuanto antes acepte la regulaci贸n de la IA como nuestra nueva realidad, m谩s 茅xito tendr谩 en el futuro.

    Estos son solo algunos pasos que las organizaciones pueden tomar para prepararse para una regulaci贸n de IA m谩s estricta:

    • Investigar y educar sus equipos sobre los tipos de regulaci贸n que existir谩n y c贸mo afectar谩 a su empresa hoy y en el futuro.
    • Auditor铆a sus modelos existentes y planificados. 驴Con qu茅 categor铆a de riesgo se alinean y qu茅 regulaciones asociadas lo afectar谩n m谩s?
    • Desarrollar y adoptar un marco para dise帽ar soluciones de IA responsables.
    • Piense en su Estrategia de mitigaci贸n de riesgos de IA. 驴C贸mo se aplica a los modelos existentes y a los que se dise帽en en el futuro? 驴Qu茅 acciones inesperadas debe tener en cuenta?
    • Establecer un Estrategia de informes y gobernanza de IA eso asegura m煤ltiples controles antes de que un modelo entre en funcionamiento.

    A la luz de la Ley de IA y la inevitable regulaci贸n futura, el dise帽o de IA 茅tico y justo ya no es 芦agradable de tener禄, sino 芦imprescindible禄. 驴C贸mo puede su organizaci贸n prepararse para el 茅xito?

    (Foto por ALEJANDRO LALLEMAND en Unsplash)

    驴Quiere aprender m谩s sobre IA y big data de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data teniendo lugar en 脕msterdam, California y Londres. El evento es co-ubicado con Semana de la Transformaci贸n Digital.

    Explore otros pr贸ximos eventos y seminarios web de tecnolog铆a empresarial impulsados 鈥嬧媝or TechForge aqu铆.

    鉂 Tambi茅n te interesa:馃摲 1680358962 El grupo de expertos de AI llama a GPT 4 unEl grupo de expertos de AI llama a GPT-4 un riesgo para la seguridad p煤blica

    Etiquetas: ai, ai act, inteligencia artificial, empresa, ue, europa, uni贸n europea, ley, legal, regulaci贸n

    Fuente: 驴C贸mo ser谩 la regulaci贸n de la IA para las empresas?

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.