M谩s

    La agenda de pol铆ticas de Google revela la lista de deseos de la regulaci贸n de IA

    - Advertisement -

    Google public贸 un documento de Agenda de pol铆ticas de IA que describe una visi贸n para el despliegue responsable de IA y sugerencias sobre c贸mo los gobiernos deben regular y alentar la industria.

    Agenda de pol铆ticas de IA de Google

    Google anunci贸 la publicaci贸n de una agenda de pol铆ticas de IA con sugerencias para el desarrollo y las regulaciones responsables de la IA.

    El documento se帽ala que las pol铆ticas gubernamentales de IA se est谩n formando de forma independiente en todo el mundo y exige una agenda de IA cohesiva que logre un equilibrio entre la protecci贸n contra los resultados da帽inos y eludir la innovaci贸n.

    Google escribe:

    鈥淐onseguir que la innovaci贸n en IA sea correcta requiere un marco de pol铆ticas que garantice la responsabilidad y permita la confianza.

    Necesitamos una estrategia hol铆stica de IA centrada en:

    (1) desbloquear oportunidades a trav茅s de la innovaci贸n y el crecimiento econ贸mico inclusivo;

    (2) garantizar la responsabilidad y permitir la confianza; y

    (3) proteger la seguridad global.

    Una agenda cohesiva de IA debe promover los tres objetivos, no uno a expensas de los dem谩s鈥.

    La agenda de pol铆ticas de IA de Google tiene tres objetivos principales:

  • Oportunidad
  • Responsabilidad
  • Seguridad
  • Oportunidad

    Esta parte de la agenda pide a los gobiernos que alienten el desarrollo de la IA invirtiendo en:

    • Investigaci贸n y desarrollo
    • Crear un entorno legal sin fricciones que libere el desarrollo de la IA
    • Planificaci贸n del apoyo educativo para capacitar a una fuerza laboral preparada para la IA

    En resumen, la agenda pide a los gobiernos que se quiten del camino y apoyen a la IA para ayudar a avanzar en la tecnolog铆a.

    La agenda pol铆tica observa:

    鈥淗ist贸ricamente, los pa铆ses se han destacado cuando maximizan el acceso a la tecnolog铆a y la aprovechan para lograr importantes objetivos p煤blicos, en lugar de tratar de limitar el avance tecnol贸gico鈥.

    Responsabilidad

    La agenda de pol铆ticas de Google argumenta que la implementaci贸n responsable de la IA depender谩 de una combinaci贸n de leyes gubernamentales, autorregulaci贸n corporativa y aportes de organizaciones no gubernamentales.

    La agenda pol铆tica recomienda:

    鈥淎lgunos desaf铆os se pueden abordar a trav茅s de la regulaci贸n, asegurando que las tecnolog铆as de IA se desarrollen e implementen de acuerdo con las pr谩cticas responsables de la industria y los est谩ndares internacionales.

    Otros requerir谩n una investigaci贸n fundamental para comprender mejor los beneficios y riesgos de la IA, y c贸mo gestionarlos, y desarrollar e implementar nuevas innovaciones t茅cnicas en 谩reas como la interpretabilidad y las marcas de agua.

    Y otros pueden requerir nuevas organizaciones e instituciones鈥.

    La agenda tambi茅n recomienda:

    鈥淔omentar la adopci贸n de enfoques comunes para la regulaci贸n y la gobernanza de la IA, as铆 como un l茅xico com煤n, basado en el trabajo de la OCDE. 鈥

    驴Qu茅 es la OCDE?

    La OCDE es la Observatorio de Pol铆ticas OCDE.AIque es apoyado por socios corporativos y gubernamentales.

    Las partes interesadas del gobierno de la OCDE incluyen el Departamento de Estado de EE. UU. y el Departamento de Comercio de EE. UU.

    Las partes interesadas corporativas est谩n compuestas por organizaciones como la Fundaci贸n Patrick J McGovern, cuyo equipo de liderazgo est谩 repleto de inversores y ejecutivos de tecnolog铆a de Silicon Valley que tienen un inter茅s propio en c贸mo se regula la tecnolog铆a.

    Google aboga por menos regulaci贸n corporativa

    La recomendaci贸n de pol铆tica de Google sobre la regulaci贸n es que menos regulaci贸n es mejor y que la transparencia corporativa podr铆a obstaculizar la innovaci贸n.

    recomienda:

    鈥淓nfocar las regulaciones en las aplicaciones de mayor riesgo tambi茅n puede disuadir la innovaci贸n en las aplicaciones de mayor valor donde la IA puede ofrecer los beneficios m谩s significativos.

    La transparencia, que puede respaldar la rendici贸n de cuentas y la equidad, puede tener un costo en precisi贸n, seguridad y privacidad.

    Las democracias deben evaluar cuidadosamente c贸mo lograr el equilibrio correcto鈥.

    Luego recomienda tomar en consideraci贸n la eficiencia y la productividad:

    鈥淓xigir a las agencias reguladoras que consideren las compensaciones entre diferentes objetivos de pol铆tica, incluida la mejora de la eficiencia y la productividad, la transparencia, la equidad, la privacidad, la seguridad y la resiliencia. 鈥

    Siempre ha habido, y siempre habr谩, un tira y afloja entre las entidades corporativas que luchan contra la supervisi贸n y los reguladores gubernamentales que buscan proteger al p煤blico.

    La IA puede resolver los problemas m谩s dif铆ciles de la humanidad y brindar beneficios sin precedentes. Google tiene raz贸n en que se debe encontrar un equilibrio entre los intereses del p煤blico y las corporaciones.

    Recomendaciones sensatas

    El documento contiene recomendaciones sensatas, como sugerir que las agencias reguladoras existentes desarrollen pautas espec铆ficas para la IA y que consideren la adopci贸n de los nuevos est谩ndares ISO actualmente en desarrollo (como ISO 42001).

    La agenda pol铆tica recomienda:

    鈥渁) Instruir a los reguladores sectoriales para que actualicen los reg铆menes existentes de supervisi贸n y cumplimiento para aplicarlos a los sistemas de IA, incluso sobre c贸mo las autoridades existentes aplican el uso de IA, y c贸mo demostrar el cumplimiento de un sistema de IA con las regulaciones existentes utilizando est谩ndares de consenso internacional de m煤ltiples partes interesadas como el Serie ISO 42001.

    b) Instruir a las agencias reguladoras para que emitan informes peri贸dicos que identifiquen las brechas de capacidad que dificultan tanto que las entidades cubiertas cumplan con las regulaciones como que los reguladores realicen una supervisi贸n efectiva鈥.

    En cierto modo, esas recomendaciones indican lo obvio, es un hecho que las agencias desarrollar谩n pautas para que los reguladores sepan c贸mo regular.

    Escondido en esa declaraci贸n est谩 la recomendaci贸n de ISO 42001 como modelo de c贸mo deber铆an ser los est谩ndares de IA.

    Cabe se帽alar que la norma ISO 42001 es desarrollada por la Comit茅 ISO/IEC para Inteligencia Artificialcual est谩 presidido por un ejecutivo de tecnolog铆a de Silicon Valley de veinte a帽os y otros de la industria de la tecnolog铆a.

    IA y seguridad

    Esta es la parte que presenta un peligro real por el uso malicioso para crear desinformaci贸n e informaci贸n err贸nea, as铆 como da帽os cibern茅ticos.

    Google describe los desaf铆os:

    鈥淣uestro desaf铆o es maximizar los beneficios potenciales de la IA para la seguridad y la estabilidad global y, al mismo tiempo, evitar que los actores de amenazas exploten esta tecnolog铆a con fines maliciosos鈥.

    Y luego ofrece una soluci贸n:

    鈥淟os gobiernos deben invertir simult谩neamente en I + D y acelerar la adopci贸n de IA p煤blica y privada mientras controlan la proliferaci贸n de herramientas que podr铆an ser abusadas por actores malintencionados鈥.

    Entre las recomendaciones para que los gobiernos combatan las amenazas basadas en IA:

    • Desarrollar formas de identificar y prevenir la interferencia electoral
    • Compartir informaci贸n sobre vulnerabilidades de seguridad
    • Desarrollar un marco de control de comercio internacional para tratar con entidades que se dedican a la investigaci贸n y el desarrollo de IA que amenaza la seguridad global.

    Reducir la burocracia y aumentar la adopci贸n de IA por parte del gobierno

    A continuaci贸n, el documento aboga por la racionalizaci贸n de la adopci贸n de la IA por parte del gobierno, incluida una mayor inversi贸n en ella.

    鈥淩eformar las pol铆ticas de adquisici贸n del gobierno para aprovechar y fomentar la IA l铆der en el mundo鈥

    Examine las barreras institucionales y burocr谩ticas que impiden que los gobiernos eliminen los silos de datos y adopte el mejor gobierno de datos de su clase para aprovechar todo el poder de la IA.

    Aproveche los conocimientos de datos a trav茅s de la formaci贸n de equipos hombre-m谩quina, creando equipos 谩giles con las habilidades para construir/adaptar/aprovechar r谩pidamente sistemas de IA que ya no requieren t铆tulos en inform谩tica鈥︹

    Agenda de pol铆ticas de IA de Google

    La agenda de pol铆ticas brinda sugerencias bien pensadas para que los gobiernos de todo el mundo las consideren al formular regulaciones sobre el uso de la IA.

    La IA es capaz de realizar muchos avances positivos en la ciencia y la medicina, avances que pueden brindar soluciones al cambio clim谩tico, curar enfermedades y prolongar la vida humana.

    En cierto modo, es una pena que los primeros productos de IA lanzados al mundo sean las aplicaciones ChatGPT y Dall-E comparativamente triviales que hacen muy poco por beneficiar a la humanidad.

    Los gobiernos est谩n tratando de comprender la IA y c贸mo regularla a medida que estas tecnolog铆as se adoptan en todo el mundo.

    Curiosamente, la IA de c贸digo abierto, la versi贸n m谩s importante de la misma, se menciona solo una vez.

    El 煤nico contexto en el que se aborda el c贸digo abierto es en las recomendaciones para abordar el uso indebido de la IA:

    鈥淎clarar la posible responsabilidad por el uso indebido/abuso de los sistemas de IA de prop贸sito general y especializados (incluidos los sistemas de c贸digo abierto, seg煤n corresponda) por parte de varios participantes: investigadores y autores, creadores, implementadores y usuarios finales鈥.

    Dado que se dice que Google est谩 asustado y cree que ya ha sido derrotado por la IA de c贸digo abierto, es curioso c贸mo la IA de c贸digo abierto solo se menciona en el contexto del mal uso de la tecnolog铆a.

    La agenda de pol铆ticas de IA de Google refleja preocupaciones leg铆timas por el exceso de regulaci贸n y las reglas inconsistentes impuestas en todo el mundo.

    Pero las organizaciones que la agenda de pol铆ticas cita como que ayudan a desarrollar est谩ndares y regulaciones de la industria est谩n llenas de expertos de Silicon Valley. Esto plantea interrogantes sobre los intereses de qui茅n reflejan las normas y reglamentos.

    La agenda de pol铆ticas comunica con 茅xito la necesidad y la urgencia de desarrollar regulaciones significativas y justas para evitar resultados da帽inos y permitir que avance la innovaci贸n beneficiosa.

    Lea el art铆culo de Google sobre la agenda pol铆tica:

    Una agenda pol铆tica para el progreso responsable de la IA: oportunidad, responsabilidad, seguridad

    Lea la agenda pol铆tica de IA en s铆 (PDF)

    Una agenda pol铆tica para el progreso responsable de la inteligencia artificial

    Imagen destacada de Shutterstock/Shaheerrr

    Fuente: La agenda de pol铆ticas de Google revela la lista de deseos de la regulaci贸n de IA

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.