M谩s

    Un documento del Reino Unido destaca los riesgos de la IA antes de la Cumbre Mundial de Seguridad

    - Advertisement -

    El Gobierno del Reino Unido ha presentado una amplia papel abordar las capacidades y los riesgos asociados con la IA de frontera.

    El Primer Ministro del Reino Unido, Rishi Sunak, habl贸 hoy sobre la responsabilidad global de enfrentar los riesgos destacados en el informe y aprovechar el potencial de la IA. Sunak enfatiz贸 la necesidad de un di谩logo honesto sobre la doble naturaleza de la IA: ofrece oportunidades sin precedentes, pero al mismo tiempo plantea peligros importantes.

    鈥淟a IA traer谩 nuevos conocimientos, nuevas oportunidades de crecimiento econ贸mico, nuevos avances en la capacidad humana y la posibilidad de resolver problemas que alguna vez pens谩bamos que estaban fuera de nuestro alcance. Pero tambi茅n trae consigo nuevos peligros y nuevos temores鈥, afirm贸 Sunak.

    鈥淓ntonces, lo responsable que debo hacer es abordar esos temores de frente, brind谩ndoles la tranquilidad de que los mantendremos a salvo y al mismo tiempo nos aseguraremos de que ustedes y sus hijos tengan todas las oportunidades para un futuro mejor que la IA puede brindarles. .

    芦Hacer lo correcto, no lo f谩cil, significa ser honesto con la gente acerca de los riesgos de estas tecnolog铆as禄.

    El informe profundiza en los r谩pidos avances de la IA de vanguardia, bas谩ndose en numerosas fuentes. Destaca las diversas perspectivas dentro de las comunidades cient铆ficas, de expertos y globales con respecto a los riesgos asociados con la r谩pida evoluci贸n de la tecnolog铆a de IA.

    La publicaci贸n consta de tres secciones clave:

  • Capacidades y riesgos de la IA de vanguardia: Esta secci贸n presenta un documento de debate que aboga por una mayor investigaci贸n sobre el riesgo de la IA. Describe el estado actual de las capacidades fronterizas de la IA, las posibles mejoras futuras y los riesgos asociados, incluidos los da帽os sociales, el uso indebido y la p茅rdida de control.
  • Riesgos de seguridad y protecci贸n de la IA generativa hasta 2025: Bas谩ndose en evaluaciones de inteligencia, este informe describe los posibles beneficios globales de la IA generativa al tiempo que destaca los mayores riesgos de seguridad y protecci贸n. Subraya la mejora de las capacidades de los actores de amenazas y la efectividad de los ataques debido al desarrollo de la IA generativa.
  • Riesgos futuros de la IA de frontera: Preparado por la Oficina Gubernamental para la Ciencia, este informe explora las incertidumbres en el desarrollo de la IA de vanguardia, los riesgos futuros del sistema y los escenarios potenciales para la IA hasta 2030.
  • El informe, basado en informaci贸n desclasificada de agencias de inteligencia, se centra en la IA generativa, la tecnolog铆a que sustenta los populares chatbots y el software de generaci贸n de im谩genes. Prev茅 un futuro en el que los terroristas podr铆an explotar la IA para planificar ataques biol贸gicos o qu铆micos, lo que generar铆a serias preocupaciones sobre la seguridad global.

    Sjuul van der Leeuw, director ejecutivo de Implementarteqcoment贸: 鈥淓s bueno ver que el gobierno adopta un enfoque serio y ofrece un informe antes de la Cumbre de Seguridad de la pr贸xima semana, aunque hay que hacer m谩s.

    鉂 Tambi茅n te interesa:Biden emite orden ejecutiva para garantizar el desarrollo responsable de la IABiden emite orden ejecutiva para garantizar el desarrollo responsable de la IA

    芦Se necesita un esfuerzo continuo para abordar los riesgos de la IA y esperamos que la cumbre aporte la claridad que tanto se necesita, permitiendo a las empresas y a los especialistas en marketing disfrutar de los beneficios que ofrece esta tecnolog铆a emergente, sin preocuparse de reacciones negativas禄.

    El informe destaca que la IA generativa podr铆a utilizarse para recopilar conocimientos sobre ataques f铆sicos por parte de actores violentos no estatales, incluida la creaci贸n de armas qu铆micas, biol贸gicas y radiol贸gicas.

    Aunque las empresas est谩n trabajando para implementar salvaguardias, el informe enfatiza la diferente efectividad de estas medidas. Los obst谩culos para obtener el conocimiento, las materias primas y el equipo necesarios para tales ataques est谩n disminuyendo, y la IA puede acelerar este proceso.

    Adem谩s, el informe advierte sobre la probabilidad de que los ciberataques impulsados 鈥嬧媝or IA sean m谩s r谩pidos, m谩s efectivos y de mayor escala para 2025. La IA podr铆a ayudar a los piratas inform谩ticos a imitar el lenguaje oficial y superar los desaf铆os anteriores enfrentados en esta 谩rea.

    Sin embargo, algunos expertos han cuestionado el enfoque del Gobierno del Reino Unido.

    Rashik Parmar MBE, director ejecutivo de BCS, el Instituto Colegiado de TIdijo: 鈥淢谩s de 1.300 tecn贸logos y l铆deres firmaron nuestra carta abierta llamando a la IA una fuerza para el bien en lugar de una amenaza existencial para la humanidad.

    鈥淟a IA no crecer谩 como Terminator. Si tomamos las medidas adecuadas, ser谩 un copiloto de confianza desde nuestros primeros d铆as escolares hasta nuestra jubilaci贸n.

    La Cumbre sobre Seguridad de la IA tendr谩 como objetivo fomentar un debate saludable sobre c贸mo abordar los riesgos fronterizos de la IA, que abarca el uso indebido por parte de actores no estatales para ataques cibern茅ticos o dise帽o de armas biol贸gicas y preocupaciones relacionadas con los sistemas de IA que act煤an de forma aut贸noma en contra de las intenciones humanas. Las discusiones en la cumbre tambi茅n se extender谩n a impactos sociales m谩s amplios, como la interrupci贸n de las elecciones, los prejuicios, el crimen y la seguridad en l铆nea.

    Claire Trachet, directora ejecutiva de Traquet, coment贸: 鈥淟a naturaleza de r谩pido crecimiento de la IA ha dificultado que los gobiernos equilibren la creaci贸n de una regulaci贸n efectiva que salvaguarde los intereses de las empresas y los consumidores sin sofocar las oportunidades de inversi贸n. Aunque ahora existen algunas formas de gesti贸n de riesgos y diferentes informes, ninguno de ellos es un verdadero enfoque coordinado.

    鉂 Tambi茅n te interesa:Microsoft y Siemens revolucionan la industria con Copilot impulsado por IAMicrosoft y Siemens revolucionan la industria con Copilot impulsado por IA

    芦El compromiso del gobierno del Reino Unido con la seguridad de la IA es encomiable, pero las cr铆ticas en torno a la cumbre sirven como recordatorio de la importancia de un enfoque equilibrado, constructivo y con visi贸n de futuro para la regulaci贸n de la IA禄.

    Si nos basamos en el informe del gobierno del Reino Unido, la necesidad de colaboraci贸n en torno a medidas proporcionadas pero rigurosas para gestionar los riesgos que plantea la IA es m谩s imperativa que nunca.

    Lo global Cumbre de seguridad de IA se llevar谩 a cabo en el hist贸rico Bletchley Park del 1 al 2 de noviembre de 2023.

    (Credito de imagen: GOBIERNO REINO UNIDO)

    Ver tambi茅n: BSI: Cerrar la ‘brecha de confianza en la IA’ es clave para desbloquear beneficios

    驴Quiere aprender m谩s sobre IA y big data de la mano de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data que tendr谩 lugar en Amsterdam, California y Londres. El evento integral comparte ubicaci贸n con Exposici贸n de seguridad cibern茅tica y nube y Semana de la Transformaci贸n Digital.

    Explore otros pr贸ximos eventos y seminarios web de tecnolog铆a empresarial impulsados 鈥嬧媝or TechForge aqu铆.

    Etiquetas: amenazas, cumbre de seguridad de ai, empresa, 茅tica, frontera ai, gobierno del reino unido, gobierno del reino unido, investigaci贸n, la seguridad, papel, reino unido, riesgos, sociedad, gobierno del reino unido

    鉂 Tambi茅n te interesa:Dell, Intel y la Universidad de Cambridge implementan la supercomputadora de inteligencia artificial m谩s r谩pida del Reino UnidoDell, Intel y la Universidad de Cambridge implementan la supercomputadora de inteligencia artificial m谩s r谩pida del Reino Unido

    Fuente: Un documento del Reino Unido destaca los riesgos de la IA antes de la Cumbre Mundial de Seguridad

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.