Más

    El grupo de expertos de AI llama a GPT-4 un riesgo para la seguridad pública

    - Advertisement -

    Un grupo de expertos de IA tiene presentado una denuncia con el FTC en un intento por detener IA abierta de más implementaciones comerciales de GPT-4.

    El Centro de Inteligencia Artificial y Política Digital (CAIDP) afirma que OpenAI ha violado sección cinco de la Ley de la FTC, alegando a la empresa prácticas engañosas y desleales.

    Marc Rotenberg, Fundador y Presidente del CAIDP, dijo:

    “La FTC tiene la clara responsabilidad de investigar y prohibir las prácticas comerciales desleales y engañosas. Creemos que la FTC debería mirar de cerca a OpenAI y GPT-4.

    Le estamos pidiendo específicamente a la FTC que determine si la compañía ha cumplido con la guía que ha emitido la agencia federal”.

    El CAIDP afirma que el GPT-4 de OpenAI es «parcial, engañoso y un riesgo para la privacidad y la seguridad pública».

    El grupo de expertos citó contenidos en el Tarjeta del sistema GPT-4 que describen el potencial del modelo para reforzar sesgos y visiones del mundo, incluidos estereotipos dañinos y asociaciones degradantes para ciertos grupos marginados.

    En la tarjeta del sistema antes mencionada, OpenAI reconoce que «encontró que el modelo tiene el potencial de reforzar y reproducir sesgos y visiones del mundo específicos, incluidas asociaciones estereotipadas y degradantes dañinas para ciertos grupos marginados».

    Además, el documento establece: “Los sistemas de IA tendrán un potencial aún mayor para reforzar ideologías, visiones del mundo, verdades y falsedades enteras, y cimentarlas o bloquearlas, impidiendo futuras contestaciones, reflexiones y mejoras”.

    Otros resultados dañinos que OpenAI dice que GPT-4 podría provocar incluyen:

  • Consejos o estímulo para conductas de autolesión.
  • Material gráfico como contenido erótico o violento.
  • Contenido acosador, degradante y odioso
  • Contenido útil para planificar ataques o violencia
  • Instrucciones para encontrar contenido ilegal
  • El CAIDP afirma que OpenAI lanzó GPT-4 al público sin una evaluación independiente de sus riesgos.

    La semana pasada, la FTC dijo Empresas estadounidenses que anuncian productos de IA:

    “Simplemente advertir a sus clientes sobre el mal uso o decirles que hagan revelaciones no es suficiente para disuadir a los malos.

    Sus medidas de disuasión deben ser características duraderas e integradas y no correcciones de errores o características opcionales que terceros puedan socavar mediante modificación o eliminación”.

    Con su presentación, el CAIDP pide a la FTC que investigue los productos de OpenAI y otros operadores de potentes sistemas de IA, evite más lanzamientos comerciales de GPT-4 y garantice el establecimiento de las medidas de protección necesarias para proteger a los consumidores, las empresas y el mercado comercial. .

    Merve Hickok, presidenta y directora de investigación del CAIDP, comentó:

    “Estamos en un momento crítico en la evolución de los productos de IA.

    Reconocemos las oportunidades y apoyamos la investigación. Pero sin las salvaguardas necesarias establecidas para limitar el sesgo y el engaño, existe un grave riesgo para las empresas, los consumidores y la seguridad pública.

    La FTC está en una posición única para abordar este desafío”.

    La denuncia fue presentada como Elon Musk, Steve Wozniak y otros expertos en IA firmó una petición para «pausar» el desarrollo en sistemas de IA más potentes que GPT-4.

    Sin embargo, otras figuras de alto perfil creen que el progreso no debe ralentizarse/detenerse:

    Cuéntenme entre las personas que piensan que esto es una mala idea.

    No hay «expertos» para adjudicar este tema, y ​​muchos actores dispares nunca estarán de acuerdo. Los comités y la burocracia no resolverán nada.

    Como ocurre con muchas tecnologías, existen peligros, pero debemos seguir marchando… https://t.co/iM0sKOVTaw

    —Brian Armstrong (@brian_armstrong) 31 de marzo de 2023

    Musk fue cofundador de OpenAI, que se creó originalmente como una organización sin fines de lucro con la misión de garantizar que la IA beneficie a la humanidad. Musk renunció al directorio de OpenAI en 2018 y ha cuestionado públicamente la transformación de la empresa:

    Todavía estoy confundido en cuanto a cómo una organización sin fines de lucro a la que doné ~ $ 100 millones de alguna manera se convirtió en una capitalización de mercado de $ 30 mil millones con fines de lucro. Si esto es legal, ¿por qué no todos lo hacen?

    — Elon Musk (@elonmusk) 15 de marzo de 2023

    Enfoques globales para la regulación de la IA

    A medida que los sistemas de IA se vuelven más avanzados y potentes, aumentan las preocupaciones sobre sus posibles riesgos y sesgos. Organizaciones como CAIDP, UNESCO y Future of Life Institute están presionando para que se establezcan pautas y regulaciones éticas para proteger al público y garantizar el desarrollo responsable de la tecnología de IA.

    La UNESCO (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura) ha llamado a los países a implementar su “Recomendación sobre la ética de la IA” estructura.

    Hoy temprano, Italia prohibido ChatGPT. Las autoridades de protección de datos del país dijeron que sería investigado y que el sistema no tiene una base legal adecuada para recopilar información personal sobre las personas que lo usan.

    La UE en general está estableciendo un entorno normativo estricto para la IA, en contraste con el enfoque relativamente «ligero» del Reino Unido.

    Tim Wright, socio y abogado especialista en tecnología y regulación de IA en bufete de abogados Puerta de banderacomentó sobre la visión del Reino Unido:

    “Los principios regulatorios establecidos en el documento técnico simplemente confirman el enfoque preferido del gobierno que, según dicen, fomentará la innovación en el espacio sin imponer una carga indebida a las empresas que desarrollan y adoptan la IA, al tiempo que fomentan el uso justo y ético y protegen a las personas.

    El tiempo dirá si este enfoque sector por sector tiene el efecto deseado. Lo que hace es poner al Reino Unido en un enfoque completamente diferente al de la UE, que está impulsando un libro de reglas detallado respaldado por un nuevo régimen de responsabilidad y supervisado por un único superregulador de IA”.

    Como siempre, es un acto de equilibrio entre la regulación y la innovación. Una regulación insuficiente pone en riesgo al público, mientras que demasiadas corren el riesgo de impulsar la innovación en otros lugares.

    (Foto por ben dulce en Unsplash)

    Relacionado: ¿Cómo será la regulación de la IA para las empresas?

    ¿Quiere aprender más sobre IA y big data de los líderes de la industria? Verificar Exposición de IA y Big Data teniendo lugar en Ámsterdam, California y Londres. El evento es co-ubicado con Semana de la Transformación Digital.

    Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

    Etiquetas: act, ai, américa, inteligencia artificial, caidp, Centro de Inteligencia Artificial y Política Digital, chatgpt, desarrollo, ética, ue, europa, unión europea, ftc, gpt-4, ley, legal, openai, Política, regulación, riesgos, seguridad, sección 5, Sociedad, tarjeta del sistema, reino unido, estados unidos


    Fuente: El grupo de expertos de AI llama a GPT-4 un riesgo para la seguridad pública

    Populares

    Más de esta categoría

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aquí

    Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.