M谩s

    El grupo de expertos de AI llama a GPT-4 un riesgo para la seguridad p煤blica

    - Advertisement -

    Un grupo de expertos de IA tiene presentado una denuncia con el FTC en un intento por detener IA abierta de m谩s implementaciones comerciales de GPT-4.

    El Centro de Inteligencia Artificial y Pol铆tica Digital (CAIDP) afirma que OpenAI ha violado secci贸n cinco de la Ley de la FTC, alegando a la empresa pr谩cticas enga帽osas y desleales.

    Marc Rotenberg, Fundador y Presidente del CAIDP, dijo:

    鈥淟a FTC tiene la clara responsabilidad de investigar y prohibir las pr谩cticas comerciales desleales y enga帽osas. Creemos que la FTC deber铆a mirar de cerca a OpenAI y GPT-4.

    Le estamos pidiendo espec铆ficamente a la FTC que determine si la compa帽铆a ha cumplido con la gu铆a que ha emitido la agencia federal鈥.

    El CAIDP afirma que el GPT-4 de OpenAI es 芦parcial, enga帽oso y un riesgo para la privacidad y la seguridad p煤blica禄.

    El grupo de expertos cit贸 contenidos en el Tarjeta del sistema GPT-4 que describen el potencial del modelo para reforzar sesgos y visiones del mundo, incluidos estereotipos da帽inos y asociaciones degradantes para ciertos grupos marginados.

    En la tarjeta del sistema antes mencionada, OpenAI reconoce que 芦encontr贸 que el modelo tiene el potencial de reforzar y reproducir sesgos y visiones del mundo espec铆ficos, incluidas asociaciones estereotipadas y degradantes da帽inas para ciertos grupos marginados禄.

    Adem谩s, el documento establece: 鈥淟os sistemas de IA tendr谩n un potencial a煤n mayor para reforzar ideolog铆as, visiones del mundo, verdades y falsedades enteras, y cimentarlas o bloquearlas, impidiendo futuras contestaciones, reflexiones y mejoras鈥.

    Otros resultados da帽inos que OpenAI dice que GPT-4 podr铆a provocar incluyen:

  • Consejos o est铆mulo para conductas de autolesi贸n.
  • Material gr谩fico como contenido er贸tico o violento.
  • Contenido acosador, degradante y odioso
  • Contenido 煤til para planificar ataques o violencia
  • Instrucciones para encontrar contenido ilegal
  • El CAIDP afirma que OpenAI lanz贸 GPT-4 al p煤blico sin una evaluaci贸n independiente de sus riesgos.

    La semana pasada, la FTC dijo Empresas estadounidenses que anuncian productos de IA:

    鈥淪implemente advertir a sus clientes sobre el mal uso o decirles que hagan revelaciones no es suficiente para disuadir a los malos.

    Sus medidas de disuasi贸n deben ser caracter铆sticas duraderas e integradas y no correcciones de errores o caracter铆sticas opcionales que terceros puedan socavar mediante modificaci贸n o eliminaci贸n鈥.

    鉂 Tambi茅n te interesa:馃摲 El riesgo y la recompensa de ChatGPT en ciberseguridadEl riesgo y la recompensa de ChatGPT en ciberseguridad

    Con su presentaci贸n, el CAIDP pide a la FTC que investigue los productos de OpenAI y otros operadores de potentes sistemas de IA, evite m谩s lanzamientos comerciales de GPT-4 y garantice el establecimiento de las medidas de protecci贸n necesarias para proteger a los consumidores, las empresas y el mercado comercial. .

    Merve Hickok, presidenta y directora de investigaci贸n del CAIDP, coment贸:

    鈥淓stamos en un momento cr铆tico en la evoluci贸n de los productos de IA.

    Reconocemos las oportunidades y apoyamos la investigaci贸n. Pero sin las salvaguardas necesarias establecidas para limitar el sesgo y el enga帽o, existe un grave riesgo para las empresas, los consumidores y la seguridad p煤blica.

    La FTC est谩 en una posici贸n 煤nica para abordar este desaf铆o鈥.

    La denuncia fue presentada como Elon Musk, Steve Wozniak y otros expertos en IA firm贸 una petici贸n para 芦pausar禄 el desarrollo en sistemas de IA m谩s potentes que GPT-4.

    Sin embargo, otras figuras de alto perfil creen que el progreso no debe ralentizarse/detenerse:

    Cu茅ntenme entre las personas que piensan que esto es una mala idea.

    No hay 芦expertos禄 para adjudicar este tema, y 鈥嬧媘uchos actores dispares nunca estar谩n de acuerdo. Los comit茅s y la burocracia no resolver谩n nada.

    Como ocurre con muchas tecnolog铆as, existen peligros, pero debemos seguir marchando鈥 https://t.co/iM0sKOVTaw

    鈥擝rian Armstrong (@brian_armstrong) 31 de marzo de 2023

    Musk fue cofundador de OpenAI, que se cre贸 originalmente como una organizaci贸n sin fines de lucro con la misi贸n de garantizar que la IA beneficie a la humanidad. Musk renunci贸 al directorio de OpenAI en 2018 y ha cuestionado p煤blicamente la transformaci贸n de la empresa:

    Todav铆a estoy confundido en cuanto a c贸mo una organizaci贸n sin fines de lucro a la que don茅 ~ $ 100 millones de alguna manera se convirti贸 en una capitalizaci贸n de mercado de $ 30 mil millones con fines de lucro. Si esto es legal, 驴por qu茅 no todos lo hacen?

    鈥 Elon Musk (@elonmusk) 15 de marzo de 2023

    鉂 Tambi茅n te interesa:馃摲 La IA puede ayudar con desafios dificiles pero los riesgosLa IA puede ayudar con desaf铆os dif铆ciles, pero los riesgos deben abordarse

    Enfoques globales para la regulaci贸n de la IA

    A medida que los sistemas de IA se vuelven m谩s avanzados y potentes, aumentan las preocupaciones sobre sus posibles riesgos y sesgos. Organizaciones como CAIDP, UNESCO y Future of Life Institute est谩n presionando para que se establezcan pautas y regulaciones 茅ticas para proteger al p煤blico y garantizar el desarrollo responsable de la tecnolog铆a de IA.

    La UNESCO (Organizaci贸n de las Naciones Unidas para la Educaci贸n, la Ciencia y la Cultura) ha llamado a los pa铆ses a implementar su 鈥淩ecomendaci贸n sobre la 茅tica de la IA鈥 estructura.

    Hoy temprano, Italia prohibido ChatGPT. Las autoridades de protecci贸n de datos del pa铆s dijeron que ser铆a investigado y que el sistema no tiene una base legal adecuada para recopilar informaci贸n personal sobre las personas que lo usan.

    La UE en general est谩 estableciendo un entorno normativo estricto para la IA, en contraste con el enfoque relativamente 芦ligero禄 del Reino Unido.

    Tim Wright, socio y abogado especialista en tecnolog铆a y regulaci贸n de IA en bufete de abogados Puerta de banderacoment贸 sobre la visi贸n del Reino Unido:

    鈥淟os principios regulatorios establecidos en el documento t茅cnico simplemente confirman el enfoque preferido del gobierno que, seg煤n dicen, fomentar谩 la innovaci贸n en el espacio sin imponer una carga indebida a las empresas que desarrollan y adoptan la IA, al tiempo que fomentan el uso justo y 茅tico y protegen a las personas.

    El tiempo dir谩 si este enfoque sector por sector tiene el efecto deseado. Lo que hace es poner al Reino Unido en un enfoque completamente diferente al de la UE, que est谩 impulsando un libro de reglas detallado respaldado por un nuevo r茅gimen de responsabilidad y supervisado por un 煤nico superregulador de IA鈥.

    Como siempre, es un acto de equilibrio entre la regulaci贸n y la innovaci贸n. Una regulaci贸n insuficiente pone en riesgo al p煤blico, mientras que demasiadas corren el riesgo de impulsar la innovaci贸n en otros lugares.

    (Foto por ben dulce en Unsplash)

    Relacionado: 驴C贸mo ser谩 la regulaci贸n de la IA para las empresas?

    驴Quiere aprender m谩s sobre IA y big data de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data teniendo lugar en 脕msterdam, California y Londres. El evento es co-ubicado con Semana de la Transformaci贸n Digital.

    Explore otros pr贸ximos eventos y seminarios web de tecnolog铆a empresarial impulsados 鈥嬧媝or TechForge aqu铆.

    Etiquetas: act, ai, am茅rica, inteligencia artificial, caidp, Centro de Inteligencia Artificial y Pol铆tica Digital, chatgpt, desarrollo, 茅tica, ue, europa, uni贸n europea, ftc, gpt-4, ley, legal, openai, Pol铆tica, regulaci贸n, riesgos, seguridad, secci贸n 5, Sociedad, tarjeta del sistema, reino unido, estados unidos

    鉂 Tambi茅n te interesa:馃摲 Como la IA puede transformar la forma en que lasC贸mo la IA puede transformar la forma en que las empresas prueban las experiencias digitales


    Fuente: El grupo de expertos de AI llama a GPT-4 un riesgo para la seguridad p煤blica

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.