M谩s

    Los l铆deres de AI advierten sobre el 芦riesgo de extinci贸n禄 en una carta abierta

    - Advertisement -

    El Centro para la Seguridad de la IA (CAIS) emiti贸 recientemente una declaraci贸n firmado por figuras prominentes en AI advirtiendo sobre los riesgos potenciales que plantea la tecnolog铆a para la humanidad.

    鈥淢itigar el riesgo de extinci贸n de la IA deber铆a ser una prioridad mundial junto con otros riesgos a escala social como las pandemias y la guerra nuclear鈥, se lee en el comunicado.

    Los signatarios de la declaraci贸n incluyen investigadores de renombre y ganadores del Premio Turing como Geoffery Hinton y Yoshua Bengio, as铆 como ejecutivos de OpenAI y DeepMind, como Sam Altman, Ilya Sutskever y Demis Hassabis.

    La carta de CAIS tiene como objetivo generar debates sobre los diversos riesgos urgentes asociados con la IA y ha atra铆do tanto el apoyo como las cr铆ticas en toda la industria. Sigue otra carta abierta firmado por Elon Musk, Steve Wozniak y m谩s de 1,000 otros expertos que pidieron detener el desarrollo de IA 芦fuera de control禄.

    A pesar de su brevedad, la 煤ltima declaraci贸n no brinda detalles espec铆ficos sobre la definici贸n de IA ni ofrece estrategias concretas para mitigar los riesgos. Sin embargo, CAIS aclar贸 en un comunicado de prensa que su objetivo es establecer salvaguardas e instituciones para garantizar que los riesgos de IA se gestionen de manera efectiva.

    El CEO de OpenAI, Sam Altman, se ha involucrado activamente con los l铆deres mundiales y ha abogado por las regulaciones de IA. Durante una aparici贸n reciente en el Senado, Altman pidi贸 repetidamente a los legisladores que regulen fuertemente la industria. La declaraci贸n de CAIS se alinea con sus esfuerzos para crear conciencia sobre los peligros de la IA.

    Si bien la carta abierta ha llamado la atenci贸n, algunos expertos en 茅tica de la IA han criticado la tendencia de emitir tales declaraciones.

    La Dra. Sasha Luccioni, cient铆fica investigadora de aprendizaje autom谩tico, sugiere que mencionar los riesgos hipot茅ticos de la IA junto con riesgos tangibles como las pandemias y el cambio clim谩tico mejora su credibilidad y desv铆a la atenci贸n de cuestiones inmediatas como el sesgo, los desaf铆os legales y el consentimiento.

    鉂 Tambi茅n te interesa:ChatGPT an Error OccurredChatGPT se produjo un error [5 Quick & Easy Fix]

    Daniel Jeffries, escritor y futurista, argumenta que discutir los riesgos de la IA se ha convertido en un juego de estatus en el que las personas se suben al carro sin incurrir en ning煤n costo real.

    Los cr铆ticos creen que firmar cartas abiertas sobre futuras amenazas permite que los responsables de los da帽os actuales de la IA alivie su culpa y descuiden los problemas 茅ticos asociados con las tecnolog铆as de IA que ya est谩n en uso.

    Sin embargo, CAIS, una organizaci贸n sin fines de lucro con sede en San Francisco, sigue enfocada en reducir los riesgos a escala social de la IA a trav茅s de la investigaci贸n t茅cnica y la promoci贸n. La organizaci贸n fue cofundada por expertos con experiencia en inform谩tica y un gran inter茅s en la seguridad de la IA.

    Mientras que algunos investigadores temen el surgimiento de una IA superinteligente que podr铆a superar las capacidades humanas y representar una amenaza existencial, otros argumentan que firmar cartas abiertas sobre escenarios hipot茅ticos del fin del mundo distrae la atenci贸n de los dilemas 茅ticos existentes que rodean a la IA. Hacen hincapi茅 en la necesidad de abordar los problemas reales que plantea la IA en la actualidad, como la vigilancia, los algoritmos sesgados y la violaci贸n de los derechos humanos.

    Equilibrar el avance de la IA con una implementaci贸n y regulaci贸n responsables sigue siendo una tarea crucial para investigadores, legisladores y l铆deres de la industria por igual.

    (Foto por Apolo Fot贸grafo en Unsplash)

    Relacionado: CEO de OpenAI: la regulaci贸n de la IA ‘es esencial’

    鉂 Tambi茅n te interesa:馃摲 La IA amenazara a los humanos en dos anosLa IA amenazar谩 a los humanos en dos a帽os

    驴Quiere aprender m谩s sobre IA y big data de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data teniendo lugar en 脕msterdam, California y Londres. El evento es co-ubicado con Semana de la Transformaci贸n Digital.

    Explore otros pr贸ximos eventos y seminarios web de tecnolog铆a empresarial impulsados 鈥嬧媝or TechForge aqu铆.

    • ryan daws

      Ryan es editor senior en TechForge Media con m谩s de una d茅cada de experiencia cubriendo la 煤ltima tecnolog铆a y entrevistando a figuras l铆deres de la industria. A menudo se lo puede ver en conferencias tecnol贸gicas con un caf茅 fuerte en una mano y una computadora port谩til en la otra. Si es geek, probablemente le guste. Encu茅ntralo en Twitter (@Gadget_Ry) o Mastodon (@[email protected])

      Ver todas las publicaciones

    Etiquetas: ai, AI riesgos, inteligencia artificial, 茅tica, ley, legal, carta abierta, regulaci贸n, Sociedad

    Fuente: Los l铆deres de AI advierten sobre el 芦riesgo de extinci贸n禄 en una carta abierta

    鉂 Tambi茅n te interesa:馃摲 El Reino Unido organizara una cumbre mundial de IA paraEl Reino Unido organizar谩 una cumbre mundial de IA para abordar los riesgos potenciales

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.