El Centro para la Seguridad de la IA (CAIS) emitió recientemente una declaración firmado por figuras prominentes en AI advirtiendo sobre los riesgos potenciales que plantea la tecnología para la humanidad.
“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, se lee en el comunicado.
Los signatarios de la declaración incluyen investigadores de renombre y ganadores del Premio Turing como Geoffery Hinton y Yoshua Bengio, así como ejecutivos de OpenAI y DeepMind, como Sam Altman, Ilya Sutskever y Demis Hassabis.
La carta de CAIS tiene como objetivo generar debates sobre los diversos riesgos urgentes asociados con la IA y ha atraído tanto el apoyo como las críticas en toda la industria. Sigue otra carta abierta firmado por Elon Musk, Steve Wozniak y más de 1,000 otros expertos que pidieron detener el desarrollo de IA «fuera de control».
A pesar de su brevedad, la última declaración no brinda detalles específicos sobre la definición de IA ni ofrece estrategias concretas para mitigar los riesgos. Sin embargo, CAIS aclaró en un comunicado de prensa que su objetivo es establecer salvaguardas e instituciones para garantizar que los riesgos de IA se gestionen de manera efectiva.
El CEO de OpenAI, Sam Altman, se ha involucrado activamente con los líderes mundiales y ha abogado por las regulaciones de IA. Durante una aparición reciente en el Senado, Altman pidió repetidamente a los legisladores que regulen fuertemente la industria. La declaración de CAIS se alinea con sus esfuerzos para crear conciencia sobre los peligros de la IA.
Si bien la carta abierta ha llamado la atención, algunos expertos en ética de la IA han criticado la tendencia de emitir tales declaraciones.
La Dra. Sasha Luccioni, científica investigadora de aprendizaje automático, sugiere que mencionar los riesgos hipotéticos de la IA junto con riesgos tangibles como las pandemias y el cambio climático mejora su credibilidad y desvía la atención de cuestiones inmediatas como el sesgo, los desafíos legales y el consentimiento.
Daniel Jeffries, escritor y futurista, argumenta que discutir los riesgos de la IA se ha convertido en un juego de estatus en el que las personas se suben al carro sin incurrir en ningún costo real.
Los críticos creen que firmar cartas abiertas sobre futuras amenazas permite que los responsables de los daños actuales de la IA alivie su culpa y descuiden los problemas éticos asociados con las tecnologías de IA que ya están en uso.
Sin embargo, CAIS, una organización sin fines de lucro con sede en San Francisco, sigue enfocada en reducir los riesgos a escala social de la IA a través de la investigación técnica y la promoción. La organización fue cofundada por expertos con experiencia en informática y un gran interés en la seguridad de la IA.
Mientras que algunos investigadores temen el surgimiento de una IA superinteligente que podría superar las capacidades humanas y representar una amenaza existencial, otros argumentan que firmar cartas abiertas sobre escenarios hipotéticos del fin del mundo distrae la atención de los dilemas éticos existentes que rodean a la IA. Hacen hincapié en la necesidad de abordar los problemas reales que plantea la IA en la actualidad, como la vigilancia, los algoritmos sesgados y la violación de los derechos humanos.
Equilibrar el avance de la IA con una implementación y regulación responsables sigue siendo una tarea crucial para investigadores, legisladores y líderes de la industria por igual.
(Foto por Apolo Fotógrafo en Unsplash)
Relacionado: CEO de OpenAI: la regulación de la IA ‘es esencial’
¿Quiere aprender más sobre IA y big data de los líderes de la industria? Verificar Exposición de IA y Big Data teniendo lugar en Ámsterdam, California y Londres. El evento es co-ubicado con Semana de la Transformación Digital.
Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados por TechForge aquí.
Fuente: Los líderes de AI advierten sobre el «riesgo de extinción» en una carta abierta