Los peligros potenciales de los sistemas de inteligencia artificial altamente inteligentes han sido un tema de preocupación para los expertos en el campo.
Recientemente, Geoffrey Hinton, el llamado «Padrino de la IA», expresó su preocupación por la posibilidad de que la IA superinteligente supere las capacidades humanas y cause consecuencias catastróficas para la humanidad.
De manera similar, Sam Altman, CEO de OpenAI, la compañía detrás del popular chatbot ChatGPT, admitió estar temeroso de los efectos potenciales de la IA avanzada en la sociedad.
En respuesta a estas preocupaciones, OpenAI ha Anunciado el establecimiento de una nueva unidad llamada Superalineación.
El objetivo principal de esta iniciativa es garantizar que la IA superinteligente no conduzca al caos o incluso a la extinción humana. OpenAI reconoce el inmenso poder que puede poseer la superinteligencia y los peligros potenciales que presenta para la humanidad.
Si bien aún pueden faltar algunos años para el desarrollo de la IA superinteligente, OpenAI cree que podría ser una realidad para 2030. Actualmente, no existe un sistema establecido para controlar y guiar una IA potencialmente superinteligente, lo que hace que la necesidad de medidas proactivas sea aún más crucial.
Superalignment tiene como objetivo construir un equipo de los mejores investigadores e ingenieros de aprendizaje automático que trabajarán en el desarrollo de un «investigador de alineación automatizada de nivel humano». Este investigador será responsable de realizar controles de seguridad en los sistemas de IA superinteligentes.
OpenAI reconoce que este es un objetivo ambicioso y que el éxito no está garantizado. Sin embargo, la empresa se mantiene optimista de que, con un esfuerzo concentrado y concertado, se puede resolver el problema de la alineación de la superinteligencia.
El surgimiento de herramientas de IA como ChatGPT de OpenAI y Bard de Google ya ha generado cambios significativos en el lugar de trabajo y la sociedad. Los expertos predicen que estos cambios solo se intensificarán en un futuro próximo, incluso antes de la llegada de la IA superinteligente.
Al reconocer el potencial transformador de la IA, los gobiernos de todo el mundo se apresuran a establecer regulaciones para garantizar su implementación segura y responsable. Sin embargo, la falta de un enfoque internacional unificado plantea desafíos. La variación de las regulaciones entre los países podría conducir a diferentes resultados y dificultar aún más el logro del objetivo de la Superalineación.
Al trabajar de manera proactiva para alinear los sistemas de IA con los valores humanos y desarrollar las estructuras de gobierno necesarias, OpenAI tiene como objetivo mitigar los peligros que podrían surgir del inmenso poder de la superinteligencia.
Si bien la tarea en cuestión es indudablemente compleja, el compromiso de OpenAI de abordar estos desafíos e involucrar a los mejores investigadores en el campo significa un esfuerzo significativo hacia el desarrollo responsable y beneficioso de la IA.
(Foto por Zac Wolff en Unsplash)
Ver también: La primera oficina global de OpenAI estará en Londres
¿Quiere aprender más sobre IA y big data de los líderes de la industria? Verificar Exposición de IA y Big Data teniendo lugar en Ámsterdam, California y Londres. El evento es co-ubicado con Semana de la Transformación Digital.
Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados por TechForge aquí.
Fuente: OpenAI presenta un equipo dedicado a detener la IA maliciosa