Ex-stand reclamo de ganancias codiciada traicionando la seguridad de la IA

El informe de ‘The Operai Files’, que ensambla voces de ex personal de exalfa en cuestión, afirma que el laboratorio de IA más destacado del mundo está traicionando la seguridad para obtener ganancias. Lo que comenzó como una noble búsqueda para garantizar que la IA sirviera a toda la humanidad ahora se está tambaleando al borde de convertirse en otro gigante corporativo, persiguiendo inmensas ganancias mientras deja la seguridad y la ética en el polvo.

En el centro de todo, todo hay un plan para romper el libro de reglas original. Cuando OpenAi comenzó, hizo una promesa crucial: puso un límite a cuánto dinero podrían ganar los inversores. Era una garantía legal que si lograra crear una IA que cambie el mundo, los vastos beneficios fluirían a la humanidad, no solo un puñado de multimillonarios. Ahora, esa promesa está a punto de ser borrada, aparentemente para satisfacer a los inversores que desean rendimientos ilimitados.

Para las personas que construyeron OpenAi, este pivote lejos de la seguridad de la IA se siente como una traición profunda. «La misión sin fines de lucro era una promesa de hacer lo correcto cuando las apuestas se drogaron», dice el ex miembro del personal Carroll Wainwright. «Ahora que las apuestas son altas, la estructura sin fines de lucro está siendo abandonada, lo que significa que la promesa estaba en última instancia vacía».

Profundizar la crisis de confianza

Muchas de estas voces profundamente preocupadas apuntan a una persona: el CEO Sam Altman. Las preocupaciones no son nuevas. Los informes sugieren que incluso en sus compañías anteriores, los colegas superiores intentaron que lo eliminaran por lo que llamaron comportamiento «engañoso y caótico».

Ese mismo sentimiento de desconfianza lo siguió a Openai. La propia cofundadora de la compañía, Ilya Sutskever, que trabajó junto a Altman durante años, y desde que lanzó su propia startup, llegó a una conclusión escalofriante: «No creo que Sam sea el tipo que debería tener el dedo en el botón para AGI». Sintió que Altman era deshonesto y creó el caos, una combinación aterradora para alguien potencialmente a cargo de nuestro futuro colectivo.

Mira Murati, la ex CTO, se sintió igual de incómoda. «No me siento cómodo de que Sam nos llevara a AGI», dijo. Ella describió un patrón tóxico donde Altman le diría a la gente lo que querían escuchar y luego socavarlos si se interpusieran. Sugiere manipulación de que la ex miembro de la junta de OpenAI, Tasha McCauley, dice que «debería ser inaceptable» cuando las apuestas de seguridad de IA son tan altas.

Esta crisis de confianza ha tenido consecuencias del mundo real. Los expertos dicen que la cultura de OpenAI ha cambiado, con el trabajo crucial de la seguridad de la IA con un asiento trasero para liberar «productos brillantes». Jan Leike, quien dirigió al equipo responsable de la seguridad a largo plazo, dijo que estaban «navegando contra el viento», luchando por obtener los recursos que necesitaban para hacer su investigación vital.

Tweet del ex empleado de Operai, Jan Leike, sobre los archivos de Operai que comparten preocupaciones sobre el impacto en la seguridad de la IA en el pivote hacia las ganancias.

Otro ex empleado, William Saunders, incluso dio un testimonio aterrador al Senado de los Estados Unidos, revelando que durante largos períodos, la seguridad era tan débil que cientos de ingenieros podrían haber robado la IA más avanzada de la compañía, incluido GPT-4.

Súplica desesperada por priorizar la seguridad de la IA en OpenAI

Pero aquellos que se han ido no solo se alejan. Han presentado una hoja de ruta para sacar OpenAi desde el borde, un último esfuerzo para salvar la misión original.

Están pidiendo que el corazón sin fines de lucro de la compañía tenga un poder real nuevamente, con un veto revestido de hierro sobre las decisiones de seguridad. Exigen un liderazgo claro y honesto, que incluye una investigación nueva y exhaustiva sobre la conducta de Sam Altman.

Quieren una supervisión real e independiente, por lo que Openai no puede simplemente marcar su propia tarea sobre la seguridad de la IA. Y están pidiendo una cultura donde las personas puedan hablar sobre sus preocupaciones sin temer por sus trabajos o ahorros, un lugar con protección real para los denunciantes.

Finalmente, insisten en que Operai se adhiere a su promesa financiera original: los límites de ganancias deben permanecer. El objetivo debe ser un beneficio público, no una riqueza privada ilimitada.

No se trata solo del drama interno en una compañía de Silicon Valley. Openai está construyendo una tecnología que podría remodelar nuestro mundo de una manera que apenas podemos imaginar. La pregunta que sus antiguos empleados nos obligan a hacer a todos a hacer es simple pero profunda: ¿en quién confiamos para construir nuestro futuro?

Como la ex miembro de la junta Helen Toner advirtió por su propia experiencia, «las barandillas internas son frágiles cuando el dinero está en juego».

En este momento, las personas que conocen Best OpenAI nos dicen que esas barandillas de seguridad casi se han roto.

Ver también: La adopción de IA madura pero los obstáculos de despliegue permanecen

📷 Ex stand reclamo de ganancias codiciada traicionando la seguridad de la

¿Quiere obtener más información sobre AI y Big Data de los líderes de la industria? Verificar AI y Big Data Expo que tiene lugar en Amsterdam, California y Londres. El evento integral está ubicado en otros eventos líderes, incluidos Conferencia de automatización inteligente, Bloqueo, Semana de transformación digitaly Cyber ​​Security & Cloud Expo.

Explore otros próximos eventos y seminarios web tecnológicos empresariales con TechForge aquí.

Fuente: Ex-stand reclamo de ganancias codiciada traicionando la seguridad de la IA

❯ También te interesa:La adopción de IA madura pero los obstáculos de despliegue permanecen

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Scroll al inicio