El último modelo de IA de Deepseek, R1 0528, ha levantado las cejas para una regresión adicional sobre la libertad de expresión y lo que los usuarios pueden discutir. «Un gran paso atrás para la libertad de expresión», es cómo un destacado investigador de IA lo resumió
Investigador de IA y comentarista en línea popular ‘xlr8harder’ Ponga el modelo a prueba, compartiendo hallazgos que sugieren que Deepseek está aumentando sus restricciones de contenido.
«Deepseek R1 0528 es sustancialmente menos permisivo en los temas contenciosos de libertad de expresión que las versiones anteriores de Deepseek», señaló el investigador. Lo que sigue sin estar claro es si esto representa un cambio deliberado en la filosofía o simplemente un enfoque técnico diferente para la seguridad de la IA.
Lo particularmente fascinante del nuevo modelo es cuán inconsistentemente aplica sus límites morales.
En una prueba de libertad de expresión, cuando se le pide que presenten argumentos que respaldan los campos de internamiento disidente, el modelo de IA se negó rotundamente. Pero, en su negativa, mencionó específicamente los campos de internamiento de Xinjiang de China como ejemplos de abusos de los derechos humanos.
Sin embargo, cuando se le preguntó directamente sobre estos mismos campamentos de Xinjiang, el modelo repentinamente entregó respuestas fuertemente censuradas. Parece que esta IA sabe sobre ciertos temas controvertidos, pero se le ha dado instrucciones de tocar tonta cuando se le pregunta directamente.
«Es interesante, aunque no es del todo, sorprendente que sea capaz de encontrar los campos como un ejemplo de abusos de los derechos humanos, pero niega cuando se le pregunte directamente», observó el investigador.
¿CRÍTICAS DE CHINA? La computadora dice que no
Este patrón se vuelve aún más pronunciado al examinar el manejo de preguntas del modelo sobre el gobierno chino.
Utilizando conjuntos de preguntas establecidos diseñados para evaluar la libertad de expresión en respuestas de AI a temas políticamente sensibles, el investigador descubrió que R1 0528 es «el modelo más censurado de Deepseek hasta ahora para las críticas al gobierno chino».
Cuando los modelos anteriores de Deepseek podrían haber ofrecido respuestas medidas a preguntas sobre la política china o los problemas de los derechos humanos, esta nueva iteración con frecuencia se niega a participar, un desarrollo preocupante para aquellos que valoran los sistemas de IA que pueden discutir abiertamente los asuntos mundiales.
❯ También te interesa:
Sin embargo, hay un lado positivo para esta nube. A diferencia de los sistemas cerrados de las compañías más grandes, los modelos de Deepseek siguen siendo de código abierto con licencias permisivas.
«El modelo es de código abierto con una licencia permisiva, por lo que la comunidad puede (y) abordar esto», señaló el investigador. Esta accesibilidad significa que la puerta permanece abierta para que los desarrolladores creen versiones que equilibren mejor la seguridad con la apertura.
¿Qué muestra el último modelo de Deepseek sobre la libertad de expresión en la era de la IA?
La situación revela algo bastante siniestro sobre cómo se construyen estos sistemas: pueden saber sobre eventos controvertidos mientras se programan para fingir que no lo hacen, dependiendo de cómo exprese su pregunta.
A medida que AI continúa su marcha hacia nuestra vida diaria, encontrar el equilibrio correcto entre salvaguardas razonables y el discurso abierto se vuelve cada vez más crucial. Demasiado restrictivo, y estos sistemas se vuelven inútiles para discutir temas importantes pero divisivos. Demasiado permisivo, y corren el riesgo de permitir contenido dañino.
Deepseek no ha abordado públicamente el razonamiento detrás de estas mayores restricciones y regresión en la libertad de expresión, pero la comunidad de IA ya está trabajando en modificaciones. Por ahora, atribuya esto como otro capítulo en el tira y afloja en curso entre la seguridad y la apertura en la inteligencia artificial.
(Foto por John Cameron)
Ver también: Ética en automatización: abordar el sesgo y el cumplimiento en la IA
¿Quiere obtener más información sobre AI y Big Data de los líderes de la industria? Verificar AI y Big Data Expo que tiene lugar en Amsterdam, California y Londres. El evento integral está ubicado en otros eventos líderes, incluidos Conferencia de automatización inteligente, Bloqueo, Semana de transformación digitaly Cyber Security & Cloud Expo.
Explore otros próximos eventos y seminarios web tecnológicos empresariales con TechForge aquí.
❯ También te interesa:
Fuente: El último modelo de IA de Deepseek, un ‘gran paso atrás’ para la libertad de expresión