Más

    Google se compromete a solucionar la generación de imágenes inexacta y sesgada de Gemini

    - Advertisement -

    «`html

    El modelo de Google Gemini ha sido criticado por su producción de imágenes históricamente inexactas y sesgadas racialmente, reavivando las preocupaciones sobre el sesgo en los sistemas de inteligencia artificial.

    La controversia surgió cuando los usuarios de las plataformas de redes sociales inundaron los feeds con ejemplos de Gemini generando imágenes que representaban a nazis racialmente diversos, reyes ingleses medievales negros y otros escenarios improbables.

    Modelo de generación de imágenes de Google Gemini recibe críticas por ser ‘Woke’. Gemini generó diversas imágenes para indicaciones históricamente específicas, lo que generó debates sobre precisión versus inclusión. pic.twitter.com/YKTt2YY265

    -Darosham (@Darosham_) 22 de febrero de 2024

    Mientras tanto, los críticos también señalaron la negativa de Gemini a representar a los caucásicos, las iglesias de San Francisco por respeto a las sensibilidades indígenas y acontecimientos históricos sensibles como la Plaza de Tiananmen en 1989.

    En respuesta a la reacción, Jack Krawczyk, líder de producto de Gemini Experiences de Google, reconoció el problema y se comprometió a rectificarlo. Krawczyk recurrió a la plataforma de redes sociales X para tranquilizar a los usuarios:

    Somos conscientes de que Gemini ofrece imprecisiones en algunas representaciones de generación de imágenes históricas y estamos trabajando para solucionarlo de inmediato.

    Como parte de nuestros principios de IA https://t.co/BK786xbkeydiseñamos nuestras capacidades de generación de imágenes para reflejar nuestra base de usuarios global, y nosotros…

    —Jack Krawczyk (@JackK) 21 de febrero de 2024

    Por ahora, Google dice que está pausando la generación de imágenes de personas:

    Ya estamos trabajando para solucionar problemas recientes con la función de generación de imágenes de Gemini. Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y pronto volveremos a publicar una versión mejorada. https://t.co/SLxYPGoqOZ

    — Comunicaciones de Google (@Google_Comms) 22 de febrero de 2024

    Si bien reconocen la necesidad de abordar la diversidad en el contenido generado por IA, algunos argumentan que la respuesta de Google ha sido una corrección excesiva.

    Marc Andreessen, cofundador de Netscape y a16z, creó recientemente un modelo de IA parodia “escandalosamente seguro” llamado Goody-2 LLM que se niega a responder preguntas consideradas problemáticas. Andreessen advierte sobre una tendencia más amplia hacia la censura y el sesgo en los sistemas comerciales de IA, enfatizando las posibles consecuencias de tales desarrollos.

    Al abordar las implicaciones más amplias, los expertos destacan la centralización de los modelos de IA en unas pocas corporaciones importantes y abogan por el desarrollo de modelos de IA de código abierto para promover la diversidad y mitigar los prejuicios.

    Yann LeCun, científico jefe de IA de Meta, ha destacado la importancia de fomentar un ecosistema diverso de modelos de IA similar a la necesidad de una prensa libre y diversa:

    Necesitamos modelos básicos de IA de código abierto para poder construir sobre ellos un conjunto muy diverso de modelos especializados.
    Necesitamos un conjunto gratuito y diverso de asistentes de IA por las mismas razones que necesitamos una prensa libre y diversa.
    Deben reflejar la diversidad de lenguas, culturas,… https://t.co/9WuEy8EPG5

    —Yann LeCun (@ylectun) 21 de febrero de 2024

    Bindu Reddy, director ejecutivo de Abacus.AI, tiene preocupaciones similares sobre la concentración de poder sin un ecosistema saludable de modelos de código abierto:

    Si no tenemos LLM de código abierto, la historia quedará completamente distorsionada y ofuscada por los LLM propietarios.

    Ya vivimos en un mundo muy peligroso y censurado donde no puedes decir lo que piensas.

    La censura y la concentración de poder es la definición misma de…

    – Bindu Reddy (@bindureddy) 21 de febrero de 2024

    A medida que continúan los debates sobre las implicaciones éticas y prácticas de la IA, la necesidad de marcos de desarrollo de IA transparentes e inclusivos se vuelve cada vez más evidente.

    La influencia de la tecnología en el PC Gaming: NitroPC

    En el mundo del PC gaming, la tecnología de inteligencia artificial ha tenido un impacto significativo, no solo en el desarrollo de juegos, sino también en el hardware y las experiencias de usuario. Las marcas como «pc gaming nitropc» ofrecen equipos optimizados con la última tecnología para garantizar la mejor experiencia de juego posible. Estos sistemas a menudo incorporan IA para mejorar el rendimiento gráfico, la personalización y la interactividad, reflejando cómo la IA puede influir positivamente en la industria del gaming.

    (Foto por Matt Artz en desempaquetar)

    Ver también: Reddit supuestamente vende datos para entrenamiento de IA

    ¿Quiere aprender más sobre IA y big data de la mano de los líderes de la industria? Verificar Exposición de IA y Big Data que tendrá lugar en Ámsterdam, California y Londres. El evento integral comparte ubicación con otros eventos importantes, incluidos bloquex, Semana de la Transformación Digitaly Exposición de seguridad cibernética y nube.

    Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

    Etiquetas: ai, inteligencia artificial, parcialidad, chatbot, diversidad, ética, géminis, google, google gemini, generación de imágenes, modelo, sociedad, pc gaming nitropc


    Fuente: Google se compromete a solucionar la generación de imágenes inexacta y sesgada de Gemini
    «`

    Populares

    Más de esta categoría

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aquí

    Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.