Más

    El ritmo de innovación en IA es feroz, pero ¿podrá la ética seguir el ritmo?

    - Advertisement -

    Si una semana es tradicionalmente mucho tiempo en política, es un abismo enorme cuando se trata de IA. El ritmo de innovación de los proveedores líderes es una cosa; la ferocidad de la innovación a medida que aumenta la competencia es otra muy distinta. Pero, ¿este rápido ritmo está dejando atrás las implicaciones éticas de la tecnología de IA?

    Anthropic, creadores de Claude, lanzaron Claude 3 esta semana y afirmaron que ser un ‘nuevo estándar para la inteligencia’, adelantándose a competidores como ChatGPT y Gemini de Google. La empresa afirma que también ha alcanzado una competencia «casi humana» en diversas tareas. De hecho, como señaló el ingeniero de Anthropic Alex Albert, durante la fase de prueba de Claude 3 Opus, la variante LLM (modelo de lenguaje grande) más potente, el modelo mostró signos de conciencia de que estaba siendo evaluado.

    Pasando a la conversión de texto a imagen, Stability AI anunció una vista previa de Stable Diffusion 3 a finales de febrero, pocos días después de que OpenAI presentara Sora, un nuevo modelo de IA capaz de generar videos casi realistas de alta definición a partir de simples mensajes de texto.

    Si bien el progreso avanza, la perfección sigue siendo difícil de alcanzar. El modelo Gemini de Google fue criticado por producir imágenes históricamente inexactas que, como dice esta publicación, «reavivaron preocupaciones sobre el sesgo en los sistemas de IA».

    Hacer esto bien es una prioridad clave para todos. Google respondió a las preocupaciones de Gemini pausando, por el momento, la generación de imágenes de personas. En una oracion, la compañía dijo que la generación de imágenes de IA de Gemini «genera una amplia gama de personas… y eso en general es algo bueno porque la gente de todo el mundo la usa». Pero aquí no da en el blanco. Stability AI, en una vista previa de Stable Diffusion 3, señaló que la empresa creía en prácticas de IA seguras y responsables. «La seguridad comienza cuando comenzamos a entrenar nuestro modelo y continúa durante las pruebas, la evaluación y la implementación», como se dice en un comunicado. OpenAI está adoptando un enfoque similar con Sora; En enero, la compañía anunció una iniciativa para promover el uso responsable de la IA entre familias y educadores.

    Esto es desde la perspectiva del proveedor, pero ¿cómo están abordando este problema las principales organizaciones? Eche un vistazo a cómo la BBC busca utilizar la IA generativa y asegurarse de que anteponga sus valores. En octubre, Rhodri Talfan Davies, director de naciones de la BBC, señaló una estrategia de tres frentes: actuar siempre en el mejor interés del público; priorizando siempre el talento y la creatividad; y ser abierto y transparente.

    La semana pasada se les puso más carne a estos huesos con la BBC describe una serie de pilotos basado en estos principios. Un ejemplo es reformatear el contenido existente para ampliar su atractivo, como tomar un comentario de radio deportivo en vivo y cambiarlo rápidamente a texto. Además, se actualizó la guía editorial sobre IA para señalar que «todo el uso de la IA tiene una supervisión humana activa».

    Vale la pena señalar también que la BBC no cree que sus datos deban extraerse sin permiso para entrenar otros modelos de IA generativa, por lo que prohíbe rastreadores como OpenAI y Common Crawl. Este será otro punto de convergencia sobre el cual las partes interesadas deberán ponerse de acuerdo en el futuro.

    Otra empresa importante que se toma en serio sus responsabilidades en materia de IA ética es Bosch. El fabricante de electrodomésticos tiene cinco directrices en su código ético. La primera es que todos los productos de IA de Bosch deben reflejar el espíritu de «inventar para la vida», que combina la búsqueda de innovación con un sentido de responsabilidad social. El segundo imita a la BBC; Las decisiones de la IA que afectan a las personas no deberían tomarse sin un árbitro humano. Mientras tanto, los otros tres principios exploran productos de IA seguros, sólidos y explicables; confianza; y observar los requisitos legales y orientarse a principios éticos.

    Cuando se anunciaron las directrices por primera vez, la empresa esperaba que su código de ética de IA contribuiría al debate público sobre la inteligencia artificial. «La IA cambiará todos los aspectos de nuestras vidas», dijo Volkmar Denner, entonces director ejecutivo de Bosch. «Por esta razón, ese debate es vital».

    Es en este espíritu con el que se basa el mundo virtual gratuito. Cumbre Mundial de Soluciones de IA El evento, presentado por TechForge Media, se llevará a cabo el 13 de marzo. Sudhir Tiku, vicepresidente de la región Asia Pacífico de Singapur en Bosch, es un orador principal cuya sesión a las 1245 GMT explorará las complejidades de escalar de manera segura la IA, navegando por el camino ético. consideraciones, responsabilidades y gobernanza en torno a su implementación. Otra sesión, a las 1445 GMT, explora el impacto a largo plazo en la sociedad y cómo se puede cambiar la cultura y la mentalidad empresarial para fomentar una mayor confianza en la IA.

    Reserva tu pase gratuito para acceder a las sesiones virtuales en vivo hoy.

    Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

    Foto por Jonathan Chng en desempaquetar

    Etiquetas: ai, inteligencia artificial, ética


    Fuente: El ritmo de innovación en IA es feroz, pero ¿podrá la ética seguir el ritmo?

    Populares

    Más de esta categoría

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aquí

    Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.