Más

    Explorando la ética en la IA y las medidas de seguridad requeridas

    - Advertisement -

    El punto de inflexión entre la aceptabilidad y la antipatía en lo que respecta a las implicaciones éticas de la inteligencia artificial se ha discutido durante mucho tiempo. Recientemente, las líneas se sienten cada vez más borrosas; Arte o fotografía generados por IA, sin mencionar las posibilidades de ChatGPT de OpenAI, revela una mayor sofisticación de la tecnología. ¿Pero a qué precio?

    Una reciente sesión de panel en el Exposición de IA y Big Data` en Londres exploró estas áreas grises éticas, desde vencer el sesgo incorporado hasta los mecanismos corporativos y mitigar el riesgo de pérdida de empleos.

    James Fletcher lidera la aplicación responsable de IA en la BBC. Su trabajo es, como él dice, ‘asegurarse de que [the BBC] está haciendo con la IA se alinea con nuestros valores.’ Él dice que el propósito de AI, dentro del contexto de la BBC, es automatizar la toma de decisiones. Sin embargo, la ética es un desafío serio y es más fácil hablar de él que actuar, en parte debido al ritmo del cambio. Fletcher se tomó tres meses de licencia por paternidad y los cambios a su regreso, como Stable Diffusion, «lo dejaron boquiabierto». [as to] qué rápido está progresando esta tecnología.’

    “Me preocupa un poco que el tren se esté alejando un poco en términos de avance tecnológico, del esfuerzo requerido para resolver esos problemas difíciles”, dijo Fletcher. “Este es un desafío sociotécnico, y es la parte social la que es realmente difícil. Tenemos que comprometernos no solo como tecnólogos, sino también como ciudadanos”.

    Daniel Gagar de PA Consulting, quien moderó la sesión, señaló la importancia de ‘dónde se detiene la responsabilidad’ en términos de responsabilidad y de consecuencias más graves, como la aplicación de la ley. Priscila Chaves Martinez, directora de la Oficina de Gestión de la Transformación, se mostró ansiosa por señalar las desigualdades intrínsecas que serían difíciles de resolver.

    “Creo que es una gran mejora el hecho de que hayamos podido progresar desde un punto de vista basado en principios”, dijo. “Lo que más me preocupa es que esta ola de principios se diluirá sin un sentido básico de que se aplica de manera diferente para cada comunidad y cada país”. En otras palabras, lo que funciona en Europa o EE. UU. puede no aplicarse al sur global. “Dondequiera que incorporemos humanos a la ecuación, obtendremos sesgos”, agregó, refiriéndose al argumento sociotécnico. “Así que social primero, técnico después”.

    “Existe la necesidad de preocuparse y la necesidad de tener un diálogo abierto”, comentó Elliot Frazier, jefe de infraestructura de IA en AI for Good Foundation, y agregó que era necesario introducir marcos y principios en la comunidad de IA en general. “Por el momento, estamos significativamente atrasados ​​en tener prácticas estándar, formas estándar de hacer evaluaciones de riesgo”, agregó Frazier.

    “Yo abogaría [that] como un lugar para comenzar: realmente sentarse al comienzo de cualquier proyecto de IA, evaluar los riesgos potenciales”. Frazier señaló que la fundación está mirando en este sentido con una IA programa de auditoría de ética donde las organizaciones pueden obtener ayuda sobre cómo construyen las preguntas principales correctas de su IA y para garantizar que se implemente la gestión de riesgos correcta.

    Para Ghanasham Apte, líder en análisis de comportamiento y personalización de desarrolladores de IA en BT Group, se trata de medidas de seguridad. “Necesitamos darnos cuenta de que la IA es una herramienta, es una herramienta peligrosa si la aplicas de manera incorrecta”, dijo Apte. Sin embargo, con pasos como IA explicableo garantizar que se elimine el sesgo en los datos, las múltiples medidas de seguridad son «la única forma en que superaremos este problema», agregó Apte.

    Chaves Martínez, hasta cierto punto, no estuvo de acuerdo. “No creo que agregar más barandas sea suficiente”, comentó. “Ciertamente es el primer paso correcto, pero no es suficiente. No es una conversación entre científicos de datos y usuarios, o legisladores y grandes empresas; es una conversación de todo el ecosistema, y ​​no todo el ecosistema está bien representado”.

    Las barandillas pueden ser un paso útil, pero Fletcher, en su punto original, notó que los postes de la portería continúan cambiando. “Necesitamos ser realmente conscientes de los procesos que deben implementarse para garantizar que la IA sea responsable y cuestionable; que este no es solo un marco en el que podemos marcar las cosas, sino un compromiso continuo y continuo”, dijo Fletcher.

    “Si piensas en cosas como el sesgo, lo que pensamos ahora no es lo que pensábamos hace cinco o diez años. Existe un riesgo si adoptamos el enfoque solucionista, incrustamos un tipo de sesgo en la IA, entonces tenemos problemas. [and] tendríamos que reevaluar nuestras suposiciones”.

    ¿Quiere aprender más sobre IA y big data de los líderes de la industria? Verificar Exposición de IA y Big Data teniendo lugar en Ámsterdam, California y Londres.

    Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

    Etiquetas: exposición de inteligencia artificial y big data, ética

    Fuente: Explorando la ética en la IA y las medidas de seguridad requeridas

    Populares

    Más de esta categoría

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aquí

    Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.