M谩s

    Explorando la 茅tica en la IA y las medidas de seguridad requeridas

    - Advertisement -

    El punto de inflexi贸n entre la aceptabilidad y la antipat铆a en lo que respecta a las implicaciones 茅ticas de la inteligencia artificial se ha discutido durante mucho tiempo. Recientemente, las l铆neas se sienten cada vez m谩s borrosas; Arte o fotograf铆a generados por IA, sin mencionar las posibilidades de ChatGPT de OpenAI, revela una mayor sofisticaci贸n de la tecnolog铆a. 驴Pero a qu茅 precio?

    Una reciente sesi贸n de panel en el Exposici贸n de IA y Big Data` en Londres explor贸 estas 谩reas grises 茅ticas, desde vencer el sesgo incorporado hasta los mecanismos corporativos y mitigar el riesgo de p茅rdida de empleos.

    James Fletcher lidera la aplicaci贸n responsable de IA en la BBC. Su trabajo es, como 茅l dice, ‘asegurarse de que [the BBC] est谩 haciendo con la IA se alinea con nuestros valores.’ 脡l dice que el prop贸sito de AI, dentro del contexto de la BBC, es automatizar la toma de decisiones. Sin embargo, la 茅tica es un desaf铆o serio y es m谩s f谩cil hablar de 茅l que actuar, en parte debido al ritmo del cambio. Fletcher se tom贸 tres meses de licencia por paternidad y los cambios a su regreso, como Stable Diffusion, 芦lo dejaron boquiabierto禄. [as to] qu茅 r谩pido est谩 progresando esta tecnolog铆a.’

    鈥淢e preocupa un poco que el tren se est茅 alejando un poco en t茅rminos de avance tecnol贸gico, del esfuerzo requerido para resolver esos problemas dif铆ciles鈥, dijo Fletcher. 鈥淓ste es un desaf铆o sociot茅cnico, y es la parte social la que es realmente dif铆cil. Tenemos que comprometernos no solo como tecn贸logos, sino tambi茅n como ciudadanos鈥.

    Daniel Gagar de PA Consulting, quien moder贸 la sesi贸n, se帽al贸 la importancia de ‘d贸nde se detiene la responsabilidad’ en t茅rminos de responsabilidad y de consecuencias m谩s graves, como la aplicaci贸n de la ley. Priscila Chaves Martinez, directora de la Oficina de Gesti贸n de la Transformaci贸n, se mostr贸 ansiosa por se帽alar las desigualdades intr铆nsecas que ser铆an dif铆ciles de resolver.

    鉂 Tambi茅n te interesa:馃摲 La reaccion violenta de ArtStation aumenta luego de la respuestaLa reacci贸n violenta de ArtStation aumenta luego de la respuesta de protesta de arte de AI

    鈥淐reo que es una gran mejora el hecho de que hayamos podido progresar desde un punto de vista basado en principios鈥, dijo. 鈥淟o que m谩s me preocupa es que esta ola de principios se diluir谩 sin un sentido b谩sico de que se aplica de manera diferente para cada comunidad y cada pa铆s鈥. En otras palabras, lo que funciona en Europa o EE. UU. puede no aplicarse al sur global. 鈥淒ondequiera que incorporemos humanos a la ecuaci贸n, obtendremos sesgos鈥, agreg贸, refiri茅ndose al argumento sociot茅cnico. 鈥淎s铆 que social primero, t茅cnico despu茅s鈥.

    鈥淓xiste la necesidad de preocuparse y la necesidad de tener un di谩logo abierto鈥, coment贸 Elliot Frazier, jefe de infraestructura de IA en AI for Good Foundation, y agreg贸 que era necesario introducir marcos y principios en la comunidad de IA en general. 鈥淧or el momento, estamos significativamente atrasados 鈥嬧媏n tener pr谩cticas est谩ndar, formas est谩ndar de hacer evaluaciones de riesgo鈥, agreg贸 Frazier.

    鈥淵o abogar铆a [that] como un lugar para comenzar: realmente sentarse al comienzo de cualquier proyecto de IA, evaluar los riesgos potenciales鈥. Frazier se帽al贸 que la fundaci贸n est谩 mirando en este sentido con una IA programa de auditor铆a de 茅tica donde las organizaciones pueden obtener ayuda sobre c贸mo construyen las preguntas principales correctas de su IA y para garantizar que se implemente la gesti贸n de riesgos correcta.

    Para Ghanasham Apte, l铆der en an谩lisis de comportamiento y personalizaci贸n de desarrolladores de IA en BT Group, se trata de medidas de seguridad. 鈥淣ecesitamos darnos cuenta de que la IA es una herramienta, es una herramienta peligrosa si la aplicas de manera incorrecta鈥, dijo Apte. Sin embargo, con pasos como IA explicableo garantizar que se elimine el sesgo en los datos, las m煤ltiples medidas de seguridad son 芦la 煤nica forma en que superaremos este problema禄, agreg贸 Apte.

    Chaves Mart铆nez, hasta cierto punto, no estuvo de acuerdo. 鈥淣o creo que agregar m谩s barandas sea suficiente鈥, coment贸. 鈥淐iertamente es el primer paso correcto, pero no es suficiente. No es una conversaci贸n entre cient铆ficos de datos y usuarios, o legisladores y grandes empresas; es una conversaci贸n de todo el ecosistema, y 鈥嬧媙o todo el ecosistema est谩 bien representado鈥.

    鉂 Tambi茅n te interesa:馃摲 Proyecto de IA imagina como se verian las celebridades fallecidasProyecto de IA imagina c贸mo se ver铆an las celebridades fallecidas hoy

    Las barandillas pueden ser un paso 煤til, pero Fletcher, en su punto original, not贸 que los postes de la porter铆a contin煤an cambiando. 鈥淣ecesitamos ser realmente conscientes de los procesos que deben implementarse para garantizar que la IA sea responsable y cuestionable; que este no es solo un marco en el que podemos marcar las cosas, sino un compromiso continuo y continuo鈥, dijo Fletcher.

    鈥淪i piensas en cosas como el sesgo, lo que pensamos ahora no es lo que pens谩bamos hace cinco o diez a帽os. Existe un riesgo si adoptamos el enfoque solucionista, incrustamos un tipo de sesgo en la IA, entonces tenemos problemas. [and] tendr铆amos que reevaluar nuestras suposiciones鈥.

    驴Quiere aprender m谩s sobre IA y big data de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data teniendo lugar en 脕msterdam, California y Londres.

    Explore otros pr贸ximos eventos y seminarios web de tecnolog铆a empresarial impulsados 鈥嬧媝or TechForge aqu铆.

    Etiquetas: exposici贸n de inteligencia artificial y big data, 茅tica

    鉂 Tambi茅n te interesa:馃摲 Bill Gates llama a la IA bastante revolucionariaBill Gates llama a la IA 芦bastante revolucionaria禄

    Fuente: Explorando la 茅tica en la IA y las medidas de seguridad requeridas

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.