M谩s

    Un estudio destaca el impacto de la demograf铆a en el entrenamiento de la IA

    - Advertisement -

    Un estudio realizado en colaboraci贸n entre Prol铆fico, Papay el Universidad de Michigan ha arrojado luz sobre la influencia significativa de la demograf铆a del anotador en el desarrollo y entrenamiento de modelos de IA.

    El estudio profundiz贸 en el impacto de la edad, la raza y la educaci贸n en los datos de entrenamiento del modelo de IA, destacando los peligros potenciales de que los sesgos se arraiguen en los sistemas de IA.

    鈥淟as personas utilizan cada vez m谩s sistemas como ChatGPT para las tareas cotidianas鈥, explica el profesor asistente David Jurgens de la Escuela de Informaci贸n de la Universidad de Michigan.

    鈥淧ero, 驴en qu茅 valores estamos inculcando al modelo entrenado? Si seguimos tomando una muestra representativa sin tener en cuenta las diferencias, continuamos marginando a ciertos grupos de personas鈥.

    Los sistemas de inteligencia artificial y aprendizaje autom谩tico dependen cada vez m谩s de la anotaci贸n humana para entrenar sus modelos de manera efectiva. Este proceso, a menudo denominado ‘Human-in-the-loop’ o Aprendizaje de refuerzo a partir de comentarios humanos (RLHF), implica que las personas revisen y categoricen los resultados del modelo de lenguaje para refinar su desempe帽o.

    Uno de los hallazgos m谩s sorprendentes del estudio es la influencia de la demograf铆a en el etiquetado de ofensividad.

    La investigaci贸n encontr贸 que los diferentes grupos raciales ten铆an diferentes percepciones de lo ofensivo en los comentarios en l铆nea. Por ejemplo, los participantes negros tendieron a calificar los comentarios como m谩s ofensivos en comparaci贸n con otros grupos raciales. La edad tambi茅n influy贸, ya que los participantes de 60 a帽os o m谩s eran m谩s propensos a etiquetar los comentarios como ofensivos que los participantes m谩s j贸venes.

    El estudio involucr贸 el an谩lisis de 45聽000 anotaciones de 1484 anotadores y cubri贸 una amplia gama de tareas, incluida la detecci贸n de ofensas, la respuesta a preguntas y la cortes铆a. Revel贸 que los factores demogr谩ficos contin煤an afectando incluso tareas objetivas como responder preguntas. En particular, la precisi贸n al responder las preguntas se vio afectada por factores como la raza y la edad, lo que refleja disparidades en la educaci贸n y las oportunidades.

    La cortes铆a, un factor importante en la comunicaci贸n interpersonal, tambi茅n se vio afectada por la demograf铆a.

    鉂 Tambi茅n te interesa:Shiseido Americas elige a Amperity para transformar su estrategia de datos propiosShiseido Americas elige a Amperity para transformar su estrategia de datos propios

    Las mujeres tend铆an a juzgar los mensajes como menos educados que los hombres, mientras que los participantes mayores ten铆an m谩s probabilidades de asignar calificaciones de cortes铆a m谩s altas. Adem谩s, los participantes con niveles de educaci贸n m谩s altos a menudo asignaban calificaciones de cortes铆a m谩s bajas y se observaron diferencias entre los grupos raciales y los participantes asi谩ticos.

    Phelim Bradley, CEO y cofundador de Prolific, dijo:

    鈥淟a inteligencia artificial tocar谩 todos los aspectos de la sociedad y existe un peligro real de que los sesgos existentes se incorporen a estos sistemas.

    Esta investigaci贸n es muy clara: qui茅n anota tus datos importa.

    Cualquiera que est茅 construyendo y entrenando sistemas de IA debe asegurarse de que las personas que utilizan sean representativas a nivel nacional en cuanto a edad, g茅nero y raza, o los prejuicios simplemente generar谩n m谩s prejuicios鈥.

    A medida que los sistemas de IA se integran m谩s en las tareas cotidianas, la investigaci贸n subraya la necesidad de abordar los sesgos en las primeras etapas del desarrollo del modelo para evitar exacerbar los sesgos y la toxicidad existentes.

    Puede encontrar una copia completa del art铆culo aqu铆 (PDF)

    (Foto por Bancos de arcilla en Unsplash)

    Ver tambi茅n: El reconocimiento facial propenso a errores conduce a otro arresto injustificado

    鉂 Tambi茅n te interesa:El sesgo pol铆tico de ChatGPT resaltado en un estudioEl sesgo pol铆tico de ChatGPT resaltado en un estudio

    驴Quiere aprender m谩s sobre IA y big data de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data teniendo lugar en 脕msterdam, California y Londres. El evento integral se ubica junto con Semana de la Transformaci贸n Digital.

    Explore otros pr贸ximos eventos y seminarios web de tecnolog铆a empresarial impulsados 鈥嬧媝or TechForge aqu铆.

    • ryan daws

      Ryan es editor senior en TechForge Media con m谩s de una d茅cada de experiencia cubriendo la 煤ltima tecnolog铆a y entrevistando a figuras l铆deres de la industria. A menudo se lo puede ver en conferencias tecnol贸gicas con un caf茅 fuerte en una mano y una computadora port谩til en la otra. Si es geek, probablemente le guste. Encu茅ntralo en Twitter (@Gadget_Ry) o Mastodon (@[email protected])

      Ver todas las publicaciones

    鉂 Tambi茅n te interesa:La ‘Semana de la IA del Reino Unido en Bangkok’ muestra la innovaci贸n y la colaboraci贸nLa ‘Semana de la IA del Reino Unido en Bangkok’ muestra la innovaci贸n y la colaboraci贸n

    Etiquetas: ai, inteligencia artificial, sesgo, 茅tica, informe, investigaci贸n, Sociedad, estudio

    Fuente: Un estudio destaca el impacto de la demograf铆a en el entrenamiento de la IA

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.