M谩s

    El nuevo marco de IA impulsa la moderaci贸n de contenido de LinkedIn

    - Advertisement -

    LinkedIn lanz贸 un nuevo marco de moderaci贸n de contenido que es un gran avance en la optimizaci贸n de las colas de moderaci贸n, reduciendo el tiempo para detectar violaciones de pol铆ticas en un 60%. Esta tecnolog铆a puede ser el futuro de la moderaci贸n de contenido una vez que est茅 m谩s disponible.

    C贸mo LinkedIn modera las infracciones de contenido

    LinkedIn cuenta con equipos de moderaci贸n de contenido que trabajan revisando manualmente el posible contenido que infringe las pol铆ticas.

    Utilizan una combinaci贸n de modelos de inteligencia artificial, informes de miembros de LinkedIn y rese帽as humanas para detectar contenido da帽ino y eliminarlo.

    Pero la magnitud del problema es inmensa porque hay cientos de miles de elementos que necesitan revisi贸n cada semana.

    Lo que sol铆a suceder en el pasado, al utilizar el proceso primero en entrar, primero en salir (FIFO), es que cada elemento que necesitaba una revisi贸n esperaba en una cola, lo que provocaba que el contenido ofensivo real tardara mucho en ser revisado y eliminado.

    Por tanto, la consecuencia del uso de FIFO es que los usuarios quedaron expuestos a contenido da帽ino.

    LinkedIn describi贸 las desventajas del sistema FIFO utilizado anteriormente:

    鈥溾ste enfoque tiene dos inconvenientes notables.

    En primer lugar, no todo el contenido revisado por humanos infringe nuestras pol铆ticas: una parte considerable se eval煤a como no violatoria (es decir, aprobada).

    Esto le quita valioso ancho de banda a los revisores al revisar contenido que en realidad es infractor.

    En segundo lugar, cuando los elementos se revisan seg煤n el m茅todo FIFO, el contenido infractor puede tardar m谩s en detectarse si se ingiere despu茅s del contenido no infractor鈥.

    LinkedIn ide贸 un marco automatizado utilizando un modelo de aprendizaje autom谩tico para priorizar el contenido que probablemente infrinja las pol铆ticas de contenido, moviendo esos elementos al frente de la cola.

    Este nuevo proceso ayud贸 a acelerar el proceso de revisi贸n.

    El nuevo marco utiliza XGBoost

    El nuevo marco utiliza un modelo de aprendizaje autom谩tico XGBoost para predecir qu茅 elemento de contenido es probable que infrinja la pol铆tica.

    XGBoost es la abreviatura de Extreme Gradient Boosting, una biblioteca de aprendizaje autom谩tico de c贸digo abierto que ayuda a clasificar y clasificar elementos en un conjunto de datos.

    Este tipo de modelo de aprendizaje autom谩tico, XGBoost, utiliza algoritmos para entrenar el modelo para que encuentre patrones espec铆ficos en un conjunto de datos etiquetado (un conjunto de datos que est谩 etiquetado seg煤n qu茅 elemento de contenido infringe).

    LinkedIn utiliz贸 ese proceso exacto para entrenar su nuevo marco:

    芦Estos modelos se entrenan en una muestra representativa de datos anteriores etiquetados por humanos de la cola de revisi贸n de contenido y se prueban en otra muestra fuera de tiempo禄.

    Una vez entrenado, el modelo puede identificar contenido que, en esta aplicaci贸n de la tecnolog铆a, probablemente est茅 en infracci贸n y necesite una revisi贸n humana.

    XGBoost es una tecnolog铆a de vanguardia que en pruebas de evaluaci贸n comparativa ha demostrado ser muy exitosa para este tipo de uso, tanto en precisi贸n como en la cantidad de tiempo de procesamiento que lleva, superando a otros tipos de algoritmos.

    LinkedIn describi贸 este nuevo enfoque:

    鈥淐on este marco, el contenido que ingresa a las colas de revisi贸n se califica mediante un conjunto de modelos de inteligencia artificial para calcular la probabilidad de que probablemente viole nuestras pol铆ticas.

    El contenido con una alta probabilidad de no violar las pol铆ticas no tiene prioridad, lo que ahorra ancho de banda al revisor humano y el contenido con una mayor probabilidad de violar las pol铆ticas se prioriza sobre otros para que pueda detectarse y eliminarse m谩s r谩pido鈥.

    Impacto en la moderaci贸n

    LinkedIn inform贸 que el nuevo marco es capaz de tomar decisiones autom谩ticas sobre aproximadamente el 10% del contenido en cola para revisi贸n, con lo que LinkedIn llama un nivel de precisi贸n 芦extremadamente alto禄. Es tan preciso que el modelo de IA supera el rendimiento de un revisor humano.

    Sorprendentemente, el nuevo marco reduce el tiempo promedio para detectar contenido que viola las pol铆ticas en aproximadamente un 60%.

    D贸nde se utiliza la nueva IA

    El nuevo sistema de priorizaci贸n de revisi贸n de contenido se utiliza actualmente para publicaciones y comentarios de noticias en tiempo real. LinkedIn anunci贸 que est谩n trabajando para agregar este nuevo proceso en otras partes de LinkedIn.

    Moderar contenido da帽ino es muy importante porque puede ayudar a mejorar la experiencia del usuario al reducir la cantidad de usuarios que est谩n expuestos a contenido da帽ino.

    Tambi茅n es 煤til para el equipo de moderaci贸n porque les ayuda a ampliar y manejar un gran volumen.

    Se ha demostrado que esta tecnolog铆a tiene 茅xito y, con el tiempo, puede volverse m谩s ubicua a medida que est茅 m谩s disponible.

    Lea el anuncio de LinkedIn:

    Aumentar nuestros esfuerzos de moderaci贸n de contenido a trav茅s del aprendizaje autom谩tico y la priorizaci贸n din谩mica de contenido.

    Imagen destacada de Shutterstock/wichayada suwanachun

    Fuente: El nuevo marco de IA impulsa la moderaci贸n de contenido de LinkedIn

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.