LinkedIn a déployé un nouveau cadre de modération de contenu qui constitue une avancée majeure dans l’optimisation des files d’attente de modération, réduisant de 60 % le temps nécessaire pour détecter les violations des politiques. Cette technologie pourrait être l’avenir de la modération de contenu une fois qu’elle deviendra plus disponible.
Comment LinkedIn modère les violations de contenu
LinkedIn dispose d’équipes de modération de contenu qui travaillent à l’examen manuel des contenus susceptibles de violer les politiques.
Ils utilisent une combinaison de modèles d’IA, de rapports des membres de LinkedIn et d’avis humains pour détecter les contenus nuisibles et les supprimer.
Mais l’ampleur du problème est immense, car des centaines de milliers d’éléments doivent être examinés chaque semaine.
Ce qui avait tendance à se produire dans le passé, avec le processus premier entré, premier sorti (FIFO), c’est que chaque élément nécessitant une révision attendait dans une file d’attente, ce qui faisait que le contenu offensant réel prenait beaucoup de temps à être examiné et supprimé.
Ainsi, la conséquence de l’utilisation de FIFO est que les utilisateurs ont été exposés à des contenus préjudiciables.
LinkedIn a décrit les inconvénients du système FIFO précédemment utilisé :
« … cette approche présente deux inconvénients notables.
Premièrement, tous les contenus examinés par des humains ne violent pas nos politiques : une partie importante est évaluée comme non-violante (c’est-à-dire effacée).
Cela enlève une bande passante précieuse aux réviseurs pour examiner le contenu qui est réellement en infraction.
Deuxièmement, lorsque les éléments sont examinés sur une base FIFO, le contenu violant peut prendre plus de temps à détecter s’il est ingéré après un contenu non violant.
LinkedIn a conçu un cadre automatisé utilisant un modèle d’apprentissage automatique pour hiérarchiser les contenus susceptibles de violer les politiques de contenu, en plaçant ces éléments en tête de la file d’attente.
Ce nouveau processus a contribué à accélérer le processus d’examen.
Le nouveau framework utilise XGBoost
Le nouveau cadre utilise un modèle d’apprentissage automatique XGBoost pour prédire quel élément de contenu est susceptible de constituer une violation de la politique.
XGBoost est un raccourci pour Extreme Gradient Boosting, une bibliothèque d’apprentissage automatique open source qui permet de classer et de classer les éléments dans un ensemble de données.
Ce type de modèle d’apprentissage automatique, XGBoost, utilise des algorithmes pour entraîner le modèle afin de trouver des modèles spécifiques sur un ensemble de données étiqueté (un ensemble de données étiqueté indiquant quel élément de contenu est en violation).
LinkedIn a utilisé exactement ce processus pour former son nouveau framework :
“Ces modèles sont formés sur un échantillon représentatif de données humaines antérieures étiquetées provenant de la file d’attente d’examen du contenu et testés sur un autre échantillon hors du temps.”
Une fois formé, le modèle peut identifier le contenu qui, dans cette application de la technologie, est probablement en infraction et nécessite un examen humain.
XGBoost est une technologie de pointe qui s’est révélée très efficace dans les tests d’analyse comparative pour ce type d’utilisation, à la fois en termes de précision et de temps de traitement, surpassant les autres types d’algorithmes.
LinkedIn a décrit cette nouvelle approche :
« Avec ce cadre, le contenu entrant dans les files d’attente de révision est noté par un ensemble de modèles d’IA pour calculer la probabilité qu’il enfreigne nos politiques.
Les contenus ayant une forte probabilité de ne pas enfreindre la politique sont dépriorisés, ce qui permet d’économiser la bande passante des évaluateurs humains et les contenus ayant une plus forte probabilité de violer la politique sont prioritaires par rapport aux autres afin qu’ils puissent être détectés et supprimés plus rapidement.
Impact sur la modération
LinkedIn a indiqué que le nouveau cadre est capable de prendre des décisions automatiques sur environ 10 % du contenu en attente d’examen, avec ce que LinkedIn appelle un niveau de précision « extrêmement élevé ». C’est si précis que le modèle d’IA dépasse les performances d’un évaluateur humain.
Remarquablement, le nouveau cadre réduit d’environ 60 % le temps moyen nécessaire pour détecter les contenus violant les politiques.
Où la nouvelle IA est utilisée
Le nouveau système de priorisation de l’examen du contenu est actuellement utilisé pour les publications et les commentaires du fil. LinkedIn a annoncé qu’il travaillait pour ajouter ce nouveau processus ailleurs dans LinkedIn.
La modération des contenus préjudiciables est extrêmement importante car elle peut contribuer à améliorer l’expérience utilisateur en réduisant le nombre d’utilisateurs exposés à des contenus préjudiciables.
C’est également utile pour l’équipe de modération car cela l’aide à augmenter et à gérer un volume important.
Cette technologie a fait ses preuves et, avec le temps, elle pourrait devenir plus omniprésente à mesure qu’elle devient plus largement disponible.
Lisez l’annonce de LinkedIn :
Augmenter nos efforts de modération de contenu grâce à l’apprentissage automatique et à la priorisation dynamique du contenu
Image en vedette par Shutterstock/fermé pour voler