Facebook déploie une nouvelle IA anti-discours haineux
Le modèle de machine learning est taillé pour détecter beaucoup plus rapidement un contenu illicite, avant qu'il ne devienne viral. Il a également été déployé sur Instagram.
Meta, nouveau nom de Facebook, annonce ce 8 décembre avoir refondu son très stratégique modèle d'IA taillé pour faire la chasse aux contenus illicites. L'enjeu : gagner en réactivité en vue de détecter plus rapidement les contenus inappropriés. La nouvelle technologie est d'ores et déjà déployée sur Facebook et Instagram. De type Boosting d'arbres de décision, l'algorithme utilisé jusqu'ici impliquait de collecter et d'étiqueter des millions d'exemples de contenu au fil de l'eau. Objectif : réentrainer régulièrement le modèle pour y intégrer les nouveaux sujets à bannir. L'ensemble du processus impliquant, à chaque fois, plusieurs mois de travail. Baptisé Few-Shot Learner (FSL), le nouveau modèle réduit cette durée à quelques semaines.
100 langues prises en charges
"Les récentes avancées scientifiques que nous avons réalisées à travers l'apprentissage auto-supervisé et l'efficience de notre infrastructure nous ont permis de passer d'une IA traditionnelle et sur-mesure vers des systèmes à la fois plus grands, plus consolidés et généralisables, le tout avec une dépendance moindre aux données labellisées", explique Cornelia Carapcea, responsable de produit au sein de l'équipe Meta AI. FSL prend en charge plus de 100 langues et supporte aussi bien les textes que les images.
Comme son nom l'indique, le modèle de Meta repose sur une nouvelle méthode dite de few-shot learning ou apprentissage en quelques étapes. Son principe ? Le modèle est d'abord entrainé sur des milliards d'exemples de sujets textuels génériques, issus de l'univers open source. Puis sur des données spécifiques récoltées par Meta au fil des années sur ses plateformes. Enfin vient une phase d'apprentissage sur une description des politiques de contenus illicites dressée par Meta (cf. première colonne de l'infographie ci-dessus).
"En détectant les contenus potentiellement dangereux plus vite, FSL les empêche de se propager sur nos plateformes"
Une fois ces étapes d'apprentissage déroulées, Meta fait appel à la méthode dite des plus proches voisins (K-means). Il utilise cet algorithme de partitionnement non-supervisé pour générer une nouvelle politique de modération à partir d'une phase de learning appliquée à une poignée de nouveaux exemples glanés sur le terrain au fur et à mesure (deuxième et troisième colonnes de l'infographie). Plus besoin de millions d'exemples pour réentrainer l'IA comme c'était le cas auparavant. Ce qui se traduit évidemment par un processus réapprentissage nettement plus rapide.
Eviter les buzz incontrôlables
"En détectant les contenus potentiellement dangereux plus vite, FSL les empêche de se propager sur nos plateformes", se félicite Cornelia Carapcea. "Combiné à nos classificateurs historiques, il contribue par ailleurs à réduire la présence sur nos plateformes de contenus préjudiciables qui n'étaient pas aussi bien détectés dans le passé." Cornelia Carapcea ajoute : "Le modèle devrait même nous permettre de cerner un plus grand nombre de types de violation de contenu que ce que nos équipes étaient capables d'identifier jusque-là." On attend de voir.