Un nettoyage de printemps s’imposait chez Facebook, devant les nombreuses voix qui se sont élevées contre le réseau social et son implication dans les fuites des données de ses utilisateurs, une nouvelle politique de modération de ses contenus a été instaurée. La firme américaine publie les résultats de sa nouvelle politique de gestion de contenus, montrant chiffres à l’appui, une meilleure gestion des contenus.
A cet effet, Facebook a récemment publié un rapport de son activité de modération, sur le premier trimestre 2018, par type de contenu. Des contenus sanctionnés pour non-respect des « Standards de la Communauté », selon le réseau social.
Ainsi au premier trimestre 2018, le réseau social Facebook a mené des actions de modération ( à savoir une suppression ou une réduction de la portée des contenus) sur 3,4 millions de contenus violents , soit une nette augmentation par rapport au 1,2 million de contenus objets de modération au quatrième trimestre 2017. Une amélioration qui revient à une meilleure efficacité technique de détection , grâce à de nouveaux algorithmes récemment mis au point.
Les publications contenant de la nudité adulte ou à caractère pornographique au nombre de 21 millions, ont été modérées pour le premier trimestre 2018 , avec un chiffre similaire lors du dernier trimestre 2017 .
Les contenus ayant pour but de promouvoir le terrorisme repérés, signalés et modérés sont au nombre de 1,9 million de contenus, contre 1,1 million au quatrième trimestre 2017. Quant aux publications incitant à la haine , le réseau social dit avoir mené des actions de modération sur 2,5 millions de contenus, au premier trimestre 2018 , contre environ 1,6 million au quatrième trimestre 2017.
Pour les comptes factices les résultats sont moins bons, avec 583 millions de faux comptes désactivés au premier trimestre, contre 694 millions au quatrième trimestre 2017.
Les techniques de détection sont perfectibles comme l’indique Monika Bickert vice-présidente de Facebook en charge de la modération et de la gestion du terrorisme : «L’intelligence artificielle est utile pour repérer des contenus violents très graphiques, ou des abus sexuels d’enfants. Ce genre d’images est souvent réutilisé ailleurs sur le Web, nous pouvons donc les trouver très rapidement (…) Mais ces technologies ne sont pas capables de repérer des contenus complexes, comme peuvent le faire nos modérateurs. »
Avec cette nouvelle politique de modération le réseau social Facebook se veut sans abus et transparent . Pourrait-on dire que cette opération séduction a dores et déjà payé ?