Twitter s’appuie fortement sur l’automatisation pour examiner le contenu. En éliminant certaines révisions manuelles et penchant vers la limitation de la diffusion; plutôt que la suppression directe de certains discours. C’est ce qu’a annoncé le nouveau directeur de la confiance et de la sécurité de Twitter, sous la direction d’Elon Musk.
Twitter restreindrait également de manière plus agressive les étiquettes sujettes aux abus et les résultats de recherche qui incluent l’exploitation des enfants. Et ce, sans tenir compte des « commentaires bénins » sur ces termes. C’est ce qu’Ella Irwin, vice-présidente des produits de confiance et de sécurité de Twitter, a déclaré.
« Le plus grand changement est que l’équipe est pleinement habilitée à agir rapidement et à être aussi agressive que possible ». Ainsi ajoute Mme Irving dans une interview jeudi. Sachant que c’est la première fois que des dirigeants de Twitter sont interviewés depuis que M. Musk a acheté Twitter fin octobre.
Par ailleurs, ces commentaires interviennent alors que les chercheurs signalaient un pic de discours de haine sur la plateforme Twitter. Plus tôt, Musk annonçait l’amnistie des comptes Twitter interdits sous la direction précédente. Tout en précisant que ces comptes n’enfreignaient pas la loi ne publiaient de mauvais spams.
Filtre de visibilité
Par ailleurs, lors d’une réunion avec le président français Emmanuel Macron vendredi, E. Musk s’est engagé à « renforcer considérablement la modération des contenus et la protection de la liberté d’expression ».
En effet, l’approche suivie par Elon Musk est connue dans l’industrie sous le nom de: « Liberté d’expression, mais pas de liberté d’accès ». Ce qui exige que certains tweets qui violent la politique de l’entreprise soient conservés mais interdits d’apparaître sur le site Web. Chercher l’erreur.
D’ailleurs, Twitter a longtemps déployé cet outil de « filtre de visibilité » autour de la désinformation. Il l’a même inclus dans sa politique officielle de conduite haineuse, avant la prise de contrôle de Musk. Cette approche permet une plus grande liberté d’expression, tout en réduisant les dommages potentiels associés au contenu viral.