YouTube préfère garder les vidéos douteuses

YouTube préfère garder les vidéos douteuses

YouTube applique « un parti pris systémique en faveur du maintien du contenu », bien que la plateforme ait récemment supprimé plus d’un million de vidéos dans le cadre du code de conduite de l’UE contre la désinformation.

De hauts responsables de YouTube ont expliqué la politique de la plateforme en matière de lutte contre les fausses nouvelles et la désinformation face aux journalistes bruxellois.

« Il y a nos directives en termes de communauté, qui déterminent quel contenu doit rester et lequel doit être retirer », a déclaré un cadre de YouTube, sous couvert d’anonymat. « Nous avons tendance à privilégier le contenu [sur les demandes de retraits] parce que la liberté d’expression nous tient à cœur. »

Pour les contenus « qui se rapprochent » d’une violation de nos politiques un contenu qui vise à « désinformer ou à désinformer les utilisateurs de manière nuisible », la plateforme préfère supprimer les recommandations de ces vidéos. En pratique, cela signifie que les vidéos créées par une chaîne ne respectant pas les conditions seront rétrogradées de manière à ne pas être « recommandées » aux utilisateurs et s’afficheront moins.

Cependant, si un utilisateur a déjà « aimé » une vidéo de cette chaine, ou s’il y est abonné, il continuera à recevoir des notifications de recommandation pour ses vidéos, admettent les représentants de la plateforme.

Le très controversé Tommy Robinson, ancien dirigeant de la Ligue de défense anglaise anti-Islam, qui se présentera aux élections européennes de mai prochain, est un bon exemple pour comprendre les stratégies mises en place. Plus tôt cette année, cette personnalité a été bannie de Facebook et d’Instagram pour avoir enfreint leurs règles sur le discours de haine. Après avoir été banni définitivement de Twitter, l’homme politique ne peut plus s’exprimer que via YouTube.

Dans le passé, Tommy Robinson a été accusé de diffuser de la désinformation anti-Islam et a admis en novembre dernier avoir diffusé de fausses nouvelles au sujet d’un réfugié syrien qui avait fait l’objet d’une agression physique par des élèves d’une école à Huddersfield, en Angleterre. Il avait au départ affirmé que le réfugié avait été impliqué dans une agression à l’encontre d’une étudiante. Les représentants juridiques du réfugié avaient été contraints de le menacer de le trainer devant la justice pour obtenir une réfutation.

À ce jour, YouTube estime n’avoir aucune raison de retirer le contenu qu’il poste. « Nous avons examiné tous les contenus que Tommy Robinson a téléchargés sur YouTube et n’avons trouvé aucune violation de nos politiques », a déclaré un cadre de l’entreprise. Par contre, il a été jugé assez sulfureux pour que ses vidéos ne soient plus « recommandées » aux utilisateurs et il ne peut plus utiliser ses vidéos pour générer de l’argent.

Christoph Schott, directeur de campagne du groupe de défense des droits de l’Homme Avaaz, lutte contre la désinformation dans le monde. Pour lui, le problème est lié au fonctionnement de l’algorithme de recommandation des vidéos.

« Les recherches que nous avons menées récemment montrent que les restrictions de YouTube sur le compte de Tommy Robinson ont fonctionné, les chiffres de visionnage ayant considérablement chuté depuis que la société a décidé de réprimer ses vidéos. Cependant, YouTube doit être plus rapide dans ce genre de cas. Il y a tellement de contenus dangereux qui restent », regrette-t-il.

Malgré la décision de YouTube de ne pas supprimer les utilisateurs controversés qui ont été interdits ailleurs, comme Tommy Robinson, la société a annoncé la semaine dernière qu’en mars elle avait supprimé plus d’un million de chaines pour violation de sa politique anti-spam, pratiques trompeuses et escroqueries.

En vertu de cette politique, une infraction a lieu si une chaîne induit l’utilisateur en erreur grâce à de fausse descriptions ou titres trompeurs, ou fait des promesses exagérées et des affirmations farfelues.

Les suppressions sont citées dans les derniers rapports de conformité du code de bonnes pratiques contre la désinformation. Le code est un cadre volontaire qui vise à réprimer la diffusion de fausses nouvelles en ligne. Les signataires comprennent Facebook, Twitter et Google.

« Nous sommes heureux de constater que la collaboration dans le cadre du code de bonnes pratiques a encouragé Facebook, Google et Twitter à prendre des mesures supplémentaires pour garantir l’intégrité de leurs services et lutter contre les robots malveillants et les faux comptes », ont déclaré conjointement les commissaires Andrus Ansip, Vera Jourova, Julian King et Mariya Gabriel fin avril.

YouTube pour sa part a fait l’objet de critiques plus tôt cette semaine, lorsqu’il est apparu que la plateforme recommandait à des centaines de milliers d’utilisateurs une vidéo d’information sur le rapport Mueller. La vidéo a été produite par RT, un radiodiffuseur financé par l’État russe, ce qui a incité le sénateur américain Mark Warner à enjoindre l’entreprise à agir.

« Il est extrêmement inquiétant de constater que YouTube n’a toujours pas résolu les problèmes d’algorithme qui le rendent si vulnérable aux jeux et aux sources douteuses comme RT », a-t-il déclaré.

Samuel Stolton

Un article publié sur le site de notre partenaire

Auteur/Autrice

Laisser un commentaire

Laisser un commentaire