Protection de l’enfance : Meta doit répondre de ses échecs, selon Thierry Breton

Protection de l’enfance : Meta doit répondre de ses échecs, selon Thierry Breton

Le code volontaire de Meta sur la protection des enfants ne fonctionne pas, a déclaré le commissaire européen au Marché intérieur Thierry Breton à la suite des révélations selon lesquelles les algorithmes d’Instagram ont facilité et encouragé les réseaux de matériel pédopornographique.

Mercredi (7 juin), le Wall Street Journal a publié les résultats d’une enquête menée en partenariat avec des chercheurs, qui a révélé que la plateforme avait contribué à connecter et à stimuler un réseau de comptes utilisés pour commander et commercialiser du matériel relatif aux abus sexuels sur enfants (CSAM).

En réponse, le commissaire européen Thierry Breton, a déclaré que le code volontaire de protection de l’enfance mis en place par la société mère de la plateforme, Meta, « semble ne pas fonctionner », ajoutant que le PDG de Meta, Mark Zuckerberg, « doit maintenant s’expliquer et prendre des mesures immédiates ».

MM. Breton et Zuckerberg doivent se rencontrer au siège de l’entreprise en Californie le 23 juin prochain, avant l’entrée en vigueur, en août, de la loi sur les services numériques (Digital Services Act, DSA), le nouveau règlement de l’UE sur la modération des contenus, pour les plateformes « systémiques » telles qu’Instagram.

Le commissaire européen au Marché intérieur, Thierry Breton, a déclaré que le code volontaire de protection de l’enfance mis en place par la société mère de la plateforme, Meta, « semble ne pas fonctionner ». [SHUTTERSTOCK/FP Creative Stock]

Pédophiles, prostitutions, arnaques, etc.

Selon l’enquête du Wall Street Journal, menée avec des chercheurs de l’Université de Stanford et de l’Université du Massachusetts Amherst, Instagram ne se contente pas d’héberger des pédophiles et leurs contenus, mais les promeut activement.

Les enquêteurs ont découvert que son système de recommandation mettait ces comptes en relation avec d’autres comptes proposant des contenus sexuels avec des mineurs, y compris des comptes gérés par des mineurs eux-mêmes.

La plateforme permet également de rechercher des hashtags explicites liés à ces contenus et présente des comptes acceptant des « commissions » ou proposant même des rencontres en personne avec des enfants.

La promotion de ce type de contenu viole à la fois la loi fédérale américaine et les propres politiques de Meta, note le journal. La société affirme qu’elle applique une « politique de tolérance zéro » et qu’elle dispose d’« outils de prévention de pointe », facilitant le signalement de préjudices potentiels et les réponses à y apporter.

« Nous travaillons de manière agressive pour lutter contre ce phénomène sur et en dehors de nos plateformes et pour soutenir les forces de l’ordre dans leurs efforts pour arrêter et poursuivre les criminels qui se cachent derrière », a déclaré un porte-parole de Meta à EURACTIV. Celui-ci a également souligné que les prédateurs sexuels changent constamment leurs tactiques, ce qui explique pourquoi l’entreprise a des politiques strictes et embauche des spécialistes pour comprendre l’évolution des comportements.

« Entre 2020 et 2022, ces équipes ont démantelé 27 réseaux abusifs, et en janvier 2023, nous avons désactivé plus de 490 000 comptes pour avoir violé nos politiques de sécurité des enfants », a ajouté le porte-parole.

M. Breton, qui a déclaré lundi aux journalistes qu’il se considérait comme un « régulateur pratique », ne semble pas prendre la réponse de Meta au pied de la lettre. En avril, il avait déjà annoncé qu’il était en pourparlers pour organiser des « tests de résistance » au siège de ce qu’il considérait comme les entreprises les plus problématiques, notamment Twitter, Meta et TikTok.

Le commissaire européen a prévenu l’entreprise de réseaux sociaux qu’une fois que la nouvelle réglementation numérique entrera en vigueur, « Meta devra nous démontrer ses mesures ou s’exposer à de lourdes sanctions ». En vertu de la DSA, les sanctions peuvent atteindre 6 % du chiffre d’affaires annuel global.

La législation introduira des obligations plus strictes en ce qui concerne le retrait rapide des contenus illégaux en ligne, tels que la pédopornographie. Les plus grandes plateformes en ligne, dont Facebook et Instagram, seront tenues de présenter une évaluation annuelle des risques, comprenant une analyse des effets négatifs potentiels sur les droits de l’enfant.

La DSA prévoit également l’interdiction de la publicité ciblée sur les enfants et la limitation de l’utilisation des données sensibles.

Auteur/Autrice

Laisser un commentaire