La Commission européenne a ouvert une enquête jeudi (16 mai) pour déterminer si Meta, la société mère de Facebook et Instagram, a enfreint les dispositions concernant la protection des mineurs du règlement sur les services numériques (Digital Services Act, DSA).
Margrethe Vestager, vice-présidente exécutive de la Commission, a exprimé ses inquiétudes concernant les risques d’addiction et l’inadéquation des méthodes de vérification de l’âge des deux plateformes.
Facebook et Instagram ont été classés comme de très grandes plateformes en ligne (Very Large Online Platform, VLOP) en avril 2023 en vertu du DSA et sont donc tenus de suivre des règles strictes concernant le traitement de contenus illégaux et préjudiciables.
La Commission craint que ces plateformes et leurs algorithmes n’encouragent des comportements addictifs chez les enfants et que les méthodes de vérifications de l’âge visant à empêcher l’accès des mineurs à des contenus inappropriés ne soient pas suffisantes.
Un porte-parole de Meta a indiqué à Euractiv que la société avait développé et mis en place plus de 50 outils et politiques au cours des 10 dernières années pour protéger les mineurs, et qu’elle était prête à exposer les détails de son travail à la Commission.
C’est la deuxième fois en l’espace de quelques mois que Meta fait l’objet d’une enquête pour infraction potentielle au DSA. En avril, la Commission avait notamment ouvert une enquête pour savoir si Meta avait pris des mesures adéquates afin de combattre la désinformation sur ses plateformes.
Le commissaire européen au Marché intérieur, Thierry Breton, a réaffirmé à plusieurs reprises que la protection des enfants en ligne était une priorité du DSA.
En juin dernier, il a déclaré que le code volontaire de Meta sur la protection des enfants ne fonctionnait pas, après des révélations selon lesquelles les algorithmes d’Instagram avaient facilité et encouragé les réseaux de matériel d’abus sexuel d’enfants.
Le commissaire a publié jeudi sur X que la Commission n’était « pas convaincue que Meta en a fait assez pour se conformer aux obligations du DSA — pour atténuer les risques d’effets négatifs sur la santé physique et mentale des jeunes Européens sur ses plateformes Facebook et Instagram ».
L’ouverture de cette procédure formelle fait suite à une analyse du rapport d’évaluation des risques de Meta datant de septembre 2023, de ses réponses aux enquêtes de la Commission, des rapports accessibles au public et de l’examen de la Commission elle-même.
Les enquêtes formelles, comme celle qui a été ouverte, autorisent la Commission à prendre des mesures d’exécution, y compris des mesures provisoires.
« La loi nous donne une certaine flexibilité quant au calendrier de ces enquêtes. [Dans le cas de TikTok], nous avons pu agir assez rapidement lorsqu’il s’agissait, par exemple, d’interdire TikTok Lite », a déclaré un fonctionnaire de la Commission jeudi.
Parallèlement à cela, la Commission et les États membres élaborent actuellement des lignes directrices sur la protection des mineurs ainsi que sur l’utilisation du portefeuille d’identité de l’UE pour la vérification de l’âge, a déclaré un responsable de l’exécutif européen lors d’un point presse jeudi.
Autres procédures
En février, la Commission a ouvert une procédure formelle à l’encontre de TikTok pour de possibles infractions au DSA concernant notamment la protection des enfants.
En avril, elle a lancé une deuxième série de procédures formelles après le lancement de TikTok Lite en Espagne et en France, signalant son intention de suspendre le programme de récompenses de l’application. Deux jours plus tard, TikTok a « volontairement » suspendu les fonctions de récompense des utilisateurs.
En décembre 2023, le Parlement européen a adopté à une large majorité une initiative pour rendre les plateformes numériques moins addictives lors de sa session plénière à Strasbourg.
Laisser un commentaire