Protection des mineurs en lignes : annonces de Google et de X

 

L’accès aux contenus préjudiciables en ligne pour les mineurs comme la pornographie représente un défi important sur le plan juridique et technique pour les grandes entreprises du numérique. Le cadre légal européen produit désormais concrètement ses effets avec deux annonces importantes de la plateforme X et de Google.

L’article 28 de la Directive sur les services de médias audiovisuels (DSMA) prévoit que les plateformes de partage de vidéo mettent en place et utilisent des systèmes permettant de vérifier l’âge des utilisateurs en ce qui concerne les contenus susceptibles de nuire à l’épanouissement physique, mental ou moral des mineurs. Le Code Irlandais, mettant en œuvre ces obligations pour les plateformes établies en Irlande, y compris X, Facebook et Instagram, est applicable à partir de 21 juillet. Les dispositions du Code relèvent de la DSMA et sont complémentaires au Digital Services Act (DSA).

Le règlement européen du DSA impose quant à lui à l’ensemble des plateformes en ligne de mettre en place partout en Europe des mesures appropriées pour garantir un niveau élevé de protection de la sécurité, de sûreté, et de la vie privée des mineurs, en particulier lorsque cela concerne des contenus pornographiques.

X a annoncé qu’elle suspendrait désormais la visibilité des contenus pornographiques pour les comptes identifiés comme appartenant à des mineurs. L’objectif est d’empêcher tout affichage de ces contenus par défaut aux utilisateurs de moins de 18 ans, y compris via des recommandations ou des affichages directs. Cette suspension de la visibilité des contenus pornographiques s’étendra jusqu’à la mise en place d’un système de vérification de l’âge.

Google a annoncé de son côté étendre un système d’« age assurance » (assurance d’âge) sur l’ensemble de ses services aux États-Unis dans le but d’étendre cette mesure en Europe. Basé sur un modèle de machine learning, ce système estime l’âge d’un utilisateur en analysant ses comportements : requêtes, historique de recherche, vidéos visionnées sur YouTube, ancienneté du compte, etc. Si l’outil estime qu’un utilisateur a moins de 18 ans, des protections prédéfinies seront activées automatiquement : désactivation des publicités personnalisées, arrêt du suivi Timeline dans Maps, activation de fonctions bien être numérique comme les rappels de pause ou d’heure de coucher sur YouTube, et blocage de certaines applications réservées aux adultes sur le Play Store.

Ces deux annonces se veulent encourageantes, mais ne représentent qu’un premier pas des plateformes pour répondre aux objectifs de la DSMA et du DSA qui devra faire l’objet d’une évaluation. Les mesures envisagées comportent encore des failles qui devront être comblées par la mise en œuvre de systèmes de vérification de l’âge robuste. Lorsqu’il n’a pas d’autres moyens pour définir l’âge de ses utilisateurs et utilisatrices, X se réfèrent par exemple à l’âge annoncé sur leur compte email d’inscription, qui ne fait pas l’objet d’une vérification fiable. La mesure actuelle comporte donc un risque de contournement. L’utilisation de techniques d’IA pour profiler les jeunes utilisateurs par Google comporte également des failles et le risque d’une collecte excessive de données des jeunes utilisateurs et utilisatrices.

Pour pallier ces difficultés techniques, l’Europe a mis en place à court terme un plan pilote de vérification de l’âge, testé dès cette année au Danemark, en France, en Grèce, en Italie et en Espagne. Cet outil aura pour objectif de proposer une solution standardisée, sécurisée et interopérable que les plateformes pourront s’approprier à l’échelle européenne. À moyen terme, Le portefeuille européen d’identité numérique pourrait représenter une solution durable pour les plateformes en ligne.  Ce portefeuille numérique aura pour objectif de fournir à tous les citoyens et citoyennes un moyen sûr, harmonisé et reconnu dans tous les États membres pour prouver leur identité en ligne. Disponible sous forme d’application mobile, il permettra de stocker et présenter, de manière sécurisée, des documents officiels (carte d’identité, permis de conduire, diplômes, certificats médicaux, etc.) et des informations personnelles vérifiées, dont l’âge des utilisateurs et des utilisatrices.

Le CSA se réjouit de ses avancées majeures en termes de protection des jeunes publics sur les plateformes en ligne. Ces dernières sont le résultat d’un investissement important des régulateurs nationaux auquel le CSA a fortement contribué en coordonnant des travaux importants au sein du Media Board européen relatifs à la protection des mineurs, ainsi que par le biais de ces travaux antérieurs sur ces matières, comme son étude consacrée à la présence des contenus pornographique sur le réseau social X.

La protection des mineurs en ligne est une priorité absolue des régulateurs de médias en Europe et un enjeu sociétal de premier plan. « Le marché européen est unique au monde et a le potentiel d’exiger le respect de ses règles éthiques et de sa souveraineté », rappelle Karim Ibourki, président du CSA. « Alors que d’un côté, les plateformes en ligne et certains discours politiques en Europe et en dehors tendent à dénoncer le poids et la complexité du cadre législatif européen, force est de constater que les géants du numérique s’y conforment progressivement ».

En savoir plus sur le DSA : consultez notre section dédiée aux affaires européennes