Plateformes en ligne (DSA)

Introduction

 

Qu’il s’agisse de médias sociaux comme Facebook, Instagram, TikTok ou X, ou de plateformes de partage de vidéos comme YouTube, c’est au niveau européen que le cadre législatif a été fixé pour définir et appliquer un ensemble de règles pour ces acteurs. Il s’agit du règlement sur les services numériques (DSA) du 19 octobre 2022. Le DSA, c’est un règlement unique au monde visant à créer un environnement en ligne sûr, prévisible et fiable pour les utilisateurs.

Le DSA garantit des droits fondamentaux tels que la liberté d’expression et d’information, la liberté d’entreprise, le droit à la non-discrimination, ainsi que la garantie d’un niveau élevé de protection des consommateurs en ligne. Étant donné qu’il s’agit d’un règlement, il s’applique directement dans le droit de chaque Etat-membre, dont la Belgique.

Le DSA distingue les petites plateformes en ligne, les « très grandes plateformes en ligne » et les « très grands moteurs de recherche » comme Google Search, utilisés par plus de 45 millions d’Européens par mois, désignés par la Commission européenne et qui sont soumises à des obligations plus contraignantes. Il s’agit par exemple des réseaux sociaux Facebook, Instagram, LinkedIn, TikTok, X (anciennement Twitter), Pornhub, de la plateforme de partage de vidéos YouTube, ou encore du magasin en ligne Shein.

Concernant les plateformes en ligne, le DSA impose des règles de transparence et de lutte contre les contenus illicite. Plus concrètement, les plateformes en ligne doivent mettre en place des mécanismes dont la pertinence et l’efficacité doivent être contrôlées par la Commission Européenne et par les autorités compétentes. Ces dernières sont là pour vérifier si les acteurs concernés « jouent le jeu » et, le cas échéant, sanctionner ceux qui ne le font pas. En Belgique, quatre autorités ont été désignées pour contrôler la bonne application du DSA sur son territoire, l’IBPT (en tant que coordinateur pour le niveau Fédéral), le VRM pour la Communauté Flamande, le Medienrat pour la Communauté Germanophone et le CSA pour la Fédération Wallonie-Bruxelles.

 

Pour en savoir plus sur les règles, la régulation et les plaintes concernant les plateformes en ligne, consultez notre section dédiée.

Le DSA, c’est quoi ?

 

Les objectifs du DSA

 

Pour les citoyens

  • Une protection accrue des droits fondamentaux
  • Davantage de contrôle et de choix
  • Une protection renforcée des enfants en ligne
  • Une exposition moindre aux contenus illicites

Pour la société dans son ensemble

  • Un contrôle démocratique et une surveillance renforcée des plateformes
  • L’atténuation des risques systémiques, tels que la manipulation ou la désinformation

    Quels sont les services concernés par le DSA ?

    Le DSA est un règlement « global ». Il concerne l’ensemble des fournisseurs de services intermédiaires sur internet qui mettent à disposition un service de la société de l’information pour transmettre, héberger ou rendre public le contenu des utilisateurs.

    • Les plateformes en ligne, telles que les plateformes de médias sociaux et les plateformes de partage de vidéos.
    • Les plateformes d’offres d’emploi.
    • Les plateformes d’économie collaborative et les places de marché en ligne.
    • Les services d’hébergement et d’informatique en nuage.
    • Les fournisseurs d’accès à l’internet.
    • Les VPN.
    • Les points d’accès sans fil.
    • Les réseaux d’acheminement de contenu.

    Quelles sont les règles ? 

     

    En bref 

     

    Le DSA prévoit une série de règles qui sont spécifiques aux différents acteurs visés par le règlement. En ce qui concerne spécifiquement les plateformes en ligne, deux grandes catégories ont été définies en fonction de la taille des acteurs.

    Les plateformes en ligne de moins de 45 millions d’utilisateurs actifs par mois auront ainsi des obligations moins restrictives que les plateformes en ligne qui comptent plus de 45 millions d’utilisateurs par mois.

    De manière générale, les obligations envers les plateformes visent trois grands objectifs. Des objectifs de « lutte contre contenus illicites », des objectifs de « transparence » et des objectifs de « limitation des risques systémiques ».  

    Les obligations de lutte contre les contenus illicites concernent par exemple la limitation et la suppression des contenus haineux, violents ou de désinformation.

    Les obligations de transparence viseront à offrir aux utilisateurs la possibilité de s’adresser efficacement aux plateformes, mais aussi de permettre aux chercheurs et aux régulateurs de comprendre le fonctionnement des algorithmes des plateformes. Une série de rapports, mais aussi d’audit externe sont enfin prévues dans le DSA pour s’assurer de la mise en œuvre et du respect des obligations des plateformes.

    Enfin, la limitation des risques systémiques concerne particulièrement les « très grandes plateformes ». Ces dernières jouent un rôle très important et influent sur la sécurité en ligne, la diffusion de l’information, la formation de l’opinion publique et les transactions économiques. C’est par exemple le cas lorsque ces plateformes laissent se propager massivement des fausses informations durant une période d’élection, ou encore que des contenus violents présents sur les plateformes sont largement accessibles sur ces plateformes à des publics mineurs.

     

    Règles communes à l’ensemble des services numériques visés par le DSA 

    Les services numériques concernés par le DSA doivent mettre en place les dispositions suivantes pour assurer la mise en oeuvre des règles du DSA :

    • Lorsqu’ils reçoivent d’une autorité une injonction de combattre du contenu illicite ou une injonction de fournir des informations, communiquer sans délai la suite éventuelle donnée à l’injonction, en précisant si et quand une suite a été donnée à l’injonction ;
    • Désigner un point de contact unique pour permettre aux utilisateurs du service de communiquer directement et rapidement avec eux, par voie électronique et de manière conviviale ;
    • Si le fournisseur du service intermédiaire est établi hors de l’UE, désigner un représentant légal au sein de l’UE

    Les services numériques concernés par le DSA sont tenus de respecter une série de règles de transparences en faveur des utilisateurs et des règulateurs. Ils sont tenus de ;

    • Publier des conditions générales claires et accessibles. Ces conditions doivent comprendre des détails ayant trait aux politiques, procédures, et équipes de modérations. Les changements importants doivent être notifiés à tous les utilisateurs ;
    • Donner des explications aux utilisateurs dont le contenu fait l’objet d’une quelconque forme de restriction ou de retrait ;
    • Avertir l’utilisateur de la réception d’injonctions (par exemple une injection à ne plus offrir un produit illégal par le biais de la plateforme) ;
    • Obligation (annuelle) d’établir un rapport sur la transparence concernant :
      • le nombre d’injonctions reçues (suppression de contenu illégal ou fourniture d’information)
      • le nombre de plaintes reçues
      • la modération des contenus, y compris les moyens automatisés

    – Exception pour les microentreprises ou les petites entreprises –
    L’obligation en matière de rapports ne s’applique pas aux microentreprises et aux petites entreprises. Il s’agit des entreprises de moins de 50 employés et dont le chiffre d’affaires est de maximum 10 millions d’euros.

    Règles spécifiques aux « plateformes en ligne »

    Les plateformes en ligne doivent proposer aux internautes un outil leur permettant de signaler facilement les contenus illicites. Une fois le signalement effectué, elles doivent rapidement retirer ou bloquer l’accès au contenu illégal. Dans ce cadre, elles coopèrent prioritairement avec des « signaleurs de confiance ». Ce statut est attribué dans chaque pays à des entités ou organisations en raison de leur expertise et de leurs compétences. Leurs notifications sont traitées en priorité.

    Les plateformes doivent également mettre en place des mesures contre les utilisations abusives (suspension ou suppression de comptes d’utilisateurs qui publient régulièrement et manifestement du contenu illégal ou qui soumettent des notifications fausses de contenu illégal).

    Les plateformes doivent enfin assurer la surveillance et mettre en place des mesures contre les abus en matière de respect de la vie privée, de sécurité et de protection des mineurs

    Les plateformes doivent rendre plus transparentes leurs décisions en matière de modération des contenus. Elles doivent prévoir un système interne de traitement des réclamations permettant aux utilisateurs dont le compte a été suspendu ou résilié (par exemple sur un réseau social) de contester cette décision.

    En matière de transparence, les plateformes sont aussi tenues de fournir annuellement un rapport sur le nombre et le type de mesures prises à l’égard du contenu illégal et sur le nombre d’utilisateurs par mois. Elles doivent communiquer à la Commission européenne chaque décision prise pour limiter ou supprimer le contenu illégal ou le contenu incompatible avec leurs conditions générales par le biais de la DSA Transparency Database.

    Les plateformes ont, par ailleurs, l’obligation d’expliquer le fonctionnement des algorithmes qu’elles utilisent pour recommander certains contenus publicitaires en fonction du profil des utilisateurs.

    Enfin, les plateformes ont l’obligation d’être plus transparence encore en ce qui concerne la publicité en ligne. La publicité ciblée pour les mineurs est désormais interdite pour toutes les plateformes, de même que la publicité basée sur des données sensibles comme les opinions politiques, la religion ou l’orientation sexuelle (sauf consentement explicite).

    Les interfaces trompeuses connues sous le nom de « pièges à utilisateurs » (dark patterns) et les pratiques visant à induire les utilisateurs en erreur (mise en avant de certains choix…) sont prohibées.

    Règles spécifiques aux « très grandes » plateformes en ligne

     

    Toutes les règles qui concernent les petites plateformes en ligne sont également d’application pour les très grandes plateformes.

    En ce qui concerne les obligations supplémentaires qui s’appliquent spécifiquement aux très grandes plateformes, le contrôle est exclusivement exercé par la Commission européenne.

    Les mesures supplémentaires suivantes sont applicables :

    Les très grandes plateformes doivent désormais analyser tous les ans les risques systémiques qu’ils génèrent (sur la haine et la violence en ligne, les droits fondamentaux, le discours civique, les processus électorauxla santé publique…) et prendre les mesures nécessaires pour atténuer ces risques (respect de codes de conduite, suppression des faux comptes, visibilité accrue des sources d’information faisant autorité…) et mettre en place des mesures spécifiques pour atténuer ces risques.

    Elles sont tenues de mettre en place un mécanisme de réaction aux crises touchant la sécurité ou la santé publique.

    Elles se soumettent tous les ans à des audits indépendants de réduction des risques, sous le contrôle de la Commission européenne ;

    Enfin, les très grandes plateformes en ligne sont tenues de mettre en place des mesures supplémentaires pour mieux protéger les mineurs en ligne.

    Tout comme les plus petites plateformes, les très grandes plateformes ont l’obligation d’expliquer le fonctionnement des algorithmes qu’elles utilisent pour recommander certains contenus publicitaires en fonction du profil des utilisateurs. Les très grandes plateformes et les très grands moteurs de recherche doivent proposer un système de recommandation de contenus non-fondé sur le profilage et mettre à disposition du public un registre des publicités contenant diverses informations (qui a parrainé l’annonce, comment et pourquoi elle cible tels individus…).

    Les très grandes plateformes doivent également octroyer un accès de leurs données aux chercheurs agréés pour leur permettre de comprendre le fonctionnement de leurs algorithmes de recommandation. Elles doivent également fournir les algorithmes de leurs interfaces à la Commission et aux autorités nationales compétentes.

    Enfin, les très grandes plateformes doivent fournir un résumé clair et facilement accessible de leurs conditions générales et proposer leurs conditions générales dans toutes les langues des États membres où elles fournissent des services.

    Pour permettre d’assurer son rôle de surveillance, les très grandes plateformes versent une redevance annuelle à la Commission Européenne.

    Autorités de régulation 

     

    Autorités compétentes pour faire appliquer le DSA

     

    Dans le cadre de ce règlement, chaque État membre européen désigne une ou plusieurs autorités compétentes chargées de la supervision. 

    Étant donné que l’application du DSA implique de nombreuses compétences, tant au niveau fédéral qu’au niveau des communautés, 4 autorités compétentes ont été désignées en Belgique : 

    Le DSA exige également qu’un coordinateur national soit désigné pour chaque État membre. Compte tenu de la répartition belge des compétences, cela doit se faire dans le cadre d’un accord de coopération conclu entre l’État fédéral et les Communautés.

     

     

    Rôle des autorités

     

    En fonction de leurs attributions respectives, les autorités compétentes (IBPT, VRM, CSA et Medienrat) sont chargées de mettre concrètement en œuvre le DSA et de le faire respecter par les fournisseurs établis en Belgique ou y ayant désigné leur représentant légal. Chaque autorité compétente traite au fond les affaires qui relèvent de sa compétence, compte tenu de la répartition belge des compétences. Concrètement, chaque autorité de régulation s’occupera de la poursuite des infractions dans les territoires et les matières dont il a la responsabilité.

    Pour mener à bien ses missions, l’IBPT dispose des pouvoirs nécessaires en vue, par exemple, de certifier les signaleurs de confiance, de mener des investigations en cas de suspicion de violation du DSA ou encore de contraindre un fournisseur à respecter ses obligations jusqu’à pouvoir au besoin imposer des sanctions (y compris des amendes pouvant s’élever à 6 % du chiffre d’affaires mondial).
    En cas de préjudice très grave, une autorité compétente peut également imposer, entre autres, des mesures immédiates. 

     

     

    Rôle du DSC

     

    En tant que DSC, l’IBPT est responsable de la coordination au niveau national de toutes les questions relatives à la surveillance et à l’application du règlement et contribue à la surveillance et à l’application effectives et cohérentes du règlement dans l’ensemble de l’Union européenne. En tant que point de contact unique, il est chargé d’assurer le bon flux des informations avec les autres autorités compétentes, les coordinateurs des autres États membres de l’Union européenne, le Comité européen des services numériques, la Commission européenne et les fournisseurs de services intermédiaires. C’est également le coordinateur qui est chargé de recevoir les plaintes des utilisateurs des services intermédiaires, des demandes de certification et d’agrément (signaleurs de confiance, organes de règlement extrajudiciaire des litiges, chercheurs) et qui centralise les informations sur les injonctions de retirer un contenu en ligne qui sont adressées par des autorités belges à un fournisseur de service. 

    Enfin, il existe une collaboration étroite entre les DSC nationaux et la Commission européenne dans le cadre des procédures engagées par la Commission à l’égard des plateformes en ligne et des grands moteurs de recherche en ligne dont le nombre mensuel moyen de destinataires actifs du service dans l’UE est égal ou supérieur à 45 millions (par exemple TikTok, Instagram, Facebook, Google, X, Snapchat, Amazon, etc.).

    Si c’est la Commission qui est en charge de la surveillance et de l’exécution des obligations supplémentaires imposées spécifiquement à ces acteurs qualifiés de très grandes plateformes en ligne et/ou très grands moteurs de recherche en ligne, elle peut requérir l’aide d’un ou plusieurs coordinateurs de services numériques nationaux. Ceux-ci peuvent à leur tour faire appel à toute autorité compétente dont il estimerait la contribution nécessaire. Les obligations supplémentaires concernant ces très grandes plateformes et très grands moteurs de recherche touchent notamment aux mesures visant à atténuer les risques systémiques. Il s’agit ici des risques découlant de la conception ou du fonctionnement de leurs services et qui pourraient préjudicier la société ou ses citoyens. Supervision of the designated very large online platforms and search engines under DSA | Shaping Europe’s digital future (europa.eu).

     

    Plainte contre une plateforme en ligne

     

    Lorsque vous remarquez un contenu illégal sur une plateforme en ligne, vous devez d’abord le signaler à la plateforme concernée. 

    Dans le cas où votre signalement n’aboutit pas, vous avec le droit de déposer une plainte auprès du coordinateur belge, à savoir l’IBPT. De plus amples informations sur la manière de déposer une plainte auprès de l’IBPT sont disponibles ici.