Régulation des réseaux sociaux

 

Le 6 février 2020, Le CSA a publié une note d’orientation sur la lutte contre certaines formes de contenus illicites sur Internet, en particulier le discours de haine. Le CSA y souligne l’impact sans précédent de ces types de contenus et l’inadaptation de la règlementation actuelle. Selon lui, le cadre juridique européen actuel et les mesures d’autorégulation qu’ont mises en place les grands acteurs du web (modération, procédures de signalement, etc.) ne permettent pas de lutter efficacement contre le phénomène des contenus illicites en ligne. Ceci affecte particulièrement les jeunes générations qui font un usage important des plateformes, en sont souvent à l’apprentissage de l’esprit critique et peuvent elles-mêmes être victimes de discours de haine ou d’autres contenus illicites.

Pourquoi faut-il une action locale pour lutter contre les contenus illicites sur les réseaux sociaux ? Synthèse de la note du CSA

Cas de cyberharcèlement scolaire, déclarations homophobes, déferlements de haine observés sur les réseaux sociaux à l’encontre des présentatrices Cécile Djunga (RTBF) et Salima Belabbas (RTL) ou, tout récemment encore, des migrants dont l’embarcation a fait naufrage près de La Panne : ces quelques exemples mettent en lumière le besoin d’une régulation adaptée des géants de l’Internet fournissant des plateformes de partage de contenus. En effet, une série de contenus illicites (propos haineux, discriminants et violents) prolifèrent sur les réseaux sociaux et les plateformes en ligne.

Le Conseil supérieur de l’audiovisuel (CSA), autorité de régulation du secteur audiovisuel francophone belge, publie aujourd’hui une note d’orientation à ce sujet. Le CSA y souligne l’impact sans précédent de ces types de contenus et l’inadaptation de la règlementation en vigueur. Selon lui, le cadre juridique européen actuel et les mesures d’autorégulation qu’ont mises en place les grands acteurs du web (modération, procédures de signalement, etc.) ne permettent pas de lutter efficacement contre le phénomène des contenus illicites en ligne. Ceci affecte particulièrement les jeunes générations qui font un usage important des plateformes, en sont souvent à l’apprentissage de l’esprit critique et peuvent elles-mêmes être victimes de discours de haine ou d’autres contenus illicites.

La note d’orientation dresse un état des lieux et formule un ensemble de propositions concrètes d’action publique. L’instance de régulation suggère ainsi au législateur de la Fédération Wallonie-Bruxelles de prendre des mesures décrétales, dans le cadre des compétences qui lui sont reconnues au sein de l’Etat fédéral, et se propose d’être le fer de lance d’un dialogue à établir et développer avec les grands acteurs du web.

 

Des acteurs qui dominent et échappent à la régulation

 

Comme l’a relevé la Fondation Child Focus, en Belgique, 40 % des 9-12 ans sont inscrit.e.s sur un site de socialisation. Les réseaux sociaux et autres plateformes de partage de contenu créent des dynamiques qui plaisent particulièrement, notamment aux adolescents. Contrairement aux médias traditionnels, la toile offre aussi l’opportunité aux internautes de devenir créateurs de contenu, avec toutes les dérives que cela implique : la parole débridée qui peut devenir le vecteur de contenus illicites, dont le discours de haine.

Dans ce nouvel écosystème des médias, le rôle joué par les plateformes et les réseaux sociaux est immense, mais leur responsabilité trop limitée, alors que l’impact sans précédent de ces types de contenus et l’inadaptation de la règlementation aux pratiques actuelles de certains acteurs font naître un sentiment d’inquiétude et d’urgence.

 

Le cadre européen ne leur impose en effet que peu d’obligations par rapport à celles auxquelles les autres acteurs du paysage médiatique sont soumises. La directive européenne 2000/31/CE (dite directive e-commerce) les exonère en principe de la responsabilité des contenus postés par les utilisateur.trice.s. La directive SMA[1], qui a été révisée en 2018, impose aux réseaux sociaux de nouvelles obligations mais seulement s’ils permettent le partage de vidéos en ligne. Dès lors, certaines problématiques ne trouvent toujours pas de solutions concrètes dans l’arsenal juridique belge et européen.

 

L’illusion d’une « autorégulation » par les acteurs eux-mêmes a fait long feu et l’évolution des débats actuels montre une réelle prise de conscience de leur part. Ils reconnaissent être dépassés par l’ampleur et l’impact du phénomène, et en appellent ouvertement à une régulation par les pouvoirs publics.

 

Nos voisins envisagent déjà des pistes de solution

 

La Commission européenne a pris aussi conscience de l’insuffisance du cadre juridique en vigueur et a encouragé les Etats membres de l’Union européenne, dans une Recommandation de 2018, à prendre des mesures efficaces, appropriées et proportionnées pour lutter contre les contenus illicites en ligne.

 

Certains Etats membres tels que l’Italie, l’Irlande, la France et l’Allemagne ont déjà ou vont mettre en place des mesures que le CSA présente dans sa note.

 

En Italie et dans une proposition irlandaise, ces dernières concernent avant tout les plateformes de partage de vidéos comme YouTube. Cela contribue à résoudre certains problèmes, mais tous les acteurs et toutes les formes de services ne sont donc pas nécessairement pris en compte au même degré. L’Allemagne et une proposition de loi française visent quant à elles les réseaux sociaux, ce qui représente un champ d’application plus large que les seules plateformes de partage de vidéos. Selon la loi allemande, l’autorité publique a le pouvoir de reconnaître les instances d’autorégulation mises en place par les plus grands réseaux sociaux. Elle dispose également d’un pouvoir de sanction administrative à leur encontre lorsqu’ils ne remplissent pas leurs obligations légales.

 

Aux yeux du CSA, ces diverses réponses nationales peuvent nourrir la réflexion, qu’il appelle de ses vœux, sur la mise en place d’un dispositif belge francophone.

 

La Fédération Wallonie-Bruxelles peut se doter d’un décret efficace pour lutter contre les contenus illicites sur les plateformes de partage de contenu en ligne

 

La note remise par le CSA aux deux branches du pouvoir législatif belge francophone propose l’adoption d’un décret de la Fédération Wallonie-Bruxelles spécifique à la lutte contre les contenus illicites. Ceux-ci comprennent les contenus publiés sur une plateforme de partage de contenus en ligne :

 

  • Faisant l’apologie des crimes contre l’humanité.
  • Provoquant à la commission d’actes de terrorisme ou faisant l’apologie de tels actes.
  • Comportant une incitation à la haine, à la violence, à la discrimination ou une injure envers une personne ou un groupe de personnes en raison de l’origine, d’une prétendue race, de la religion, de l’ethnie, de la nationalité́, du sexe, de l’orientation sexuelle, de l’identité́ de genre ou du handicap, vrais ou supposés.

 

Ce décret doit être traité séparément de la question de la transposition de la directive SMA dans le droit national, qui a déjà été lancée par le Gouvernement et ne traite, comme on l’a dit, que des plateformes de partage de vidéos.

 

La proposition du CSA est de mettre en place un système de « co-régulation » conçu comme l’organisation d’un dialogue balisé entre les plateformes de partage de contenus et lui-même. Cette forme de « co-régulation » apparaît pour le CSA comme appropriée et applicable. Elle conduirait les plateformes concernées à fournir des informations et assurer une certaine transparence, respecter des lignes de conduite et mettre des ressources en œuvre pour lutter contre les contenus illicites, le tout sous la surveillance bienveillante du CSA qui est déjà le promoteur de la liberté d’expression dans le respect des lois, dans le cadre du secteur audiovisuel.

 

Concrètement, devrait être visée par ce nouveau décret toute personne physique ou morale proposant, à titre professionnel, de manière rémunérée ou non, une plateforme de partage de contenus en ligne. Les obligations seraient imposées à tout opérateur de plateforme de partage de contenus en ligne, peu importe son lieu d’établissement (hors Communauté française, Belgique ou Union européenne), le critère de rattachement étant celui du nombre d’utilisateurs situés en région de langue française et en région bilingue de Bruxelles-Capitale.

 

Ce décret aurait pour objet de responsabiliser les opérateurs de plateformes de partage de contenus en ligne en leur imposant essentiellement l’obligation de mettre en place des procédures efficaces de traitement des plaintes, d’informer les utilisateur.trice.s, ainsi que de dialoguer avec l’autorité de régulation (remise d’un rapport régulier, réponse à ses demandes d’information, etc.).

 

Le CSA serait l’interlocuteur principal des opérateurs de plateforme de partage de contenus en ligne. Son Collège d’autorisation et de contrôle devrait se voir reconnaître un rôle central, en tant qu’autorité administrative, dans la lutte contre les contenus illicites, particulièrement préjudiciables aux jeunes. Le CSA propose également de renforcer ses collaborations avec le Conseil supérieur de l’Education aux Médias de la Communauté française, le monde de l’éducation, ainsi que toutes les institutions belges, supranationales ou internationales compétentes pour ces questions.

 

Pourquoi la Fédération Wallonie-Bruxelles et non le Fédéral ?

 

La question mérite d’être posée car la répartition des compétences en matière de lutte contre les contenus illicites en Belgique n’est pas nécessairement évidente. Pour le CSA, un décret tel que celui qu’il se représente relève de la compétence des Communautés. Les questions qu’il aborde touchent en effet à la protection de la jeunesse, la politique de la jeunesse, mais aussi à l’enseignement sur les questions d’éducation aux médias, c’est-à-dire des matières communautaires. L’adoption d’un décret communautaire représenterait tout d’abord une mesure permettant de renforcer la capacité des jeunes en termes de jugement critique et d’ouverture à l’altérité. Il constituerait aussi une forme d’assistance aux personnes qui apporte aux jeunes en difficulté une aide spécifique et participerait enfin à la lutte contre le cyberharcèlement en milieu scolaire.

 

Le CSA suggère par ailleurs de proposer à l’Autorité fédérale, aux autres Communautés et à la Commission communautaire commune de conclure un accord de coopération. Cette formule permettrait aux différentes parties de bénéficier, si elles le souhaitent, d’un lieu de concertation et de dialogue sur des questions qui, par leur transversalité, sont très imbriquées. Cet accord de coopération permettrait donc un gain d’efficacité, sans affecter les compétences reconnues par le droit constitutionnel aux différentes parties.

 

[1] Directive sur les Services de Médias Audiovisuels.

Que propose le CSA en matière de régulation des réseaux sociaux ?

Etat des lieux de la régulation des réseaux sociaux

La note d’orientation du CSA dresse un état des lieux et formule un ensemble de propositions concrètes d’action publique. L’instance de régulation suggère ainsi au législateur de la Fédération Wallonie-Bruxelles de prendre des mesures décrétales, dans le cadre des compétences qui lui sont reconnues au sein de l’État fédéral, et se propose d’être le fer de lance d’un dialogue à établir et développer avec les grands acteurs du web.

Le CSA demande un nouveau cadre législatif

Le CSA appelle le législateur de la Fédération Wallonie-Bruxelles à adopter rapidement un nouveau décret afin d’imposer aux plateformes de partage de contenu en ligne, au bénéfice des jeunes utilisateur.trice.s, certaines obligations dont un devoir de collaboration avec le CSA.

Accord de coopération

Le CSA suggère de proposer à l’Autorité fédérale, aux autres Communautés et à la Commission communautaire commune de conclure un accord de coopération qui offrirait un lieu de concertation pour les questions transversales.