• ALYDE

La liberté d’expression sacrifiée au profit de l’efficacité de la lutte anti-terroriste

Dernière mise à jour : mai 31

L’ère du numérique a vu naître avec elle l’âge d’or de l’information. Facilité par les canaux du web, le partage de contenu ne connaît aujourd’hui plus aucune interruption. Internet s’est alors révélé être un instrument de démocratie singulier mais nécessaire, imprévisible mais indispensable, dangereux mais précieux. La réalisation de la liberté d’expression, exacerbée par le net mais restreinte par la loi, est ainsi étroitement liée à l’encadrement juridique que connaissent les plateformes de la société de l’information. À l’heure où la civilisation occidentale fait du terrorisme son ennemi numéro 1, l’Union Européenne emboîte regrettablement le pas à la constitution d’une réglementation sécuritaire excessivement restrictive.


Le 12 septembre 2018, la Commission européenne fait usage de son pouvoir d’initiative législative en proposant un règlement destiné à prévenir la diffusion de contenus à caractère terroriste en ligne (1). Si la gardienne des traités félicite les efforts entrepris à l’échelle du continent dans le cadre de la lutte contre une utilisation abusive des plateformes internet par des groupes terroristes, elle en pointe également les insuffisances. Ce travail de régulation étant essentiellement basé sur une coopération volontaire et dispersée, la Commission estime que l’ampleur du problème appelle une réponse européenne. C’est donc aux fins de répondre de manière efficace aux enjeux que soulèvent de telles pratiques que la Commission suggère un renforcement de l’action européenne en la matière. Cette proposition de règlement est ainsi guidée par une volonté d’établissement d’un cadre juridique harmonisé ayant vocation à prévenir une utilisation abusive des plateformes en ligne de la société d’information à des fins terroristes. Cet encadrement doit donc participer au bon fonctionnement du marché unique numérique et garantir la confiance des utilisateurs en ces plateformes ainsi que la sécurité de celles-ci. Plus encore, la mise en oeuvre de cet arsenal juridique cherche à responsabiliser davantage les hébergeurs de contenus par l’imposition d’obligations minimales à leur égard. Partant, la procédure législative ordinaire est entamée et doit se clore par un vote définitif du Parlement européen le mercredi 28 avril 2021.

À cet égard, le Comité économique et social européen (CESE), dans son avis du 12 décembre 2018 (2), pointait déjà les lacunes d’une telle proposition. Il est notamment fait état d’un manque de réalisme tenant au délai de suppression des contenus à caractère terroriste ; la Commission préconise un délai d’une heure, le Comité estime pour sa part que ce choix est inapproprié. Il soulève par ailleurs la question de la détection automatisée des contenus que le règlement entend sanctionner ; il ne s’oppose pas à cette pratique mais encourage plutôt l’innovation technologique en la matière afin d’y répondre de manière adaptée. Enfin, le Comité s’attache à rappeler la nécessité d'une protection contre l’arbitraire en demandant à ce que soit élaborée une liste fermée des critères à retenir lors de l’appréciation du caractère terroriste du contenu mis en ligne sur les plateformes internet. Rappelons toutefois que les avis du CESE ne disposent pas d’une force contraignante, comme en témoigne notamment le maintien du délai de suppression dans la version actuellement examinée par les eurodéputés (3). La procédure législative ordinaire suivant son cours, six trilogues (4) se sont tenus et doivent ainsi conduire à l’adoption définitive du texte par le Parlement à la fin de ce mois. Pourtant, malgré le travail entrepris par les institutions afin de satisfaire les exigences de tout un chacun, la version finale du règlement est loin de contenter l’ensemble des acteurs de la société civile. À ce titre, 61 organisations de défense des droits et libertés fondamentaux en Europe ont appelé, le 25 mars 2021, le Parlement européen à voter contre l’adoption de cette proposition (5). Convaincues que celle-ci demeure dangereuse pour la protection effective des libertés d’expression et d’opinion, du libre accès à l’information, du droit à la vie privée et de l’État de droit (6), elles s’inquiètent de l’influence qu’une telle législation pourrait avoir sur la réglementation des contenus en ligne à l’échelle internationale.


Il importe ainsi d’éclairer les revendications portées par les organisations européennes de défense des droits fondamentaux, de connaître des enjeux qui sous-tendent l’adoption d’une telle réglementation de sorte à en préciser la portée.


La lettre ouverte adressée au Parlement interpelle premièrement sur le maintien factuel d’une incitation au recours à des instruments de modération de contenu automatisés. La Commission, dans sa communication adressée au Parlement, indique pourtant qu’en vertu de la dernière version du texte, les hébergeurs « ne peuvent être obligés à avoir recours à des outils automatisés ». Notons toutefois que l’obligation de mettre en place des « mesures spécifiques pour lutter contre la diffusion de contenus à caractère terroriste » demeure. Elle est de surcroît conjuguée au maintien du délai d’une heure à compter de la réception d’une injonction de suppression. Ce type d’encadrement place les fournisseurs de services d’hébergement dans une situation de compétence liée. La démarche proactive — expression ayant disparu du texte à la suite de sa réécriture mais réemployée dans la communication — attendue de ces derniers par la Commission les contraint à envisager l’utilisation de techniques de filtrage. Or, une pareille technique de filtrage automatisé, de par le manque de transparence relatif à la modération, ouvre en définitive la voie à la suppression de contenus légaux. Car si la Commission précise le champ d’application du projet de règlement en indiquant que le contenu « diffusé à des fins pédagogiques, journalistiques, artistiques ou de recherche ou à des fins de prévention ou de lutte contre le terrorisme » n’aura pas à être considéré comme du contenu à caractère terroriste, il apparaît difficile qu’un système de filtrage automatisé, induit par un délai abusivement court, soit apte à opérer une telle distinction. L’invisibilisation de certains contenus relatifs aux activités terroristes — tel que le militantisme ou la satire — est de nature, comme le soulignent les organisations européennes de défense des droits fondamentaux, à « entraver les efforts de responsabilisation » de la société internationale. Il est malheureux de constater que les recommandations du CESE n’aient finalement pas emporté l’adhésion de la Commission — celui-ci s’appuyait pourtant sur le système français prévoyant un délai de 21 heures.


Un autre pan du règlement se doit également d’être envisagé. Il attrait à la possibilité d’émettre des injonctions de suppression transfrontalières. Le texte entérine ainsi le droit, pour une autorité compétente d’un État membre, d’enjoindre à tout hébergeur de supprimer un contenu à caractère terroriste, alors même que celui-ci n’est pas établi sur son territoire. La portée extraterritoriale de cette prérogative apparaît particulièrement inopportune eu égard aux inquiétudes résultant des récentes procédures engagées à l’encontre de certains États membres concernant la constatation d’un risque clair de violations des valeurs de l’Union.

De surcroît, les garanties ouvertes par le texte apparaissent excessivement limitées. Les dispositions contenues à l’article 4 de la version adoptée par le Conseil (7) permettent effectivement, dans le cas d’une injonction de suppression transfrontalière, à l’hébergeur de formuler une demande de réexamen sous 48 heures à l’autorité compétente de l’État où il a son établissement principal, ou dans lequel son représentant légal réside ou est établi. L’autorité saisie dispose alors de 72 heures pour procéder à cet examen. Dans le cas où celle- ci conclurait à la violation grave ou manifeste du présent règlement ou des libertés et droits fondamentaux garantis par la Charte, l’injonction cessera de produire ses effets. Or, face à une injonction de suppression, il aurait été souhaitable que le recours offert aux hébergeurs soit de nature suspensive. Des utilisations abusives des prérogatives dévolues par ce règlement aux autorités nationales compétentes sont donc à redouter, d’autant qu’elles risquent par la même de mettre en exergue les divergences conceptuelles des États membres de l’Union sur la question du terrorisme, mettant à mal le principe cardinal de confiance mutuelle.


Enfin, la question des autorités compétentes suscite elle aussi de vives interrogations. Il apparaît que les autorités chargées d’émettre des injonctions de retrait, de procéder aux examens approfondis des injonctions de retrait, de superviser la mise en œuvre des mesures spécifiques et d’imposer des sanctions (8) sont désignées discrétionnairement par les États membres. Si le texte exige naturellement que les autorités exercent leurs compétences « d'une manière objective, non discriminatoire et dans le plein respect des droits fondamentaux », il convient de venir au soutien des attentes des organisations européennes des défense des droits fondamentaux. Ces dernières réclament que seules des autorités judiciaires — ou des autorités administratives indépendantes soumises à un contrôle judiciaire — puissent être investies d’un tel pouvoir d’injonction. Une restriction à la liberté d’expression et à l’accès à l’information devrait effectivement faire l’objet d’un contrôle prioritairement — si ce n’est exclusivement — accordé à une autorité judiciaire, seule véritable garante légitime des droits fondamentaux. Des craintes naissent alors quant à des dérives d’instrumentalisation politique du dispositif consacré par ce projet de règlement, en particulier chez les États les moins enclins à respecter les valeurs démocratiques prônées et promues par l’Union Européenne.


L’adoption de ce projet de règlement relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne fait ainsi naître des craintes sincères quant à l’articulation qu’entend opérer l’Union entre la liberté d’expression, le droit d’accès à l’information et la poursuite d’objectifs sécuritaires. Les institutions sont à ce titre investies d’un devoir de vigilance accru en la matière de sorte à prévenir le basculement d’une Union de droit vers une Union de prévention(9).



Yann LESCOP

Étudiant du M1 Droit européen des droits de l'Homme, promotion 2020-2021


(1) Proposition de règlement du Parlement européen et du Conseil relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne. COM/2018/640. (2) Avis du Comité économique et social européen sur la «Proposition de règlement du Parlement européen et du Conseil relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne». EESC 2018/04761. (3) Communication de la Commission au Parlement Européen conformément à l’article 294, paragraphe 6, du traité sur le fonctionnement de l’Union européenne concernant la position du Conseil sur l’adoption d’un règlement du Parlement européen et du Conseil pour faire face à la diffusion de contenus à caractère terroriste en ligne, 17 mars 2021. (4) Réunions inter-institutionnelles informelles sur des propositions législatives entre des représentants du Parlement, du Conseil et de la Commission. (5) Censure: des associations dénoncent un projet de règlement européen antiterroriste, Jérôme Hourdeaux, Mediapart, 25 mars 2021. (6) Lettre commune de 61 organisation européennes pour demander le rejet du règlement de censure antiterroriste, La Quadrature du Net, 25 mars 2021. (7) Position du Conseil en vue de l'adoption du RÈGLEMENT DU PARLEMENT EUROPÉEN ET DU CONSEIL relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne, 16 mars 2021. (8) Article 12 de la Position du Conseil, cf. infra. (9) Heribert Prantl, juriste, essayiste et professeur d’université allemand et son concept d’État de prévention.

Posts récents

Voir tout