Digital Service Act : « On a des opérateurs privés qui sont très étroitement liés au pouvoir politique »

Par David Vives et Ludovic Genin
7 septembre 2023 14:43 Mis à jour: 15 novembre 2023 05:48

Le 25 août 2023, le Digital Services Act (DSA) est entré en vigueur en Europe, imposant aux grandes plateformes Internet une nouvelle réglementation sur la gestion des contenus. À partir du 17 février 2024, toutes les grandes plateformes Internet, moteurs de recherches et autres intermédiaires devront supprimer les contenus considérés “illicites” par le règlement du DSA, sous peine de sanctions draconiennes. Cette initiative européenne pour renforcer la responsabilité des grands groupes du numérique soulève des préoccupations sur la liberté d’expression sur le continent européen, par les mécanismes d’incitation à la censure qu’elle va impliquer

Pour nous éclairer sur cette nouvelle réglementation, Guillaume Zambrano, maître de conférences en Droit privé et en sciences criminelles à l’Université de Nîmes, a répondu à nos questions.

Epoch Times: Pouvez-vous nous parler du Digital Service Act qui va s’appliquer en Europe en 2024 ?

Guillaume Zambrano : Pour bien comprendre le règlement du Digital Services Act (DSA) qui est entré en vigueur depuis novembre 2022 et qui sera pleinement applicable à partir de février 2024, il faut le placer dans son contexte juridique existant. L’immunité des plateformes repose sur le modèle posé par les Américains dans une loi de 1996, au début de l’Internet. On ne pouvait pas imaginer les conséquences et la place que prendraient les réseaux sociaux dans le futur.

En 1996, les Américains ont donné un statut spécial aux hébergeurs de contenus sur Internet, justement pour ne pas les rendre responsables de ce qui pouvait être posté par des tiers. C’est ce modèle d’immunité qui était à la base de l’Internet, le but était de créer une immunité totale pour les hébergeurs de contenus. Sur le contenu posté par les utilisateurs, on n’imaginait pas en 1996 qu’ils devraient procéder à la modération ou assurer des fonctions d’édition que l’on trouve dans un organe de presse ordinaire. Sauf que c’est justement sur ce point-là que de plus en plus de voix se sont élevées pour réclamer une modification de cette immunité, de manière à forcer les plateformes à modérer de manière agressive.

Les exemples qui sont donnés par les partisans du DSA sont des lois qui ont été adoptées par les Allemands, les Britanniques ou par le projet de loi Avia de 2020 en France qui a été censuré. C’est toujours la même logique: le monde a changé, Internet a pris une place croissante et décisive dans la vie politique des différents États via les réseaux sociaux. C’est très bien quand il s’agit des Printemps arabes et de Black Lives Matter, mais c’est très mauvais quand ça appelle à la révolte contre son propre gouvernement. L’exemple qui est cité, évidemment, ce sont les prétendues émeutes du Capitole suite à l’élection de Joe Biden ou la désinformation sur le Covid. Sur ces questions, le législateur européen est vraiment le plus agressif.

Les législateurs aux États-Unis ou en Europe, au niveau national ou au niveau de l’Union européenne, ont décidé de remettre en cause cette immunité mais sous conditions. C’est-à-dire que les hébergeurs, les plateformes, les réseaux sociaux, bénéficient toujours de l’immunité à condition de promptement retirer les contenus illicites. Ce retrait peut être effectué soit par une demande de l’autorité administrative – en Europe, ce sera la Commission européenne, soit par d’autres agences déléguées au niveau national. Il peut aussi être fait sur la base de signalements par des utilisateurs, mais de manière générale, l’Union européenne va déléguer aux plateformes la charge de surveiller les contenus qui sont postés et de retirer promptement tous les contenus illicites. Et ça, c’est un peu le nœud du problème.

Pourquoi cela pose-t-il problème ?

La question qu’il faut poser, c’est : ‘Qui définit ce qu’est un contenu licite ?’ Est-ce qu’on a des éléments de réponse sur ce critère ? Il faut revenir sur l’historique de cette notion de ‘contenus illicites’. C’est vraiment le terme le plus flou et le plus vaste, qui va englober aussi bien l’antisémitisme, la xénophobie, le racisme, le négationnisme qui sont déjà punis par la loi dans la plupart des États, que différents autres types de discours.

Un contenu illicite est vraiment l’appellation la plus générale qu’ils ont pu trouver, précisément pour ne pas donner une définition précise et ne pas restreindre les options. Il y a dans ces contenus illicites, des discours définis comme illégaux par rapport aux lois des différents pays – en France par exemple, nous avons la loi sur la liberté de la presse et ses différentes actualisations, le code pénal, etc., mais il y a aussi des discours qui sont considérés illégaux sur la base de normes d’origine privée, c’est-à-dire sur la base des conditions générales d’utilisation que, par exemple, YouTube appelle les standards de la communauté – c’est-à-dire une réglementation fabriquée par une entreprise privée.

En réalité, non seulement l’Union européenne délègue aux plateformes la mise en œuvre de la censure, l’exécution des actes de blocage, le retrait des contenus, la suspension des comptes, etc. mais elle donne aussi à ces plateformes la responsabilité de définir ce qui est illicite. C’est ça qui est scandaleux. Je vais invoquer la Déclaration des droits de l’homme et du citoyen de 1789, le principe de la liberté correspond à tout ce qui n’est pas interdit. Et là, finalement, on vient renverser ce principe parce que le DSA vient de créer un cadre qui favorise, qui incite les plateformes à l’excès de censure. Au départ, la réglementation de la liberté d’expression impliquait qu’elle ne peut pas être sans limite, qu’il fallait quand même qu’il y ait des limites. Dans la loi Égalité et citoyenneté de 2017 en France, qu’est ce qu’on a interdit ? On a interdit la négation de l’Holocauste. On a interdit la provocation à la haine, à la haine raciale. Il y a tout un tas d’interdictions qui sont définies par des textes précis et qui ont des définitions légales avec des critères.

Sauf que pour le contenu illicite, il n’y a plus de critères, il n’y a plus de limite. Et en réalité, la limite, c’est celui qui met en œuvre le dispositif de blocage et de retrait qui décide ce qu’elle est. Donc, on va confier aux services de modération des différentes plateformes – qui sont constitués de modérateurs humains payés au clic, travaillant dans des conditions horribles, des travailleurs sans aucune formation juridique qui peuvent être externalisés dans des centres à l’étranger, dans des pays avec des bas salaires et qui vont passer en moyenne dix secondes sur une image ou sur un post, on va confier à ces services de modération le soin d’évaluer si un contenu est illicite ou pas.

On ne va pas me faire croire qu’on est face à un système qui ne va pas provoquer une réduction de la liberté d’expression. Au contraire, on a mis en place une incitation à la censure la plus stricte de tous les propos tenus sur Internet. Pourquoi? Parce que si la plateforme laisse passer un contenu illicite, elle s’expose à des sanctions administratives. On ne passe même pas par le juge, c’est la Commission européenne qui, de son propre chef, peut imposer une amende à caractère administratif. Et cette amende peut s’élever jusqu’à 6 % du chiffre d’affaires mondial.

Donc évidemment pour une plateforme, elle a davantage intérêt à commettre une erreur en censurant un propos qui en général ne posait pas de problème plutôt que de risquer une amende. Ce propos aurait pu être validé par un juge si l’affaire était portée devant un tribunal, mais là justement, l’objectif affiché par le DSA, c’est que compte tenu de la massification des contenus sur Internet, on ne peut plus avoir recours à l’instrument judiciaire.

En fait, ils ont perdu tout espoir dans le fait de régler les choses avec les outils classiques de la démocratie libérale, c’est-à-dire par le juge. Le juge ne doit plus être en position de prendre la décision, c’est l’opérateur privé lui-même. Et cet opérateur privé va s’appuyer sur des travailleurs payés au lance pierre et qui ont des objectifs de rentabilité en ne passant pas plus de x secondes sur chaque contenu. Ce n’est même plus de la justice à la chaîne, ce n’est plus une parodie de justice, on est sur de l’abattage qui va provoquer un excès de censure, et c’est le but.

Qu’est-ce que cela dit de l’état de nos libertés ?

La perte de souveraineté de la France du fait de ce règlement européen dit des choses gravissimes du point de vue de notre fonctionnement démocratique. Il faut se souvenir des raisons de la censure de la loi Avia par le Conseil constitutionnel en juin 2020. Qu’avait dit le Conseil constitutionnel? Il y avait deux mécanismes : le blocage et l’incitation. La loi Avia prévoyait comme le DSA, l’obligation pour les plateformes de retirer les contenus illicites. La loi Avia voulait faire passer le délai de 24 h à 1 h. Les plateformes avaient 1h sous réquisition de l’administration de retirer les contenus que l’administration considéraient comme illicites. Et en cas de signalement par un utilisateur, la plateforme avait 24 h pour retirer le contenu sous peine de sanction. La loi voulait porter la sanction à 250.000 € d’amende et à 1 an d’emprisonnement. Le Conseil constitutionnel a considéré que la loi Avia portait une atteinte disproportionnée à la liberté d’expression, une incitation qui allait créer un mécanisme poussant les plateformes retirer de façon excessive les contenus. C’est pourquoi le Conseil constitutionnel l’a censuré en 2020.

Ce qui était sorti par la porte en 2020 est en train de revenir par la fenêtre de l’Union européenne en 2024, avec le même objectif d’incitation à une censure excessive, assumée finalement par le législateur européen. Pourquoi ? Parce qu’on vit dans un monde moderne, avec des contenus qui sont postés en masse et l’État n’a pas les moyens de s’en occuper. Donc, puisque l’État n’a plus les moyens de s’en occuper, vous n’avez plus le droit aux juges. Et pour la plateforme, soit elle entre en conflit avec la Commission européenne qui peut, si elle résiste, lui infliger une amende de 6 % de son chiffre d’affaires mondial, soit elle censure un post, un commentaire, une image et encourt la plainte de ‘Monsieur tout le monde’ en cas de censure. Celui-ci éventuellement peut saisir un juge national pour demander si la décision de blocage ou de retrait du contenu était licite.

Mais ce nouveau règlement européen procède à une harmonisation complète, cela veut dire que le juge national n’a aucun pouvoir d’appréciation et ne peut pas se baser sur sa propre législation nationale pour décider de la légalité des actions des plateformes. Ça veut dire que le juge national, même s’il est saisi par quelques personnes courageuses qui décideront de se battre et qui auront les moyens d’embaucher un avocat, le juge national, son seul pouvoir sera d’observer si le comportement de la plateforme est conforme à ce qui est prescrit par le règlement du DSA. Il ne peut pas se baser sur sa loi nationale ou sur d’autres textes de loi, il ne peut que se baser sur le nouveau règlement du DSA. Et donc évidemment, la défense de la plateforme sera très simple, elle dira : “Moi, j’ai pensé que votre contenu était illicite et donc j’ai exécuté ce qui était prévu par ce règlement’. Et le juge dira : “Oui, il n’y a pas de problème, circulez, il n’y a rien à voir.” Donc, c’est vraiment un dispositif qui est fait pour priver les citoyens de tout recours en termes de liberté d’expression.

Le gouvernement n’est-il pas là pour défendre la liberté d’expression ?

Le fait que la définition des contenus illicites et la mise en œuvre des restrictions sont externalisées vers des entreprises privées, on pourrait dire finalement que le gouvernement se lave les mains de la question de la liberté d’expression. Il ne veut pas y toucher. Tout ça devient finalement une question qui va se régler entre les plateformes et les utilisateurs, mais en fait, c’est beaucoup plus grave que ça. Les agences administratives de l’État doivent être indépendantes du pouvoir politique, car elles ne sont pas élues et ne répondent pas devant le peuple.

Mais ces agences administratives gouvernementales comme l’Union européenne ont le pouvoir d’ordonner des réquisitions, de notifier des contenus et de demander leur retrait immédiat. Elles ont créé une nouvelle caste de commissaires politiques, appelés des ‘signaleurs de confiance’. Chaque État va désigner une liste d’organisations gouvernementales et non-gouvernementales qui pourront être proches du gouvernement et qui deviendront des signaleurs de confiance dans la lutte contre le racisme, etc. Lorsque ces signaleurs notifient à la plateforme qu’un contenu est problématique selon eux, il faudra qu’il y ait une action prompte et une exécution rapide avec des mesures de blocage.

Mais ce n’est pas le pire. Le DSA prévoit un protocole spécial en cas de crise, en se basant sur l’épidémie de Covid. Il faut lire l’exposé des motifs de blocage, cela est expliqué de long en large. L’expérience du Covid leur a montré que les risques de désinformation étaient très graves, parce qu’il y a des méchants complotistes sur Internet qui racontent des choses qui ne seront confirmées que six mois plus tard, mais qui sont de la désinformation au moment où ils le disent.

Donc, en cas de protocole de crise, il y aura des obligations renforcées. Il est dit expressément qu’en cas de crise, lorsque les gouvernements vont déclarer que ceci ou cela est une crise, ces plateformes devront diffuser un ‘discours responsable’ qui convient aux gouvernements. C’est vraiment ridicule. On a des opérateurs privés, qui en réalité sont très étroitement liés et enchaînés au pouvoir politique – qui utilise une marionnette plutôt que d’utiliser les outils juridiques normaux, c’est-à-dire sa police et ses juges pour constater des infractions et les faire juger. Là, la logique qui est adoptée, c’est une logique qui est totalement antilibérale, c’est une logique de censure. Mais il est dit que c’est une ‘logique de responsabilité’. C’est une des grandes arnaques de ce DSA parce qu’il utilise le mot ‘responsabilité’, ‘responsabilité’, ‘responsabilité’, etc. On vient établir la ‘responsabilité’, le ‘discours responsable’ sur les réseaux sociaux. Mais ce n’est pas une logique de responsabilité.

La responsabilité, c’est que vous êtes responsable de vos actes. Vous êtes responsables de ce que vous avez fait. Là, la logique adoptée c’est une logique de censure, c’est-à-dire qu’on veut empêcher en amont une personne de se rendre coupable d’une éventuelle infraction. Le but n’est pas de rechercher tel auteur de telle publication raciste ou appelant à la violence contre untel ou untel pour ensuite le traduire devant un tribunal et lui infliger la peine requise. Cela est déjà possible en l’état actuel de notre droit, il n’y a pas de vide législatif. Si ce n’est pas permis, ce n’est pas permis, mais vous avez la garantie et le droit d’être jugé. Ça, c’est une logique de responsabilité, une responsabilité pénale dans une logique libérale.

Mais, c’est ce qu’on est en train de jeter par la fenêtre avec cette sorte de tentation tyrannique. Et c’est peut être cette nouvelle façon de gouverner que l’on veut obtenir: la censure préventive. On veut empêcher que les personnes puissent communiquer des informations qui déplaisent aux gouvernements, qui déplaisent à l’opinion dominante. C’est une négation complète de 250 ans d’histoire juridique et de 250 ans de compréhension des droits fondamentaux, droits fondamentaux parmi lesquels la liberté d’expression, considérée comme étant le droit fondamental le plus basique, la clé de voûte de tout l’édifice.

Parce que vous ne pouvez pas avoir de démocratie – où le principe de base est de discuter, de résoudre les conflits de société par le débat et par des mécanismes politiques non violents – vous ne pouvez pas avoir de discussion si certaines opinions sont interdites a priori. Ça n’a aucun sens, je ne peux pas m’empêcher de penser qu’on est face à une évolution extrêmement inquiétante des systèmes politiques occidentaux. Parce que ce qui se passe en Europe se passe aussi aux États-unis. Le modèle qui est en train d’être mis en place ressemble plus au modèle chinois, qu’à aucun autre modèle libéral traditionnel.

Quand vous parlez d’une armée de petits bras payés au clic, on pense tout de suite à l’armée des 50 centimes du gouvernement chinois…

On est exactement dans le même prisme, la seule différence c’est qu’en apparence, il y a une indépendance entre les gouvernements et les opérateurs privés. Les gouvernements disent : ‘Nous, on ne fait pas de censure. Nous, on n’a pas embauché des armées de fonctionnaires qui vont espionner, lire et évaluer les informations. Ça ne nous regarde pas. Nous, on n’a rien fait, on n’y est pour rien.’ Mais simplement, ils ont forcé par la menace de sanctions pécuniaires extrêmement lourdes, des entreprises privées.

Twitter s’était engagé, suite au rachat de Elon Musk, à se battre pour la liberté d’expression, pour une vision libertarienne de la liberté d’expression. Eh bien non ! Que nous a dit le commissaire européen? ‘Non, non, non, le petit oiseau bleu va respecter les lois européennes !’ Et que disent les lois européennes ? C’est que Twitter doit censurer les messages que les gouvernements européens ne veulent pas laisser passer, tout ça au nom du bien, du progrès et de la responsabilité. ‘Ce n’est pas tyrannique parce que vous comprenez, nous on fait ça pour le bien, donc ce n’est pas pareil.’

C’est un piratage incroyable de nos libertés…

Propos recueillis par David Vives

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.