Vidéosurveillance algorithmique pendant les JO de Paris 2024: un basculement technologico-politique?

Par Julian Herrero
13 octobre 2023 19:09 Mis à jour: 15 avril 2024 12:53

Grâce à la loi relative aux Jeux olympiques de Paris 2024, la nouvelle technologie de vidéosurveillance algorithmique va être pour la première fois expérimentée à l’occasion de l’évènement sportif. Cet outil, capable de détecter des « comportements suspects », sera encadré par quelques garde-fous, comme l’a assuré le gouvernement. Mais cette technologie controversée n’annonce-t-elle pas un basculement technologico-politique ?

L’expérimentation pendant les Jeux olympiques

En avril dernier, la loi relative aux Jeux olympiques et paralympiques de 2024 était adoptée. Cette loi, comme l’indique le site de l’État viepublique.fr, « prévoit plusieurs dispositifs pour assurer le bon déroulement des Jeux olympiques de 2024 en matière de sécurité, de soins, de lutte antidopage ou de transports ». Parmi les dispositifs de sécurité prévus, on trouve les traditionnels scanners corporels, mais également un outil plus récent, la vidéosurveillance algorithmique, aussi appelée vidéoprotection intelligente.

La nouvelle loi permet cette expérimentation pendant l’évènement et jusqu’en mars 2025. Toujours selon viepublique.fr, cette technologie consiste à utiliser l’intelligence artificielle par le biais de « caméras augmentées qui seront capables de détecter en temps réel des évènements prédéterminés (comme des mouvements de foules, un sac abandonné ou des comportements suspects) dans des lieux accueillant des manifestations, à leurs abords et dans les transports en commun ».   

Des « garde-fous » pour mieux encadrer 

Cette volonté de vouloir expérimenter la vidéosurveillance algorithmique pendant les JO avait suscité quelques inquiétudes chez une certaine partie de la classe politique. Lors de l’examen du projet de loi aux JO à la chambre haute en janvier dernier, certains sénateurs avaient dénoncé un « changement dangereux » pour les libertés publiques.

Selon des propos rapportés par Public Sénat, le sénateur écologiste Thomas Dossus avait craint « un grand saut dans la société de surveillance ». « La surveillance à la chinoise, ce n’est vraiment pas notre tasse de thé. Et si on met le doigt dedans, on ne sait pas où on s’arrête », avait même dénoncé le parlementaire communiste Pierre Ouzoulias.

De son côté, le gouvernement par la voix de Gérald Darmanin s’est voulu rassurant et a garanti que les caméras ne pourront utiliser ni la reconnaissance faciale, ni un système d’identification biométrique et que les données seront supprimées après 12 mois.

Mais le Sénat avait tout de même avant l’adoption du texte apporté des modifications pour renforcer l’encadrement de l’expérimentation de la vidéoprotection intelligente. Les sénateurs ont notamment adopté des amendements permettant de renforcer le contrôle de la Cnil durant la phase d’élaboration de l’algorithme.

Un basculement technologico-politique ?

Même si le gouvernement et le Sénat ont encadré l’expérimentation de la vidéosurveillance algorithmique avec des garde-fous, le problème demeure. Cet outil constitue un vrai danger pour les libertés publiques. La sémantique utilisée pour décrire cette technologie le démontre. On parle de caméras ultra perfectionnées avec de l’intelligence artificielle capable de détecter des « comportements suspects ».

Mais qu’est-ce qu’un comportement suspect ? La notion reste floue et indéfinie. Et pour la machine, tout pourrait être analysé comme étant une attitude douteuse. Que se passera-t-il si dans une file d’attente pour assister à une épreuve des JO, un spectateur se met à bouger dans tous les sens par simple excitation ou joie ? Peut-il être arrêté par les services de sécurité quelques instants plus tard ? Là encore, la loi relative aux jeux Olympiques n’est pas claire.

« Cette nouvelle forme de surveillance est très inquiétante puisqu’il s’agit d’une surveillance constante biométrique », confie un représentant de l’association de défense et de promotion des droits et libertés La Quadrature du Net contacté par Epoch Times. « Même s’il n’y a pas de reconnaissance faciale, il y a de l’analyse des corps en continu, ce qui est totalement disproportionné en démocratie », a-t-il également ajouté.

Dans une démocratie comme la France, l’emploi de ce genre de nouvelle technologie n’est pas anodin. Il y a comme un basculement technologico-politique. Un basculement dans lequel se confondent sécurité et surveillance. La référence au personnage imaginé par Orwell dans les années 1980 prend ainsi tout son sens. Big Brother est là. Il s’agit non pas de protéger, mais bien de surveiller. La finalité n’est plus la sécurité ou la protection, mais la surveillance de la population.

Ce basculement technologico-politique est aussi celui dans lequel la machine devient l’acteur politique majeur et l’humain est relégué à une fonction secondaire. Il ne prend plus les grandes décisions et risque à terme de se mettre au service de la machine. Nos pires cauchemars imaginés au XXe siècle par les maîtres de la science-fiction sont en train de se réaliser aujourd’hui. L’enjeu n’est peut-être plus seulement celui de la préservation de nos libertés et de la Liberté, mais celui de sauver l’humanité.

Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles d’Epoch Times.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.