Loi sur l’intelligence artificielle : « Notre civilisation est au seuil d’un basculement »

Par David Vives
8 juin 2023 15:45 Mis à jour: 13 novembre 2023 18:06

Le Conseil constitutionnel a validé le 17 mai le contenu de la loi relative aux Jeux olympiques, ce malgré une non-conformité avec le projet de loi européenne Artificial Intelligence Act toujours en examen au Parlement et la levée de bouclier de 38 défenseurs du droit dont la CNIL, la Quadrature du Net ou encore Amnesty International, qui dénoncent une loi dangereuse.

Marc Gotti, juriste, décrypte pour Epoch Times certaines dispositions de ce nouveau texte et des problèmes qu’il pose.

Epoch Times : La nouvelle loi relative aux Jeux olympiques pose les jalons d’une nouvelle surveillance algorithmique. De quoi parle-t-on exactement ?

Marc Gotti : Cette expression réunit trois technologies principales déjà utilisées depuis plusieurs années. Vous avez, d’une part, la vidéosurveillance qui est la captation des images; vous avez ensuite la reconnaissance faciale qui procède à l’identification; et enfin l’intelligence artificielle qui est le traitement des données primaires. Donc, on peut déjà partir d’un principe simple : cette combinaison apporte à la fois les avantages et les dangers de ces trois technologies individuellement et y ajoute de nouveaux paramètres et questionnements éthiques, philosophiques et bien sûr juridiques.

Alors, comment cela fonctionne? On pourrait qualifier ce système de chaîne de traitement de données automatisé. Les caméras, qui sont de la meilleure résolution possible, ont la capacité de capter et d’enregistrer une image globale d’une scène composée d’individus ou de véhicules, par exemple, voire d’un flux de déplacement ou d’un regroupement. Nous avons tous déjà vu sur nos propres téléphones la capacité d’un logiciel à reconnaître l’emplacement d’un visage. Je précise « logiciel » car c’est un élément important dans la compréhension du système. Les caméras ne sont qu’un outil de captation. Ce sont des logiciels derrière qui traitent l’image. Un flux vidéo peut être traité de différentes manières par des logiciels différents et à différents endroits.

En termes de reconnaissance faciale, il s’agit d’une analyse biométrique et comportementale. On peut analyser l’identité d’une personne à ses postures et à ses gestes. Le logiciel repère un certain nombre de points de correspondance pour définir l’identité d’une personne d’un point de vue biométrique. Il faut alors que le logiciel puisse comparer cette analyse avec une base de données.

Après l’identification, une autre tâche doit être accomplie par le logiciel de traitement de données : l’analyse du comportement du sujet. On sait que depuis longtemps les entreprises de sécurité travaillent sur des logiciels capables de détecter un objet posé à terre par un individu, par exemple un comportement agressif ou suspect, un mouvement de foule ou un attroupement, etc…

Des associations dénoncent des possibilités de dérives et d’abus qu’ouvrent ces nouveaux dispositifs. Quels sont les motifs d’inquiétudes ?

Cela pose beaucoup de questions de sécurité et de problématiques juridiques, jusqu’au respect de la vie privée qui court un danger de plus en plus important depuis les derniers progrès technologiques accomplis. Bien sûr, il y a de nombreux avantages comme le fait de pouvoir anticiper un grand nombre d’actes mal intentionnés.

Mais quelles seront les bases de données utilisées par les autorités ? Ceux qui des personnes fichées S ou non-fichées S? Les bases de données médicales ? Tout à la fois ? En couplant l’analyse biométrique et l’identification, les possibilités d’abus sont augmentées de façon exponentielle.

Dans notre pays, la liberté de circuler devrait être la norme. À présent, suivre un opposant politique devient aisé. On voit que dans le contexte actuel, les autorités ont pris l’habitude d’anticiper et d’empêcher les regroupements de personnes. Cela sera d’autant plus facile avec ce nouveau système. Le motif  « Attroupements en vue de commettre des violences » est déjà répandu et très usité par les forces de l’ordre.

Ainsi il y a fort à parier qu’un tel système ne pourra que conduire à l’arrestation systématique d’un grand nombre de personnes faisant malheureusement partie de la « mauvaise base de données ».

Les machines devront retenir un critère de surveillance, une discrimination parmi les personnes surveillées. Qui porte et assume la responsabilité du choix de ce critère ?  

Dans le contexte actuel, il faut noter que la plupart des actes effectués par le programme seraient illégaux s’ils étaient effectués par un être humain. Cet argument d’impunité de la machine a, d’ailleurs, déjà été employé par les logiciels permettant de vous envoyer de la publicité orientée et donc d’espionner et écouter vos échanges. À citer aussi que ce dispositif va démultiplier les éléments « intentionnels » et provoquer des interventions dites préventives. Les autorités interviendront et pourront restreindre quasi immédiatement la liberté des individus avant même un fait ou un acte condamnable.

De plus, les agents seront conditionnés aux alertes prévues par le système. Ils sont non seulement déresponsabilisés de l’analyse du danger, mais en allant plus loin, la programmation du système de surveillance pourra dépendre d’une hiérarchie opaque et la raison même de l’alerte déclenchée par le système pourrait n’être que partielle. Donc, on frôle les pires dystopies littéraires. On se croirait dans la dystopie Minority Report où des policiers arrêtent des individus en prédisant leurs crimes.

Ça, c’est le cas extrême. Un individu ne serait pas autorisé à aller aussi loin dans l’analyse des comportements, dans le fait de faire des arrestations préventives. Il vous faut une décision de justice, il vous faut quelque chose qui intervienne dans l’ordre juridique, même si l’on parle plutôt de décisions du pouvoir réglementaire.

Ce qu’il faut bien comprendre, c’est que l’intervention humaine rentre dans des configurations juridiques qui sont déjà définies. Un individu par rapport à un autre individu ou des individus par rapport à d’autres groupes d’individus. Mais une machine a un champ d’action beaucoup plus large qui s’étend à tout ce que permettent les logiciels utilisés.

En comparaison, seuls des psychologues ou des experts pourraient identifier ou comprendre certains gestes ou postures dangereuses d’un individu, et encore sans pouvoir rendre une analyse instantanée. La machine, de son côté, exécutera rapidement toute une analyse, qui, de ce fait, permettra une capacité d’action beaucoup plus néfaste du point de vue de l’intrusion dans la vie privée des gens.

La régulation actuelle de l’Union européenne prévoit la non-rétention de données dans l’utilisation des systèmes de vidéosurveillance…

Oui, à tout cela s’ajoute toutes les prises en considération habituelles dans ce genre de système ultra-sécuritaire, dont le stockage et le traitement des données. Qui va le faire ? Où est-ce que cela sera situé ? Quel est le délai de conservation de ces données ? Qui pourra y avoir accès ? De nombreuses entreprises de technologie tirent déjà la sonnette d’alarme depuis longtemps. Comme la Quadrature du Net qui publie de nombreux articles sur ce sujet et mène des actions juridiques pour la protection des données personnelles. Il apparaît très clairement que le détournement d’un tel système laisse présager des abus et le bénéfice d’une technologie aussi intrusive ne semble pas, d’après ces structures, justifier son utilisation. Cela s’inscrit parfaitement dans la tendance ultra sécuritaire dans laquelle s’enfonce la France. Et si on analyse l’évolution du droit dans le numérique, la loi Hadopi, la loi AVIA et la loi de sécurité globale sont le fer de lance de l’actuel ministère de l’Intérieur et de bien d’autres lois liberticides.

Nous ne pouvons que constater qu’il y a une véritable boîte à outils juridico-numérique en cours de construction dont l’objectif non-admis est clairement plus de contrôles et des atteintes aux libertés individuelles de plus en plus graves.

Dans le texte voté par les députés en France, on a des formulations de la loi qui prévoient des dérogations et des expérimentations. L’encadrement sécuritaire des JO semble participer à une expérimentation de grande ampleur…

Oui, tout à fait. Il ne faut pas être crédule. On sait que dès que les États occidentaux ou d’autres États disposent de technologies telles que des systèmes d’écoutes ou de surveillance qui leur permettent de s’introduire dans la vie des citoyens, ils n’hésitent pas longtemps à les utiliser.

Le grand public ne le sait pas forcément, mais c’est un secret de polichinelle. Les gouvernements travaillent à la maîtrise des données individuelles depuis longtemps. Les services de renseignement possèdent déjà tout ce qu’ils veulent. Le règlement encadrant la protection des données personnelles, en anglais General Data Protection Regulation, c’est un peu pour amuser la galerie, cela donne une illusion de contrôle des données personnelles pour le public. Mais ce n’est qu’un théâtre, ils ont déjà tout. Donc c’est pour amuser la galerie.

La justification de la prévention d’actes terroristes est le principal motif de cette loi. Un député Renaissance a notamment évoqué durant les discussions parlementaires le fait que l’attentat de Nice aurait pu être évité avec l’utilisation de la surveillance biométrique. Faut-il retenir cette explication ?

La reconnaissance faciale a été expérimentée dans la ville de Nice, cela n’a pas empêché l’attentat sur la promenade des Anglais. Mais on peut citer des exemples amenés pendant la crise sanitaire. Dans la ville de Cannes, la Mairie s’est équipée d’un tel système pour verbaliser les résidents dérogeant au port du masque.

De plus, nous courons tout droit vers l’identité numérique, qui viendra sans nul doute nourrir cette chaîne de traitement de données. Ce n’est pas une idée folle de dire qu’il n’y a désormais qu’un pas vers le crédit social à la chinoise. La tendance de ces démarches est souvent de renforcer la discrimination en augmentant d’abord et avant tout le contrôle sur les populations déjà sur-contrôlées.

Et pour finir le tableau, il n’existe pas de logiciels ou de systèmes informatiques sans bugs ou dysfonctionnements plus ou moins fréquents, surtout dans ses premières applications. Mais quelles peuvent être les conséquences d’un tel dysfonctionnement? C’est exactement ce genre de questions encore trop peu traitées, qui poussent de grands noms de la Tech comme Elon Musk, Stephen Wozniak et quelques autres à appeler à un moratoire sur les recherches concernant l’intelligence artificielle. Nous voyons nettement qu’aujourd’hui, en dépit du bon sens, l’emploi coûte que coûte de nouvelles technologies non-suffisamment appréhendées peut nous impacter très négativement. D’un point de vue juridique, certainement, et d’un point de vue humain, avec certitude.

La loi ou les juges sont-ils impuissants à défendre les citoyens contre ces atteintes ?

Lorsqu’une technologie arrive et que la loi autorise, il faut voir les modalités d’exécution de ces nouvelles technologies utilisées par les forces de l’ordre. On a l’impression que les problèmes vont arriver sur la table dès les premières utilisations. C’est à ce moment que l’on mettra sur la table tous les problèmes que cela pose au niveau des libertés et au niveau purement juridique. C’est le problème qu’on a, souvent le droit a un temps de retard sur les domaines de l’innovation technologique.

Une nouvelle technologie arrive, dans la foulée les députés votent un texte et puis ça rentre dans le code – code civil ou autre. Ensuite arrivent les problèmes de cas concrets, pragmatiques. Le litige est là et on se rend compte qu’on a peut être pas fait les choses correctement dès le départ.

Avec les mises en place futures de l’identité numérique, d’un euro numérique, faut-il craindre l’avènement d’une société et d’un droit progressivement soumis aux innovations technologiques ?

Je pense que sur ce point précis, notre civilisation est clairement à un seuil de basculement. L’Occident s’est développé sur la notion des droits de l’homme et des libertés individuelles, sur des systèmes juridiques et politiques qui se sont développés depuis plusieurs centaines d’années après la révolution de 1789. Et là, on est clairement dans l’intrusion autorisée, généralisée dans la vie des gens avec ces nouvelles technologies. Que ce soit l’identité numérique, le pass sanitaire vaccinal, le pass carbone, les monnaies numériques, etc. bref, tout ceci forme en fait un environnement qui va à l’encontre de notre construction civilisationnelle.

Nous vivons actuellement un changement de paradigme et c’est également pour cela que vous avez énormément de résistance parmi la population. Certaines personnes s’éveillent à ce genre de problématique et comprennent que bien au-delà du simple droit, bien au-delà même du concept juridique, c’est toute une notion philosophique fondamentale et civilisationnelle qui est complètement remise en cause. Et c’est pour cela qu’il y a des frictions qui, à mon avis, vont devenir de plus en plus violentes.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.