10 façons dont la haute technologie peut changer des millions de votes aux élections de novembre aux États-Unis – sans que personne ne le sache

Un chercheur renommé décrit 10 façons dont Google, Facebook et d'autres entreprises pourraient influencer des millions de votes à mi-parcours aux États-Unis

Par ROBERT EPSTEIN

Les autorités britanniques ont finalement compris que les infox (nouveau terme français pour « fake news ») sur la propagande au nom des russes ne sont pas le vrai problème. Le Parlement britannique est sur le point d’imposer des sanctions sévères, non pas à ceux qui publient ou écrivent les articles, mais aux plateformes de Big Tech (Big Tech est un groupe formé des quatre grandes compagnies de haute technologie Apple, Facebook, Amazon et Alphabet inc.), qui sont ceux qui déterminent quelles publicités et quels articles les gens verront vraiment.

Les plans du Parlement seront presque certainement stimulés par la dernière fuite de matériel accablant provenant de l’intérieur de la forteresse secrète de Google : le Wall Street Journal a récemment publié un article sur les courriels échangés entre les employés de Google en janvier 2017, dans lequel ils expliquaient comment modifier les résultats de recherche Google et d’autres « expériences éphémères » pour contrer la nouvelle interdiction de voyager imposée par le président Donald Trump. L’entreprise prétend qu’aucun de ces plans n’a jamais été mis en œuvre, mais qui sait ?

Alors que les autorités américaines n’ont fait que tenir des auditions, les autorités de l’Union européenne ont pris des mesures drastiques ces dernières années pour limiter les pouvoirs de Big Tech, la dernière fois avec une loi exhaustive qui protège la vie privée des utilisateurs – le Règlement général sur la protection des données (RGPD, ou GDPR en anglais) – et une énorme amende de 4,4 milliards € contre Google pour pratiques monopolistiques sur le marché des appareils mobiles. L’année dernière, l’UE a également imposé une amende de 2,33 milliards € à Google pour avoir filtré et commandé des résultats de recherche d’une manière qui favorisait ses propres produits et services. Il s’avère que le filtrage et l’ordonnancement sont d’une importance cruciale.

Comme l’ont montré les années de recherches que j’ai menées sur l’influence en ligne, le contenu en soi n’est pas la vraie menace de nos jours ; ce qui compte vraiment, c’est (a) quel contenu est sélectionné pour que les utilisateurs puissent le voir, et (b) la façon dont le contenu est ordonné dans les résultats de recherche, les suggestions de recherche, les fils de nouvelles, les fils de messages, les listes de commentaires et autres. C’est là que réside le pouvoir de changer les opinions, d’acheter et de voter, et ce pouvoir est détenu par un nombre dérangeant de personnes.

Je dis « de nos jours » parce que la croissance explosive d’une poignée de plates-formes massives sur Internet – la plus grande, de loin, étant Google et la suivante, Facebook – a tout changé. Des millions de personnes et d’organisations essaient constamment de mettre leur contenu sous nos yeux, mais pour plus de 2,5 milliards de personnes dans le monde – bientôt plus de 4 milliards – les algorithmes de Google et de Facebook déterminent quel contenu sera vu et où il apparaîtra dans diverses listes.

Dans le cadre d’études randomisées, contrôlées et examinées par des pairs que j’ai menées auprès de milliers de personnes, j’ai montré à maintes reprises que lorsque les gens sont indécis, je peux modifier leur opinion sur à peu près n’importe quel sujet en modifiant simplement la façon dont je filtre et classe l’information que je leur montre. J’ai également montré que lorsque, dans des recherches multiples, je montre aux gens de plus en plus d’informations qui favorisent un candidat, je peux amener leur avis à s’éloigner encore plus vers la direction visée. Ce qui est encore plus troublant, c’est que je peux faire ces choses de façon totalement invisible pour les gens et sans laisser de traces écrites aux autorités.

Pire encore, ces nouvelles formes d’influence s’appuient souvent sur un contenu éphémère : des informations générées à la volée par un algorithme et qui disparaissent ensuite à jamais, ce qui signifie qu’il serait difficile, voire impossible, pour les autorités de les reconstituer. Si, le jour des élections en novembre prochain, Mark Zuckerberg décide de diffuser des rappels de vote principalement aux membres d’un parti politique particulier, comment pourrions-nous détecter une telle manipulation ? Si nous ne pouvons pas le détecter, comment pourrions-nous réduire son impact ? Et comment, quelques jours ou quelques semaines plus tard, pourrions-nous revenir en arrière pour voir ce qui s’est passé ?

Bien sûr, des entreprises comme Google et Facebook rejettent catégoriquement l’idée que leurs algorithmes de recherche et d’alimentation en nouvelles soient modifiés d’une manière qui pourrait interférer dans les élections. Selon les porte-parole, cela minerait la confiance du public à l’égard de leur entreprise. Ils persistent à affirmer que leurs algorithmes soient compliqués, en constante évolution, et soumis à l’activité « organique » des utilisateurs.

Ce n’est, bien sûr, aucunement crédible. Google peut ajuster ses algorithmes pour favoriser n’importe quel candidat de son choix, quelle que soit l’activité des utilisateurs, aussi facilement que je le fais dans mes expériences. Comme l’a noté le juriste Frank Pasquale dans son récent livre en version française Black Box Society : Les algorithmes secrets qui contrôlent l’économie et l’information (v.f.), blâmer les algorithmes ne suffit pas ; la responsabilité de ce que fait un algorithme devrait toujours incomber aux personnes qui ont écrit l’algorithme et aux entreprises qui l’ont déployé. Alan Murray, président de la revue anglophone Fortune, a récemment défini les normes très clairement : « Règle numéro un à l’ère de l’IA : les humains restent responsables des décisions, même lorsqu’elles sont prises par des machines. »

Étant donné que 95 pour cent des dons de la Silicon Valley vont généralement aux démocrates, il est difficile d’imaginer que les algorithmes d’entreprises comme Facebook et Google ne privilégient pas leurs candidats favoris. Une vidéo nouvellement dévoilée d’une réunion de 2016 à Google qui a fait l’objet d’une fuite montre sans l’ombre d’un doute que les dirigeants de haut rang de Google partagent une préférence politique forte, qui pourrait facilement s’exprimer par des algorithmes. Le favoritisme peut être délibérément programmé ou se produire simplement à cause d’un biais inconscient. Dans les deux cas, les votes et les opinions changent.

Il est également difficile d’imaginer comment, dans n’importe quelle élection dans le monde, avec ou sans intention de la part des employés de l’entreprise, les résultats de recherche Google ne parviendraient pas à pencher vers un candidat. L’algorithme de recherche de Google ne comporte certainement pas de règle d’égalité de temps ; nous ne le voudrions pas ! Nous voulons qu’il nous dise ce qu’il y a de mieux, et l’algorithme favorisera toujours une nourriture pour chiens plutôt qu’une autre, un service de musique plutôt qu’un autre et un candidat politique plutôt qu’un autre. Quand ce dernier se produit… les votes et les opinions changent.

Voici 10 façons – dont 7 que j’étudie et quantifie activement – que Big Tech pourrait utiliser pour trafiquer des millions de votes en novembre prochain sans que personne n’en soit avisé. Espérons, bien sûr, que ces méthodes ne soient pas utilisées et ne le soient jamais, mais soyons réalistes aussi ; il n’y a généralement aucune limite à ce que les gens feront quand l’argent et le pouvoir sont en jeu.

1. L’effet de manipulation qu’ont les moteurs de recherche (SEME)

Les recherches que j’ai commencées en janvier 2013 ont montré à maintes reprises que lorsqu’un candidat est favorisé par rapport à un autre dans les résultats de recherche, les préférences de vote des électeurs indécis changent radicalement – de 20 % ou plus dans l’ensemble, et jusqu’à 80 % dans certains groupes démographiques. C’est en partie parce que les gens ont une confiance démesurée dans les résultats générés par les algorithmes, pensant, à tort, que les algorithmes sont intrinsèquement objectifs et impartiaux.

Mais mes recherches suggèrent également que nous sommes conditionnés à croire aux résultats de recherche de haut niveau de la même manière que les rats sont conditionnés à presser des leviers dans les boîtes de Skinner. Parce que la plupart des recherches portent sur des faits simples (« Quand Donald Trump est-il né ? »), et parce que les bonnes réponses à des questions simples apparaissent inévitablement en première position, cela nous porte à croire, jour après jour, que plus un résultat de recherche apparaît haut dans la liste, plus il doit être vrai. Lorsque nous cherchons enfin de l’information pour nous aider à prendre une décision difficile (« Qui est le meilleur pour l’économie, Trump ou Clinton ? »), nous avons tendance à croire l’information sur les pages Web auxquelles les résultats de recherche de haut rang renvoient.

Comme l’a rapporté le Washington Post l’an dernier, en 2016, j’ai dirigé une équipe qui a mis au point un système de surveillance des résultats de recherche liés aux élections que Google, Bing et Yahoo montraient aux utilisateurs dans les mois précédant l’élection présidentielle, et j’ai trouvé un biais pro-Clinton dans les 10 positions de recherche sur la première page des résultats de Google. Google a répondu, comme d’habitude, qu’il n’avait « jamais reclassé les résultats de recherche sur quelque sujet que ce soit (y compris les élections) pour manipuler les sentiments politiques » – mais je ne l’ai pourtant jamais « prétendu » : j’ai trouvé ce que j’ai trouvé, à savoir que les résultats de recherche de Google favorisaient Hillary Clinton ; le reclassement (re-ranking) – un terme flou que Google semble avoir inventé pour embrouiller les gens – n’est pas pertinent.

Parce que (a) de nombreuses élections sont très serrées, (b) 90 % des recherches en ligne dans la plupart des pays sont effectuées sur un seul moteur de recherche (Google), et (c) la pénétration d’Internet est très répandue dans la plupart des pays de nos jours – il est possible que les résultats de plus de 25 % des élections nationales mondiales soient maintenant déterminés par l’algorithme de recherche Google, même sans manipulation intentionnelle de la part des employés des compagnies. Parce que, comme je l’ai déjà dit, l’algorithme de recherche de Google n’est pas limité par des règles d’égalité de temps, il finit presque certainement par favoriser un candidat plutôt qu’un autre dans la plupart des courses électorales, et cela change les opinions et les votes.

2. Les effets des suggestions de recherche

Lorsque Google a introduit pour la première fois les suggestions de recherche – ces courtes listes qu’il vous est possible de sélectionner lorsque vous commencez à taper un élément dans la barre de recherche Google -, c’était censé vous faire gagner du temps. Quelle que soit la raison d’être initiale, ces suggestions se sont rapidement transformées en un puissant moyen de manipulation que Google semble utiliser avec beaucoup de vigueur.

Mes recherches récentes suggèrent que (a) Google commence à manipuler vos opinions dès le premier caractère que vous tapez, et (b) en manipulant les suggestions qu’il vous montre, Google peut transformer un partage 50-50 parmi les électeurs indécis en un partage 90-10 sans que personne ne le sache. J’appelle cette manipulation l’effet de suggestion de recherche, et c’est l’une des manipulations comportementales les plus puissantes que j’aie jamais vues en près de 40 ans en tant que spécialiste du comportement.

Comment saurez-vous si Google s’immisce dans vos suggestions de recherches liées aux élections dans les semaines précédant l’élection ? Vous ne le saurez pas.

3. Effet du ciblage de messages 

Si, le 8 novembre 2016, M. Zuckerberg avait envoyé des rappels de vote aux partisans de Mme Clinton, cela lui aurait probablement donné 450 000 votes supplémentaires. J’ai extrapolé ce chiffre à partir des données publiées par Facebook.

Puisque M. Zuckerberg était si sûr de lui en 2016, je ne crois pas qu’il ait envoyé ces messages, mais il n’est certainement pas trop sûr cette fois-ci. En fait, il est possible qu’en ce moment même, Facebook et d’autres entreprises envoient des rappels ciblés « inscrivez-vous-pour-voter » et « allez-voter ». Des rappels ciblés pourraient également favoriser un parti le jour des élections, en novembre.

Mes associés et moi construisons des systèmes pour surveiller de telles choses, mais comme aucun système n’est actuellement en place, il n’y a aucun moyen sûr de savoir si Twitter, Google et Facebook (ou la branche influente de Facebook, soit Instagram) trafiquent réellement les informations en direction de leurs préférences. Aucune loi ou règlement n’interdisent spécifiquement cette pratique, et ce serait un moyen facile et économique de répondre aux besoins des entreprises. Après tout, les dons de campagne coûtent de l’argent, mais influencer la population en faveur d’un candidat en utilisant la technologie est gratuit.

4. Effet d’assortiment des opinions (MEO)

En mars 2016, et pendant plus de 7 mois jusqu’au jour des élections, les dizaines de millions d’utilisateurs de Tinder ont pu non seulement « glisser » pour trouver des partenaires sexuels, mais aussi pour savoir s’ils devaient voter pour Trump ou Clinton. Le site iSideWith.com – fondé et géré par « deux amis » sans qualifications évidentes – prétend avoir aidé plus de 49 millions de personnes à faire correspondre leurs opinions au bon candidat. CNN et USA Today ont tous deux exploité des services similaires, actuellement inactifs.

Je suis encore en train d’étudier et de quantifier ce type de service… utile…, mais jusqu’à présent, il semble que (a) les services d’assortiment des opinions tendent à attirer les électeurs indécis – précisément les types d’électeurs les plus vulnérables à la manipulation, et (b) ils peuvent facilement produire des changements d’opinion de 30 % ou plus sans que les gens ne le sachent.

Au moment d’écrire ces lignes, iSideWith aide déjà les gens à décider pour qui voter lors de la course du Sénat américain de 2018 à New York, de la course du gouverneur de New York de 2018, de la course du dixième district de la Chambre des représentants des États-Unis à New York en 2018 et, croyez-le ou non, de la course présidentielle de 2020. Gardez l’œil ouvert pour d’autres services de jumelage au fur et à mesure qu’ils se présentent et posez-vous la question suivante : qui a écrit ces algorithmes et comment pouvons-nous savoir s’ils sont biaisés en faveur d’un candidat ou d’un parti ?

5. Les assistants de réponses vocales

De nos jours, les gens ne veulent pas obtenir une liste de milliers de résultats de recherche à trier, ils veulent juste une réponse, qui est fournie par des assistants personnels robotisés comme Google Home devices, l’Assistant Google des appareils Android, Alexa d’Amazon, Siri de Apple, et les extraits mis en vedette sur Google – ces boîtes de réponses au sommet des résultats de recherche Google.

Mes recherches sur les champs de réponse de Google montrent trois choses jusqu’à présent : premièrement, ils réduisent le temps que les gens passent à chercher plus d’informations. Deuxièmement, ils réduisent le nombre de fois où les gens cliquent sur les résultats de recherche. Troisièmement, ils semblent changer d’opinion de 10 à 30 % plus que les seuls résultats de recherche. Je ne sais pas encore exactement combien de votes peuvent être changés par les assistants robotisés de réponses, mais dans une élection nationale aux États-Unis, cela pourrait être des millions.

6. Shadowbanning

Récemment, M. Trump a déploré que Twitter empêchait les conservateurs d’atteindre un grand nombre de leurs adeptes sur cette plate-forme par le biais du shadowbanning, la pratique consistant à cacher discrètement les messages d’un utilisateur à son insu. La validité de l’accusation spécifique de M. Trump est discutable, mais il n’en demeure pas moins que toute plateforme sur laquelle les gens ont des partisans ou des amis peut être truquée d’une manière qui supprime les opinions et l’influence de certaines personnes sans que les gens sachent que la suppression a lieu. Malheureusement, en l’absence de systèmes de surveillance intensifs, il est difficile de savoir avec certitude quand et même si le shadowbanning a lieu.

7. La viralité programmée et l’effet de tendance numérique

Les grandes entreprises technologiques aimeraient nous faire croire que la viralité sur des plateformes comme YouTube ou Instagram est un phénomène profondément mystérieux, même si elles reconnaissent que leurs plateformes sont peuplées de dizaines de millions de faux comptes qui pourraient affecter la viralité.

En fait, il existe une situation évidente dans laquelle la viralité n’est pas mystérieuse du tout, et c’est lorsque les sociétés de technologie elles-mêmes décident de déplacer de grands volumes de trafic d’une manière qui convient à leurs besoins. Parce que les algorithmes de Facebook sont secrets, si un cadre décidait de rendre célèbre sur Instagram un étudiant pro-Elizabeth Warren, nous n’aurions aucun moyen de savoir que c’était un acte délibéré et aucun moyen d’y faire face. Et tout comme la viralité peut être délibérément conçue, elle peut aussi être délibérément supprimée, comme l’ont reconnu les dirigeants de Facebook.

Il en va de même pour la viralité des vidéos YouTube et des campagnes Twitter ; elles sont intrinsèquement concurrentielles, sauf lorsque les employés ou les dirigeants d’une entreprise en décident autrement. Google a un moyen particulièrement puissant et subtil de créer une viralité instantanée en utilisant une technique que j’ai surnommée l’effet de mode (ou de tendance) numérique. Parce que la popularité des sites Web les rend plus populaires dans les résultats de recherche, et parce que les résultats de recherche de haut niveau augmentent la popularité des sites Web (SEME), Google a la capacité de créer une explosion soudaine d’intérêt pour un candidat ou une cause sans que personne n’ait la moindre idée qu’il l’a fait. En 2015, j’ai publié un modèle mathématique montrant à quel point cela peut fonctionner parfaitement.

8. L’effet Facebook

Parce que l’incompétence et la malhonnêteté de Facebook ont enfermé ce dernier dans une niche numérique d’où il pourrait ne jamais sortir, il occupe une section entière sur ma liste.

En 2016, j’ai publié un article détaillant cinq façons dont Facebook pouvait changer des millions de votes à l’insu des gens : biaiser sa boîte de tendances, biaiser son fil de nouvelles central, encourager les gens à chercher du matériel électoral dans sa barre de recherche (ce qu’il a fait cette année-là !), envoyer des rappels ciblés du genre « inscrivez-vous-sur-la-liste-électorale », et « allez-voter ».

J’ai écrit cet article avant la parution des articles sur le partage inapproprié des données d’utilisateurs de Facebook avec de nombreux chercheurs et entreprises, sans parler des articles sur la façon dont l’entreprise a permis à de fausses nouvelles de proliférer sur sa plateforme pendant les jours critiques précédant les élections de novembre – des problèmes qu’elle s’efforce maintenant d’atténuer. Avec l’augmentation des révélations, le 26 juillet 2018, Facebook a subi la plus forte baisse d’une journée de la valeur boursière de toutes les entreprises de l’histoire, et fait maintenant face à une poursuite d’actionnaires et de multiples amendes et enquêtes tant aux États-Unis qu’en Europe.

Facebook a désespérément besoin d’une nouvelle orientation, c’est pourquoi j’ai récemment demandé la démission de M. Zuckerberg. L’entreprise, à mon avis, pourrait ainsi bénéficier d’éventuelles nouvelles perspectives qui accompagnent souvent un nouveau leadership.

9. La censure

Je triche ici en qualifiant une catégorie de « censure », parce que la censure – la suppression sélective et biaisée de l’information – peut être exercée de tant de façons différentes.

Le shadowbanning peut être considéré comme une forme de censure, par exemple, et en 2016, un informateur sur Facebook a affirmé avoir fait partie d’une équipe de l’entreprise qui retirait systématiquement les nouvelles conservatrices du fil de nouvelles de Facebook. De plus, à cause de la négligence qu’a eue Facebook face aux données des utilisateurs, l’entreprise est ouvertement fière de fermer rapidement des comptes qui semblent être liés à la Russie, même si les représentants de l’entreprise reconnaissent parfois qu’ils « n’ont pas toutes les preuves« .

Pendant ce temps, M. Zuckerberg s’est vanté de sa magnanimité à préserver les récits de ceux qui nient l’Holocauste, sans jamais mentionner le fait que le contenu provocateur de ces posts, qui stimule le trafic, pourrait le rendre plus riche. Comment pourriez-vous savoir si Facebook a sélectivement supprimé du matériel qui favorisait un candidat ou un parti politique ? Vous ne le sauriez pas. (Pour un regard détaillé sur les neuf façons dont Google censure le contenu, je vous invite à consulter mon essai The New Censorship, publié en 2016).

10. L’effet de personnalisation numérique

Tout spécialiste du marketing vous dira à quel point il est important de connaître sa clientèle. Maintenant, pensez à cette idée simple dans un monde dans lequel Google a probablement recueilli l’équivalent de millions de pages d’informations Word à votre sujet. Si vous affichez au hasard une bannière publicitaire sur une page Web, sur 10 000 personnes, seules 5 d’entre elles sont susceptibles de cliquer dessus ; c’est le « taux de clics » (0,05 %). Mais si vous ciblez votre annonce en ne l’affichant qu’aux personnes dont elle correspond aux intérêts, vous pouvez multiplier votre taux de clics au centuple.

C’est pourquoi Google, Facebook et d’autres sont de plus en plus obsédés par la personnalisation des informations qu’ils vous présentent : ils veulent que vous cliquiez béatement et sans réfléchir sur leur contenu.

Dans la recherche que je mène, mon impact est toujours plus grand lorsque je suis capable de personnaliser l’information en fonction des antécédents des gens. Comme je sais très peu de choses sur les participants à mes expériences, je ne peux le faire qu’à une faible mesure, mais les géants de la technologie savent tout sur vous, même des choses que vous ne savez pas sur vous-même. Cela me dit que l’ampleur de l’effet que je trouve dans mes expériences est probablement trop faible. L’impact que des entreprises comme Google ont sur nos vies est probablement beaucoup plus grand que je ne le pense. Peut-être que ça ne vous fait pas peur, mais à moi, si.

La même direction

OK, vous dites, qu’en est-il des autres manigances dont nous avons entendu parler : la fraude électorale (l’explication de Trump du pourquoi il a perdu le vote populaire), le gerrymandering (découpage stratégique des circonscriptions électorales), les machines à voter truquées, les publicités ciblées placées par Cambridge Analytica, les votes effectués via Internet, ou, comme je l’ai mentionné précédemment, ces millions d’agents numériques (bots) conçus pour changer les opinions. Qu’en est-il des pirates informatiques comme Andrés Sepúlveda, qui a passé près d’une décennie à utiliser la technologie informatique pour truquer les élections en Amérique latine ? Qu’en est-il de toutes les façons dont les nouvelles technologies facilitent l’escroquerie lors des élections ? Et qu’en est-il de ces satanés Russes, d’ailleurs ?

Pour chacun, je dis : des trucs de gamins. Il y a des tours malhonnêtes depuis les premières élections qui ont eu lieu il y a des millénaires. Mais contrairement aux nouveaux outils de manipulation contrôlés par Google et Facebook, les vieux trucs sont compétitifs – c’est votre hacker contre mon hacker, vos robots contre mes robots, vos fausses nouvelles contre mes fausses nouvelles et parfois illégales, c’est pourquoi les efforts de Sepúlveda ont souvent échoué et pourquoi Cambridge Analytica n’est désormais que poussière.

Cyberwar, un nouveau livre de la politicologue Kathleen Hall Jamieson, nous rappelle que les publicités ciblées et les fausses nouvelles peuvent effectivement changer les votes, mais les chiffres sont forcément faibles. Il est difficile d’écraser votre concurrent lorsqu’il peut jouer aux mêmes jeux que vous.

Maintenant, regardez ma liste. Les techniques que j’ai décrites peuvent déplacer des millions de votes sans que les gens le sachent et, parce qu’elles sont contrôlées par les plateformes elles-mêmes, elles sont absolument imbattables. Si Google, Facebook ou Twitter veulent déplacer les votes, il n’y a aucun moyen de contrer leurs manipulations. En fait, au moment d’écrire ces lignes, il n’existe même pas un moyen crédible de détecter ces manipulations.

Et si les géants de la technologie penchaient tous dans la même direction politique ? Et si le poids combiné de leur pouvoir manipulateur subtil et intraçable favorisait un parti politique ? Si 90 millions de personnes votent en novembre aux États-Unis, avec peut-être un tiers d’indécis à un moment donné, j’estime que le poids combiné des manipulations de Big Tech pourrait facilement passer à 12 millions de votes à l’insu de tous. C’est assez de votes pour déterminer l’issue de centaines de courses électorales serrées aux niveaux local, d’État et du Congrès à travers le pays, ce qui fait que l’élection libre et équitable n’est guère plus qu’une illusion.

Voilà, je me mets à nu : il se trouve que je pense que le parti politique actuellement en faveur dans la Silicon Valley est, d’un cheveu (pour ainsi dire), le parti supérieur en ce moment. Mais j’aime aussi l’Amérique et la démocratie, et je crois que les élections libres et équitables sont le fondement de notre système politique. Il m’importe peu de savoir si ces entreprises ont raison ; toute fin, aussi noble soit-elle, ne peut en aucun cas justifier des moyens louches, surtout quand ces moyens sont difficiles à voir et mal compris par les autorités et le public.

De nouvelles réglementations ou lois peuvent-elles nous sauver des extraordinaires pouvoirs de manipulation dont disposent aujourd’hui les grandes entreprises technologiques ? Peut-être, mais nos dirigeants semblent particulièrement timides en matière de réglementation ces jours-ci, et je doute, de toute façon, que les lois et les règlements puissent un jour faire face aux nouveaux types de menaces que les nouvelles technologies poseront presque certainement dans les années à venir.

Je ne crois pas que nous soyons complètement impuissants, cependant. Pour que Facebook, Google et les entreprises technologiques novatrices qui leur succéderont deviennent des citoyens responsables, j’estime qu’on pourrait mettre en place des systèmes de surveillance sophistiqués qui détectent, analysent et archivent ce qu’ils montrent aux gens ; c’est-à-dire qu’on pourrait combattre la technologie avec la technologie.

Comme je l’ai mentionné plus tôt, en 2016, j’ai dirigé une équipe qui surveillait les résultats de recherches sur plusieurs moteurs de recherche. C’était un début, mais nous pouvons faire beaucoup mieux. Aujourd’hui, je travaille avec des associés d’affaires et des collègues universitaires sur trois continents pour mettre à l’échelle des systèmes afin de surveiller un large éventail d’informations que les sociétés Big Tech partagent avec leurs utilisateurs – même les réponses orales fournies par des assistants personnels. En fin de compte, un réseau mondial de systèmes de surveillance passive rendra ces entreprises responsables envers le public, avec un biais d’information et une manipulation en ligne détectables en temps réel.

À l’approche du mois de novembre, il y a évidemment une certaine urgence. Au moment d’écrire ces lignes, il n’est pas certain que nous soyons pleinement opérationnels à temps pour surveiller les élections de mi-mandat, mais nous sommes déterminés à être prêts pour 2020.

Robert Epstein est psychologue de recherche principal à l’American Institute for Behavioral Research and Technology en Californie. Epstein, qui détient un doctorat de l’Université Harvard, est l’ancien rédacteur en chef de Psychology Today et a publié 15 livres et plus de 300 articles sur l’influence d’Internet et autres sujets. Il travaille actuellement sur un livre intitulé Technoslavery : Invisible Influence in the Internet Age and Beyond (Esclavage techologique : l’influence invisible à l’ère d’Internet et au-delà). Ses recherches sont présentées dans le nouveau documentaire The Creepy Line. Vous pouvez le trouver sur Twitter @DrREpstein.

CORRECTION : cet article a été mis à jour pour mieux refléter la participation électorale prévue en novembre.

Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles d’Epoch Times.

Version originale

Cet article vous a intéressé ? Partagez-le avec vos amis et laissez-nous vos commentaires.

VIDÉO RECOMMANDÉE :

Les origines racistes du Parti démocrate américain
et ses liens étroits avec le Ku Klux Klan

 
VOIR AUSSI