Une entreprise israélienne cherche à savoir si la désinformation peut être vaincue sans censure de l’information

Au cours des deux dernières années, la désinformation est passée d’un concept obscur de propagande à un terme courant dans les ménages. Il s’agit d’une forme de tromperie visant à donner l’impression que de fausses allégations sont réelles et à modifier les conclusions sur les événements et l’information.

Alors que les plateformes de médias sociaux ont commencé à chercher des moyens de contrecarrer la désinformation, de nouvelles préoccupations ont commencé à émerger quant à la façon de distinguer les vérités des mensonges et de déterminer quelles interprétations des nouvelles sont légitimes.

Cela a conduit de nombreux utilisateurs en ligne à être censurés ou étiquetés comme des « bots » (sous-entendu : robots) pour avoir exprimé des idées en dehors des récits communs. Les conservateurs ont été les plus grandes cibles dans cette nouvelle poussée de plateformes comme Twitter.

Selon Dan Brahmy, PDG de Cyabra, une entreprise israélienne qui œuvre non seulement à l’identification de la désinformation, mais à la solution pour trier les vérités des mensonges, la solution peut se résumer à un changement fondamental d’approche.

« Nous comprenons que la désinformation est diffusée par de fausses identités la plupart du temps, soit pour tempérer négativement le discours public ou pour cibler le discours public », a-t-il ajouté.

De nombreuses entreprises qui travaillent à identifier les campagnes de désinformation examinent le contenu diffusé, et cela a encouragé les plateformes de médias sociaux à lister les sites Web d’information comme étant soit légitimes ou illégitimes. Cela a également donné lieu à des griefs concernant la censure pour des motifs politiques.

M. Brahmy a cependant adopté une tout autre approche. Plutôt que de se concentrer sur le contenu, l’entreprise Cyabra est à la recherche d’indices pouvant indiquer si les comptes diffusant de la désinformation sont réels ou faux.

« Nous ne travaillons pas avec le contenu », a confié M. Brahmy. Au lieu de cela, l’approche de son entreprise vise à examiner les modèles de comportement.

« Pour que la désinformation se répande aussi rapidement, dans la grande majorité de ces événements, il faut avoir des identités frauduleuses en ligne, c’est-à-dire de fausses identités – des imposteurs qui font fonctionner quelque chose », a-t-il fait valoir.

https://www.youtube.com/watch?v=E3yAbvYq8V0
Manipulation des medias (Capture d’écran de YouTube)

Certaines entreprises examinent les histoires en elles-mêmes. D’autres essaient de catégoriser l’ensemble du système, et parfois les utilisateurs légitimes sont étiquetés comme des bots, car ils ont été dupés. Pour Cyabra, l’accent est mis sur les marionnettistes.

Plutôt que de lister tous les comptes qui jouent le rôle de déclencheur de campagnes de désinformation, Cyabra applique plusieurs mesures pour s’assurer que les comptes font réellement ce qu’ils font de façon intentionnelle.

Selon Dan Brahmy, la plupart des comptes de marionnettiste sont des « faux-nez » ou « avatars ». Il s’agit de fausses identités soutenues par une seule personne qui peut gérer plusieurs comptes similaires ; lorsque ces personnes créent ces fausses identités, il y a souvent des problèmes clés qui rendent possible de reconnaître leur nature illégitime.

M. Brahmy a souligné que « les gens croient ce qu’ils voient », les détenteurs de faux comptes changeront les données pour créer différentes illusions.

Une personne ordinaire aura de nombreux groupes d’amis différents : amis d’enfance, amis d’école, amis d’université, amis du travail et autres groupes sociaux. Dan Brahmy a expliqué qu’il est très difficile pour un marionnettiste de falsifier des réseaux d’amis comme ceux-ci, cela devient encore plus évident lorsqu’on tente d’établir plusieurs faux-nez en utilisant le même nom sur différentes plateformes.

Un autre critère important à soulever est que les comptes de faux-nez nouvellement créés n’ont que quelques mois. Le marionnettiste tentera de les faire paraître légitimes en ajoutant ce qui semble être des messages et commentaires personnalisés. L’erreur que les marionnettistes font souvent, cependant, c’est qu’ils vont aussi changer les dates et modifier d’autres informations pour que les comptes semblent plus anciens qu’ils ne le sont.

« Il s’agit de trouver des gens qui tentent de falsifier agressivement l’histoire et de falsifier l’environnement », fait-il comprendre. « Savez-vous à quel point il est difficile de falsifier l’environnement pour une personne qui n’existe que depuis quatre ou cinq semaines ? »

Bien que l’objectif principal de l’entreprise Cyabra soit d’aider à identifier les faux comptes qui diffusent de la désinformation, il est possible que certaines entreprises l’utilisent, ainsi que des technologies émergentes similaires, pour censurer les utilisateurs.

M. Brahmy est réaliste au sujet de la situation, mais a fait remarquer qu’il revient aux entreprises de déterminer comment elles utilisent la technologie. Son approche, cependant, est en train de changer la direction, passant de l’examen du contenu et de sites Web de nouvelles, à une tentative plus directe d’identification des faux comptes.

Version originale

 
VOIR AUSSI