Quand la science prend une mauvaise direction

Par Bob Zeidman
10 mai 2020 19:52 Mis à jour: 10 mai 2020 19:53

Une tendance inquiétante se dessine dans la recherche de nos jours, où de soi-disant informaticiens injectent leurs convictions personnelles pour mener à bien leurs travaux. Ils le font en « corrigeant » les calculs qui leur permettent d’obtenir les résultats souhaités.

Ils l’appellent « impartiale », mais c’est en fait tout le contraire. Ce phénomène touche chacun d’entre nous dans de nombreux aspects de la vie. Vous devez être conscient de ce problème, et vous devez vous préoccuper de la façon dont votre vie est manipulée à votre insu.

Un algorithme est une succession d’étapes nécessaires à la résolution d’un problème. Il peut être aussi simple que la recette de votre grand-mère pour la poitrine de bœuf – une description étape par étape de l’arrosage, le découpage, le mélange, la cuisson et la présentation, écrite sur une carte de référence tachée par la sauce. De nos jours, un algorithme se réfère généralement aux étapes mathématiques effectuées par un ordinateur conformément aux instructions d’un programme informatique.

Chaque jour, nous sommes en relation avec ces algorithmes informatiques qui contrôlent non seulement les applications de nos smartphones, mais aussi les feux de circulation, les ascenseurs, les thermostats et, surtout, les informations que nous voyons sur les moteurs de recherche et les réseaux sociaux.

Ces algorithmes sont utilisés pour optimiser votre vie et vous donner des informations personnelles pertinentes, mais aussi pour vous connaître le mieux possible : vos goûts et aversions sont enregistrés.

Amazon utilise ses algorithmes pour vous montrer des produits que vous pourriez réellement vouloir acheter et non des produits dont vous n’avez pas besoin. Netflix utilise ses algorithmes pour vous recommander des films que vous allez probablement apprécier. Les compagnies d’assurance utilisent leurs algorithmes pour évaluer les risques et déterminer le montant de vos cotisations. Les mutuelles de santé peuvent utiliser leurs algorithmes pour déterminer les traitements et les prescriptions qui vous conviennent.

Et lorsque vous recherchez des informations sur Google, les algorithmes utilisés vous donnent les informations pertinentes qui vous permettront de prendre vos décisions. Ou ils devraient le faire.

Biais des algorithmes

Le tout dernier sujet de recherche en informatique est appelé « biais des algorithmes ». Les informaticiens étudient les biais des algorithmes et la manière de les combattre. Je propose un nouveau terme pour ces chercheurs : « procliviste » du mot latin « proclivitas » qui signifie biais.

Ces adeptes de l’informatique étudient les biais algorithmiques à l’école et vont ensuite dans l’industrie pour prendre la tête de départements dans de grandes entreprises, en dirigeant des équipes d’ingénieurs pour découvrir les soi-disant biais et les « corriger ».

Parmi ces proclivistes figurent Tulsee Doshi, chef de produit pour l’effort d’équité dans l’apprentissage automatisé chez Google, et Joy Buolamwini, chercheur au sein du ministère des Technologies de l’information et des Communications (MIT), qui a fondé la Ligue pour la justice algorithmique (Algorithmic Justice League).

La lutte contre les préjugés semble être une bonne chose, n’est-ce pas ? Sauf que, comme dans le Double langage du roman dystopique de George Orwell Dix-neuf quatre-vingt-quatre (ou 1984), lorsque les proclivistes parlent de supprimer les biais des algorithmes, ce qu’ils veulent vraiment dire, c’est qu’ils insèrent des biais dans les algorithmes pour produire des résultats qu’ils estiment « équitables » selon les propres notions d’équité.

Lorsque vous faites une recherche sur Google pour un terme particulier, vous pouvez penser que vous obtenez les résultats les plus pertinents, mais comme Google l’admet ouvertement, vous obtenez en fait les résultats que Google veut que vous obteniez. Que le biais inséré par Google soit politique, religieux, culturel, ou de toute autre manière inexacte, Google nous guide là où il veut que nous allions, en prétendant qu’il nous donne des résultats impartiaux.

Récemment, Tulsee Doshi a donné une conférence à la Société pour les machines informatiques intitulée « Équité dans l’apprentissage machine ». Elle a commencé à expliquer comment Google note les différentes requêtes pour déterminer si elles sont « toxiques, neutres ou non toxiques ». Google détermine la toxicité en examinant le contexte dans lequel les termes ont été trouvés. Si ces pages contiennent des mots et des déclarations de haine, alors le mot est classé « toxique ». Elle a ensuite donné des exemples de termes toxiques et a déclaré : « Nous ne voulons pas voir cela. […] Nous ne voulons pas que cela soit vrai. »

Pourtant, la science ne se concentre pas sur ce que nous voulons, mais sur ce que nous allons découvrir, que cela nous plaise ou non. Les partisans de l’informatique ont décidé que « la science » consiste à modifier les résultats pour qu’ils soient « justes » en fonction de ce que certains jugent arbitrairement juste.

Il y a quelques années, en cherchant le terme « Juif » sur Google, les principaux résultats correspondaient à des sites web antisémites. De nombreux groupes juifs, dont la Ligue anti-diffamation, dont j’étais membre du conseil d’administration, ont porté plainte contre Google, en faisant pression sur eux pour qu’ils modifient leur algorithme et éliminent ces résultats.

Les résultats initiaux étaient-ils biaisés ? Il est certain que les résultats épurés étaient biaisés puisque Google a modifié son algorithme pour exclure spécifiquement ces références antisémites pour ne pas offenser les personnes concernées. Nous devrions nous préoccuper des résultats de recherche antisémites, mais davantage des résultats supprimés, car s’il y a un problème d’antisémitisme aux États-Unis ou dans le monde, nous devons le savoir. La modification des résultats de recherche ne fait que masquer le problème. Cela a rendu beaucoup plus difficile le suivi des groupes antisémites. Cette mesure n’a en rien amélioré le monde ; elle a simplement fait disparaître le problème.

Préjugés sexistes

Dans son discours, Mme Doshi a fait référence à un article de Mme Buolamwini, une chercheuse afro-américaine, intitulé « Les nuances de genre : Les disparités entre les sexes dans la classification commerciale des genres ». Une présentation est également disponible sur son site web Gender Shades.

Selon Mme Buolamwini, la genèse de son article a eu lieu lorsqu’elle a testé un programme de reconnaissance des visages sur une photo de son propre visage et qu’il n’a pas pu déterminer son sexe. Cela semble particulièrement déroutant car, dans son article, Mme Buolamwini explique qu’il existe de nombreux genres, et pas seulement le masculin et le féminin binaires, de sorte que les critères de détermination du genre ne sont pas clairs. Mais quelle que soit la catégorie de genre « correcte », elle affirme que les personnes à la peau foncée, en particulier les femmes, sont plus susceptibles d’être classées incorrectement en raison d’un biais algorithmique.

Cependant, il est raisonnable d’expliquer que les personnes à la peau foncée soient plus difficiles à identifier en raison du simple fait que les photographies sont limitées par les niveaux de contraste qu’elles peuvent offrir par rapport à l’œil humain. De plus, les visages à la peau claire présentent plus d’ombres qui permettent de délimiter les contours et révèlent les détails alors que les visages à la peau foncée ne sont pas ainsi. C’est quelque chose qui pourrait être testé objectivement, mais ce n’est pas le cas. Peut-être que l’incapacité de l’algorithme à catégoriser certains visages n’est pas un biais mais plutôt une difficulté naturelle ou une faille de l’algorithme.

Mesure de l’équité

Mme Doshi a ensuite décrit les « mesures d’équité » qui, selon elle, déterminent si un algorithme est équitable. Arvind Narayanan, professeur d’informatique à Princeton, a identifié 21 définitions de l’équité en ce qui concerne les algorithmes. Mme Doshi a reconnu que Google a en fait plus de 21 définitions. Elle a également reconnu que « corriger » un algorithme pour une définition de l’équité rend en fait la situation plus grave au regard des autres définitions de l’équité, mais elle en a fait abstraction puisque Google doit juste « être attentif aux définitions que nous choisissons et à leur signification ».

Il existe un excellent article sur les contradictions innées du « biais algorithmique » intitulé « Inherent Trade-Offs in the Fair Determination of Risk Scores » (compromis inhérents à la détermination équitable des notes de risque), rédigé par Jon Kleinberg, Sendhil Mullainathan et Manish Raghavan de Cornell et Harvard. Ce document conclut qu’il n’existe aucune « correction » à un algorithme qui puisse satisfaire aux trois conditions d’« équité » les plus courantes, et encore moins à 21 critères ou plus.

En d’autres termes, en rendant l’algorithme plus « équitable » selon un critère, il sera rendu plus « injuste » selon les autres critères.

Cette preuve mathématique n’a pas pris en compte le type d’algorithme utilisé, les critères utilisés, la répartition des personnes en groupes ou le type de comportement prédit. C’était une belle preuve basée sur les mathématiques pures. À moins de croire que les mathématiques ont un défaut ou que les mathématiques elles-mêmes sont biaisées (ce qui est le cas de certaines personnes, dont le district scolaire de Seattle), cette preuve est incontestable.

Au moment où j’écris ces lignes, il a été démontré que le virus Covid-19 affecte davantage les Afro-Américains que les personnes des autres races. Le Covid-19 est-il biaisé ? Devrions-nous ajuster les statistiques pour « corriger » son effet ? Bien sûr que non. Cette soi-disant « impartialité » empêche en fait les vrais scientifiques de trouver des relations sous-jacentes qui pourraient conduire à une meilleure compréhension du fonctionnement du monde.

Dans le cas hypothétique d’un biais Covid-19, « corriger » le « biais » entraverait notre capacité à comprendre la maladie et, en fin de compte, à trouver un remède.

En ce qui concerne les moteurs de recherche tels que Google, rendre les résultats de recherche « équitables » signifie que nous n’apprenons pas seulement les mauvaises choses, mais aussi celles qu’un petit groupe d’hommes d’affaires, de militants et d’adeptes de l’informatique veulent que nous apprenions. Cette nouvelle forme de recherche est erronée et dangereuse.

Bob Zeidman a étudié la physique et l’ingénierie électrique à Cornell et Stanford, et la réalisation de films au collège De Anza. Il est l’inventeur de la célèbre serviette de la Silicon Valley et le fondateur de plusieurs entreprises high-tech prospères de la Silicon Valley, dont Zeidman Consulting and Software Analysis et Forensic Engineering. Il écrit également des romans ; son dernier roman est la satire politique « Good Intentions ».

Le saviez-vous ?

Epoch Times est un média indépendant. Il est différent des autres organisations médiatiques, car nous ne sommes influencés par aucun gouvernement, entreprise ou parti politique. Notre objectif est d’apporter à nos lecteurs des informations factuelles et précises, en étant responsables envers notre public. Nous n’avons pas d’autres agendas que d’informer nos lecteurs et les laisser se faire leur propre opinion, en utilisant nos principes de vérité et de tradition comme guide dans notre travail.

Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles d’Epoch Times.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.