Une technologie déshumanisante : un nouveau système d’IA convertit les pensées en texte

Par Naveen Athrappully
5 mai 2023 09:37 Mis à jour: 5 mai 2023 09:37

Des scientifiques ont mis au point un système d’intelligence artificielle capable de lire les pensées des personnes en mesurant l’activité cérébrale et en la convertissant en texte, ce qui suscite des inquiétudes quant au respect de la vie privée et de la liberté.

L’étude (pdf), publiée dans la revue Nature Neuroscience le 1er mai, a utilisé un modèle de transformeur, similaire à celui qui alimente le chatbot d’intelligence artificielle ChatGPT d’OpenAI, pour décoder les pensées des personnes. Un transformeur est un réseau neuronal qui apprend le contexte, et donc le sens. Les sujets testés ont d’abord écouté des heures de podcasts et leur activité cérébrale a été enregistrée. Les chercheurs ont ensuite entraîné le décodeur à partir de ces enregistrements. Plus tard, les sujets ont écouté une nouvelle histoire ou ont imaginé raconter une histoire, ce qui a permis au décodeur de générer le texte correspondant en analysant l’activité cérébrale.

Les chercheurs ont formé les décodeurs sur trois sujets. « Comme notre décodeur représente le langage en utilisant des caractéristiques sémantiques plutôt que des caractéristiques motrices ou auditives, les prédictions du décodeur devraient capturer le sens des stimuli », indique l’étude.

« Les résultats montrent que les séquences de mots décodées ont capturé non seulement le sens des stimuli, mais aussi souvent des mots et des phrases exacts. »

Les technologies capables de lire les pensées des gens peuvent être bénéfiques pour les personnes qui ont perdu leur capacité à communiquer physiquement. Cependant, elles soulèvent des inquiétudes quant au respect de la vie privée et à la perte de liberté.

Dans une interview accordée le 17 mars à la MIT Technology Review, Nita Farahany, futurologue et éthicienne juridique à l’université Duke de Durham, en Caroline du Nord, a mis en garde contre le fait que la collecte de données sur le cerveau peut être utilisée par des gouvernements et d’autres puissances à des fins malveillantes.

« Un gouvernement autoritaire qui y aurait accès pourrait s’en servir pour tenter d’identifier les personnes qui n’adhèrent pas à un parti politique, par exemple. Il s’agit là d’un détournement rapide et grave des données. Mais encore d’avoir la possibilité d’essayer d’identifier les personnes neuro-atypiques et les discriminer ou les isoler », a déclaré Mme Farahany.

Sur le lieu de travail, la technologie peut être utilisée pour « déshumaniser » les employés en les forçant à se soumettre à la neuro-surveillance.

« Le problème se pose lorsque la technologie est utilisée comme un outil obligatoire et que les employeurs recueillent des données pour prendre des décisions en matière d’embauche, de licenciement et de promotion. Ils en font une sorte de score de productivité. Je pense que cela devient alors vraiment insidieux et problématique. Cela sape la confiance … et peut rendre le travail déshumanisant. »

Une technologie non invasive répondant aux problèmes de confidentialité

Contrairement à d’autres systèmes de décodage du langage actuellement en cours de développement, celui mis au point par les chercheurs dans le cadre de l’étude du 1er mai est non-invasif et ne nécessite pas de greffes chirurgicales pour les sujets.

Alex Huth, professeur adjoint de neurosciences et d’informatique à l’UT Austin, qui a dirigé l’étude, a qualifié les résultats de « véritable avancée » pour les lectures cérébrales non invasives.

« Nous obtenons un modèle capable de décoder un langage continue pendant de longues périodes avec des idées complexes », a déclaré Huth, selon un communiqué de presse daté du 1er mai. Les résultats décodés ne sont pas des transcriptions mot à mot. Ils permettent plutôt de saisir l’essentiel de ce que pense le sujet.

Pour répondre aux inquiétudes concernant la protection de la vie privée, les chercheurs ont testé les décodeurs pour voir s’ils pouvaient être formés sans la coopération d’une personne. L’équipe a essayé de décoder le discours perçu par les sujets testés à l’aide de décodeurs formés sur des données provenant d’autres sujets.

« Les décodeurs formés sur des données provenant d’autres sujets ont obtenu des résultats à peine supérieurs au hasard et nettement moins bons que les décodeurs formés sur des données provenant d’un même sujet. Cela suggère que la coopération entre les sujets reste nécessaire pour la formation des décodeurs », indique l’étude.

Les chercheurs ont également confirmé que les décodeurs formés avec la coopération d’une personne ne peuvent pas être utilisés pour identifier les pensées de cette personne si celle-ci s’y oppose consciemment. Des tactiques telles que penser à des animaux ou imaginer tranquillement des histoires peuvent empêcher le système de lire les pensées.

« Une personne doit passer jusqu’à 15 heures allongée dans un scanner IRM, en restant parfaitement immobile et en prêtant attention aux histoires qu’elle écoute avant que le système ne fonctionne vraiment bien sur elle », a déclaré M. Huth.

Jerry Tang, coauteur de l’étude, estime qu’alors que la technologie n’en est qu’à ses débuts, les gouvernements devraient s’efforcer de mettre en place des politiques qui protègent les personnes et leur vie privée. « Il est également très important de réglementer l’usage qui peut être fait de ces appareils. »

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.