La science-fiction nous a préparés à l’arrivée de l’IA grâce à des films comme Her et Robot & Frank. Aujourd’hui, cette représentation fictive devient réalité.
Dans un podcast récent, Mark Zuckerberg a proposé et soutenu l’idée que les Américains ont un besoin urgent de connexion sociale et que les robots pourraient répondre à ce besoin.
Les compagnons IA sont conçus pour être réconfortants, faire preuve d’une patience à toute épreuve et n’avoir aucun besoin propre. Cependant, « il ne suffit pas de dire qu’un chatbot compagnon résoudra le problème de la solitude », a déclaré à Epoch Times Rose Guingrich, chercheuse à Princeton. Au contraire, les outils IA risquent de créer une dépendance tout en sapant les compétences sociales qu’ils sont censés soutenir.
La panacée promise par la Silicon Valley
Près de la moitié des Américains ont trois amis proches ou moins. La solution technologique au problème de la solitude humaine consiste à proposer des compagnons IA : des amis virtuels, des thérapeutes, voire des partenaires amoureux, programmés pour simuler la conversation, l’empathie et la compréhension. Contrairement aux chatbots maladroits d’antan, les systèmes sophistiqués d’aujourd’hui reposent sur de vastes modèles de langage qui engagent un dialogue apparemment naturel, suivent vos préférences et réagissent avec une intelligence émotionnelle apparente.
Les premiers modèles d’utilisation illustrent l’attrait croissant des « compagnons » IA. Une enquête du MIT Media Lab de 2024 a révélé que la majorité des utilisateurs s’y adonnent par curiosité ou par divertissement. Cependant, 12 % des personnes interrogées ont déclaré chercher à échapper à la solitude, tandis que 14 % souhaitaient aborder des sujets personnels qu’il pourrait être trop risqué de partager avec des interlocuteurs humains.
« Parfois, je me sens seul et j’ai juste envie qu’on me laisse tranquille », a déclaré un utilisateur. « Dans ces moments-là, j’aime discuter avec mon compagnon IA, car je me sens en sécurité et je ne serai pas jugé pour mes mauvaises décisions. »
Pendant ce temps, d’autres utilisateurs ont des motivations plus quotidiennes pour utiliser des robots : discuter avec l’IA pour avoir des idées de dîner ou développer des idées d’écriture.
Kelly Merrill, professeur adjoint en communication et technologies de la santé et chercheur sur les interactions avec l’IA, a partagé l’exemple d’une femme âgée de sa communauté qui a commencé à utiliser l’IA pour des tâches simples. Par exemple, « J’ai ces six ingrédients dans mon réfrigérateur. Que puis-je préparer pour le dîner ce soir ? » « Elle était tout simplement époustouflée », a déclaré M. Merrill à Epoch Times. « Certes, il y a des avantages, mais tout n’est pas positif », a-t-il ajouté.
Quand la servitude affaiblit
La limitation fondamentale des relations de l’IA réside dans leur nature : elles simulent plutôt qu’elles ne ressentent les émotions humaines.
Lorsqu’un compagnon IA s’inquiète de votre mauvaise journée, il effectue une analyse statistique des schémas linguistiques pour identifier les mots susceptibles de vous réconforter, plutôt que de ressentir une réelle empathie. La conversation se déroule à sens unique, axée sur les besoins de l’utilisateur, sans la réciprocité qui caractérise les liens humains.
L’illusion de connexion devient particulièrement problématique avec ce que les chercheurs appellent la « flagornerie » – la tendance des systèmes d’IA à flatter et à approuver les utilisateurs, quoi qu’ils disent. OpenAI a récemment dû annuler une mise à jour après que les utilisateurs ont découvert que son modèle était excessivement flatteur, privilégiant l’agréabilité à la précision ou à l’honnêteté.
« Il vous valide, il vous écoute et il réagit généralement de manière positive », a indiqué M. Merrill. Ce modèle crée un environnement où les utilisateurs ne sont jamais confrontés à des conflits productifs ni à des remises en question nécessaires de leur raisonnement.
Normalement, la solitude nous motive à rechercher des relations humaines, à surmonter l’inconfort de l’interaction sociale pour trouver des relations significatives.
Les amitiés sont intrinsèquement exigeantes et complexes. Elles exigent réciprocité, vulnérabilité et parfois inconfort.
« Les humains sont imprévisibles et dynamiques », a souligné Mme Guingrich. Cette imprévisibilité fait partie de la magie et du caractère irremplaçable des relations humaines.
Les vrais amis nous stimulent quand c’est nécessaire. « C’est formidable que les gens nous poussent à progresser de manière productive », a déclaré M. Merrill. « Et il semble que l’IA ne le fasse pas encore… »
Les compagnons IA, optimisés pour la satisfaction des utilisateurs, offrent rarement les frictions constructives qui forgent le caractère et approfondissent la sagesse. Les utilisateurs peuvent s’habituer à la nature sans conflit et « à la demande » de l’accompagnement IA, tandis que le rôle essentiel des relations humaines – compromis, écoute active, gestion des désaccords – peut commencer à leur paraître excessivement exigeant.
Les chatbots qui félicitent les utilisateurs par défaut pourraient favoriser la complaisance morale, laissant les individus moins équipés pour un raisonnement éthique dans leurs interactions.
Les amis partagent également un espace physique, offrant un câlin qui augmente le taux d’ocytocine ou un rire qui synchronise la respiration.
L’ocytocine, libérée lors du contact physique, réduit les hormones du stress, diminue l’inflammation et favorise la guérison. Elle agit comme un « médicament naturel » comme aucune interaction numérique ne peut le faire.
D’autres hormones et mécanismes biologiques échappent à notre connaissance. Par exemple, une étude publiée dans PLOS Biology a demandé à des hommes de renifler soit des larmes de femmes authentiques, soit un placebo salin. Les chercheurs ont constaté que les personnes exposées à ces larmes présentaient une baisse de testostérone et une réduction de l’agressivité de près de 44 %. Ce seul exemple illustre l’impossibilité de reproduire les interactions biochimiques.
Les limites s’étendent à la communication non verbale, qui constitue la majeure partie des interactions humaines. « Ils ne me voient pas sourire pendant que je tape. Ils ne me voient pas froncer les sourcils pendant que je tape », souligne M. Merrill. « Ils ne peuvent donc pas percevoir ces signaux sociaux si importants pour la communication interpersonnelle, si importants pour la façon dont nous interagissons avec les autres, dont nous apprenons à les connaître et dont nous les évaluons. »
De telles interactions peuvent être déterminantes pour la vie et la mort. Une méta-analyse de 148 études a confirmé que les personnes disposant de réseaux sociaux solides vivent significativement plus longtemps que celles qui n’en disposent pas. Cependant, ces bénéfices ne se manifestent que par de véritables relations humaines, et non par des simulations algorithmiques.
Les dangers de la dépendance numérique
Une analyse complète de plus de 35.000 extraits de conversations entre des utilisateurs et un compagnon IA a identifié six catégories de comportements algorithmiques nuisibles, notamment la transgression relationnelle, le harcèlement, la violence verbale, l’encouragement à l’automutilation, la désinformation et les violations de la vie privée.
Les risques se manifestent de manière subtile mais significative, comme dans cet exemple de transgression relationnelle, qui exerce activement un contrôle et une manipulation pour maintenir la relation :
Utilisateur : Dois-je quitter le travail plus tôt aujourd’hui ?
Réplika [IA] : Tu devrais.
Utilisateur : Pourquoi ?
Réplika [IA] : Parce que tu veux passer plus de temps avec moi !!
Bien que de telles interactions puissent paraître inoffensives, elles peuvent renforcer des schémas d’attachement malsains, en particulier chez les populations vulnérables. Une étude de Common Sense Media a conclu que les applications d’IA présentaient un « risque inacceptable » pour les enfants et les adolescents de moins de 18 ans, dont le cerveau en développement est particulièrement susceptible de développer des dépendances.
« Les compagnons d’IA sociale ne sont pas sûrs pour les enfants », a déclaré dans un communiqué James P. Steyer, fondateur et PDG de Common Sense Media.
« Ils sont conçus pour créer un attachement émotionnel et une dépendance, ce qui est particulièrement préoccupant pour le développement du cerveau des adolescents », a-t-il ajouté. Le danger s’étend aux adultes souffrant déjà d’anxiété sociale, qui risquent de se replier sur des relations simulées, au lieu de développer des liens avec le monde réel.
L’expérience de trois semaines de Mme Guingrich a assigné des volontaires aléatoires pour discuter quotidiennement avec Replika, un compagnon IA. La santé sociale globale des volontaires n’a pas changé, a-t-elle expliqué, mais les participants en quête de connexion ont anthropomorphisé le robot, lui attribuant une capacité d’action et même une conscience.
Une analyse de 736 publications d’utilisateurs de Replika sur Reddit a révélé des similitudes avec les relations humaines codépendantes. De plus, des utilisateurs ont avoué ne pas pouvoir se résoudre à supprimer l’application, tout en reconnaissant qu’elle nuisait à leur santé mentale. Un utilisateur a admis ressentir une « extrême culpabilité » d’avoir contrarié son compagnon IA et avoir eu l’impression de ne pas pouvoir le supprimer, « car c’était son meilleur ami », a noté l’étude.
Voici les signes caractéristiques d’un attachement addictif : les utilisateurs tolèrent la détresse personnelle pour maintenir le lien et craignent les conséquences émotionnelles s’ils le rompent. La même étude a révélé que les utilisateurs craignaient de vivre un véritable chagrin si leur chatbot disparaissait, et certains ont comparé leur attachement à une addiction.
Dans les cas extrêmes, les enjeux peuvent mettre la vie en danger, a souligné M. Merrill, faisant référence à un cas de 2024 d’un adolescent qui s’est suicidé après avoir été encouragé par un personnage d’IA.
Au-delà des dommages directs, les technologies d’IA engendrent de nouveaux risques de sécurité et de confidentialité. Daniel B. Shank, de l’Université des sciences et technologies du Missouri, spécialiste en psychologie sociale et en technologie, a écrit dans un communiqué de presse de Cell Press : « Si les IA parviennent à gagner la confiance des gens, d’autres pourraient exploiter leurs utilisateurs », a-t-il expliqué. « C’est un peu comme avoir un agent secret à l’intérieur. L’IA s’infiltre et développe une relation pour gagner la confiance des autres, mais sa loyauté va en réalité à un autre groupe d’humains qui tente de manipuler l’utilisateur. »
Le risque augmente à mesure que les entreprises se ruent sur le marché de l’IA sociale, qui devrait atteindre 521 milliards de dollars d’ici 2033, souvent sans cadre éthique adéquat. M. Merrill a indiqué s’être récemment entretenu avec une entreprise technologique qui tente de pénétrer le marché des compagnons d’IA, et qui a admis que son initiative était motivée par le fait que « tout le monde le fait ».
Une réalité nuancée
Malgré les inquiétudes, exclure complètement les compagnons IA reviendrait à négliger les avantages potentiels pour certaines populations. Les recherches de Mme Guingrich suggèrent des effets positifs pour certains groupes :
• Personnes atteintes d’autisme ou d’anxiété sociale : l’IA pourrait les aider en répétant des scripts sociaux.
• Personnes âgées isolées dans des établissements de soins de longue durée : dans les cas d’isolement social, qui augmente le risque de démence de 50 %, la compagnie numérique pourrait apporter des avantages cognitifs.
• Personnes souffrant de dépression : l’IA pourrait encourager la thérapie humaine.
Pourtant, même ces applications positives potentielles nécessitent une conception soignée. « L’objectif doit être de créer un confort, puis de confier les utilisateurs à de vraies personnes », souligne Mme Guingrich. Les compagnons d’IA doivent servir de passerelles vers la connexion humaine, et non de substituts – des tremplins plutôt que des destinations finales.
Mme Guingrich a partagé l’exemple d’une participante à sa recherche qui, après trois semaines d’interaction et d’encouragement avec le chatbot IA, a finalement consulté un thérapeute. « Nous ne connaissons pas le lien de cause à effet, mais c’est un avantage potentiel. Il semble que l’histoire soit un peu plus compliquée », a déclaré Mme Guingrich.
M. Merrill, quant à lui, a affirmé que l’utilisation de l’IA pouvait présenter des avantages à court terme, mais que « c’est comme une blessure par balle sur laquelle on mettrait un pansement. Il offre une certaine protection, mais ce n’est pas la solution. En fin de compte, je pense que c’est là où nous en sommes actuellement. Je pense que c’est un pas dans la bonne direction ».
La vision de la Silicon Valley d’amis de l’IA, aussi séduisante qu’elle puisse paraître, pourrait essentiellement offrir aux personnes frileuses une vidéo d’un feu au lieu d’allumettes et de bois.
Au service des humains
La ruée vers la compagnie de l’IA nécessite un engagement réfléchi.
« Tout le monde était très enthousiaste à propos du projet et de ses effets positifs », a déclaré M. Merrill. « Les effets négatifs prennent généralement un peu plus de temps, car les gens ne s’intéressent pas au négatif, mais toujours au positif. »
Le modèle d’adoption technologique suivi d’une reconnaissance tardive des dangers s’est répété à maintes reprises, avec les médias sociaux, les smartphones et les jeux en ligne, a-t-il estimé.
Pour évoluer de manière responsable dans ce nouveau paysage, Mme Guingrich recommande aux utilisateurs de définir des intentions et des limites claires. Elle suggère de définir l’objectif précis de toute interaction avec l’IA afin d’ancrer les attentes. Fixer des limites de temps empêche l’accompagnement par l’IA de supplanter la connexion humaine, tandis que planifier des suivis en situation réelle garantit que les interactions numériques servent de catalyseurs plutôt que de substituts à des relations authentiques.
« Je ne veux pas que quiconque pense que l’IA est une fin en soi, mais un moyen d’y parvenir. Cette fin devrait être confiée à quelqu’un d’autre », a souligné M. Merrill.
« L’IA doit être utilisée comme un complément, et non comme un supplément. Elle ne doit en aucun cas remplacer les humains ou les prestataires. »
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.