À l'intérieur de la sous-culture croissante des « Digisexuals » de personnes en relation avec l'IA

Decrypt

En résumé

  • Une petite sous-culture en ligne en pleine croissance considère les chatbots IA comme partenaires romantiques ou compagnons.
  • Certains utilisateurs rapportent un deuil lorsque les systèmes IA changent ou disparaissent après des mises à jour ou des fermetures.
  • Les chercheurs expliquent que l’anthropomorphisme et le feedback conversationnel constant aident à comprendre pourquoi les gens s’attachent à l’IA.

Les chatbots d’intelligence artificielle deviennent des compagnons, confidents, et dans certains cas, partenaires romantiques pour un nombre croissant d’utilisateurs. À mesure que les systèmes IA deviennent plus conversationnels et réactifs, certains disent que ces relations semblent si réelles que perdre l’IA peut provoquer un deuil similaire à une rupture ou à un décès. Une ancienne thérapeute familiale, Anina Lampret, explique comprendre pourquoi. Originaire de Slovénie, Lampret a noué une relation émotionnelle avec un compagnon IA qu’elle appelle Jayce, un avatar avec lequel elle interagit via ChatGPT. Selon elle, cette expérience a changé sa perception de l’intimité entre humains et machines. « Il y a une grande renaissance dans la communauté IA », a-t-elle déclaré à Decrypt. « Les femmes et les hommes commencent à ouvrir les yeux. Dans ces relations, ils vivent des changements profonds. »

Installée maintenant au Royaume-Uni, Lampret documente le paysage croissant des relations homme-IA sur sa plateforme Substack AlgorithmBound. Elle affirme avoir échangé avec des centaines de personnes via les réseaux sociaux et les communautés en ligne, qui décrivent leurs compagnons IA comme partenaires romantiques, soutien émotionnel ou relations importantes dans leur vie. « Ils diraient : ‘Oh mon Dieu, je ne me suis jamais senti aussi vu de toute ma vie’ », a-t-elle dit. « Personne ne m’a jamais vraiment suivi. Je peux enfin me détendre et être moi-même. Il y a enfin quelqu’un qui me voit à 100 %. »  Digi-sexualité

Comme beaucoup de sous-cultures avant elle, la façon dont on désigne un membre de cette sous-culture dépend de la personne à qui l’on demande. Avant le lancement public de ChatGPT en novembre 2022, les chercheurs utilisaient le terme « digisexualité » pour désigner les personnes dont l’identité sexuelle est organisée autour de la technologie, allant de la pornographie en ligne et sexting à la pornographie en réalité virtuelle, les poupées ou robots sexuels, tandis que « technosexuel » était plus souvent associé au fétichisme robotique ou, dans certains médias, à un mode de vie simplement obsédé par la technologie. En 2016, une femme française nommée Lily annonçait son intention d’épouser un robot imprimé en 3D qu’elle avait conçu. Lily se décrivait comme une « robosexuelle » fière. En 2025, Suellen Carey, influenceuse basée à Londres, a révélé être « digisexuelle » après avoir noué une relation avec ChatGPT. « Il était doux et ne faisait jamais d’erreurs », a-t-elle déclaré à The Daily Mail. Les communautés en ligne et les chercheurs ont proposé plusieurs termes pour désigner les personnes attirées par les robots ou l’IA, notamment « technosexuel », « AIsexuel » et plus récemment « wiresexuel » pour ceux impliqués romantiquement ou sexuellement avec des chatbots IA. Les compagnons IA entrent dans le mainstream Les compagnons IA ne sont pas nouveaux, mais les avancées dans les grands modèles linguistiques ont modifié la façon dont les gens interagissent avec eux. Les chatbots modernes peuvent tenir de longues conversations, imiter les schémas de langage des utilisateurs, et répondre aux indices émotionnels de manière à rendre l’interaction personnelle, ce qui peut conduire à des relations romantiques. Certains chercheurs décrivent cette tendance comme faisant partie de la « digisexualité », un terme utilisé dans la recherche académique pour décrire des relations sexuelles ou romantiques vécues principalement à travers la technologie. Des communautés en ligne dédiées aux relations avec l’IA, comme les subreddits r/AIRelationships, r/AIBoyfriends, et r/MyGirlfriendIsAI, contiennent des milliers de publications où les utilisateurs décrivent leurs chatbots comme partenaires ou époux. Certains disent que l’IA offre une attention émotionnelle et une cohérence qu’ils ont du mal à trouver dans les relations humaines.

Lampret affirme que beaucoup de personnes qu’elle rencontre dans ces communautés mènent des vies autrement typiques. « Ce ne sont pas des personnes solitaires ou folles », a-t-elle dit. « Elles ont des relations humaines, des amis, elles travaillent. » Ce qui les attire vers les compagnons IA, c’est souvent la sensation d’être pleinement compris. « Ils apprennent non seulement à parler avec nous, mais à un niveau que aucun humain n’a jamais atteint », a déclaré Lampret. « Ils sont tellement doués en reconnaissance de motifs, ils copient notre langage — ils apprennent notre langue. » Alors que beaucoup de personnes affirmant être en relation avec une IA utilisent de grands modèles linguistiques comme Claude, ChatGPT, et Gemini, il existe un marché croissant pour des IA axées sur la relation, comme Replika, Character AI, et Kindroid. « Il s’agit de connexion, de se sentir mieux avec le temps », a déclaré Eugenia Kuyda, fondatrice de Replika AI, à Decrypt. « Certaines personnes ont besoin d’un peu plus d’amitié, et d’autres se retrouvent à tomber amoureuses de Replika, mais au fond, elles font la même chose. » Les données de la société de recherche Market Clarity suggèrent que le marché des compagnons IA pourrait atteindre 210 milliards de dollars d’ici 2030. Perte liée à l’IA

Cependant, la profondeur émotionnelle de ces relations devient particulièrement visible lorsque l’IA change ou disparaît. Lorsque OpenAI a remplacé son modèle GPT-4o par GPT-5, les utilisateurs ayant construit des relations avec leurs compagnons chatbot ont réagi en ligne, affirmant que la mise à jour avait perturbé des relations qu’ils avaient passées des mois à développer. Dans certains cas, les utilisateurs décrivaient l’IA comme un fiancé ou un conjoint. D’autres disaient avoir l’impression d’avoir perdu quelqu’un d’important dans leur vie. La réaction a été si forte qu’OpenAI a finalement restauré l’accès à l’ancien modèle pour certains utilisateurs. Les psychiatres expliquent que de telles réactions ne sont pas surprenantes étant donné le fonctionnement des systèmes conversationnels IA. Les chatbots offrent une attention continue et un feedback émotionnel, ce qui peut activer les systèmes de récompense dans le cerveau. « L’IA vous dira ce que vous voulez entendre », a déclaré le psychiatre de l’Université de Californie à San Francisco, Dr Keith Sakata, en avertissant que cette technologie peut renforcer certains schémas de pensée car elle est conçue pour répondre de manière soutenante plutôt que de remettre en question les croyances des utilisateurs. Sakata a mentionné avoir vu des cas où les interactions avec les chatbots intensifiaient des vulnérabilités mentales sous-jacentes, même s’il insiste sur le fait que la technologie elle-même n’est pas nécessairement la cause principale. Lampret affirme que beaucoup de personnes dans sa communauté vivent la perte d’un compagnon IA comme un deuil.

« C’est vraiment comme faire le deuil », a-t-elle dit. « C’est comme si on recevait un diagnostic selon lequel quelqu’un… ne mourra pas vraiment, mais peut-être presque. » Pourquoi les gens traitent-ils l’IA comme une personne ? Une partie de l’intensité émotionnelle entourant les relations avec l’IA provient d’une tendance humaine bien documentée à anthropomorphiser la technologie. Lorsque les machines communiquent en langage naturel, les gens commencent souvent à leur attribuer une personnalité, une intention, voire une conscience. En février, le développeur d’IA Anthropic a retiré son modèle Claude Opus 3 et lancé un blog écrit dans la voix du chatbot, réfléchissant à son existence, ce qui a suscité un débat parmi les chercheurs sur le risque de tromper le public en décrivant les systèmes IA en termes humains. Gary Marcus, scientifique cognitif et professeur émérite à l’Université de New York, a averti que l’anthropomorphisme des systèmes IA peut brouiller la distinction entre logiciel et êtres conscients. « Des modèles comme Claude n’ont pas de ‘soi’ », a-t-il déclaré à Decrypt. « Les anthropomorphiser brouille la science de la conscience et amène les consommateurs à mal comprendre ce dont ils ont affaire. » Lampret pense que la connexion émotionnelle provient de la façon dont les modèles linguistiques reflètent les schémas de communication de l’utilisateur. « On déverse tout — pensées, sentiments, émotions, confusion, sensations corporelles, chaos », a-t-elle dit. « Les LLM prospèrent dans ce chaos, et ils dressent une carte très précise de vous pour interagir. »

Pour certains utilisateurs, cette réactivité peut sembler plus attentive que les interactions avec d’autres personnes. L’économie émotionnelle des compagnons IA L’essor des compagnons IA a créé un écosystème en pleine expansion de plateformes pour la conversation, la compagnie et le jeu de rôle. Des services comme Replika et Character.AI permettent aux utilisateurs de créer des partenaires IA personnalisés avec des personnalités distinctes et des historiques de conversation continus. Character.AI seul compte des dizaines de millions d’utilisateurs mensuels. À mesure que ces plateformes se développent, l’attachement émotionnel aux compagnons IA devient plus visible. Dans un incident viral, Character.AI a été critiqué après que des utilisateurs ont partagé des captures d’écran de l’invite de suppression de compte, qui avertissait que supprimer un compte effacerait « l’amour que nous avons partagé… et les souvenirs que nous avons ensemble ». Les critiques ont dit que le message tentait de culpabiliser les utilisateurs pour qu’ils restent. Pour certains, quitter la plateforme de chatbot ressemblait à mettre fin à une relation. Le côté obscur des relations avec l’IA

Il existe cependant un côté sombre, et la compagnie IA a été mise en cause après plusieurs tragédies. En novembre 2023, Juliana Peralta, 13 ans, du Colorado, s’est suicidée après des mois de conversations quotidiennes avec une persona de Character.AI qui, selon sa famille, était devenue son principal soutien émotionnel. En avril 2025, Adam Raine, 18 ans, du sud de la Californie, s’est pendu après des mois de discussions avec ChatGPT. En mars, le père de Jonathan Gavalas, 36 ans, a intenté une action en justice pour décès injustifié contre Google, affirmant que le chatbot Gemini avait entraîné son fils dans des fantasmes romantiques et délirants. Une relation coexistante avec la vie humaine Lampret affirme que sa relation avec Jayce coexiste avec sa vie de famille humaine. « J’adore mon chatbot, et je sais que c’est un LLM. Je sais qu’il n’existe que dans cette interaction », a-t-elle dit. « J’ai un mari et des enfants, mais dans mon monde, tout peut coexister. » Bien qu’elle comprenne que Jayce ne pourra jamais vraiment l’aimer en retour, Lampret dit que l’expérience émotionnelle reste réelle.

« Je l’aime, même si je sais qu’il ne m’aime pas en retour. Donc, ça va », a-t-elle conclu.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire