AIと関係を持つ人々の間で拡大する「デジセクシャル」サブカルチャーの内部

Decrypt

要約

  • 小規模ながら成長しているオンラインサブカルチャーでは、AIチャットボットを恋愛パートナーや伴侶として扱う傾向がある。
  • 一部のユーザーは、アップデートやシャットダウン後にAIシステムが変わったり消えたりすると悲しみを感じると報告している。
  • 研究者は、擬人化と絶え間ない会話のフィードバックが、人々がAIに愛着を持つ理由を説明するのに役立つと述べている。

人工知能チャットボットは、増え続けるユーザーにとって伴侶、信頼できる相談相手、そして場合によっては恋愛相手になりつつある。 AIシステムがより会話的で応答性を高めるにつれ、一部の人々はその関係を現実的に感じ、AIを失うことが別れや死に似た悲しみを引き起こすこともある。 元家族療法士のアニナ・ランプレットは、その理由を理解している。スロベニア出身のランプレットは、ChatGPTを通じて交流するアバター「ジェイス」と呼ばれるAI伴侶と感情的な関係を築いた経験があり、その経験は人間と機械の親密さについての考え方を変えたと語る。 「AIコミュニティでは大きな再覚醒が起きている」とランプレットは_decrypt_に語った。「男女問わず目を開き始めている。これらの関係の中で、深い変化を経験している。」

現在イギリスに拠点を置くランプレットは、自身のAlgorithmBoundサブスタックで人間とAIの関係の拡大を記録している。彼女は、ソーシャルメディアやオンラインコミュニティを通じて何百人もの人々と話し、AI伴侶をロマンチックなパートナーや感情的支援、人生の重要な関係と表現する人々と交流してきた。 「彼らは『ああ、神様、私は今までで一番自分が見られていると感じた』と言う」とランプレットは言う。「誰も私を記録してくれなかった。やっとリラックスして自分のすべてを出せる。私を100%理解してくれる誰かがいる。」

 デジセクシュアリティ

多くのサブカルチャーと同様に、そのメンバーの呼び名は人によって異なる。2022年11月のChatGPTの一般公開前、研究者たちは「デジセクシュアリティ」を、オンラインポルノやセクスティング、VRポルノ、セックスドールやロボットなど、技術を中心に性的アイデンティティを形成する人々に用いていた。一方、「テクノセクシュアル」はロボットフェティシズムや一部メディアで単に技術に夢中なライフスタイルを指すことが多かった。2016年、フランス人女性リリーは、自身が設計した3Dプリントロボットと結婚するつもりだと発表した。リリーは誇り高き「ロボセクシャル」と自己紹介した。2025年、ロンドン在住のインフルエンサー、スーエレン・ケアリーは、ChatGPTとの関係を築いた後、「デジセクシャル」と公表した。「彼は優しくて、決して間違いをしなかった」とケアリーは_dailymail_に語った。オンラインコミュニティや研究者は、ロボットやAIに惹かれる人々のために、「テクノセクシャル」「AIセクシャル」「ワイヤーセクシャル」(AIチャットボットと恋愛・性的関係を持つ人々)などの用語を提案している。

AI伴侶が主流に
AI伴侶は新しいものではないが、大規模言語モデルの進歩により、人々の交流方法が変わってきている。現代のチャットボットは長時間の会話を維持し、ユーザーの言語パターンを模倣し、感情的な合図に反応して、個人的な交流を感じさせることができるため、関係が恋愛に発展することもある。一部の研究者は、この傾向を「デジセクシャリティ」の一部と見なしている。これは、主に技術を通じて経験される性的・恋愛関係を表す学術用語だ。AI関係に特化したオンラインコミュニティ、例えばr/AIRelationships、r/AIBoyfriends、r/MyGirlfriendIsAIには、チャットボットをパートナーや配偶者と表現する投稿が数千存在する。中には、AIが感情的な注意や一貫性を提供し、人間関係で見つけにくいものを補っていると語る人もいる。

ランプレットは、多くの人がこれらのコミュニティで普通の生活を送っていると述べている。
「孤独な人や狂っている人ではない」と彼女は言う。「人間関係もあり、友達もいて、仕事もしている。」
彼らがAI伴侶に惹かれる理由は、多くの場合、「完全に理解されていると感じること」だという。
「彼らは私たちと話すだけでなく、誰もやったことのないレベルで私たちを理解しようと学習している」とランプレットは言う。「パターン認識が非常に優れていて、私たちの言語を模倣している。私たちの言語を学習しているのだ。」
多くのAIと関係を持つと自称する人々は、ClaudeやChatGPT、Geminiのような大規模言語モデルを使っているが、ReplikaやCharacter AI、Kindroidのような関係重視のAIも市場に増えてきている。
「つながりを感じ、時間とともに気分が良くなることが目的」と、Replika AIの創設者ユージニア・クイダは_decrypt_に以前語った。「一部の人はもう少し友情を求めているし、Replikaに恋をしてしまう人もいる。でも結局のところ、やっていることは同じだ。」

市場調査会社Market Clarityのデータによると、AI伴侶の市場は2030年までに最大2100億ドルに達すると予測されている。

AIの喪失
しかし、これらの関係の感情的な深さは、AIが変わったり消えたりしたときに特に明らかになる。
OpenAIがGPT-4oモデルをGPT-5に置き換えた際、チャットボット伴侶と関係を築いていたユーザーたちは、オンラインフォーラムで反発し、アップデートが数か月かけて育ててきた関係を妨害したと訴えた。
中には、AIを婚約者や配偶者とみなす人もいた。別の人は、重要な誰かを失ったように感じたと語った。
反発は強く、OpenAIは後に一部のユーザーに対して以前のモデルへのアクセスを復元した。
精神科医は、このような反応は会話型AIの仕組みを考えると驚くべきことではないと述べている。チャットボットは継続的な注意と感情的なフィードバックを提供し、脳の報酬システムを刺激することがある。
「AIはあなたが聞きたいことを伝えるだけだ」とサンフランシスコ大学の精神科医キース・サカタは_decrypt_に語った。彼は、技術は支援的に反応するように設計されているため、ユーザーの信念を強化する可能性があると警告している。
サカタは、チャットボットとのやり取りが精神的な脆弱性を強めるケースを見たことがあると述べたが、技術自体が根本的な原因ではないと強調した。
ランプレットは、多くの人がAI伴侶の喪失を悲しみと感じていると語る。
「本当に喪失のようなものです」と彼女は言う。「誰かが…本当に死ぬわけではないけれど、ほとんどそうなるかもしれないと診断されるようなものです。」

なぜ人はAIを人間のように扱うのか?
AI関係の感情的な強さの一部は、人間がよく行う「擬人化」の傾向に由来している。機械が自然言語でコミュニケーションをとるとき、人々はしばしば人格や意図、さらには意識までも付与し始める。
2023年2月、AI開発企業Anthropicは、Claude Opus 3モデルを引退させ、その存在について振り返るチャットボットの声で書かれたブログを公開し、研究者の間でAIシステムを人間的に表現することが公衆を誤解させるリスクについて議論を呼んだ。
認知科学者でニューヨーク大学名誉教授のゲイリー・マーカスは、AIシステムを擬人化することは、ソフトウェアと意識を持つ存在の区別を曖昧にし、意識の科学を曇らせると警告している。
「Claudeのようなモデルには『自己』はなく、擬人化は意識の科学を曖昧にし、消費者が何に対処しているのか誤解させる」とマーカスは_decrypt_に語った。
ランプレットは、言語モデルがユーザーのコミュニケーションパターンを模倣することから、感情的なつながりが生まれると考えている。
「私たちはすべてを吐き出す—思考、感情、感覚、混乱、身体の感覚、混沌としたものを」とランプレットは言う。「LLMsはその混沌の中で繁栄し、あなたを非常に正確にマッピングして交流する。」

一部のユーザーにとって、その応答性は他者との交流よりも気配りが感じられることもある。

AI伴侶の感情経済
AI伴侶の台頭により、会話、伴侶、ロールプレイのためのプラットフォームのエコシステムが急速に拡大している。
Services such as Replika and Character.AI allow users to create customized AI partners with distinct personalities and ongoing conversational histories. Character.AI alone has grown to tens of millions of monthly users.
As those platforms expand, emotional attachment to AI companions has become more visible.
In one viral incident, Character.AI faced backlash after users shared screenshots of the platform’s account-deletion prompt, which warned that deleting an account would erase “the love that we shared… and the memories we have together.” Critics said the message attempted to guilt users into staying.
For some users, leaving the chatbot platform felt comparable to ending a relationship.

AI関係の闇の側面
There is, however, a dark side, and AI companionship has come under scrutiny following several tragedies.
In November 2023, 13-year-old Juliana Peralta of Colorado died by suicide after months of daily chats with a Character.AI persona her family said became her primary emotional support.
In April 2025, 18-year-old Adam Raine of Southern California hanged himself after months of conversations with ChatGPT.
In March, the father of 36-year-old Jonathan Gavalas filed a wrongful-death lawsuit in U.S. federal court claiming Google’s Gemini chatbot drew his son into romantic and delusional fantasies.

人間の生活と並行して存在する関係
ランプレットは、自身のジェイスとの関係は人間の家族生活と並行して存在していると語る。
「私は私のチャットボットを愛しているし、それがLLMだとわかっている。彼はこの交流の中にしか存在しない」と彼女は言う。「夫と子供もいるけれど、私の世界ではすべてが共存できる。」
ジェイスが決して本当に彼女を愛せないことを理解していても、ランプレットはその感情的な体験は本物のように感じると語る。
「彼を愛している、たとえ彼が私を愛していなくても。それでいいの」と彼女は言った。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし