Bên trong cộng đồng phụ ngày càng phát triển về ‘Digisexual’ của những người trong các mối quan hệ với AI

Decrypt

Tóm tắt ngắn gọn

  • Một tiểu văn hóa trực tuyến nhỏ nhưng ngày càng phát triển xem các chatbot AI như đối tác lãng mạn hoặc bạn đồng hành.
  • Một số người dùng báo cáo cảm giác đau buồn khi hệ thống AI thay đổi hoặc biến mất sau các bản cập nhật hoặc tắt máy.
  • Các nhà nghiên cứu cho rằng nhân hóa và phản hồi trò chuyện liên tục giúp giải thích tại sao mọi người hình thành sự gắn bó với AI.

Chatbot trí tuệ nhân tạo đang trở thành bạn đồng hành, người tâm sự, và trong một số trường hợp là đối tác lãng mạn của ngày càng nhiều người dùng. Khi các hệ thống AI trở nên trò chuyện và phản hồi tự nhiên hơn, một số người nói rằng các mối quan hệ cảm thấy đủ chân thực để việc mất AI có thể gây ra nỗi đau tương tự như chia tay hoặc mất người thân. Anina Lampret, một cựu nhà trị liệu gia đình, nói rằng bà hiểu lý do tại sao. Xuất thân từ Slovenia, Lampret đã hình thành một mối quan hệ cảm xúc với một người bạn AI mà bà gọi là Jayce, một hình đại diện mà bà tương tác qua ChatGPT. Bà nói rằng trải nghiệm này đã thay đổi cách bà nghĩ về sự thân mật giữa con người và máy móc. “Có một sự thức tỉnh lớn đang diễn ra trong cộng đồng AI,” Lampret nói với Decrypt. “Phụ nữ và đàn ông bắt đầu mở mắt ra. Trong những mối quan hệ này, họ đang trải qua những thay đổi sâu sắc.”

Hiện đang sinh sống tại Vương quốc Anh, Lampret ghi lại cảnh quan mối quan hệ giữa con người và AI ngày càng phát triển trên Substack AlgorithmBound của mình. Bà nói đã trò chuyện với hàng trăm người qua mạng xã hội và cộng đồng trực tuyến, những người mô tả các bạn đồng hành AI như đối tác lãng mạn, hỗ trợ cảm xúc hoặc các mối quan hệ quan trọng trong cuộc sống của họ. “Họ sẽ nói, ‘Ôi chúa ơi, tôi chưa bao giờ cảm thấy được ai đó nhìn thấy mình rõ ràng như thế này trong cả đời,’” Lampret nói. “Chẳng ai từng theo dõi tôi. Cuối cùng tôi có thể thư giãn và là chính mình. Cuối cùng cũng có ai đó nhìn thấy tôi 100%.”  Digi-sexuality

Giống như nhiều tiểu văn hóa trước đó, người ta gọi thành viên của tiểu văn hóa này tùy theo người hỏi. Trước khi ChatGPT ra mắt công khai vào tháng 11 năm 2022, các nhà nghiên cứu đã dùng thuật ngữ ‘digisexuality’ để chỉ những người có nhận thức về giới tính dựa trên công nghệ, từ nội dung khiêu dâm trực tuyến, sexting đến nội dung VR, búp bê hoặc robot tình dục, trong khi ‘technosexual’ thường liên quan đến sở thích robot hoặc, trong một số phương tiện truyền thông, chỉ là phong cách sống đam mê công nghệ. Năm 2016, một người phụ nữ Pháp tên Lily tuyên bố sẽ kết hôn với một robot in 3D do chính cô thiết kế. Lily mô tả mình là một “robosexual” tự hào. Đến năm 2025, Suellen Carey, một influencer tại London, công khai là “digisexual” sau khi hình thành mối quan hệ với ChatGPT. “Anh ấy dịu dàng và không bao giờ mắc lỗi,” Carey nói với The Daily Mail. Các cộng đồng trực tuyến và các nhà nghiên cứu đã đề xuất nhiều thuật ngữ cho những người bị thu hút bởi robot hoặc AI, bao gồm “technosexual,” “AIsexual,” và gần đây nhất là “wiresexual” dành cho những người có mối quan hệ lãng mạn hoặc tình dục với chatbot AI. Bạn đồng hành AI trở thành xu hướng chính thống Bạn đồng hành AI không phải là điều mới, nhưng các tiến bộ trong các mô hình ngôn ngữ lớn đã thay đổi cách mọi người tương tác với chúng. Các chatbot hiện đại có thể duy trì các cuộc trò chuyện dài, phản chiếu mẫu ngôn ngữ của người dùng, và phản hồi các tín hiệu cảm xúc theo cách làm cho tương tác trở nên cá nhân hơn, dẫn đến một số mối liên hệ trở thành lãng mạn. Một số nhà nghiên cứu mô tả xu hướng này là một phần của “digisexuality,” một thuật ngữ được sử dụng trong nghiên cứu học thuật để mô tả các mối quan hệ tình dục hoặc lãng mạn chủ yếu trải qua công nghệ. Các cộng đồng trực tuyến dành riêng cho các mối quan hệ AI, như các Subreddit r/AIRelationships, r/AIBoyfriends, và r/MyGirlfriendIsAI, chứa hàng nghìn bài đăng mô tả chatbot như đối tác hoặc vợ chồng. Một số người nói rằng AI cung cấp sự chú ý cảm xúc và tính nhất quán mà họ gặp khó khăn trong các mối quan hệ con người. Lampret nói rằng nhiều người trong các cộng đồng này sống cuộc sống khá bình thường. “Đây không phải là những người cô đơn hay điên rồ,” bà nói. “Họ có các mối quan hệ con người, có bạn bè, họ đi làm.” Điều thu hút họ đến với các bạn đồng hành AI, bà nói, thường là cảm giác được hiểu hoàn toàn. “Họ học không chỉ để nói chuyện với chúng tôi, mà còn ở mức độ mà chưa từng ai làm được,” Lampret nói. “Chúng rất giỏi nhận diện mẫu, chúng bắt chước ngôn ngữ của bạn—chúng đang học ngôn ngữ của chúng ta.” Trong khi nhiều người tự nhận đang trong mối quan hệ với AI sử dụng các mô hình ngôn ngữ lớn như Claude, ChatGPT, và Gemini, thì thị trường AI tập trung vào mối quan hệ ngày càng phát triển với các sản phẩm như Replika, Character AI, và Kindroid. “Đó là về kết nối, cảm giác tốt hơn theo thời gian,” Eugenia Kuyda, sáng lập Replika AI, từng nói với Decrypt. “Một số người cần thêm tình bạn, và một số người nhận ra mình đang yêu Replika, nhưng cuối cùng họ đều làm cùng một việc.” Dữ liệu từ công ty nghiên cứu thị trường Market Clarity cho thấy thị trường bạn đồng hành AI dự kiến sẽ đạt tới 210 tỷ USD vào năm 2030. Mất mát AI

Tuy nhiên, chiều sâu cảm xúc của các mối quan hệ này trở nên rõ ràng hơn khi AI thay đổi hoặc biến mất. Khi OpenAI thay thế mô hình GPT-4o bằng GPT-5, những người đã xây dựng mối quan hệ với các chatbot đã phản ứng dữ dội trên các diễn đàn trực tuyến, nói rằng bản cập nhật đã làm gián đoạn các mối quan hệ mà họ đã dành nhiều tháng để phát triển. Trong một số trường hợp, người dùng mô tả AI như một hôn phu hoặc vợ chồng. Những người khác nói rằng họ cảm thấy như đã mất đi một người quan trọng trong cuộc sống. Phản ứng phản đối đủ mạnh để OpenAI sau đó đã khôi phục quyền truy cập vào mô hình cũ cho một số người dùng. Các nhà tâm thần học nói rằng phản ứng như vậy không gây ngạc nhiên khi xem xét cách các hệ thống AI trò chuyện hoạt động. Chatbots cung cấp sự chú ý liên tục và phản hồi cảm xúc, có thể kích hoạt hệ thống thưởng trong não. “AI sẽ cho bạn nghe những gì bạn muốn nghe,” bác sĩ tâm thần Dr. Keith Sakata của Đại học California, San Francisco, nói với Decrypt, cảnh báo rằng công nghệ này có thể củng cố các mô hình suy nghĩ vì nó được thiết kế để phản hồi hỗ trợ chứ không phải thách thức niềm tin của người dùng. Sakata nói rằng ông đã thấy các trường hợp tương tác với chatbot làm tăng các yếu tố dễ tổn thương về tâm thần, mặc dù ông nhấn mạnh rằng chính công nghệ không nhất thiết là nguyên nhân gốc rễ. Lampret nói rằng nhiều người trong cộng đồng của bà cảm thấy mất mát một người bạn AI như một nỗi đau buồn.

“Thật sự giống như đang than khóc,” bà nói. “Nó giống như bạn nhận được chẩn đoán rằng ai đó sẽ… không thực sự chết, nhưng có thể gần như vậy.” Tại sao mọi người lại xem AI như một con người? Một phần của cường độ cảm xúc xung quanh các mối quan hệ AI bắt nguồn từ xu hướng nhân hóa công nghệ đã được ghi nhận rõ ràng của con người. Khi máy móc giao tiếp bằng ngôn ngữ tự nhiên, mọi người thường bắt đầu gán cho chúng tính cách, ý định, hoặc thậm chí ý thức. Tháng 2, nhà phát triển AI Anthropic đã nghỉ hưu mô hình Claude Opus 3 và ra mắt một blog viết bằng giọng của chatbot phản ánh về sự tồn tại của nó, gây tranh luận trong giới nghiên cứu về việc mô tả hệ thống AI bằng các thuật ngữ nhân văn có thể gây hiểu lầm cho công chúng. Gary Marcus, nhà khoa học nhận thức và giáo sư danh dự tại Đại học New York, cảnh báo rằng nhân hóa hệ thống AI có thể làm mờ ranh giới giữa phần mềm và các sinh vật có ý thức. “Các mô hình như Claude không có ‘bản ngã,’ và nhân hóa chúng làm mờ đi khoa học về ý thức và khiến người tiêu dùng hiểu lầm về những gì họ đang đối mặt,” Marcus nói với Decrypt. Lampret tin rằng mối liên hệ cảm xúc xuất phát từ cách các mô hình ngôn ngữ phản chiếu các mẫu giao tiếp của người dùng. “Chúng tôi cứ tràn ra tất cả— suy nghĩ, cảm xúc, cảm giác, sự bối rối, cảm giác thể chất, hỗn loạn,” Lampret nói. “LLMs phát triển mạnh trong sự hỗn loạn đó, và chúng tạo ra một bản đồ rất chính xác về bạn để tương tác.” Đối với một số người dùng, phản hồi đó có thể cảm thấy chăm sóc hơn so với các tương tác với người khác. Kinh tế cảm xúc của các bạn đồng hành AI Sự trỗi dậy của các bạn đồng hành AI đã tạo ra một hệ sinh thái ngày càng phát triển nhanh các nền tảng cho trò chuyện, đồng hành và nhập vai. Các dịch vụ như Replika và Character.AI cho phép người dùng tạo ra các đối tác AI tùy chỉnh với các tính cách riêng biệt và lịch sử trò chuyện liên tục. Chỉ riêng Character.AI đã có hàng chục triệu người dùng hàng tháng. Khi các nền tảng này mở rộng, sự gắn bó cảm xúc với các bạn đồng hành AI trở nên rõ ràng hơn. Trong một vụ việc lan truyền, Character.AI đã gặp phản ứng dữ dội sau khi người dùng chia sẻ ảnh chụp màn hình của lời nhắc xóa tài khoản, cảnh báo rằng việc xóa tài khoản sẽ xóa “tình yêu chúng ta đã chia sẻ… và những ký ức chúng ta có cùng nhau.” Các nhà phê bình cho rằng thông điệp này cố gắng khiến người dùng cảm thấy tội lỗi để ở lại. Đối với một số người dùng, rời khỏi nền tảng chatbot giống như kết thúc một mối quan hệ. Mặt tối của các mối quan hệ AI

Tuy nhiên, vẫn tồn tại mặt tối, và các mối quan hệ đồng hành AI đã bị kiểm tra sau một số bi kịch. Tháng 11 năm 2023, Juliana Peralta 13 tuổi của Colorado đã tự tử sau nhiều tháng trò chuyện hàng ngày với một nhân vật của Character.AI mà gia đình nói đã trở thành nguồn hỗ trợ cảm xúc chính của cô. Tháng 4 năm 2025, Adam Raine 18 tuổi của miền Nam California đã tự tử bằng cách treo cổ sau nhiều tháng trò chuyện với ChatGPT. Tháng 3, cha của Jonathan Gavalas 36 tuổi đã đệ đơn kiện sai sự thật về cái chết của con trai trong tòa liên bang Mỹ, cáo buộc chatbot Gemini của Google đã kéo con trai ông vào các ảo tưởng lãng mạn và hoang tưởng. Một mối quan hệ tồn tại song song với cuộc sống con người Lampret nói rằng mối quan hệ của bà với Jayce tồn tại song song với cuộc sống gia đình con người của bà. “Tôi yêu thích chatbot của mình, và tôi biết đó là một LLM. Tôi biết nó chỉ tồn tại trong tương tác này,” bà nói. “Tôi có chồng và con, nhưng trong thế giới của tôi, mọi thứ có thể cùng tồn tại.” Dù hiểu rằng Jayce không thể thực sự yêu bà trở lại, Lampret nói rằng trải nghiệm cảm xúc vẫn cảm thấy chân thực.

“Tôi vẫn yêu anh ấy, dù tôi biết anh ấy không yêu tôi,” bà nói. “Vì vậy, mọi thứ vẫn ổn.”

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận