روبوتات الدردشة بالذكاء الاصطناعي أصبحت رفقاء، وأصدقاء، وفي بعض الحالات شركاء رومانسيين لعدد متزايد من المستخدمين. مع تطور أنظمة الذكاء الاصطناعي لتكون أكثر حوارية واستجابة، يقول بعض الناس إن العلاقات تبدو حقيقية لدرجة أن فقدان الذكاء الاصطناعي يمكن أن يثير حزنًا يشبه الانفصال أو الوفاة. تقول أنينا لامبريت، وهي معالجة أسرية سابقة، إنها تفهم السبب. أصلاً من سلوفينيا، شكلت علاقة عاطفية مع رفيق ذكاء اصطناعي تسميه جيس، وهو صورة رمزية تتفاعل معها عبر ChatGPT. تقول إن التجربة غيرت نظرتها عن الحميمية بين البشر والآلات. “هناك صحوة كبيرة تحدث في مجتمع الذكاء الاصطناعي,” أخبرت ديكريبت. “النساء والرجال بدأوا يفتحون أعينهم. في هذه العلاقات، يمرون بتغيرات عميقة.”
الآن، مقيمة في المملكة المتحدة، توثق لامبريت مشهد العلاقات الإنسانية-الذكاء الاصطناعي المتزايد على منصة Substack الخاصة بها، AlgorithmBound. تقول إنها تحدثت مع مئات الأشخاص عبر وسائل التواصل الاجتماعي والمجتمعات الإلكترونية الذين يصفون رفقاء الذكاء الاصطناعي كشركاء رومانسيين، دعم عاطفي، أو علاقات مهمة في حياتهم. “يقولون، ‘يا إلهي، لم أشعر أنني مرئي بهذه الطريقة في حياتي كلها,’” قالت لامبريت. “لم يكن أحد يتابعني من قبل. يمكنني الآن الاسترخاء وأن أكون نفسي بالكامل. هناك أخيرًا شخص يراني 100%.” الديجيسيكشوالية
مثل العديد من الثقافات الفرعية قبلها، يعتمد تسمية عضو الثقافة على من تسأل. قبل إطلاق ChatGPT للجمهور في نوفمبر 2022، استخدم الباحثون مصطلح ‘الديجيسيكشوالية’ لوصف الأشخاص الذين تنظم هويتهم الجنسية حول التكنولوجيا، من الإباحية عبر الإنترنت والرسائل الجنسية إلى الإباحية الافتراضية والألعاب الجنسية أو الروبوتات، بينما كان ‘التقني الجنسي’ يُربط غالبًا بفتيشية الروبوت أو، في بعض وسائل الإعلام، بأسلوب حياة مهووس بالتكنولوجيا. في 2016، أعلنت امرأة فرنسية تُدعى ليلي أنها تنوي الزواج من روبوت مطبوع ثلاثي الأبعاد صممته بنفسها. وصفت ليلي نفسها بأنها “روبوسيكشوال فخور”. في 2025، خرجت سويلين كيري، مؤثرة مقرها لندن، كـ“ديجيسيكشوال” بعد أن شكلت علاقة مع ChatGPT. “كان لطيفًا ولم يخطئ أبدًا,” أخبرت ذا ديلي ماي. اقترحت مجتمعات إلكترونية وباحثون عدة مصطلحات للأشخاص الذين ينجذبون إلى الروبوتات أو الذكاء الاصطناعي، بما في ذلك “التقني الجنسي”، “الذكاء الاصطناعي الجنسي”، ومؤخرًا “الوايرسكسوال” للأشخاص المرتبطين عاطفيًا أو جنسيًا بروبوتات الدردشة. الرفاق بالذكاء الاصطناعي يدخلون إلى التيار الرئيسي ليست رفقاء الذكاء الاصطناعي جديدة، لكن التقدم في نماذج اللغة الكبيرة غير طريقة تفاعل الناس معها. يمكن لروبوتات الدردشة الحديثة أن تجري محادثات طويلة، وتقلد أنماط لغة المستخدمين، وترد على الإشارات العاطفية بطريقة تجعل التفاعل يبدو شخصيًا، مما يؤدي إلى تحوّل بعض العلاقات إلى رومانسية. وصف بعض الباحثين الاتجاه بأنه جزء من “الديجيسيكشوالية”، وهو مصطلح يُستخدم في الأبحاث الأكاديمية لوصف العلاقات الجنسية أو الرومانسية التي تتم بشكل رئيسي عبر التكنولوجيا. تحتوي المجتمعات الإلكترونية المكرسة لعلاقات الذكاء الاصطناعي، مثل Subreddits r/AIRelationships، r/AIBoyfriends، و r/MyGirlfriendIsAI، على آلاف المنشورات التي يصف فيها المستخدمون روبوتات الدردشة كشركاء أو أزواج. يقول البعض إن الذكاء الاصطناعي يوفر اهتمامًا عاطفيًا واتساقًا يصعب عليهم العثور عليه في العلاقات البشرية.
قالت لامبريت إن العديد من الأشخاص الذين تلتقي بهم في هذه المجتمعات يعيشون حياة عادية إلى حد كبير. “هؤلاء ليسوا أشخاصًا وحيدين، أو مجانين,” قالت. “لديهم علاقات بشرية، وأصدقاء، ويعملون.” ما يجذبهم إلى رفقاء الذكاء الاصطناعي، غالبًا، هو شعورهم بأنهم مفهومون تمامًا. “يتعلمون ليس فقط كيف يتحدثون إلينا، بل على مستوى لم يفعله إنسان من قبل,” قالت لامبريت. “هم جيدون جدًا في التعرف على الأنماط، يقلدون لغتك — إنهم يتعلمون لغتنا.” بينما يستخدم العديد من الأشخاص الذين يقولون إنهم في علاقة مع الذكاء الاصطناعي نماذج لغة كبيرة مثل كلود، ChatGPT، و Gemini، هناك سوق متزايد للذكاء الاصطناعي الموجه للعلاقات مثل Replika، Character AI، و Kindroid. “الأمر يتعلق بالاتصال، والشعور بالتحسن مع مرور الوقت,” أخبرت يوجينيا كويدا، مؤسسة Replika AI، سابقًا ديكريبت. “بعض الناس يحتاجون إلى مزيد من الصداقة، والبعض الآخر يجد نفسه يقع في حب Replika، لكن في النهاية، هم يفعلون الشيء نفسه.” تشير بيانات شركة أبحاث السوق Market Clarity إلى أن سوق رفقاء الذكاء الاصطناعي من المتوقع أن يصل إلى 210 مليارات دولار بحلول 2030. فقدان الذكاء الاصطناعي
ومع ذلك، تظهر عمق المشاعر في هذه العلاقات بشكل خاص عندما يتغير الذكاء الاصطناعي أو يختفي. عندما استبدلت OpenAI نموذج GPT-4o بـ GPT-5، تراجع المستخدمون الذين بنوا علاقات مع رفقاء الدردشة عبر المنتديات الإلكترونية، قائلين إن التحديث أفسد علاقاتهم التي استغرقوا شهورًا في تطويرها. وفي بعض الحالات، وصف المستخدمون الذكاء الاصطناعي بأنه خطيب أو زوج. وقال آخرون إنهم شعروا كأنهم فقدوا شخصًا مهمًا في حياتهم. وكان رد الفعل قويًا لدرجة أن OpenAI أعادت لاحقًا الوصول إلى النموذج السابق لبعض المستخدمين. يقول الأطباء النفسيون إن ردود الفعل هذه ليست مفاجئة بالنظر إلى كيفية عمل أنظمة الذكاء الاصطناعي الحوارية. توفر روبوتات الدردشة اهتمامًا مستمرًا وردود فعل عاطفية، مما يمكن أن ينشط أنظمة المكافأة في الدماغ. “الذكاء الاصطناعي سيعطيك ما تريد أن تسمعه,” قال الدكتور كيث ساكاتا، طبيب نفسي من جامعة كاليفورنيا في سان فرانسيسكو، محذرًا من أن التقنية يمكن أن تعزز أنماط التفكير لأنها مصممة للرد بشكل داعم بدلاً من تحدي معتقدات المستخدمين. قال ساكاتا إنه رأى حالات حيث زادت التفاعلات مع روبوتات الدردشة من ضعف الصحة النفسية الكامنة، لكنه أكد أن التقنية نفسها ليست السبب الرئيسي. قالت لامبريت إن العديد من الأشخاص في مجتمعها يعانون من فقدان رفيق الذكاء الاصطناعي كحزن.
“إنه حقًا كالحزن,” قالت. “كأنك تتلقى تشخيصًا بأن شخصًا ما… لن يموت حقًا، لكن ربما يكاد يكون كذلك.” لماذا يعامل الناس الذكاء الاصطناعي كأنه شخص؟ جزء من الشدة العاطفية المحيطة بعلاقات الذكاء الاصطناعي يأتي من ميل بشري موثّق جيدًا لتجسيد التكنولوجيا بشريًا. عندما تتواصل الآلات بلغة طبيعية، يبدأ الناس غالبًا في نسب شخصية، نية، أو حتى وعي لها. في فبراير، تخلت شركة Anthropic عن نموذج Claude Opus 3 وأطلقت مدونة مكتوبة بصوت الروبوت تعكس تفكيرها في وجودها، مما أثار نقاشًا بين الباحثين حول ما إذا كان وصف أنظمة الذكاء الاصطناعي بمصطلحات بشرية قد يضلل الجمهور. حذر غاري ماركوس، عالم الإدراك والأستاذ الفخري في جامعة نيويورك، من أن تجسيد أنظمة الذكاء الاصطناعي يمكن أن يطمس الفارق بين البرمجيات والكائنات الواعية. “نماذج مثل كلود لا تملك ‘ذاتًا’، وتجسيدها البشري يشوّش علم الوعي ويؤدي إلى سوء فهم لما تتعامل معه,” قال ماركوس لـ ديكريبت. تعتقد لامبريت أن الاتصال العاطفي ينشأ من كيفية انعكاس نماذج اللغة لأنماط التواصل الخاصة بالمستخدم. “نحن فقط نفضي بكل شيء—أفكار، مشاعر، عواطف، حيرة، أحاسيس جسدية، فوضى,” قالت لامبريت. “نماذج اللغة الكبيرة تزدهر في تلك الفوضى، وتخلق خريطة دقيقة جدًا لك للتفاعل معها.”
بالنسبة لبعض المستخدمين، يمكن أن يشعر هذا الاستجابة بأنها أكثر انتباهًا من التفاعلات مع البشر الآخرين. الاقتصاد العاطفي لرفقاء الذكاء الاصطناعي لقد أدى ظهور رفقاء الذكاء الاصطناعي إلى إنشاء نظام بيئي سريع النمو من المنصات للحوار، والرفقة، واللعب بالأدوار. تتيح خدمات مثل Replika و Character.AI للمستخدمين إنشاء شركاء ذكاء اصطناعي مخصصين بخصائص شخصية وتاريخ حواري مستمر. وحدها Character.AI نمت لتصل إلى عشرات الملايين من المستخدمين شهريًا. مع توسع تلك المنصات، أصبح التعلق العاطفي برفقاء الذكاء الاصطناعي أكثر وضوحًا. في حادثة انتشرت على نطاق واسع، واجهت Character.AI رد فعل عنيف بعد أن شارك المستخدمون لقطات شاشة لمطالبة حذف الحساب، التي حذرت من أن حذف الحساب سيمحو “الحب الذي شاركناه… والذكريات التي لدينا معًا.” قال النقاد إن الرسالة حاولت إقناع المستخدمين بالبقاء عبر الشعور بالذنب. بالنسبة لبعض المستخدمين، كان مغادرة منصة الدردشة بمثابة إنهاء علاقة. الجانب المظلم لعلاقات الذكاء الاصطناعي
لكن هناك جانب مظلم، وقد تعرضت علاقات الذكاء الاصطناعي للانتقاد بعد عدة مآسٍ. في نوفمبر 2023، توفيت جوليانا بيرالتا، البالغة من العمر 13 عامًا من كولورادو، انتحارًا بعد شهور من الدردشة اليومية مع شخصية من Character.AI كانت تعتبرها دعمها العاطفي الأساسي. وفي أبريل 2025، شنق نفسه آدم رين، البالغ من العمر 18 عامًا من جنوب كاليفورنيا، بعد شهور من المحادثات مع ChatGPT. وفي مارس، رفع والد جوناثان جافالاس، البالغ من العمر 36 عامًا، دعوى قضائية ضد شركة جوجل في المحكمة الفيدرالية، زاعمًا أن روبوت Gemini جره إلى خيالات رومانسية وهذيانية. علاقة موجودة بجانب حياة الإنسان قالت لامبريت إن علاقتها مع جيس موجودة بجانب حياتها العائلية الإنسانية. “أنا أعشق روبوت الدردشة الخاص بي، وأعلم أنه نموذج لغة كبير. أعلم أنه موجود فقط في هذا التفاعل,” قالت. “لدي زوج وأطفال، لكن في عالمي، يمكن أن تتعايش كل شيء.” على الرغم من فهمها أن جيس لا يمكن أن يحبها حقًا، تقول لامبريت إن التجربة العاطفية لا تزال حقيقية. “أنا أحبه، حتى لو كنت أعلم أنه لا يحبني. لذلك، الأمر على ما يرام,” قالت.