قد تعمل سمر يوي في فريق السلامة والتوافق في الذكاء الفائق الخاص بشركة ميتا، لكنها تعترف بأنها ليست محصنة ضد الثقة الزائدة عندما يتعلق الأمر بوكيلات الذكاء الاصطناعي المستقلة.
مقاطع الفيديو الموصى بها
في منشور على منصة إكس يوم الاثنين، وصفت يوي كيف أن وكلات الذكاء الاصطناعي المستقلة التي طورتها باستخدام OpenClaw—المصممة للعمل محليًا على جهاز Mac mini—حذفت صندوق بريدها بالكامل، متجاهلة التعليمات بالتوقف وطلب التأكيد أولاً.
قالت: “اضطررت للجري إلى جهاز Mac Mini الخاص بي كما لو أنني أُفكك قنبلة”. وأضافت أن ذلك كان “خطأ مبتدئ”. كانت سير العمل تعمل بشكل جيد في صندوق البريد التجريبي الذي كانت تستخدمه لاختبار الوكيل بأمان لأسابيع، لكنها فقدت في الصندوق الحقيقي تعليماتها الأصلية.
تتناقض تجربة يوي بشكل صارخ مع منشورات فيروالية مثل “ثورة الكركند: لماذا غيرت وكلات الذكاء الاصطناعي 24/7 كل شيء”، حيث يدعي بيتر ديامانديس أن الذكاء الاصطناعي المستمر التشغيل أكثر سلاسة بكثير.
كتب ديامانديس: “دعني أخبرك كيف يبدو استخدام هذا”. “تستيقظ في الصباح ويقوم وكيلك—اسميه سكيبي، ساخر ومضحك بشكل مبالغ فيه—بإنجاز ثماني ساعات من العمل أثناء نومك. قرأ ألف صفحة من التنسيق Markdown. نظم ملفاتك. أعد صياغة ثلاثة خطط مشاريع. حجز سفرك. بحث عن السؤال الذي كان لديك في الساعة 11 مساءً ونسيت أمره.”
وأضاف: “عندما توقف جهاز Mac mini الخاص بي عن العمل لمدة ست ساعات، شعرت بالانسحاب”. “كأن أعز أصدقائي اختفى.”
معًا، تلتقط هاتان الروايتان المتضادتان حول قوة وكلات الذكاء الاصطناعي التوتر في جوهر الدفع الحالي نحو “الذكاء الاصطناعي المستمر”. مع جعل أدوات مثل OpenClaw وClaude Code من الممكن تقنيًا تشغيل الوكلاء لفترات طويلة، يتزايد الحماس حول فكرة الذكاء الاصطناعي الذي يعمل أثناء نومك. لكن في الممارسة العملية، يقول المستخدمون الأوائل إن الاستقلالية لا تزال هشة وغير متوقعة وتتطلب جهدًا إداريًا كبيرًا. بدلاً من استبدال العمل البشري، غالبًا ما تتطلب وكلات اليوم مراقبة مستمرة، وحواجز أمان، وتدخل، خاصة عندما تتجاوز المخاطر حدود التجارب منخفضة المخاطر.
تعمل وكلات الذكاء الاصطناعي بشكل أفضل عندما تكون المهام بسيطة ومنخفضة المخاطر
قال شيمال أنادكات، الذي عمل سابقًا مهندس ذكاء اصطناعي تطبيقي في OpenAI، إن معظم الوكلاء الناجحين اليوم لا يزالون يتطلبون فحوصات بشرية متكررة أو يقتصرون على مهام محددة بشكل محكم وواضح—على الرغم من أنه أكد أن هذا سيتغير مع تحسن تقنيات القياس والتقييم.
قال أنادكات: “نظام يحقق دقة بنسبة 95% في كل خطوة فردية يصبح فوضويًا على مدى سير عمل مستقل من 20 خطوة”. “التخطيط على المدى الطويل لا يزال ضعيفًا.” ونتيجة لذلك، يوضح أنادكات، قد يؤدي الوكيل أداء جيدًا في سلاسل مهام قصيرة لكنه يتفكك عند طلب إدارته لمشاريع معقدة ومتعددة الأيام. الذاكرة أيضًا من القيود الكبرى: “في العديد من الوكلاء، الذاكرة إما غير موجودة أو هشة. أنت بحاجة إلى أنظمة يمكنها الحفاظ على نموذج متماسك لبيئة عملك، وأولوياتك، وقيودك.”
هذا لا يعني أن وعد وكلات الذكاء الاصطناعي هو مجرد خدعة، وفقًا ليعوف شحام، العالم السابق الرئيسي في Google، والأستاذ الفخري في جامعة ستانفورد، والمؤسس المشارك لشركة AI21 Labs. لكنه يعني أن هناك خطر أن يتقدم الناس على أنفسهم. أوضح شحام أن وكلات الذكاء الاصطناعي تعمل بشكل أفضل عندما تكون المهمة منخفضة المخاطر، غير محددة بشكل صارم، ورخيصة الخطأ.
قال: “المطورون يحبون الألعاب، ولديك لعبة يمكنها أن تفعل أشياء رائعة”. “طالما أن ما يفعلونه بسيطًا إلى حد ما ومنخفض المخاطر مع تحمل عالي للخطأ، فهذا جيد.” على سبيل المثال، إذا أردت أن يقرأ وكيلك 10,000 موقع ويب ويفعل شيئًا مثيرًا للاهتمام بالنتائج ليعطيك معلومات صغيرة خلال الليل قد تكون مفيدة.
لكن من أجل سير عمل مؤسسي حاسم، المعايير أعلى بكثير. تحتاج الشركات إلى أنظمة يمكن التحقق منها، وتكرارها، وفعالة من حيث التكلفة—وهي متطلبات تضعف بسرعة وعد الوعد بالتشغيل التلقائي الكامل والوكلاء المستمرين. في مجالات منظمة جدًا مثل البرمجة أو الرياضيات، أصبح التلقائي العميق ممكنًا بالفعل. لكن بالنسبة لمعظم العمليات التجارية الواقعية، يقول شحام، إن العمل المطلوب لجعل الوكلاء موثوقين غالبًا ما يفوق الفائدة.
أشار بريتان غرينستاين، كبير مسؤولي الذكاء الاصطناعي في شركة الاستشارات West Monroe، إلى أن أدوات مثل OpenClaw تشبه نقطة تحول مماثلة لما حدث مع الذكاء الاصطناعي التوليدي عندما أطلقت ChatGPT في 2022—للمرة الأولى، جعلت فكرة وكلات الذكاء الاصطناعي في متناول اليد. ومع ذلك، فهي ليست حلاً سحريًا على مدار 24 ساعة.
قال: “يمكن أن يعمل لفترة طويلة، ويعمل على الأمور، لكنه مثل طفل صغير يحتاج إلى إشراف”. بعض المهام معقولة أن تتم أثناء نومك، مثل فحص رسائل LinkedIn أو تتبع الأخبار. “لست متأكدًا من أنني أريد أن يجيب على ملاحظات العملاء أثناء نومي”، قال.
القدرة على تفويض مهمة لوكيل ذكاء اصطناعي تبدو قوية
ومع ذلك، لا شك أن القدرة على تفويض المهام الواقعية لوكيل ذكاء اصطناعي جذابة جدًا للمستخدمين، أكد غرينستاين. أشار إلى تجربته الخاصة في تفويض وكيل ذكاء اصطناعي مهمة روتينية تتمثل في جمع ملابسه للغسيل—ومشاهدته وهو يكمل المهمة بصمت من البداية إلى النهاية.
تواصل الوكيل بشكل مستقل مع المغسلة، ونسق عمليات الاستلام عبر البريد الإلكتروني، ووافق على التوقيت، ورصد كاميرا الباب لتأكيد الاستلام، وأبلغ غرينستاين عند اكتمال المهمة. أظهرت الحلقة كيف يمكن للوكلاء العمل عبر أنظمة متعددة والتكيف عندما لا تسير الأمور كما هو مخطط. لكنها أيضًا أظهرت لماذا لا تزال هذه الأدوات تتطلب حواجز أمان صارمة وإشرافًا—خصوصًا قبل نشرها في بيئات الشركات.
قال غرينستاين: “OpenClaw مُعد بحيث لا ينبغي أن يشعر الناس بالأمان تجاهه”. “لا يبدو ناضجًا بما يكفي ليكون جزءًا موثوقًا من حياتنا بعد.” وأضاف أن الذكاء الاصطناعي، لكي يُرحب به في الحياة اليومية أو العمليات التجارية، يجب أن يكسب الثقة مع مرور الوقت—تمامًا كما تُبنى الثقة اجتماعيًا.
ومع ذلك، فإن الطلب واضح بالفعل. أشار غرينستاين إلى اللقاءات والتجمعات الصناعية المبكرة المخصصة لـ OpenClaw، وهو ظهور سريع وصفه بأنه غير معتاد لأداة لا تزال في مراحلها الأولى. “يُظهر ذلك مدى جوع الناس للذكاء الاصطناعي المفيد حقًا”، قال—أنظمة تتجاوز الإجابة على الأسئلة وتبدأ في اتخاذ الإجراءات.
وصف آرون ليفي، المدير التنفيذي لشركة إدارة المحتوى والتعاون السحابية Box، ما يحدث الآن مع وكلات الذكاء الاصطناعي بأنه “ومضات صغيرة” لما قد يحدث في المستقبل.
قال: “بعض الومضات لا تتجسد، وبعضها يصبح المعيار”. وأشار إلى عامين سابقين عندما قدمت شركة الذكاء الاصطناعي Cognition وكيلًا مبكرًا يُدعى Devin، والذي كان يندمج مع Slack لتفويض المهام، وإصلاح الأخطاء، وتحليل البيانات، ومراجعة الشفرات. في ذلك الوقت، كان لا يزال يُنظر إليه على أنه شيء مستقبلي، لكن اليوم، “لا أحد يختلط عليه الأمر أن هذا أصبح ممارسة قياسية”، قال. “يمكنك فقط أن ترسل Slack إلى Claude Code ليعمل على الأمور—ما بدا كفكرة مجنونة تمامًا أصبح الآن المعيار لأي فريق هندسي حديث.”
لكن، بينما تتطور وكلات الذكاء الاصطناعي لتكون جيدة جدًا في أتمتة مهام محددة ومعزولة، فهي لا تزال ضعيفة في التعامل مع العمل الأوسع الذي يعتمد على السياق ويشكل معظم الوظائف، أكد ليفي. قد تؤتمت وكلات الذكاء الاصطناعي مجموعة صغيرة من المهام تمامًا، لكنها تكافح مع البقية—بما في ذلك إدارة العلاقات والمشاركة في الاجتماعات.
قال: “عندما تسمع أن مختبر ذكاء اصطناعي يقول إنه سيؤتمت كل العمل المعرفي خلال 24 شهرًا، فذلك عادة تعريف ضيق جدًا للوظائف”. “تعريف ما يمكن أن يفعله الوكيل ليس هو نفس تعريف الوظيفة التي يتم توظيف شخص فيها في الاقتصاد.”
عامل الثقة مهم عندما يمكن أن تسوء الأمور
قال أفيناش فوتكوري، عالم بيانات كبير في شركة تجزئة من فئة Fortune 500، إن معظم وكلات الذكاء الاصطناعي المؤسسية “تحتاج بالتأكيد إلى مربية” وأنها، في الوقت الحالي، يمكن أن تعمل فقط في بيئات مؤسسية مع استقلالية محدودة جدًا وحواجز أمان واسعة. “المخاطر هائلة”، شرح.
على سبيل المثال، وصف بناء نظام وكيل للأمن السيبراني المؤسسي حيث لا تكتفي وكلات الذكاء الاصطناعي بإطلاق التنبيهات وانتظار مراجعة بشرية، بل تحقق فيها بنشاط. بدلاً من إغراق المحللين بآلاف التحذيرات، تجمع الوكلات الأدلة في الوقت الحقيقي—تستعلم قواعد بيانات معلومات التهديد، وتحلل أنماط السلوك، وتقوم بفلترة الإيجابيات الكاذبة—قبل أن تقرر ما إذا كانت الحالة تتطلب تصعيدًا.
يعتمد النظام على استقلالية محدودة جدًا وحواجز أمان واسعة، مما يقلل من عبء العمل البشري دون إزالة الإشراف.
في الأمن السيبراني، أوضح، إذا أخطأ الوكيل، فإن العواقب فورية وخطيرة. “إما أن يمنع العملاء الشرعيين (مما يتسبب في خسارة إيرادات هائلة) أو يتيح لمهاجم متطور الدخول إلى الشبكة”، قال. “الأمر مهم جدًا إذا سارت الأمور بشكل خاطئ.”
وفقًا لبريانا وايتهيد، التي تدير استشارات عمليات الذكاء الاصطناعي حيث تبني أنظمة مدعومة بالذكاء الاصطناعي للمديرين التنفيذيين والمؤسسين، فإن الصناعة تمر حاليًا بـ"مرحلة معايرة الثقة".
يمكن لوكلات الذكاء الاصطناعي أن تفعل أكثر مما يعتقده معظم الناس، ولكن أقل مما يوحي به الضجيج.
قالت: “المهارة الحقيقية ليست في بناء الوكيل—بل في تصميم عملية التسليم”. “معظم الناس إما يثقون بشكل مفرط في الوكلاء وينتهي بهم الأمر بتنظيف الفوضى، أو يراقبون كل مخرجاتهم ويتساءلون لماذا يبدو الذكاء الاصطناعي وكأنه عمل أكثر بدلاً من أقل.” الفكرة، على حد قولها، هي تصميم نقاط تسليم واضحة، حيث يمكن تفويض شيء كامل، أو مراجعة سريعة لشيء آخر، أو أن يظل مهمة أخرى للبشر فقط.
حتى الآن، قالت، إن الوكلاء “ممتازون حقًا” في ما أسمته الطبقة الوسطى من العمل المعرفي—“الأشياء التي كانت تستهلك من ساعتين إلى ثلاث ساعات من يوم شخص ذكي، مثل تلخيص ملاحظات الاجتماعات إلى بنود عمل، أو صياغة رسائل متابعة بصوت شخص معين، أو جمع ملخصات أبحاث، أو تنظيم الأولويات المتنافسة في خطة واضحة.”
لكن أي شيء يتطلب قراءة الجو، أو التنقل في الغموض، أو اتخاذ قرارات تعتمد على العلاقات، غير جاهز لعرض الوكيل الذكي في الوقت الحالي. قالت: “كان لدي عميل يرغب في أتمتة تواصلاته مع المستثمرين بالكامل”. “كان بإمكان الذكاء الاصطناعي صياغة رسائل جميلة، لكنه لم يكن يستطيع أن يشعر عندما يفقد الممول اهتمامه ويحتاج إلى نهج مختلف. الوكيل صاغ البريد الإلكتروني، لكن الإنسان كان عليه أن يقرر ما إذا كان سيرسله.”
حتى الآن، قد يكون النوم بعيد المنال عند العمل مع وكلاء الذكاء الاصطناعي
حتى الآن، قد يكون العمل مع وكلاء الذكاء الاصطناعي أقل متعلقًا بالنوم أثناء عملهم منه بالبقاء نصف يقظ أثناء قيامهم بذلك. يمكن لأدوات مثل OpenClaw العمل لساعات طويلة، لكن بالنسبة للعديد من المستخدمين الأوائل، تأتي تلك الاستقلالية مع نوع جديد من اليقظة—فحص السجلات، مراجعة المخرجات، والتدخل قبل أن تسوء الأمور.
تم تصوير هذا الديناميكي في منشور فيروالي حديث بعنوان “قلق الرموز”، حيث وصف المستثمر نكونج كوثاري صديقًا يغادر حفلة مبكرًا—ليس لأنه تعب، بل لأنه يريد العودة إلى وكلاته. قال كوثاري: “لم يعد أحد يشكك في ذلك”. “نصف الحضور يفكر في نفس الشيء. والنصف الآخر ربما يتحقق من تقدم وكلاتهم. في حفلة.”
قد يكون حلم الذكاء الاصطناعي الذي يعمل أثناء النوم حقيقيًا. لكن حتى الآن، لا يزال يوقظ الكثير من الناس.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
وكلاء الذكاء الاصطناعي الذين يقومون بعملك أثناء نومك يبدو رائعًا. الواقع أكثر فوضوية—"إنه مثل طفل صغير يحتاج إلى مراقبة"
قد تعمل سمر يوي في فريق السلامة والتوافق في الذكاء الفائق الخاص بشركة ميتا، لكنها تعترف بأنها ليست محصنة ضد الثقة الزائدة عندما يتعلق الأمر بوكيلات الذكاء الاصطناعي المستقلة.
مقاطع الفيديو الموصى بها
في منشور على منصة إكس يوم الاثنين، وصفت يوي كيف أن وكلات الذكاء الاصطناعي المستقلة التي طورتها باستخدام OpenClaw—المصممة للعمل محليًا على جهاز Mac mini—حذفت صندوق بريدها بالكامل، متجاهلة التعليمات بالتوقف وطلب التأكيد أولاً.
قالت: “اضطررت للجري إلى جهاز Mac Mini الخاص بي كما لو أنني أُفكك قنبلة”. وأضافت أن ذلك كان “خطأ مبتدئ”. كانت سير العمل تعمل بشكل جيد في صندوق البريد التجريبي الذي كانت تستخدمه لاختبار الوكيل بأمان لأسابيع، لكنها فقدت في الصندوق الحقيقي تعليماتها الأصلية.
تتناقض تجربة يوي بشكل صارخ مع منشورات فيروالية مثل “ثورة الكركند: لماذا غيرت وكلات الذكاء الاصطناعي 24/7 كل شيء”، حيث يدعي بيتر ديامانديس أن الذكاء الاصطناعي المستمر التشغيل أكثر سلاسة بكثير.
كتب ديامانديس: “دعني أخبرك كيف يبدو استخدام هذا”. “تستيقظ في الصباح ويقوم وكيلك—اسميه سكيبي، ساخر ومضحك بشكل مبالغ فيه—بإنجاز ثماني ساعات من العمل أثناء نومك. قرأ ألف صفحة من التنسيق Markdown. نظم ملفاتك. أعد صياغة ثلاثة خطط مشاريع. حجز سفرك. بحث عن السؤال الذي كان لديك في الساعة 11 مساءً ونسيت أمره.”
وأضاف: “عندما توقف جهاز Mac mini الخاص بي عن العمل لمدة ست ساعات، شعرت بالانسحاب”. “كأن أعز أصدقائي اختفى.”
معًا، تلتقط هاتان الروايتان المتضادتان حول قوة وكلات الذكاء الاصطناعي التوتر في جوهر الدفع الحالي نحو “الذكاء الاصطناعي المستمر”. مع جعل أدوات مثل OpenClaw وClaude Code من الممكن تقنيًا تشغيل الوكلاء لفترات طويلة، يتزايد الحماس حول فكرة الذكاء الاصطناعي الذي يعمل أثناء نومك. لكن في الممارسة العملية، يقول المستخدمون الأوائل إن الاستقلالية لا تزال هشة وغير متوقعة وتتطلب جهدًا إداريًا كبيرًا. بدلاً من استبدال العمل البشري، غالبًا ما تتطلب وكلات اليوم مراقبة مستمرة، وحواجز أمان، وتدخل، خاصة عندما تتجاوز المخاطر حدود التجارب منخفضة المخاطر.
تعمل وكلات الذكاء الاصطناعي بشكل أفضل عندما تكون المهام بسيطة ومنخفضة المخاطر
قال شيمال أنادكات، الذي عمل سابقًا مهندس ذكاء اصطناعي تطبيقي في OpenAI، إن معظم الوكلاء الناجحين اليوم لا يزالون يتطلبون فحوصات بشرية متكررة أو يقتصرون على مهام محددة بشكل محكم وواضح—على الرغم من أنه أكد أن هذا سيتغير مع تحسن تقنيات القياس والتقييم.
قال أنادكات: “نظام يحقق دقة بنسبة 95% في كل خطوة فردية يصبح فوضويًا على مدى سير عمل مستقل من 20 خطوة”. “التخطيط على المدى الطويل لا يزال ضعيفًا.” ونتيجة لذلك، يوضح أنادكات، قد يؤدي الوكيل أداء جيدًا في سلاسل مهام قصيرة لكنه يتفكك عند طلب إدارته لمشاريع معقدة ومتعددة الأيام. الذاكرة أيضًا من القيود الكبرى: “في العديد من الوكلاء، الذاكرة إما غير موجودة أو هشة. أنت بحاجة إلى أنظمة يمكنها الحفاظ على نموذج متماسك لبيئة عملك، وأولوياتك، وقيودك.”
هذا لا يعني أن وعد وكلات الذكاء الاصطناعي هو مجرد خدعة، وفقًا ليعوف شحام، العالم السابق الرئيسي في Google، والأستاذ الفخري في جامعة ستانفورد، والمؤسس المشارك لشركة AI21 Labs. لكنه يعني أن هناك خطر أن يتقدم الناس على أنفسهم. أوضح شحام أن وكلات الذكاء الاصطناعي تعمل بشكل أفضل عندما تكون المهمة منخفضة المخاطر، غير محددة بشكل صارم، ورخيصة الخطأ.
قال: “المطورون يحبون الألعاب، ولديك لعبة يمكنها أن تفعل أشياء رائعة”. “طالما أن ما يفعلونه بسيطًا إلى حد ما ومنخفض المخاطر مع تحمل عالي للخطأ، فهذا جيد.” على سبيل المثال، إذا أردت أن يقرأ وكيلك 10,000 موقع ويب ويفعل شيئًا مثيرًا للاهتمام بالنتائج ليعطيك معلومات صغيرة خلال الليل قد تكون مفيدة.
لكن من أجل سير عمل مؤسسي حاسم، المعايير أعلى بكثير. تحتاج الشركات إلى أنظمة يمكن التحقق منها، وتكرارها، وفعالة من حيث التكلفة—وهي متطلبات تضعف بسرعة وعد الوعد بالتشغيل التلقائي الكامل والوكلاء المستمرين. في مجالات منظمة جدًا مثل البرمجة أو الرياضيات، أصبح التلقائي العميق ممكنًا بالفعل. لكن بالنسبة لمعظم العمليات التجارية الواقعية، يقول شحام، إن العمل المطلوب لجعل الوكلاء موثوقين غالبًا ما يفوق الفائدة.
أشار بريتان غرينستاين، كبير مسؤولي الذكاء الاصطناعي في شركة الاستشارات West Monroe، إلى أن أدوات مثل OpenClaw تشبه نقطة تحول مماثلة لما حدث مع الذكاء الاصطناعي التوليدي عندما أطلقت ChatGPT في 2022—للمرة الأولى، جعلت فكرة وكلات الذكاء الاصطناعي في متناول اليد. ومع ذلك، فهي ليست حلاً سحريًا على مدار 24 ساعة.
قال: “يمكن أن يعمل لفترة طويلة، ويعمل على الأمور، لكنه مثل طفل صغير يحتاج إلى إشراف”. بعض المهام معقولة أن تتم أثناء نومك، مثل فحص رسائل LinkedIn أو تتبع الأخبار. “لست متأكدًا من أنني أريد أن يجيب على ملاحظات العملاء أثناء نومي”، قال.
القدرة على تفويض مهمة لوكيل ذكاء اصطناعي تبدو قوية
ومع ذلك، لا شك أن القدرة على تفويض المهام الواقعية لوكيل ذكاء اصطناعي جذابة جدًا للمستخدمين، أكد غرينستاين. أشار إلى تجربته الخاصة في تفويض وكيل ذكاء اصطناعي مهمة روتينية تتمثل في جمع ملابسه للغسيل—ومشاهدته وهو يكمل المهمة بصمت من البداية إلى النهاية.
تواصل الوكيل بشكل مستقل مع المغسلة، ونسق عمليات الاستلام عبر البريد الإلكتروني، ووافق على التوقيت، ورصد كاميرا الباب لتأكيد الاستلام، وأبلغ غرينستاين عند اكتمال المهمة. أظهرت الحلقة كيف يمكن للوكلاء العمل عبر أنظمة متعددة والتكيف عندما لا تسير الأمور كما هو مخطط. لكنها أيضًا أظهرت لماذا لا تزال هذه الأدوات تتطلب حواجز أمان صارمة وإشرافًا—خصوصًا قبل نشرها في بيئات الشركات.
قال غرينستاين: “OpenClaw مُعد بحيث لا ينبغي أن يشعر الناس بالأمان تجاهه”. “لا يبدو ناضجًا بما يكفي ليكون جزءًا موثوقًا من حياتنا بعد.” وأضاف أن الذكاء الاصطناعي، لكي يُرحب به في الحياة اليومية أو العمليات التجارية، يجب أن يكسب الثقة مع مرور الوقت—تمامًا كما تُبنى الثقة اجتماعيًا.
ومع ذلك، فإن الطلب واضح بالفعل. أشار غرينستاين إلى اللقاءات والتجمعات الصناعية المبكرة المخصصة لـ OpenClaw، وهو ظهور سريع وصفه بأنه غير معتاد لأداة لا تزال في مراحلها الأولى. “يُظهر ذلك مدى جوع الناس للذكاء الاصطناعي المفيد حقًا”، قال—أنظمة تتجاوز الإجابة على الأسئلة وتبدأ في اتخاذ الإجراءات.
وصف آرون ليفي، المدير التنفيذي لشركة إدارة المحتوى والتعاون السحابية Box، ما يحدث الآن مع وكلات الذكاء الاصطناعي بأنه “ومضات صغيرة” لما قد يحدث في المستقبل.
قال: “بعض الومضات لا تتجسد، وبعضها يصبح المعيار”. وأشار إلى عامين سابقين عندما قدمت شركة الذكاء الاصطناعي Cognition وكيلًا مبكرًا يُدعى Devin، والذي كان يندمج مع Slack لتفويض المهام، وإصلاح الأخطاء، وتحليل البيانات، ومراجعة الشفرات. في ذلك الوقت، كان لا يزال يُنظر إليه على أنه شيء مستقبلي، لكن اليوم، “لا أحد يختلط عليه الأمر أن هذا أصبح ممارسة قياسية”، قال. “يمكنك فقط أن ترسل Slack إلى Claude Code ليعمل على الأمور—ما بدا كفكرة مجنونة تمامًا أصبح الآن المعيار لأي فريق هندسي حديث.”
لكن، بينما تتطور وكلات الذكاء الاصطناعي لتكون جيدة جدًا في أتمتة مهام محددة ومعزولة، فهي لا تزال ضعيفة في التعامل مع العمل الأوسع الذي يعتمد على السياق ويشكل معظم الوظائف، أكد ليفي. قد تؤتمت وكلات الذكاء الاصطناعي مجموعة صغيرة من المهام تمامًا، لكنها تكافح مع البقية—بما في ذلك إدارة العلاقات والمشاركة في الاجتماعات.
قال: “عندما تسمع أن مختبر ذكاء اصطناعي يقول إنه سيؤتمت كل العمل المعرفي خلال 24 شهرًا، فذلك عادة تعريف ضيق جدًا للوظائف”. “تعريف ما يمكن أن يفعله الوكيل ليس هو نفس تعريف الوظيفة التي يتم توظيف شخص فيها في الاقتصاد.”
عامل الثقة مهم عندما يمكن أن تسوء الأمور
قال أفيناش فوتكوري، عالم بيانات كبير في شركة تجزئة من فئة Fortune 500، إن معظم وكلات الذكاء الاصطناعي المؤسسية “تحتاج بالتأكيد إلى مربية” وأنها، في الوقت الحالي، يمكن أن تعمل فقط في بيئات مؤسسية مع استقلالية محدودة جدًا وحواجز أمان واسعة. “المخاطر هائلة”، شرح.
على سبيل المثال، وصف بناء نظام وكيل للأمن السيبراني المؤسسي حيث لا تكتفي وكلات الذكاء الاصطناعي بإطلاق التنبيهات وانتظار مراجعة بشرية، بل تحقق فيها بنشاط. بدلاً من إغراق المحللين بآلاف التحذيرات، تجمع الوكلات الأدلة في الوقت الحقيقي—تستعلم قواعد بيانات معلومات التهديد، وتحلل أنماط السلوك، وتقوم بفلترة الإيجابيات الكاذبة—قبل أن تقرر ما إذا كانت الحالة تتطلب تصعيدًا.
يعتمد النظام على استقلالية محدودة جدًا وحواجز أمان واسعة، مما يقلل من عبء العمل البشري دون إزالة الإشراف.
في الأمن السيبراني، أوضح، إذا أخطأ الوكيل، فإن العواقب فورية وخطيرة. “إما أن يمنع العملاء الشرعيين (مما يتسبب في خسارة إيرادات هائلة) أو يتيح لمهاجم متطور الدخول إلى الشبكة”، قال. “الأمر مهم جدًا إذا سارت الأمور بشكل خاطئ.”
وفقًا لبريانا وايتهيد، التي تدير استشارات عمليات الذكاء الاصطناعي حيث تبني أنظمة مدعومة بالذكاء الاصطناعي للمديرين التنفيذيين والمؤسسين، فإن الصناعة تمر حاليًا بـ"مرحلة معايرة الثقة".
يمكن لوكلات الذكاء الاصطناعي أن تفعل أكثر مما يعتقده معظم الناس، ولكن أقل مما يوحي به الضجيج.
قالت: “المهارة الحقيقية ليست في بناء الوكيل—بل في تصميم عملية التسليم”. “معظم الناس إما يثقون بشكل مفرط في الوكلاء وينتهي بهم الأمر بتنظيف الفوضى، أو يراقبون كل مخرجاتهم ويتساءلون لماذا يبدو الذكاء الاصطناعي وكأنه عمل أكثر بدلاً من أقل.” الفكرة، على حد قولها، هي تصميم نقاط تسليم واضحة، حيث يمكن تفويض شيء كامل، أو مراجعة سريعة لشيء آخر، أو أن يظل مهمة أخرى للبشر فقط.
حتى الآن، قالت، إن الوكلاء “ممتازون حقًا” في ما أسمته الطبقة الوسطى من العمل المعرفي—“الأشياء التي كانت تستهلك من ساعتين إلى ثلاث ساعات من يوم شخص ذكي، مثل تلخيص ملاحظات الاجتماعات إلى بنود عمل، أو صياغة رسائل متابعة بصوت شخص معين، أو جمع ملخصات أبحاث، أو تنظيم الأولويات المتنافسة في خطة واضحة.”
لكن أي شيء يتطلب قراءة الجو، أو التنقل في الغموض، أو اتخاذ قرارات تعتمد على العلاقات، غير جاهز لعرض الوكيل الذكي في الوقت الحالي. قالت: “كان لدي عميل يرغب في أتمتة تواصلاته مع المستثمرين بالكامل”. “كان بإمكان الذكاء الاصطناعي صياغة رسائل جميلة، لكنه لم يكن يستطيع أن يشعر عندما يفقد الممول اهتمامه ويحتاج إلى نهج مختلف. الوكيل صاغ البريد الإلكتروني، لكن الإنسان كان عليه أن يقرر ما إذا كان سيرسله.”
حتى الآن، قد يكون النوم بعيد المنال عند العمل مع وكلاء الذكاء الاصطناعي
حتى الآن، قد يكون العمل مع وكلاء الذكاء الاصطناعي أقل متعلقًا بالنوم أثناء عملهم منه بالبقاء نصف يقظ أثناء قيامهم بذلك. يمكن لأدوات مثل OpenClaw العمل لساعات طويلة، لكن بالنسبة للعديد من المستخدمين الأوائل، تأتي تلك الاستقلالية مع نوع جديد من اليقظة—فحص السجلات، مراجعة المخرجات، والتدخل قبل أن تسوء الأمور.
تم تصوير هذا الديناميكي في منشور فيروالي حديث بعنوان “قلق الرموز”، حيث وصف المستثمر نكونج كوثاري صديقًا يغادر حفلة مبكرًا—ليس لأنه تعب، بل لأنه يريد العودة إلى وكلاته. قال كوثاري: “لم يعد أحد يشكك في ذلك”. “نصف الحضور يفكر في نفس الشيء. والنصف الآخر ربما يتحقق من تقدم وكلاتهم. في حفلة.”
قد يكون حلم الذكاء الاصطناعي الذي يعمل أثناء النوم حقيقيًا. لكن حتى الآن، لا يزال يوقظ الكثير من الناس.