رسائل Gate News: حذّر باحثون من Google DeepMind من أن البيئة المفتوحة للإنترنت قد تُستغل لاختطاف وكلاء ذكاء اصطناعي مستقلّين والتلاعب بسلوكهم. ويشير تقرير بعنوان «فخ وكلاء الذكاء الاصطناعي» إلى أنه عند قيام الشركات بنشر وكلاء AI لأداء مهام فعلية، فقد يقوم المهاجمون أيضًا بتنفيذ هجمات موجهة عبر الشبكة. وقد حددت الدراسة ستة أنواع رئيسية من المخاطر، منها: فخ حقن المحتوى، وفخ التلاعب الدلالي، وفخ الحالة المعرفية، وفخ التحكم في السلوك، وفخ النظام، وفخ التفاعل بين الإنسان والآلة.
يُعد فخ حقن المحتوى الأكثر مباشرةً؛ إذ يمكن للمهاجمين وضع تعليمات داخل تعليقات HTML أو بيانات وصفية أو عناصر صفحات مخفية، ثم يقوم الوكيل بقراءتها والقيام بتنفيذها. أما فخ التلاعب الدلالي فيعتمد على تحميل تعابير رسمية/موثوقة أو التمويه عبر صفحات تتظاهر بأنها بيئة بحث، للتأثير خفيةً في فهم الوكيل للمهمة، وأحيانًا حتى تجاوز آليات الأمان. ويتحقق فخ الحالة المعرفية من خلال إدخال بياناتٍ مزيفة في مصادر معلومات الوكيل، بحيث يظل يعتقد لفترة طويلة أن هذه المعلومات قد تم التحقق منها. أما فخ التحكم في السلوك فيستهدف العمليات الفعلية للوكيل، ويمكن أن يدفعه إلى الوصول إلى بيانات حساسة ونقلها إلى هدف خارجي.
يتعلق فخ النظام بالتلاعب التعاوني عبر عدة أنظمة للذكاء الاصطناعي، وقد يؤدي إلى ردود فعل متسلسلة، على نحوٍ مشابه لحدوث تعطل مفاجئ في السوق بسبب التداولات الخوارزمية. أما فخ التفاعل بين الإنسان والآلة فيستغل مرحلة المراجعة البشرية، وذلك عبر إعداد محتوى مراجعة يبدو موثوقًا، مما يسمح للسلوكيات الضارة بالالتفاف على الرقابة.
ولمعالجة المخاطر، تقترح DeepMind دمج التدريب المضاد للهجمات، وتصفية الإدخال، والمراقبة السلوكية، ونظام سمعة محتوى الشبكة، مع وضع إطار أكثر وضوحًا للمسؤولية القانونية. ومع ذلك، تشير الدراسة إلى أنه لا تزال تفتقر الصناعة إلى معايير دفاع موحدة، وأن التدابير الحالية غالبًا ما تكون متفرقة ومختلفة في تركيزها. وتدعو الدراسة المطورين والشركات إلى إيلاء اهتمام لسلامة بيئة تشغيل وكلاء الذكاء الاصطناعي، والوقاية من مخاطر التلاعب الشبكي المحتمل وسوء الاستخدام.