أعلنت شركة OpenAI عن استحواذها على منصة الأمان الذكي Promptfoo، ودمج تقنياتها في منصة Frontier، لتوفير اختبارات الاختراق الآلية وحماية الثغرات عند نشر وكلاء الذكاء الاصطناعي في الشركات.
(ملخص سابق: هل سام ألتمان حقير؟ بعد أن تم حظره من قبل وزارة الدفاع الأمريكية، دعم شركة Anthropic التي كانت على وشك الانهيار، ثم توجه لدعم عقد وزارة الدفاع الأمريكية مع OpenAI)
(معلومات إضافية: تقرير وول ستريت جورنال: ترامب يستخدم Claude AI لتحديد موقع قاسم سليماني، وOpenAI تتولى السيطرة الكاملة على أنظمة البنتاغون)
أعلنت OpenAI يوم أمس (9) عن استحواذها على منصة الأمان AI Promptfoo، وهي شركة ناشئة تأسست في 2024، متخصصة في اختبار الثغرات والتدريب على فرق الاختراق (وهي نوع من اختبارات الدفاع السيبراني التي تحاكي هجمات القراصنة الحقيقية).
مع تحول الذكاء الاصطناعي من روبوتات المحادثة إلى “زملاء عمل يمتلكون صلاحيات تنفيذ”، أصبح من التحديات الأساسية للشركات الكبيرة أن تمنع هذه الوكلاء من الاختراق أو تسريب البيانات الحساسة بشكل خاطئ.
وفقًا لإعلان رسمي من OpenAI، سيتم دمج تقنيات Promptfoo بشكل عميق في منصة الشركات الجديدة، OpenAI Frontier، التي أُطلقت في فبراير 2026، لدعم الشركات التي تبني وكلاء على المنصة:
وفقًا للإعلان، فإن أدوات Promptfoo المفتوحة المصدر تستخدم الآن من قبل أكثر من 25% من شركات فورتشن 500، ويبلغ عدد مستخدميها من المطورين 350,000. فريقها المكون من 23 شخصًا حصل على تمويل بقيمة 23 مليون دولار، وبلغت قيمتها بعد جولة التمويل الأخيرة في يوليو 2025 حوالي 86 مليون دولار.
سيقود مؤسسو Promptfoo، إيان ويبستر ومايكل دي أنجيلو، فريقهم للانضمام إلى OpenAI.
باختصار، أصبح وكيل الذكاء الاصطناعي يتطور من “طالب جامعي يبحث عن المعلومات” إلى “مساعد شخصي يحمل ختمك لإنجاز المهام”.
هذا التحول يرفع مستوى المخاطر من تسريب المعلومات إلى فقدان السيطرة على الأفعال. عندما نعطي الذكاء الاصطناعي استقلالية في أداء المهام، فإن أخطر ما قد يحدث ليس خطأه في الكلام، بل انحراف فهمه للنية، أو تعرضه للتضليل من قبل القراصنة عبر أوامر مخفية، مما قد يؤدي إلى عمليات غير قابلة للتراجع مثل تحويل أموال خاطئ أو حذف ملفات مهمة.
في بيئة تتعاون فيها عدة أنظمة ذكاء اصطناعي، فإن خطأ منطقي من وكيل واحد قد يتسبب في سلسلة من الكوارث.
لذا، فإن جوهر أمان عصر الوكلاء لا يكمن في حجب المعلومات، بل في “مراقبة السلوك”. يجب أن ندير الوكلاء كما ندير الموظفين، من خلال تحديد حدود واضحة للصلاحيات وآليات مراجعة. فقط عندما نتمكن من جعل أفعال الذكاء الاصطناعي قابلة للمراجعة في أي وقت، وتحديد صلاحياته بدقة، ستتحول هذه القدرات التلقائية القوية إلى أداة لا غنى عنها، بدلاً من أن تصبح ثغرة يصعب الدفاع عنها في الشركات.