OpenAI تستحوذ على شركة أمان الذكاء الاصطناعي Promptfoo: ترقية اختبارات الأمان وتدريبات الفرق الحمراء إلى ميزات أصلية في Frontier

動區BlockTempo

أعلنت شركة OpenAI عن استحواذها على منصة الأمان الذكي Promptfoo، ودمج تقنياتها في منصة Frontier، لتوفير اختبارات الاختراق الآلية وحماية الثغرات عند نشر وكلاء الذكاء الاصطناعي في الشركات.
(ملخص سابق: هل سام ألتمان حقير؟ بعد أن تم حظره من قبل وزارة الدفاع الأمريكية، دعم شركة Anthropic التي كانت على وشك الانهيار، ثم توجه لدعم عقد وزارة الدفاع الأمريكية مع OpenAI)
(معلومات إضافية: تقرير وول ستريت جورنال: ترامب يستخدم Claude AI لتحديد موقع قاسم سليماني، وOpenAI تتولى السيطرة الكاملة على أنظمة البنتاغون)

أعلنت OpenAI يوم أمس (9) عن استحواذها على منصة الأمان AI Promptfoo، وهي شركة ناشئة تأسست في 2024، متخصصة في اختبار الثغرات والتدريب على فرق الاختراق (وهي نوع من اختبارات الدفاع السيبراني التي تحاكي هجمات القراصنة الحقيقية).

مع تحول الذكاء الاصطناعي من روبوتات المحادثة إلى “زملاء عمل يمتلكون صلاحيات تنفيذ”، أصبح من التحديات الأساسية للشركات الكبيرة أن تمنع هذه الوكلاء من الاختراق أو تسريب البيانات الحساسة بشكل خاطئ.

مخاطر الأمان في عصر الوكلاء الذكيين

وفقًا لإعلان رسمي من OpenAI، سيتم دمج تقنيات Promptfoo بشكل عميق في منصة الشركات الجديدة، OpenAI Frontier، التي أُطلقت في فبراير 2026، لدعم الشركات التي تبني وكلاء على المنصة:

  • اختبارات الأمان المدمجة في المنصة: ستصبح اختبارات الأمان الآلية وتدريبات فرق الاختراق من الميزات الأساسية لمنصة Frontier، لمساعدة الشركات على تحديد وتصحيح مخاطر مثل حقن التعليمات بسرعة، الاختراق، تسريب البيانات، سوء استخدام الأدوات، وتجاوز السياسات.
  • دمج الأمان والتقييم في سير العمل التطويري: ستتفاعل منصة Frontier بشكل عميق مع عمليات التعرف على المخاطر، التحقيق فيها، ومعالجتها، لجعل الأمان جزءًا أساسيًا من تطوير وتشغيل أنظمة الذكاء الاصطناعي في الشركات.
  • المراقبة والمساءلة: ستساعد تقنيات التقارير والتتبع في تسجيل الاختبارات، مراقبة التغييرات مع مرور الوقت، وتلبية متطلبات الحوكمة، إدارة المخاطر، والامتثال المتزايدة للذكاء الاصطناعي.

وفقًا للإعلان، فإن أدوات Promptfoo المفتوحة المصدر تستخدم الآن من قبل أكثر من 25% من شركات فورتشن 500، ويبلغ عدد مستخدميها من المطورين 350,000. فريقها المكون من 23 شخصًا حصل على تمويل بقيمة 23 مليون دولار، وبلغت قيمتها بعد جولة التمويل الأخيرة في يوليو 2025 حوالي 86 مليون دولار.

سيقود مؤسسو Promptfoo، إيان ويبستر ومايكل دي أنجيلو، فريقهم للانضمام إلى OpenAI.

الأمان والالتزام يصبحان محور الاهتمام

باختصار، أصبح وكيل الذكاء الاصطناعي يتطور من “طالب جامعي يبحث عن المعلومات” إلى “مساعد شخصي يحمل ختمك لإنجاز المهام”.

هذا التحول يرفع مستوى المخاطر من تسريب المعلومات إلى فقدان السيطرة على الأفعال. عندما نعطي الذكاء الاصطناعي استقلالية في أداء المهام، فإن أخطر ما قد يحدث ليس خطأه في الكلام، بل انحراف فهمه للنية، أو تعرضه للتضليل من قبل القراصنة عبر أوامر مخفية، مما قد يؤدي إلى عمليات غير قابلة للتراجع مثل تحويل أموال خاطئ أو حذف ملفات مهمة.

في بيئة تتعاون فيها عدة أنظمة ذكاء اصطناعي، فإن خطأ منطقي من وكيل واحد قد يتسبب في سلسلة من الكوارث.

لذا، فإن جوهر أمان عصر الوكلاء لا يكمن في حجب المعلومات، بل في “مراقبة السلوك”. يجب أن ندير الوكلاء كما ندير الموظفين، من خلال تحديد حدود واضحة للصلاحيات وآليات مراجعة. فقط عندما نتمكن من جعل أفعال الذكاء الاصطناعي قابلة للمراجعة في أي وقت، وتحديد صلاحياته بدقة، ستتحول هذه القدرات التلقائية القوية إلى أداة لا غنى عنها، بدلاً من أن تصبح ثغرة يصعب الدفاع عنها في الشركات.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات