أعلن سام ألتمان مؤخرًا عن توقيع شركة OpenAI اتفاقية شراكة مع وزارة الدفاع الأمريكية لنشر نماذج الذكاء الاصطناعي الخاصة بها ضمن بيئات الشبكات السحابية المصنفة. تتضمن الاتفاقية مبادئ أساسية مثل "حظر المراقبة واسعة النطاق داخل الولايات المتحدة" و"ضمان بقاء المسؤولية البشرية عن استخدام القوة". وبينما يبدو هذا التعاون بين قطاع الأعمال والحكومة، إلا أنه يمثل في جوهره إدماج الذكاء الاصطناعي رسميًا في صلب أنظمة الأمن القومي.

مصدر الصورة: https://x.com/sama/status/2027578652477821175
هذا التطور لا يتعلق بالنشر التقني فقط، بل يمثل لحظة محورية في إعادة تشكيل المؤسسات وهيكلة السلطة ومستقبل المجتمع.
على مدى السنوات الأخيرة، استُخدمت نماذج الذكاء الاصطناعي واسعة النطاق في التطبيقات الاستهلاكية وخدمات المؤسسات والبحث العلمي. أما نشرها في شبكات الدفاع المصنفة فيعكس ثلاثة تحولات جوهرية:
أكد ألتمان على مبدئين أساسيين بالغي الأهمية:
في الظاهر، يعكس ذلك نهجًا استباقيًا من شركات التقنية لوضع حدود أخلاقية. لكن السؤال الحقيقي: عندما يصبح الذكاء الاصطناعي جزءًا أساسيًا من هياكل الأمن القومي، كيف ستُفسر هذه المبادئ وتُطبق في سيناريوهات معقدة؟
تُظهر التجربة التاريخية أنه عند دمج التقنية في الأنظمة الاستراتيجية الوطنية، غالبًا ما يتغير مسار تطورها. إذ يمكن لمتطلبات الأمان وضرورات الكفاءة وضغوط المنافسة أن تعيد تشكيل الحدود السابقة تدريجيًا.
حاليًا، تعمل نماذج الذكاء الاصطناعي الكبيرة كنظم توقع احتمالية. ومع تطور قدراتها على الاستدلال، واستدعاء الأدوات، وتنفيذ المهام طويلة الأمد، يخضع الذكاء الاصطناعي لتحول جذري:
عند نشرها في شبكات الدفاع، قد تؤدي نماذج الذكاء الاصطناعي مهامًا مثل:
هذه المهام لا "تضغط الزناد" مباشرة، لكنها تؤثر في عمليات اتخاذ القرار. بمعنى أنه حتى مع "تحمل البشر المسؤولية عن استخدام القوة"، قد يصبح الذكاء الاصطناعي عنصرًا حاسمًا في تشكيل القرارات.
وهذا يمثل تحولًا محوريًا: فمع أن سلطة اتخاذ القرار قد لا تُنقل للذكاء الاصطناعي، إلا أن منطق القرارات سيعتمد تدريجيًا على هذه الأنظمة.
وعلى المدى الطويل، قد يكون لهذا الاعتماد أثر هيكلي أعمق من مجرد التفويض المباشر.
تحدد الاتفاقية بناء ضمانات تقنية، حيث تُنشر النماذج حصريًا في شبكات سحابية ويجري إدخال أجهزة معززة وظيفيًا (FDE) لضمان الامتثال.
تهدف هذه الإجراءات إلى:
التحدي أن حدود الضوابط التقنية غالبًا ما تتغير مع تغير المتطلبات.
على سبيل المثال:
في الأنظمة المعقدة للغاية، نادرًا ما تنبع المخاطر من اختراق نقطة واحدة، بل من تراكم الوظائف. فعندما تستطيع النماذج دمج البيانات عبر الإدارات، حتى لو كانت المهام الفردية قانونية، قد يخلق الأثر الكلي ديناميكيات سلطة جديدة.
لذا، فإن "الضمانات التقنية" ليست حلاً نهائيًا، بل هي تفاوض مستمر.
يتطلب تدريب ونشر الذكاء الاصطناعي قدرًا هائلًا من القدرة الحاسوبية وموارد البيانات، ما يمنح النماذج الكبيرة ميزات الحجم وحواجز رأس المال. وعندما يصبح الأمن القومي سيناريو تطبيق، يتعزز هذا الاتجاه أكثر:
وهذا يعني أن مستقبل الذكاء الاصطناعي سيتجه غالبًا نحو مشهد تسيطر فيه كيانات قليلة على القدرات الجوهرية.
وقد تتعارض انفتاحية التقنية مع التركّز في النشر الفعلي.
إذا أصبح الذكاء الاصطناعي بنية تحتية وطنية، فسيتشابه نموذج تشغيله مع الكهرباء أو الاتصالات أو أنظمة المقاصة المالية، وليس مع بيئات البرمجيات مفتوحة المصدر.

استنادًا إلى الاتجاهات الحالية، يمكن توقع ثلاثة مسارات طويلة الأمد.
في هذا السيناريو، يعمل الذكاء الاصطناعي كمضخم معرفي وليس بديلًا للسلطة.
هذا المسار لا يؤدي إلى فقدان السيطرة بشكل مفاجئ، بل يُعيد تشكيل هياكل السلطة تدريجيًا.
إذا ظهر ذكاء عام اصطناعي حقيقي (AGI)، فقد تشهد الإنتاجية والقدرات المعرفية تحولًا نوعيًا. ومع ذلك، لا توجد حاليًا أدلة على قرب حدوث هذه المرحلة.
تزايد قدرات الذكاء الاصطناعي هو اتجاه تقني، لكن مساره يعتمد على أربعة متغيرات أساسية:
عندما تتعاون شركات التقنية مع أنظمة الدفاع بشكل عميق، تصبح التقنية أصلًا استراتيجيًا وليس مجرد سلعة سوقية.
المسألة ليست في التعاون ذاته، بل:
إذا لم تتطور المؤسسات بنفس وتيرة توسع القدرات التقنية، فإن الخطر طويل الأمد ليس فقدان السيطرة، بل تركّز السلطة.
أصبح الذكاء الاصطناعي عنصرًا محوريًا في المنافسة الجيوسياسية.
تسرّع الدول مبادراتها في:
في هذا السياق، يصبح التعاون بين الشركات والحكومات شبه حتمي. فرفض التعاون لن يوقف سباق التقنية العالمي.
لذا، المسألة ليست "هل نتعاون"، بل "كيف نتعاون". إذا جرى إضفاء الطابع المؤسسي على مبادئ الأمان وجعلها شفافة وقابلة للتدقيق، فقد يشكل هذا التعاون نموذجًا مسؤولًا. أما إذا بقيت المبادئ مجرد تصريحات دون آليات رقابة مستقلة، فستزداد المخاطر مع تزايد القدرات.
مع تولي الذكاء الاصطناعي تدريجيًا أدوارًا معرفية وتحليلية، قد تتغير مسؤوليات البشر:
يمثل ذلك تحولًا في مركز السلطة. والتحدي الحقيقي ليس فيما إذا كانت الآلات أذكى من البشر، بل في مدى استعداد البشر لتحمل المسؤولية النهائية. فإذا تم تفويض الحكم تدريجيًا للنماذج، حتى مع وجود "سلطة القرار النهائي" رسميًا، فقد تُوجّه القرارات فعليًا بواسطة التقنية.
هذه العوامل ستحدد ما إذا كان الذكاء الاصطناعي سيصبح بنية تحتية عامة أو أداة لتركيز السلطة.
قال ألتمان: "العالم معقد وفوضوي وأحيانًا خطير". تعكس هذه الرؤية منطق التعاون: في زمن يتزايد فيه عدم اليقين، تسعى الدول إلى مزايا تقنية.
ما يهم حقًا: القوة التقنية لا تعني بالضرورة نضجًا مؤسسيًا. فمستقبل الذكاء الاصطناعي ليس تقدمًا تقنيًا خطيًا، بل تفاعل ديناميكي بين التقنية ورأس المال والحكومة والمجتمع. قد يصبح الذكاء الاصطناعي بنية معرفية تحتية أو مضخمًا للسلطة. ويتحدد المسار النهائي بكيفية وضع البشرية للقواعد وتوزيع المسؤوليات والحفاظ على الشفافية.
إن دخول الذكاء الاصطناعي إلى الشبكات المصنفة ليس نهاية الطريق—بل هو البداية فقط. والاختبار الحقيقي يكمن في ما إذا كانت الحدود ستبقى واضحة وقابلة للتنفيذ مع توسع القدرات.





