شركة Anthropic الأمريكية الناشئة في مجال الذكاء الاصطناعي تقدمت اليوم رسمياً بدعوى قضائية ضد وزارة الدفاع الأمريكية (البنتاغون) وعدة وكالات اتحادية، احتجاجاً على تصنيف الحكومة لها كـ"مخاطر على سلسلة التوريد". ووجهت Anthropic اتهامات بأن هذا التصنيف يفتقر إلى أساس منطقي، وقد يؤدي إلى خسارة مئات الملايين من الدولارات من الإيرادات، ويؤثر على قدرتها على التمويل وتقييمها المحتمل في الاكتتاب العام المستقبلي. كما يسلط هذا القضية الضوء على تصاعد الصراع بين تطبيقات الذكاء الاصطناعي العسكرية والأخلاقيات المؤسسية.
الشرارة: فشل التعاون العسكري بين Anthropic والبنتاغون
وفي تقارير سابقة، أُرجع سبب الحادث إلى فشل مفاوضات التعاون بين Anthropic والبنتاغون، حيث كانت وزارة الدفاع تأمل في الحصول على حق استخدام نماذج الذكاء الاصطناعي “لجميع الاستخدامات القانونية” في البرامج العسكرية، لكن شركة Anthropic أصرت على الحفاظ على قيود على استخدام التكنولوجيا ومعايير أخلاقية أساسية.
قال المدير التنفيذي للشركة، داريو أموديي، إن الشركة وضعت خطين أحمرين لا يمكن تجاوزهما: منع استخدام الذكاء الاصطناعي في الأسلحة الذاتية المميتة، ومنع استخدامه في المراقبة الجماعية داخل البلاد. وفي النهاية، لم تتفق الأطراف، وقررت الحكومة الأمريكية إدراج Anthropic في القائمة السوداء للشركات ذات المخاطر على سلسلة التوريد، مما أدى إلى فشل المفاوضات بشكل كامل.
(عندما يتحول الذكاء الاصطناعي إلى سلاح نووي: بن تومسون يناقش الصراع بين Anthropic والبنتاغون)
تأثير القائمة السوداء: خسارة مئات الملايين من العقود، وضغوط على قدرات التمويل
ذكرت وكالة بلومبرغ أن شركة Anthropic أشارت في دعواها إلى أن تصنيف مخاطر سلسلة التوريد يُستخدم عادةً مع شركات تعتبرها الصين أو روسيا خطراً على الأمن القومي، مما يعني أن الشركاء يجب أن يتجنبوا استخدام تقنيات الشركة تحت ضغط الحكومة، الأمر الذي قد يؤدي إلى فقدانها لعدد كبير من العملاء والفرص التجارية المرتبطة بالحكومة.
وأكد كريشنا راو، المدير المالي لـAnthropic، أنه إذا خاف العملاء من أن التعاون مع الشركة قد يؤثر على علاقاتهم مع الحكومة، فإن ذلك سيؤدي إلى خسارة الشركة لمليارات الدولارات من الإيرادات سنوياً. كما قد يضعف ثقة المستثمرين، ويضغط على قدرات الشركة في جمع التمويل وتقييمها في الاكتتاب العام المستقبلي.
(شركة Anthropic تبدأ خطة بيع أسهم بقيمة 6 مليارات دولار، وتقييم بقيمة 350 مليار دولار يفتح نافذة لتحقيق السيولة)
تناقضات صناعة الذكاء الاصطناعي: الصراع بين الأخلاق والاحتياجات العسكرية
كما يكشف الحادث عن التحديات التي تواجه صناعة الذكاء الاصطناعي في موازنة بين الأخلاقيات والاستخدامات العسكرية، حيث قدم أكثر من 30 مهندساً وعالماً من شركات بحثية وتقنية، بمن فيهم جيف دين، كبير العلماء في Google DeepMind، تصريحات إلى المحكمة دعموا فيها موقف Anthropic.
وحذروا قائلاً: “إذا استمر هذا النهج في معاقبة الشركات الأمريكية الرائدة في مجال الذكاء الاصطناعي، فسيؤدي ذلك بلا شك إلى تآكل القدرة التنافسية للصناعة الأمريكية في مجالات الذكاء الاصطناعي والعلوم الأخرى.”
من ناحية أخرى، قامت شركة OpenAI، المنافسة، بتعويض فشلها في التعاون مع البنتاغون من خلال إبرام اتفاقية تسمح لنماذجها بالمشاركة في مهام عسكرية حساسة؛ إلا أن ارتفاع عدد عمليات إلغاء التثبيت، يعكس على ما يبدو مخاوف المستخدمين من أن دخول الحكومة قد يؤدي إلى مراقبة المحادثات.
(ارتفاع عمليات إلغاء التثبيت في ChatGPT ثلاث مرات، وتعاون OpenAI مع البنتاغون يثير مخاوف أمنية)
تصعيد الدعوى: مواجهة مباشرة بين شركات التكنولوجيا والسلطات الحكومية
ومع دخول القضية إلى مراحل القضاء، تحولت النزاعات من مجرد فشل في التعاون التجاري إلى مواجهة قانونية مباشرة بين شركات التكنولوجيا والحكومة. وقالت المتحدثة باسم البيت الأبيض، ليز هوستون، إن الحكومة لن تسمح للجيش بأن يُقيد بواسطة شروط أخلاقية “ذات طابع أيديولوجي” تفرضها شركات التكنولوجيا، مؤكدة أن السياسات الدفاعية ستُعطى الأولوية للأمن القومي.
وعلق @VraserX، أحد خبراء التعليم في الذكاء الاصطناعي، على ذلك قائلاً إن القضية قد تضر بشكل كبير بمستقبل أعمال Anthropic، وقد تؤدي إلى ضغط تنظيمي، وفقدان عملاء، وانتقام سياسي، أو هلع المستثمرين؛ إلا أنها قد تضع أيضاً حدوداً جديدة لمسؤوليات شركات الذكاء الاصطناعي في التعاون العسكري.
وقد ظهرت هذه القضية بعنوان: “شركة Anthropic تقاضي البنتاغون: القائمة السوداء قد تتسبب في خسائر بمليارات الدولارات وتضر بقدرة التمويل”، وأول ظهور لها كان في منصة “لينكد إن” من قبل ABMedia.