أنثروبي تتهم حكومة ترامب بـ"علامة مخاطر سلسلة التوريد" بأنها انتقام غير قانوني

MarketWhisper

Anthropic起訴川普政府

البرمجيات الذكية الاصطناعية Claude، المطورة من قبل شركة Anthropic، رفعت دعوى قضائية يوم الاثنين في محكمة اتحادية بكاليفورنيا ضد حكومة ترامب، متهمة إياها بـ"عمل انتقامي غير قانوني"، بسبب رفض الشركة السماح للجيش باستخدام تقنيتها بشكل غير محدود — بما في ذلك استخدامها في الأسلحة الذاتية المميتة والمراقبة الداخلية واسعة النطاق. وهذه هي المرة الأولى في تاريخ الولايات المتحدة التي تُعتبر فيها شركة محلية جزءًا من مخاطر سلسلة التوريد العسكرية.

علامة مخاطر سلسلة التوريد: اعتراف غير مسبوق من البنتاغون

بدأت هذه المعركة القانونية بقرار نهائي من وزير الدفاع بيت هيجسث في 3 مارس 2026، بتصنيفه شركة Anthropic كشركة ذات مخاطر في سلسلة التوريد العسكرية. وتترتب على هذا التصنيف عواقب قانونية مباشرة وخطيرة — حيث يُحظر على أي شخص أو شركة تتعامل مع الجيش أن تتعامل أيضًا مع Anthropic، مما يعني استبعادها تمامًا من سوق المشتريات الفيدرالية.

ومن الجدير بالذكر أن هذا التصنيف لم يُستخدم سابقًا إلا للشركات المرتبطة بأعداء أجانب، ولم يُطبق على الشركات الأمريكية المحلية من قبل. ووصفت Anthropic هذا الإجراء في الدعوى القضائية بأنه “غير مسبوق وغير قانوني”، وادعت أن “الدستور لا يسمح للحكومة باستخدام سلطتها الواسعة لمعاقبة شركة على تعبير محمي.”

وتشمل قائمة المدعى عليهم في القضية العديد من المسؤولين الحكوميين، بمن فيهم بيت هيجسث (وزير الدفاع)، سكوت بيسنت (وزير المالية)، ماركو روبيو (وزير الخارجية)، و17 جهة حكومية أخرى، تغطي عدة قطاعات رئيسية في الحكومة الفيدرالية الأمريكية.

الخط الأحمر الرئيسي لـ Anthropic: الأسلحة المميتة والمراقبة واسعة النطاق

(المصدر: CourtListener)

وفقًا لما ورد في الدعوى، طلب هيجسث من الشركة “التخلي تمامًا عن قيود الاستخدام” — وهو ما رفضته Anthropic، لأن هذه القيود جزء من عقدها الحكومي، وتهدف إلى منع استخدام Claude في نوعين معينين من الأغراض:

  • أنظمة الأسلحة الذاتية المميتة: أنظمة قتل آلية لا تتطلب قرارًا نهائيًا من الإنسان.
  • المراقبة الواسعة على المواطنين الأمريكيين: استخدام تقنيات الذكاء الاصطناعي لجمع وتحليل بيانات الأفراد على نطاق واسع.

وأوضحت Anthropic في الدعوى أن “شركة Anthropic لم تختبر قط استخدام Claude في هذه الأغراض. ولا تثق حاليًا في أن Claude يمكن أن يعمل بشكل موثوق أو آمن إذا استُخدم لدعم حروب ذاتية مميتة.”

ويتماشى هذا الموقف مع مبادئ الشركة طويلة الأمد في أمان الذكاء الاصطناعي، لكنه يتعارض جوهريًا مع سياسة إدارة ترامب في توسيع تطبيقات الذكاء الاصطناعي العسكرية. ومن الجدير بالذكر أن الحكومة الأمريكية والبنتاغون بدأوا منذ عام 2024 باستخدام تقنيات Anthropic، وكان Claude أول ذكاء اصطناعي يُنشر في بيئة سرية. كما أن التصنيف جاء مصحوبًا بأمر مباشر من ترامب لوقف استخدام الموظفين الفيدراليين لـClaude.

تأييد من مهندسي OpenAI و Google: استجابة جماعية لصناعة الذكاء الاصطناعي

بعد اندلاع المعركة القانونية، كانت ردود فعل صناعة الذكاء الاصطناعي سريعة وواسعة. يوم الاثنين، قدم أكثر من 30 مهندسًا وعالمًا من OpenAI وGoogle، بمن فيهم كبير العلماء في Google جيف دين، ملفًا قانونيًا داعمًا (amicus brief) يعبر عن دعمهم لـAnthropic.

وحذر هؤلاء من أن “السماح بمواصلة هذا النوع من العقوبات على واحدة من الشركات الرائدة في الذكاء الاصطناعي في أمريكا سيؤثر سلبًا على القدرة التنافسية الصناعية والعلمية للولايات المتحدة في مجالات الذكاء الاصطناعي وغيرها.” ويشير هذا إلى قلق أوسع — وهو أن استخدام الحكومة لمخاطر سلسلة التوريد لقمع الشركات الأمريكية المحلية قد يضعف الميزة التنافسية للولايات المتحدة في مواجهة الصين في سباق الذكاء الاصطناعي العالمي.

الأسئلة الشائعة

ما هو التأثير المحدد لعلامة مخاطر سلسلة التوريد على Anthropic؟

وفقًا للقانون الأمريكي، تصنيف شركة كمخاطر في سلسلة التوريد يعني أن أي شخص أو كيان يتعامل مع الجيش لا يمكنه التعامل أيضًا مع الشركة المصنفة، مما يترتب عليه استبعادها من سوق المشتريات الفيدرالية بالكامل. وهذا يعني استبعاد Anthropic من جميع العقود الحكومية، بما يشمل الموردين والشركاء الذين يتعاملون مع الحكومة.

لماذا ترفض Anthropic فتح استخدامات الأسلحة المميتة؟

تؤكد Anthropic أن Claude لم يُختبر أو يُقيم أمنيًا في سياقات الأسلحة الذاتية المميتة، ولا يمكنها ضمان موثوقيته أو سلامته في مثل هذه الاستخدامات. بالإضافة إلى ذلك، فإن مبادئها في أمان الذكاء الاصطناعي ترفض نشر أنظمة ذات مخاطر عالية بدون اختبار كافٍ، خاصة في سياقات عسكرية تهدد حياة البشر.

ماذا يعني دعم مهندسي Google وOpenAI لـAnthropic؟

تأييد 30 مهندسًا وعالمًا من شركات منافسة يعكس قلق صناعة الذكاء الاصطناعي من تدخل الحكومة عبر تصنيف مخاطر سلسلة التوريد. ويشير إلى مصلحة مشتركة: إذا استطاعت الحكومة استخدام أدوات كهذه لقمع الشركات غير المتوافقة، فإن أي شركة ترفض تقييد تقنياتها قد تواجه نفس المصير.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات