اثنتان وسبعون ساعة من أزمة الهوية لشركة Anthropic

2026-03-05 07:03:46
متوسط
Bitcoin
خلال اثنتين وسبعين ساعة فقط، واجهت Anthropic إنذارًا نهائيًا من وزارة الدفاع الأمريكية، وادعاءات علنية من إيلون ماسك، إضافة إلى تراجعها عن تعهداتها بالسلامة. بدءًا من رفض تطوير الأسلحة العسكرية الذاتية، مرورًا بتعديل RSP 3.0، وصولًا إلى التخلي عن الخط الأحمر المتعلق بـ"إيقاف التدريب"، تجد الشركة، التي تُعد رائدة في مجال "الذكاء الاصطناعي الآمن"، نفسها اليوم أمام فجوة متزايدة بين صورتها المؤسسية وواقع عملياتها. تتناول هذه المقالة التحليلية الديناميكيات السياسية، وضغوط التقييم المالي، وتفكك السردية المميزة للسلامة التي تدفع بأزمة الهوية هذه.

الثلاثاء، 24 فبراير. واشنطن، البنتاغون.

جلس داريو أمودي، الرئيس التنفيذي لشركة Anthropic، أمام وزير الدفاع بيت هيغسيث. أفادت مصادر من NPR وCNN أن الاجتماع كان "مهذباً"، رغم أن مضمونه كان بعيداً عن اللطف.

وجه هيغسيث إنذاراً نهائياً: بحلول الساعة 5:01 مساءً يوم الجمعة، يجب رفع جميع القيود على استخدام Claude للأغراض العسكرية، والسماح للبنتاغون باستخدامه في "جميع الأغراض القانونية"، بما في ذلك استهداف الأسلحة الذاتية التشغيل والمراقبة واسعة النطاق داخل الولايات المتحدة.

وإلا، سيتم إلغاء العقد بقيمة $200 مليون. وسيتم تفعيل قانون الإنتاج الدفاعي للاستحواذ الإجباري. وسيتم تصنيف Anthropic كـ"خطر على سلسلة التوريد"—ما يعني عملياً إدراجها في القائمة السوداء بجانب خصوم مثل روسيا والصين.

في اليوم نفسه، أصدرت Anthropic الإصدار الثالث من سياسة التوسع المسؤول (RSP 3.0)، وقامت بهدوء بإلغاء تعهدها الأساسي منذ تأسيسها: عدم تدريب نماذج أقوى إلا إذا توفرت تدابير أمان.

وفي اليوم ذاته، نشر إيلون ماسك منشوراً على X قال فيه: "شركة Anthropic متورطة في سرقة بيانات تدريب واسعة النطاق—وهذا أمر واقع." في الوقت نفسه، أشار قسم الملاحظات المجتمعية في X إلى تقارير تفيد بأن Anthropic دفعت $1.5 مليار لتسوية دعاوى بشأن تدريب Claude باستخدام كتب مقرصنة.

خلال 72 ساعة، تحولت هذه الشركة التي كانت تدّعي امتلاك "روح" إلى ثلاث صور: شهيد السلامة، سارق الملكية الفكرية، وخائن للبنتاغون.

من هي Anthropic الحقيقية؟

ربما جميعها.

تفويض البنتاغون: "امتثل أو غادر"

الجزء الأول من القصة واضح.

كانت Anthropic أول شركة ذكاء اصطناعي تحصل على وصول سري من وزارة الدفاع الأمريكية، بعقد مُنح الصيف الماضي بقيمة $200 مليون كحد أقصى. لاحقاً حصلت OpenAI وGoogle وxAI على عقود مشابهة.

وفقاً للجزيرة، تم استخدام Claude في عملية عسكرية أمريكية في يناير الماضي. وأفاد التقرير بأن المهمة تضمنت اختطاف الرئيس الفنزويلي مادورو.

لكن Anthropic رسمت خطين أحمرين: رفض دعم استهداف الأسلحة الذاتية التشغيل بالكامل، ورفض دعم المراقبة واسعة النطاق للمواطنين الأمريكيين. تؤكد Anthropic أن الذكاء الاصطناعي ليس موثوقاً بما يكفي للتحكم في الأسلحة، ولا توجد قوانين تنظم الذكاء الاصطناعي في المراقبة الجماعية.

البنتاغون لم يقتنع بذلك.

في أكتوبر الماضي، اتهم مستشار الذكاء الاصطناعي في البيت الأبيض، ديفيد ساكس، شركة Anthropic علناً على X بأنها "تستخدم الخوف كسلاح لتحقيق السيطرة التنظيمية".

المنافسون استسلموا بالفعل. وافقت OpenAI وGoogle وxAI جميعاً على السماح للجيش باستخدام الذكاء الاصطناعي في "جميع السيناريوهات القانونية". وتمت الموافقة على Grok من ماسك للاستخدام في الأنظمة السرية هذا الأسبوع.

Anthropic هي آخر من بقي متماسكاً.

حتى لحظة كتابة هذا التقرير، أعلنت Anthropic في بيانها الأخير أنها لا تنوي الاستسلام. لكن الموعد النهائي يوم الجمعة الساعة 5:01 مساءً يقترب.

قال مسؤول سابق مجهول كان حلقة وصل بين وزارة العدل والبنتاغون لـCNN: "كيف يمكنك إعلان شركة كخطر على سلسلة التوريد وفي الوقت نفسه إجبارها على العمل لصالح الجيش؟"

سؤال وجيه—لكن البنتاغون لا يهتم بذلك. ما يهمهم هو أنه إذا لم تتنازل Anthropic، فسيفرضون الامتثال أو يتركونها خارج دائرة واشنطن.

هجوم التقطير: اتهام علني ينقلب ضده

في 23 فبراير، نشرت Anthropic تدوينة حادة تتهم ثلاث شركات ذكاء اصطناعي صينية—DeepSeek وMoonshot AI وMiniMax—بشن "هجمات تقطير صناعية واسعة النطاق" على Claude.

زعمت Anthropic أن هذه الشركات استخدمت 24,000 حساب وهمي لإجراء أكثر من 16 مليون تفاعل مع Claude، لاستخراج قدراته الأساسية في الاستدلال كوكيل، واستخدام الأدوات، والبرمجة بشكل منهجي.

وصفت Anthropic ذلك بأنه تهديد للأمن القومي، مدعية أن النماذج المقطرة "من غير المرجح أن تحتفظ بضوابط الأمان" وقد يتم استخدامها من قبل حكومات سلطوية في الهجمات السيبرانية، ونشر المعلومات المضللة، والمراقبة الجماعية.

السرد كان في توقيته وصياغته جيداً.

جاء مباشرة بعد أن خففت إدارة ترامب القيود على تصدير الرقائق إلى الصين—في الوقت الذي كانت فيه Anthropic بحاجة إلى حجج جديدة في حملتها للضغط بشأن تصدير الرقائق.

لكن ماسك رد قائلاً: "شركة Anthropic متورطة في سرقة بيانات تدريب واسعة النطاق ودفع مليارات في التسويات. هذا أمر واقع."

علق المؤسس المشارك في IO.Net، توري غرين: "أنتم تدربون نماذجكم على الإنترنت بالكامل، وعندما يتعلم الآخرون من واجهة برمجة التطبيقات العامة الخاصة بكم، تصفون ذلك بأنه 'هجوم تقطير'؟"

تصف Anthropic التقطير بأنه "هجوم"، لكنه ممارسة شائعة في صناعة الذكاء الاصطناعي. استخدمته OpenAI لضغط GPT-4، واستخدمته Google لتحسين Gemini، وAnthropic نفسها قامت بذلك. الفرق الوحيد هذه المرة: Anthropic هي الهدف.

كما قال أستاذ الذكاء الاصطناعي في جامعة نانيانغ التكنولوجية، إريك كامبريا، لـCNBC: "الخط الفاصل بين الاستخدام المشروع والاستغلال الضار غالباً ما يكون غير واضح."

والأكثر سخرية، أن Anthropic دفعت للتو $1.5 مليار لتسوية دعاوى بشأن تدريب Claude على كتب مقرصنة. لقد تدربوا على الإنترنت بالكامل، ثم اتهموا الآخرين بالتعلم من واجهة برمجة التطبيقات العامة الخاصة بهم. هذا ليس ازدواجية معايير فحسب—بل ثلاثية معايير.

سعت Anthropic لتصوير نفسها كضحية، لكنها انتهت متهمة.

تفكيك الالتزامات المتعلقة بالسلامة: RSP 3.0

في اليوم نفسه الذي واجهت فيه Anthropic البنتاغون وتبادلت الاتهامات مع وادي السيليكون، أصدرت النسخة الثالثة من سياسة التوسع المسؤول.

قال كبير العلماء، جاريد كابلان، للصحافة: "لا نعتقد أن إيقاف تدريب نماذج الذكاء الاصطناعي يفيد أي طرف. مع التطور السريع للذكاء الاصطناعي، اتخاذ التزامات أحادية الجانب بينما يدفع المنافسون قدماً بسرعة كاملة ليس منطقياً."

بمعنى آخر، إذا لم يلتزم الآخرون بالقواعد، فلن نلتزم نحن أيضاً.

جوهر RSP 1.0 و2.0 كان التزاماً صارماً: إذا تجاوزت قدرات النموذج نطاق تدابير الأمان، يتوقف التدريب. هذا التعهد منح Anthropic سمعة فريدة في مجتمع سلامة الذكاء الاصطناعي.

لكن الإصدار 3.0 أسقط ذلك الوعد.

استُبدل ذلك بإطار أكثر "مرونة"—يفصل بين تدابير الأمان التي يمكن لـAnthropic تنفيذها وتوصيات الصناعة ككل. كل 3–6 أشهر، سيتم نشر تقرير مخاطر مع مراجعة خارجية من خبراء.

هل يبدو ذلك مسؤولاً؟

قال كريس بينتر، المراجع المستقل من منظمة METR غير الربحية، بعد الاطلاع على مسودة مبكرة: "هذا يظهر أن Anthropic تعتقد أنها بحاجة لدخول 'وضع الفرز' لأن تقييم المخاطر والتخفيف لا يستطيعان مواكبة نمو القدرات. إنه دليل إضافي على أن المجتمع غير مستعد لمخاطر الذكاء الاصطناعي الكارثية."

ذكرت TIME أن Anthropic قضت قرابة عام في نقاش داخلي حول هذا التعديل، ووافق عليه الرئيس التنفيذي أمودي ومجلس الإدارة بالإجماع. رسمياً، كانت السياسة الأصلية تهدف إلى دفع الصناعة نحو التوافق—لكن الصناعة لم تتبع ذلك. إدارة ترامب اتبعت نهجاً غير تدخلي مع الذكاء الاصطناعي، وحاولت حتى إلغاء قوانين الولايات. ولا يزال التشريع الفيدرالي للذكاء الاصطناعي بعيد المنال. في 2023، بدا أن إطار الحوكمة العالمية ممكن، لكن بعد ثلاث سنوات، أغلق ذلك الباب.

قال باحث مجهول في حوكمة الذكاء الاصطناعي: "RSP هو أهم أصل علامي لشركة Anthropic. إسقاط التوقف عن التدريب يشبه شركة الأغذية العضوية التي تزيل بهدوء كلمة 'عضوي' من علامتها، ثم تقول لك إن اختباراتها الآن أكثر شفافية."

أزمة الهوية عند تقييم $380 مليار

في أوائل فبراير، أغلقت Anthropic جولة تمويل بقيمة $30 مليار عند تقييم $380 مليار، بقيادة Amazon كمستثمر رئيسي. منذ تأسيسها، حققت $14 مليار إيرادات سنوية، وخلال السنوات الثلاث الماضية، نما هذا الرقم أكثر من عشرة أضعاف سنوياً.

في الوقت نفسه، يهدد البنتاغون بإدراج الشركة في القائمة السوداء. ماسك يتهمها علناً بسرقة البيانات. التزامها الأساسي بالسلامة اختفى. رئيس قسم السلامة في الذكاء الاصطناعي لدى Anthropic، مرينانك شارما، استقال وكتب على X: "العالم في خطر."

تناقض؟

ربما التناقض هو الحمض النووي لشركة Anthropic.

تأسست على يد مسؤولين سابقين في OpenAI قلقين من وتيرة السلامة في OpenAI، ثم بنت Anthropic نماذج أقوى وأسرع، بينما تخبر العالم بمدى خطورة تلك النماذج.

نموذج العمل باختصار: نحن نخشى الذكاء الاصطناعي أكثر من أي أحد، لذا يجب أن تدفع لنا لبنائه.

هذا السرد نجح تماماً في 2023–2024. كانت السلامة في الذكاء الاصطناعي كلمة رنانة في واشنطن، وكانت Anthropic أبرز جماعات الضغط.

بحلول 2026، تغيرت الرياح.

أصبح "الذكاء الاصطناعي المستيقظ" إهانة سياسية، وتم حظر تنظيم الذكاء الاصطناعي على مستوى الولايات من قبل البيت الأبيض، ورغم أن SB 53 في كاليفورنيا (بدعم من Anthropic) أصبح قانوناً، لم يحدث شيء على المستوى الفيدرالي.

سرد السلامة لدى Anthropic يتحول من "ميزة تمييزية" إلى "عبء سياسي".

تؤدي Anthropic رقصة توازن معقدة—تحتاج أن تكون "آمنة" بما يكفي للحفاظ على علامتها، ولكن "مرنة" بما يكفي لتجنب رفض السوق أو الحكومة. المشكلة أن التسامح من كلا الطرفين يتقلص.

كم تبلغ قيمة سرد السلامة اليوم؟

عند النظر إلى الأحداث الثلاثة معاً، تظهر الصورة واضحة.

اتهام الشركات الصينية بتقطير Claude يعزز جهود الضغط لتقييد تصدير الرقائق. إسقاط التوقف عن السلامة يبقي Anthropic في سباق التسلح. رفض طلب البنتاغون بشأن الأسلحة الذاتية التشغيل يحافظ على آخر طبقة من المصداقية الأخلاقية.

كل خطوة منطقية، لكن كل منها تناقض الأخرى.

لا يمكنك الادعاء بأن الشركات الصينية "تقطر" نموذجك وتهدد الأمن القومي بينما تزيل تعهدك بمنع نموذجك من الخروج عن السيطرة. إذا كان النموذج خطيراً لهذا الحد، عليك أن تكون أكثر حذراً—not أكثر عدوانية.

إلا إذا كنت Anthropic.

في صناعة الذكاء الاصطناعي، لا تحدد هويتك عبر تصريحاتك—بل عبر ميزانيتك. سرد "السلامة" لدى Anthropic هو في جوهره علاوة العلامة التجارية.

في بداية سباق التسلح في الذكاء الاصطناعي، كانت هذه العلاوة ذات قيمة. دفع المستثمرون أكثر من أجل "ذكاء اصطناعي مسؤول"، وأجازت الحكومات "ذكاء اصطناعي موثوق"، ودفع العملاء من أجل "ذكاء اصطناعي أكثر أماناً".

لكن بحلول 2026، بدأت تلك العلاوة في التلاشي.

تواجه Anthropic الآن سؤالاً ليس "هل نساوم؟" بل "مع من نساوم أولاً؟". إذا ساومت مع البنتاغون، تتضرر العلامة. إذا ساومت مع المنافسين، يُلغى تعهد السلامة. إذا ساومت مع المستثمرين، يجب أن يتنازل الطرفان.

الساعة 5:01 مساءً يوم الجمعة، ستقدم Anthropic جوابها.

بغض النظر عن النتيجة، هناك أمر واحد مؤكد: Anthropic التي ازدهرت على "نحن مختلفون عن OpenAI" أصبحت الآن مثل الجميع.

نهاية أزمة الهوية غالباً ما تعني اختفاء الهوية نفسها.

بيان:

  1. تم إعادة نشر هذه المقالة من [TechFlow]. حقوق النشر تعود للمؤلف الأصلي [Ada]. إذا كان لديك أي مخاوف بشأن إعادة النشر، يرجى التواصل مع فريق Gate Learn، وسنتعامل معها بسرعة وفقاً للإجراءات ذات الصلة.
  2. إخلاء مسؤولية: الآراء والمواقف الواردة في هذه المقالة تعبر عن رأي الكاتب فقط ولا تشكل نصيحة استثمارية.
  3. تمت ترجمة النسخ بلغات أخرى من هذه المقالة بواسطة فريق Gate Learn. دون الإشارة إلى Gate، لا يجوز نسخ أو توزيع أو سرقة المقالات المترجمة.

مشاركة

تقويم العملات الرقمية
فتح العملات
ستقوم Wormhole بفتح 1,280,000,000 من رموز W في 3 أبريل، مما يشكل حوالي 28.39% من المعروض المتداول حالياً.
W
-7.32%
2026-04-02
فتح العملات
ستقوم شبكة PYTH بإطلاق 2,130,000,000 من رموز PYTH في 19 مايو، مما يشكل حوالي 36.96% من العرض المتداول الحالي.
PYTH
2.25%
2026-05-18
فتح العملات
Pump.fun ستقوم بإطلاق 82,500,000,000 رمز PUMP في 12 يوليو، مما يشكل حوالي 23.31% من المعروض المتداول حالياً.
PUMP
-3.37%
2026-07-11
فتح العملات
سيقوم Succinct بإطلاق 208,330,000 توكن من PROVE في 5 أغسطس، مما يشكل حوالي 104.17% من العرض المتداول الحالي.
PROVE
2026-08-04
sign up guide logosign up guide logo
sign up guide content imgsign up guide content img
Sign Up

المقالات ذات الصلة

ما هو Tronscan وكيف يمكنك استخدامه في عام 2025؟
مبتدئ

ما هو Tronscan وكيف يمكنك استخدامه في عام 2025؟

Tronscan هو مستكشف للبلوكشين يتجاوز الأساسيات، ويقدم إدارة محفظة، تتبع الرمز، رؤى العقد الذكية، ومشاركة الحوكمة. بحلول عام 2025، تطورت مع ميزات أمان محسّنة، وتحليلات موسّعة، وتكامل عبر السلاسل، وتجربة جوال محسّنة. تشمل النظام الآن مصادقة بيومترية متقدمة، ورصد المعاملات في الوقت الحقيقي، ولوحة معلومات شاملة للتمويل اللامركزي. يستفيد المطورون من تحليل العقود الذكية الذي يعتمد على الذكاء الاصطناعي وبيئات اختبار محسّنة، بينما يستمتع المستخدمون برؤية موحدة لمحافظ متعددة السلاسل والتنقل القائم على الإيماءات على الأجهزة المحمولة.
2023-11-22 18:27:42
كل ما تريد معرفته عن Blockchain
مبتدئ

كل ما تريد معرفته عن Blockchain

ما هي البلوكشين، وفائدتها، والمعنى الكامن وراء الطبقات والمجموعات، ومقارنات البلوكشين وكيف يتم بناء أنظمة التشفير المختلفة؟
2022-11-21 09:15:55
ما هو كوتي؟ كل ما تحتاج إلى معرفته عن COTI
مبتدئ

ما هو كوتي؟ كل ما تحتاج إلى معرفته عن COTI

Coti (COTI) عبارة عن منصة لامركزية وقابلة للتطوير تدعم المدفوعات الخالية من الاحتكاك لكل من التمويل التقليدي والعملات الرقمية.
2023-11-02 09:09:18
ما هي كوساما؟ كل ما تريد معرفته عن KSM
مبتدئ

ما هي كوساما؟ كل ما تريد معرفته عن KSM

أما كوساما، التي توصف بأنها ابنة عم" بولكادوت البرية"، فهي عبارة عن منصة بلوكتشين مصممة لتوفير إطار قابل للتشغيل المتبادل على نطاق واسع وقابل للتوسعة للمطورين.
2022-12-23 09:35:09
ما هي ترون؟
مبتدئ

ما هي ترون؟

TRON هو مشروع سلسلة عامة تم إنشاؤه بواسطة Justin Sun في عام 2017. وهي تحتل المرتبة الأولى بناءً على شبكتها الفعالة وقابلية التوسع ورسوم المعاملات المنخفضة للغاية. عندما نتحدث عن TRON، قد تكون الكلمات الرئيسية الأولى المتعلقة بها هي جاستن صن و TRC-20 و dPoS. ولكن كسلسلة عامة ذات قيمة سوقية عالية وسيناريوهات تطبيق واسعة النطاق، هناك الكثير مما يستحق معرفته، بما في ذلك آلية الإجماع والنموذج الاقتصادي والتاريخ ومؤسسها.
2022-11-21 09:53:41
ما هو أكسي إنفينيتي؟
مبتدئ

ما هو أكسي إنفينيتي؟

أكسي إنفينيتي هو مشروع GameFi الرائد، الذي نموذج الرمز المزدوج AXS و SLP له شكل بشكل كبير مشاريع لاحقة. نظرًا لارتفاع P2E، تم جذب المزيد والمزيد من الوافدين الجدد للانضمام. ردًا على الرسوم المتطايرة، تم إطلاق سلسلة جانبية خاصة، Ronin، و
2024-07-10 09:04:21