Anthropic تستأجر خبراء أسلحة كيماوية للحماية من إساءة استخدام Claude، يشكك الخبراء في ما إذا كان هذا قد يزيد المخاطر

أخبار Gate، في 17 مارس، نشرت شركة Anthropic على LinkedIn وظيفة “مدير سياسة الأسلحة الكيميائية والمتفجرات عالية القوة”، يتطلب من المتقدمين أن يكون لديهم خبرة لا تقل عن 5 سنوات في مجال الدفاع عن الأسلحة الكيميائية و/أو المتفجرات، وأن يكونوا على دراية بأجهزة التشتت الإشعاعي (القنابل القذرة). وأوضحت Anthropic أن الهدف من هذا المنصب هو منع استخدام أدوات الذكاء الاصطناعي الخاصة بها، Claude، في “الاستخدام المضر والكارثي”، حيث يخشون من أن يُستخدم Claude للحصول على معلومات حول تصنيع الأسلحة الكيميائية والإشعاعية، ويحتاجون إلى خبراء لتقييم مدى كفاية التدابير الأمنية الحالية. كما نشرت شركة ذكاء اصطناعي أخرى وظيفة مماثلة على صفحة التوظيف، تتعلق بالباحث في المخاطر البيولوجية والكيميائية، براتب سنوي يصل إلى 455,000 دولار. وفي هذا الصدد، أعربت الدكتورة ستيفاني هير، مقدمة برنامج “AI Decoded” والباحثة في التكنولوجيا، عن شكوكها قائلة: “هل من الآمن حقًا أن تتعامل أنظمة الذكاء الاصطناعي مع معلومات حساسة حول المواد الكيميائية والمتفجرات والأسلحة الإشعاعية، حتى لو تم إصدار أوامر بعدم استخدام هذه المعلومات؟” وأشارت أيضًا إلى أنه لا توجد حتى الآن أي معاهدة دولية أو لوائح تنظم هذا النوع من العمل أو استخدام الذكاء الاصطناعي مع هذه الأسلحة، “كل ذلك يحدث خارج نطاق الرؤية العامة”.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات