وفقا لموقع ChainCatcher، نشر فيتاليك بوتيرين مقالا يدعم التزام شركة الذكاء الاصطناعي Anthropic بالمنطقين الأخلاقيين المتمثلين في “عدم تطوير أسلحة ذاتية الحكم بالكامل” و"عدم إجراء مراقبة واسعة النطاق من قبل الولايات المتحدة"، مشيدا بعزيمتها على مواجهة ضغوط الحكومة. يجادل فيتاليك بأنه في عالم مثالي، ستكون هذه التطبيقات عالية المخاطر محدودة بمستوى الوصول إلى نماذج اللغة الكبيرة مفتوحة المصدر (أي المستوى الذي يتمتع فيه جميع الناس بنفس القدر من الوصول العام)؛ حتى الزيادة بنسبة 10٪ تقلل من خطر الأسلحة الذاتية القيادة وانتهاكات الخصوصية، مما يدفع الذكاء الاصطناعي الأكثر أمانا.
وفقا للأخبار السابقة، قد يؤدي تهديد البنتاغون الأخير بقطع التعاون مع أنثروبيك إلى خسارة عقود بقيمة 200 مليون دولار لأن أنثروبيك ترفض توفير تكنولوجيا الذكاء الاصطناعي دون تدخل بشري للاستخدام العسكري.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
فيتاليك يمدح أنثروبيك لتمسكها بحدود الأخلاق "عدم إجراء مراقبة اجتماعية واسعة النطاق"
وفقا لموقع ChainCatcher، نشر فيتاليك بوتيرين مقالا يدعم التزام شركة الذكاء الاصطناعي Anthropic بالمنطقين الأخلاقيين المتمثلين في “عدم تطوير أسلحة ذاتية الحكم بالكامل” و"عدم إجراء مراقبة واسعة النطاق من قبل الولايات المتحدة"، مشيدا بعزيمتها على مواجهة ضغوط الحكومة. يجادل فيتاليك بأنه في عالم مثالي، ستكون هذه التطبيقات عالية المخاطر محدودة بمستوى الوصول إلى نماذج اللغة الكبيرة مفتوحة المصدر (أي المستوى الذي يتمتع فيه جميع الناس بنفس القدر من الوصول العام)؛ حتى الزيادة بنسبة 10٪ تقلل من خطر الأسلحة الذاتية القيادة وانتهاكات الخصوصية، مما يدفع الذكاء الاصطناعي الأكثر أمانا.
وفقا للأخبار السابقة، قد يؤدي تهديد البنتاغون الأخير بقطع التعاون مع أنثروبيك إلى خسارة عقود بقيمة 200 مليون دولار لأن أنثروبيك ترفض توفير تكنولوجيا الذكاء الاصطناعي دون تدخل بشري للاستخدام العسكري.