في 25 فبراير، نشر فيتاليك بوتيرين دعمًا لشركة الذكاء الاصطناعي Anthropic، مؤكدًا على التزامها بالخطوط الأخلاقية المتمثلة في “عدم تطوير أسلحة ذاتية التشغيل بالكامل” و"عدم المشاركة في المراقبة الواسعة النطاق في الولايات المتحدة"، مشيدًا بعزمها على مواجهة ضغوط الحكومة. يرى فيتاليك أنه في عالم مثالي، يجب أن تقتصر هذه التطبيقات عالية المخاطر على مستوى الوصول إلى نماذج اللغة المفتوحة المصدر؛ حتى تحقيق تقدم بنسبة 10% فقط يمكن أن يقلل من مخاطر الأسلحة الذاتية والتعدي على الخصوصية، ويسهم في تطوير الذكاء الاصطناعي بشكل أكثر أمانًا. وكانت أنباء سابقة تفيد بأن وزارة الدفاع الأمريكية هددت مؤخرًا بقطع التعاون مع Anthropic، مما قد يؤدي إلى فقدان عقد بقيمة 200 مليون دولار، بسبب رفض الشركة تزويد التكنولوجيا الذكاء الاصطناعي غير الخاضعة للتدخل البشري للاستخدامات العسكرية.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
فيتاليك يمدح شركة الذكاء الاصطناعي Anthropic لتمسكها بالخط الأخلاقي "عدم إجراء مراقبة اجتماعية واسعة النطاق"
في 25 فبراير، نشر فيتاليك بوتيرين دعمًا لشركة الذكاء الاصطناعي Anthropic، مؤكدًا على التزامها بالخطوط الأخلاقية المتمثلة في “عدم تطوير أسلحة ذاتية التشغيل بالكامل” و"عدم المشاركة في المراقبة الواسعة النطاق في الولايات المتحدة"، مشيدًا بعزمها على مواجهة ضغوط الحكومة. يرى فيتاليك أنه في عالم مثالي، يجب أن تقتصر هذه التطبيقات عالية المخاطر على مستوى الوصول إلى نماذج اللغة المفتوحة المصدر؛ حتى تحقيق تقدم بنسبة 10% فقط يمكن أن يقلل من مخاطر الأسلحة الذاتية والتعدي على الخصوصية، ويسهم في تطوير الذكاء الاصطناعي بشكل أكثر أمانًا. وكانت أنباء سابقة تفيد بأن وزارة الدفاع الأمريكية هددت مؤخرًا بقطع التعاون مع Anthropic، مما قد يؤدي إلى فقدان عقد بقيمة 200 مليون دولار، بسبب رفض الشركة تزويد التكنولوجيا الذكاء الاصطناعي غير الخاضعة للتدخل البشري للاستخدامات العسكرية.