Ngày 25 tháng 2, Vitalik Buterin đã đăng bài ủng hộ công ty AI Anthropic giữ vững hai nguyên tắc đạo đức: “Không phát triển vũ khí hoàn toàn tự động” và “Không tiến hành giám sát quy mô lớn của Mỹ”, khen ngợi quyết tâm của họ đối mặt với áp lực từ chính phủ. Vitalik cho rằng, trong thế giới lý tưởng, các ứng dụng có rủi ro cao như vậy chỉ nên giới hạn ở mức truy cập mở của các mô hình ngôn ngữ lớn (LLM); ngay cả khi chỉ đạt 10% tiến bộ, cũng có thể giảm thiểu rủi ro về vũ khí tự động và xâm phạm quyền riêng tư, thúc đẩy sự phát triển an toàn của AI. Trước đó, có tin tức rằng Bộ Quốc phòng Mỹ gần đây đã đe dọa cắt đứt hợp tác với Anthropic, có thể dẫn đến mất hợp đồng trị giá 2 tỷ USD, vì Anthropic từ chối cung cấp công nghệ AI không có sự can thiệp của con người cho mục đích quân sự.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Vitalik ca ngợi công ty AI Anthropic giữ vững giới hạn đạo đức "không tiến hành giám sát xã hội quy mô lớn"
Ngày 25 tháng 2, Vitalik Buterin đã đăng bài ủng hộ công ty AI Anthropic giữ vững hai nguyên tắc đạo đức: “Không phát triển vũ khí hoàn toàn tự động” và “Không tiến hành giám sát quy mô lớn của Mỹ”, khen ngợi quyết tâm của họ đối mặt với áp lực từ chính phủ. Vitalik cho rằng, trong thế giới lý tưởng, các ứng dụng có rủi ro cao như vậy chỉ nên giới hạn ở mức truy cập mở của các mô hình ngôn ngữ lớn (LLM); ngay cả khi chỉ đạt 10% tiến bộ, cũng có thể giảm thiểu rủi ro về vũ khí tự động và xâm phạm quyền riêng tư, thúc đẩy sự phát triển an toàn của AI. Trước đó, có tin tức rằng Bộ Quốc phòng Mỹ gần đây đã đe dọa cắt đứt hợp tác với Anthropic, có thể dẫn đến mất hợp đồng trị giá 2 tỷ USD, vì Anthropic từ chối cung cấp công nghệ AI không có sự can thiệp của con người cho mục đích quân sự.