Vitalik ca ngợi Anthropic giữ vững nguyên tắc đạo đức "không tiến hành giám sát xã hội quy mô lớn"

robot
Đang tạo bản tóm tắt

Theo ChainCatcher, Vitalik Buterin đã đăng một bài báo ủng hộ việc công ty AI Anthropic tuân thủ hai điểm mấu chốt về đạo đức là “không phát triển vũ khí tự động hoàn toàn” và “không tiến hành giám sát quy mô lớn của Hoa Kỳ”, ca ngợi quyết tâm đối mặt với áp lực của chính phủ. Vitalik lập luận rằng trong một thế giới lý tưởng, các ứng dụng có rủi ro cao như vậy sẽ bị giới hạn ở mức độ truy cập LLM mã nguồn mở (tức là mức độ mà tất cả mọi người đều có quyền truy cập công cộng bình đẳng); Ngay cả khi ứng trước 10% cũng làm giảm nguy cơ vũ khí tự động và vi phạm quyền riêng tư, thúc đẩy AI an toàn hơn.

Theo tin tức trước đó, lời đe dọa gần đây của Lầu Năm Góc về việc cắt đứt hợp tác với Anthropic có thể dẫn đến mất 200 triệu USD hợp đồng vì Anthropic từ chối cung cấp công nghệ AI mà không có sự can thiệp của con người cho mục đích quân sự.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim