Anthropic đã cáo buộc ba công ty trí tuệ nhân tạo nổi bật của Trung Quốc sử dụng chatbot Claude của mình trên quy mô lớn để bí mật huấn luyện các mô hình đối thủ, một diễn biến bất ngờ trong cuộc tranh luận toàn cầu kéo dài nhiều năm về việc gian lận bắt đầu từ đâu và tiêu chuẩn ngành bắt đầu từ đâu.
Video đề xuất
Trong một bài đăng trên blog vào thứ Hai, Anthropic có trụ sở tại San Francisco cáo buộc rằng các phòng thí nghiệm Trung Quốc DeepSeek, Moonshot AI và MiniMax đã vi phạm luật doanh nghiệp khi tương tác với Claude, công cụ mã hóa cảm xúc thay đổi thị trường của họ. “Chúng tôi đã xác định các chiến dịch quy mô công nghiệp của ba phòng thí nghiệm AI—DeepSeek, Moonshot và MiniMax—để trích xuất trái phép khả năng của Claude nhằm cải thiện các mô hình của họ,” công ty cho biết. “Các phòng thí nghiệm này đã tạo ra hơn 16 triệu cuộc trao đổi với Claude thông qua khoảng 24.000 tài khoản giả mạo, vi phạm điều khoản dịch vụ và hạn chế truy cập khu vực của chúng tôi.”
Theo Anthropic, các công ty Trung Quốc dựa vào kỹ thuật gọi là “chưng cất,” trong đó một mô hình được huấn luyện dựa trên các đầu ra của mô hình khác, thường là hệ thống có khả năng cao hơn. Các chiến dịch này được cho là tập trung vào các lĩnh vực mà Anthropic coi là điểm khác biệt chính của Claude, bao gồm lý luận phức tạp, hỗ trợ lập trình và sử dụng công cụ.
Anthropic lập luận rằng trong khi chưng cất là một phương pháp huấn luyện “phổ biến và hợp pháp,” việc các công ty Trung Quốc sử dụng nó theo cách này có thể nhằm mục đích “phi pháp.” Việc sử dụng mạng lưới rộng lớn các tài khoản giả để sao chép mô hình sở hữu của đối thủ vi phạm điều khoản dịch vụ của họ và làm suy yếu các kiểm soát xuất khẩu của Mỹ nhằm hạn chế quyền truy cập của Trung Quốc vào AI tiên tiến, Anthropic nói, đồng thời kêu gọi “hành động nhanh chóng, phối hợp giữa các ngành, nhà hoạch định chính sách và cộng đồng AI toàn cầu.”
Nếu không phải là chưng cất, gần đây Anthropic bị cáo buộc vi phạm bản quyền bởi hàng nghìn tác giả, bị cáo buộc đã tải xuống hàng loạt sách từ các thư viện bóng tối để huấn luyện mô hình AI của mình, thay vì mua bản sao và quét chúng. Trong một bước đi lịch sử, Anthropic đã giải quyết vụ kiện đó với khoản bồi thường 1,5 tỷ USD vào tháng 9 năm 2025, trả cho các tác giả khoảng 3.000 USD mỗi cuốn sách cho khoảng 500.000 tác phẩm.
Cách các công ty Trung Quốc bị cáo buộc thực hiện
Công ty cho rằng ba phòng thí nghiệm này đã vượt qua các giới hạn về địa lý và hạn chế kinh doanh giới hạn khả năng thương mại của Claude tại Trung Quốc bằng cách định tuyến lưu lượng qua các dịch vụ proxy bán lại quyền truy cập vào các mô hình AI lớn của phương Tây. Một “cụm hydra,” theo lời Anthropic, hoạt động hàng chục nghìn tài khoản cùng lúc để phân phối yêu cầu qua các khóa API và nhà cung cấp đám mây khác nhau.
Khi các tài khoản đó đã được thiết lập, các phòng thí nghiệm bị cáo buộc đã viết các cuộc trò chuyện dài, có nhiều token nhằm trích xuất các câu trả lời chi tiết, từng bước, có thể được đưa trở lại hệ thống của họ như dữ liệu huấn luyện. Theo cách kể của Anthropic, kết quả là một đường ống không chính thức biến Claude thành một người thầy không mong muốn cho các mô hình đang được phát triển trong ngành AI ngày càng cạnh tranh của Trung Quốc.
Anthropic chưa công bố các vụ kiện cụ thể chống lại ba công ty này, nhưng đã cho biết rằng họ đã chặn các điểm truy cập đã biết và kêu gọi Washington thắt chặt kiểm soát xuất khẩu các chip cao cấp và dịch vụ AI để ngăn chặn các nỗ lực tương tự trong tương lai.
‘Cách đổi ngược tình thế’
Nếu Anthropic hy vọng nhận được sự cảm thông, phản ứng trực tuyến và trong giới ngành đã thể hiện rõ sự hoài nghi. Các nhà bình luận nhanh chóng chỉ ra rằng chính Anthropic cũng đã đối mặt với các cáo buộc nổi bật về việc vượt quá giới hạn trong thực hành thu thập dữ liệu của mình, ngoài vụ kiện bản quyền từ các tác giả, như một vụ kiện riêng về việc quét nội dung Reddit. “Cách đổi ngược tình thế,” một người bình luận trên diễn đàn Reddit r/singularity đã viết, một cách chơi chữ thường được cho là bắt nguồn từ meme dựa trên chương trình truyền hình The Office.
Phía sau những lời chỉ trích đó là một cuộc chiến rộng lớn hơn về việc ai đặt ra các quy tắc cho ngành công nghiệp dựa trên việc remix công việc của con người. Các công ty Mỹ như Anthropic và OpenAI ngày càng thúc đẩy việc thực thi mạnh mẽ chống lại các đối thủ nước ngoài mà họ cáo buộc sao chép các hệ thống sở hữu trí tuệ, ngay cả khi họ bảo vệ việc thu thập dữ liệu rộng rãi của chính mình dưới danh nghĩa sử dụng hợp lý.
Các phòng thí nghiệm Trung Quốc, nhiều trong số đó phát hành các mô hình mã nguồn mở hơn, đang chạy đua để thu hẹp khoảng cách về hiệu suất với các đối thủ phương Tây bằng bất kỳ lợi thế pháp lý nào họ có thể tìm thấy. Với Washington đã bắt đầu tranh luận về việc thắt chặt hơn nữa các hạn chế xuất khẩu chip AI và dịch vụ đám mây sang Trung Quốc, các cáo buộc của Anthropic có khả năng sẽ thúc đẩy các yêu cầu về các giới hạn mới—đồng thời cung cấp thêm một cơ hội cho các nhà phê bình nhận thấy sự đối xứng không thoải mái nằm ở trung tâm của AI hiện đại.
Trong câu chuyện này, các nhà báo của Fortune đã sử dụng AI tạo sinh như một công cụ nghiên cứu. Một biên tập viên đã xác minh độ chính xác của thông tin trước khi xuất bản.
**Tham gia cùng chúng tôi tại Hội nghị Đổi mới Nơi làm việc của Fortune **19–20 tháng 5, 2026, tại Atlanta. Thời đại mới của đổi mới nơi làm việc đã bắt đầu—và sách lược cũ đang được viết lại. Trong sự kiện độc quyền, năng lượng cao này, các nhà lãnh đạo sáng tạo nhất thế giới sẽ tụ họp để khám phá cách AI, nhân loại và chiến lược hội tụ để định hình lại, một lần nữa, tương lai của công việc. Đăng ký ngay.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Anthropic tuyên bố rằng 3 công ty Trung Quốc đã sao chép nó, sử dụng các công cụ AI của nó để huấn luyện mô hình của họ: ‘How the turn tables’
Anthropic đã cáo buộc ba công ty trí tuệ nhân tạo nổi bật của Trung Quốc sử dụng chatbot Claude của mình trên quy mô lớn để bí mật huấn luyện các mô hình đối thủ, một diễn biến bất ngờ trong cuộc tranh luận toàn cầu kéo dài nhiều năm về việc gian lận bắt đầu từ đâu và tiêu chuẩn ngành bắt đầu từ đâu.
Video đề xuất
Trong một bài đăng trên blog vào thứ Hai, Anthropic có trụ sở tại San Francisco cáo buộc rằng các phòng thí nghiệm Trung Quốc DeepSeek, Moonshot AI và MiniMax đã vi phạm luật doanh nghiệp khi tương tác với Claude, công cụ mã hóa cảm xúc thay đổi thị trường của họ. “Chúng tôi đã xác định các chiến dịch quy mô công nghiệp của ba phòng thí nghiệm AI—DeepSeek, Moonshot và MiniMax—để trích xuất trái phép khả năng của Claude nhằm cải thiện các mô hình của họ,” công ty cho biết. “Các phòng thí nghiệm này đã tạo ra hơn 16 triệu cuộc trao đổi với Claude thông qua khoảng 24.000 tài khoản giả mạo, vi phạm điều khoản dịch vụ và hạn chế truy cập khu vực của chúng tôi.”
Theo Anthropic, các công ty Trung Quốc dựa vào kỹ thuật gọi là “chưng cất,” trong đó một mô hình được huấn luyện dựa trên các đầu ra của mô hình khác, thường là hệ thống có khả năng cao hơn. Các chiến dịch này được cho là tập trung vào các lĩnh vực mà Anthropic coi là điểm khác biệt chính của Claude, bao gồm lý luận phức tạp, hỗ trợ lập trình và sử dụng công cụ.
Anthropic lập luận rằng trong khi chưng cất là một phương pháp huấn luyện “phổ biến và hợp pháp,” việc các công ty Trung Quốc sử dụng nó theo cách này có thể nhằm mục đích “phi pháp.” Việc sử dụng mạng lưới rộng lớn các tài khoản giả để sao chép mô hình sở hữu của đối thủ vi phạm điều khoản dịch vụ của họ và làm suy yếu các kiểm soát xuất khẩu của Mỹ nhằm hạn chế quyền truy cập của Trung Quốc vào AI tiên tiến, Anthropic nói, đồng thời kêu gọi “hành động nhanh chóng, phối hợp giữa các ngành, nhà hoạch định chính sách và cộng đồng AI toàn cầu.”
Nếu không phải là chưng cất, gần đây Anthropic bị cáo buộc vi phạm bản quyền bởi hàng nghìn tác giả, bị cáo buộc đã tải xuống hàng loạt sách từ các thư viện bóng tối để huấn luyện mô hình AI của mình, thay vì mua bản sao và quét chúng. Trong một bước đi lịch sử, Anthropic đã giải quyết vụ kiện đó với khoản bồi thường 1,5 tỷ USD vào tháng 9 năm 2025, trả cho các tác giả khoảng 3.000 USD mỗi cuốn sách cho khoảng 500.000 tác phẩm.
Cách các công ty Trung Quốc bị cáo buộc thực hiện
Công ty cho rằng ba phòng thí nghiệm này đã vượt qua các giới hạn về địa lý và hạn chế kinh doanh giới hạn khả năng thương mại của Claude tại Trung Quốc bằng cách định tuyến lưu lượng qua các dịch vụ proxy bán lại quyền truy cập vào các mô hình AI lớn của phương Tây. Một “cụm hydra,” theo lời Anthropic, hoạt động hàng chục nghìn tài khoản cùng lúc để phân phối yêu cầu qua các khóa API và nhà cung cấp đám mây khác nhau.
Khi các tài khoản đó đã được thiết lập, các phòng thí nghiệm bị cáo buộc đã viết các cuộc trò chuyện dài, có nhiều token nhằm trích xuất các câu trả lời chi tiết, từng bước, có thể được đưa trở lại hệ thống của họ như dữ liệu huấn luyện. Theo cách kể của Anthropic, kết quả là một đường ống không chính thức biến Claude thành một người thầy không mong muốn cho các mô hình đang được phát triển trong ngành AI ngày càng cạnh tranh của Trung Quốc.
Anthropic chưa công bố các vụ kiện cụ thể chống lại ba công ty này, nhưng đã cho biết rằng họ đã chặn các điểm truy cập đã biết và kêu gọi Washington thắt chặt kiểm soát xuất khẩu các chip cao cấp và dịch vụ AI để ngăn chặn các nỗ lực tương tự trong tương lai.
‘Cách đổi ngược tình thế’
Nếu Anthropic hy vọng nhận được sự cảm thông, phản ứng trực tuyến và trong giới ngành đã thể hiện rõ sự hoài nghi. Các nhà bình luận nhanh chóng chỉ ra rằng chính Anthropic cũng đã đối mặt với các cáo buộc nổi bật về việc vượt quá giới hạn trong thực hành thu thập dữ liệu của mình, ngoài vụ kiện bản quyền từ các tác giả, như một vụ kiện riêng về việc quét nội dung Reddit. “Cách đổi ngược tình thế,” một người bình luận trên diễn đàn Reddit r/singularity đã viết, một cách chơi chữ thường được cho là bắt nguồn từ meme dựa trên chương trình truyền hình The Office.
Phía sau những lời chỉ trích đó là một cuộc chiến rộng lớn hơn về việc ai đặt ra các quy tắc cho ngành công nghiệp dựa trên việc remix công việc của con người. Các công ty Mỹ như Anthropic và OpenAI ngày càng thúc đẩy việc thực thi mạnh mẽ chống lại các đối thủ nước ngoài mà họ cáo buộc sao chép các hệ thống sở hữu trí tuệ, ngay cả khi họ bảo vệ việc thu thập dữ liệu rộng rãi của chính mình dưới danh nghĩa sử dụng hợp lý.
Các phòng thí nghiệm Trung Quốc, nhiều trong số đó phát hành các mô hình mã nguồn mở hơn, đang chạy đua để thu hẹp khoảng cách về hiệu suất với các đối thủ phương Tây bằng bất kỳ lợi thế pháp lý nào họ có thể tìm thấy. Với Washington đã bắt đầu tranh luận về việc thắt chặt hơn nữa các hạn chế xuất khẩu chip AI và dịch vụ đám mây sang Trung Quốc, các cáo buộc của Anthropic có khả năng sẽ thúc đẩy các yêu cầu về các giới hạn mới—đồng thời cung cấp thêm một cơ hội cho các nhà phê bình nhận thấy sự đối xứng không thoải mái nằm ở trung tâm của AI hiện đại.
Trong câu chuyện này, các nhà báo của Fortune đã sử dụng AI tạo sinh như một công cụ nghiên cứu. Một biên tập viên đã xác minh độ chính xác của thông tin trước khi xuất bản.
**Tham gia cùng chúng tôi tại Hội nghị Đổi mới Nơi làm việc của Fortune **19–20 tháng 5, 2026, tại Atlanta. Thời đại mới của đổi mới nơi làm việc đã bắt đầu—và sách lược cũ đang được viết lại. Trong sự kiện độc quyền, năng lượng cao này, các nhà lãnh đạo sáng tạo nhất thế giới sẽ tụ họp để khám phá cách AI, nhân loại và chiến lược hội tụ để định hình lại, một lần nữa, tương lai của công việc. Đăng ký ngay.