# Anthropic cáo buộc các phòng thí nghiệm AI Trung Quốc “ăn cắp” dữ liệu
Công ty Anthropic đã cáo buộc ba startup AI Trung Quốc — DeepSeek, Moonshot và MiniMax — trong một chiến dịch quy mô lớn sử dụng Claude để cải thiện các mô hình của riêng họ.
Các phòng thí nghiệm từ Trung Quốc đã tạo ra hơn 16 triệu tương tác với chatbot qua khoảng 24.000 tài khoản lừa đảo, vi phạm điều khoản sử dụng và hạn chế khu vực.
“Chúng tôi tự tin liên kết từng chiến dịch với một công ty cụ thể dựa trên sự tương quan của địa chỉ IP, siêu dữ liệu yêu cầu, đặc điểm hạ tầng và xác nhận từ các đối tác trong ngành. Họ nhắm vào các khả năng độc đáo nhất của Claude: suy luận theo tác nhân, sử dụng công cụ và lập trình,” — Anthropic cho biết.
Các công ty đã áp dụng phương pháp distillation — huấn luyện một mạng nơ-ron ít mạnh hơn dựa trên kết luận của mạng mạnh hơn.
Đây là phương pháp phổ biến và hợp pháp. Các phòng thí nghiệm AI hàng đầu thường xuyên distill các mô hình của chính họ để tạo ra các phiên bản nhỏ gọn, rẻ hơn cho khách hàng.
“Tuy nhiên, nó cũng có thể được sử dụng trái phép: các đối thủ cạnh tranh nâng cao khả năng bằng cách sử dụng LLM của người khác trong thời gian và chi phí ít hơn so với tự phát triển,” — theo blog của Anthropic.
Công ty nhấn mạnh rằng cửa sổ để phản ứng với “ăn cắp” như vậy là hẹp, và mối đe dọa vượt ra ngoài một công ty hoặc khu vực. Để khắc phục, cần có các hành động nhanh chóng và phối hợp từ ngành công nghiệp, các cơ quan quản lý và cộng đồng AI toàn cầu.
Tại sao điều này nguy hiểm
Anthropic giải thích các rủi ro của phương pháp này. Các mô hình distillation trái phép không giữ các cơ chế bảo vệ cần thiết — điều này gây ra vấn đề về an ninh quốc gia.
Các công ty Mỹ đang triển khai hệ thống để ngăn chặn việc sử dụng trí tuệ nhân tạo trong phát triển vũ khí sinh học, các cuộc tấn công mạng độc hại và các hành động nguy hiểm khác. Các mô hình được tạo ra qua distillation trái phép không có các hạn chế này.
Các phòng thí nghiệm nước ngoài có thể tích hợp các khả năng không được bảo vệ vào các hệ thống quân sự và tình báo, cho phép các chính phủ độc tài sử dụng AI tiên tiến để tấn công mạng, gây nhiễu thông tin và giám sát quy mô lớn, các công ty bổ sung.
Các phương pháp đối phó
Các chuyên gia của Anthropic ủng hộ các hạn chế xuất khẩu để duy trì vị thế dẫn đầu của Mỹ trong lĩnh vực AI. Theo họ, các cuộc tấn công distillation phá vỡ các biện pháp này, cho phép các phòng thí nghiệm nước ngoài rút ngắn khoảng cách công nghệ.
“Thiếu minh bạch về các cuộc tấn công này khiến tiến bộ nhanh của các phòng thí nghiệm Trung Quốc bị hiểu nhầm là bằng chứng cho sự kém hiệu quả của các hạn chế xuất khẩu. Trên thực tế, thành tựu của họ phần lớn dựa vào khai thác khả năng của các mô hình Mỹ, và mở rộng quy mô phương pháp này đòi hỏi truy cập vào các chip tiên tiến,” — trong blog của công ty.
Anthropic đã đề xuất các phương pháp đối phó của riêng mình:
nâng cao hệ thống phát hiện các mẫu distillation;
trao đổi các chỉ số kỹ thuật với các phòng thí nghiệm khác và nhà cung cấp đám mây;
tăng cường xác thực các tài khoản giáo dục và nghiên cứu;
áp dụng các biện pháp đối phó giảm hiệu quả của distillation trái phép.
Đây không phải là lần đầu tiên có cáo buộc như vậy. Vào tháng 1 năm 2025, ngay sau khi DeepSeek-R1 ra mắt đột ngột, công ty này đã bị nghi ngờ ăn cắp dữ liệu của OpenAI.
Tiếp tục cuộc chiến với Pentagon
CEO của Anthropic, Dario Amodei, sẽ gặp Bộ trưởng Quốc phòng Pita Hegset tại Pentagon để thảo luận về các cách sử dụng các mô hình AI của công ty trong quân đội.
Gần đây, giữa hai bên đã xuất hiện những bất đồng — Anthropic phản đối việc sử dụng trí tuệ nhân tạo để giám sát quy mô lớn công dân Mỹ và tạo ra vũ khí tự hành. Bộ Quốc phòng rõ ràng cho biết họ dự định sử dụng LLM “cho tất cả các kịch bản hợp pháp” mà không có hạn chế.
Đến mức Pentagon đã tuyên bố có thể chấm dứt hợp đồng với Anthropic.
Máy quét lỗ hổng AI
Cổ phiếu của các công ty công nghệ an ninh mạng hàng đầu đã giảm sau khi Anthropic ra mắt công cụ Claude Code Security — một máy quét lỗ hổng trong mã nguồn.
Trang web của công ty cho biết dịch vụ mới “phân tích toàn bộ cơ sở mã để phát hiện lỗ hổng, kiểm tra từng phát hiện để giảm thiểu báo động giả và đề xuất các sửa chữa.”
Claude thực hiện phân tích “như một nhà nghiên cứu an ninh giàu kinh nghiệm”: hiểu ngữ cảnh, theo dõi luồng dữ liệu, phát hiện lỗ hổng.
Theo VentureBeat, Claude Opus 4.6 đã phát hiện hơn 500 lỗ hổng nghiêm trọng, tồn tại hàng thập kỷ bất chấp các kiểm tra của chuyên gia.
Năm công ty Mỹ lớn nhất về an ninh mạng đã giảm giá cổ phiếu hai chữ số trong năm ngày qua do sự xuất hiện của đối thủ AI:
Palo Alto Networks — giảm 14%;
CrowdStrike — giảm 18%;
Fortinet — giảm 12%;
Cloudflare — giảm 18%;
Zscaler — giảm 19%.
Biểu đồ giá cổ phiếu của Palo Alto Networks. Nguồn: Yahoo Finance. Các nhà phân tích của Wedbush cho biết, đợt bán tháo này liên quan đến lo ngại về cái gọi là AI Ghost Trade. Theo họ, phản ứng của thị trường là sai lầm, và Palo Alto, CrowdStrike cùng Zscaler sẽ chứng minh hiệu quả của mình vào năm 2026.
Nhắc lại, vào tháng 2, OpenAI cùng Paradigm đã giới thiệu EVMbench — một chuẩn đánh giá khả năng của các AI trong việc phát hiện, sửa chữa và khai thác các lỗ hổng trong hợp đồng thông minh.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Anthropic cáo buộc các phòng thí nghiệm AI của Trung Quốc về việc "ăn cắp" dữ liệu - ForkLog: tiền điện tử, AI, siêu trí tuệ, tương lai
Công ty Anthropic đã cáo buộc ba startup AI Trung Quốc — DeepSeek, Moonshot và MiniMax — trong một chiến dịch quy mô lớn sử dụng Claude để cải thiện các mô hình của riêng họ.
Các phòng thí nghiệm từ Trung Quốc đã tạo ra hơn 16 triệu tương tác với chatbot qua khoảng 24.000 tài khoản lừa đảo, vi phạm điều khoản sử dụng và hạn chế khu vực.
Các công ty đã áp dụng phương pháp distillation — huấn luyện một mạng nơ-ron ít mạnh hơn dựa trên kết luận của mạng mạnh hơn.
Đây là phương pháp phổ biến và hợp pháp. Các phòng thí nghiệm AI hàng đầu thường xuyên distill các mô hình của chính họ để tạo ra các phiên bản nhỏ gọn, rẻ hơn cho khách hàng.
Công ty nhấn mạnh rằng cửa sổ để phản ứng với “ăn cắp” như vậy là hẹp, và mối đe dọa vượt ra ngoài một công ty hoặc khu vực. Để khắc phục, cần có các hành động nhanh chóng và phối hợp từ ngành công nghiệp, các cơ quan quản lý và cộng đồng AI toàn cầu.
Tại sao điều này nguy hiểm
Anthropic giải thích các rủi ro của phương pháp này. Các mô hình distillation trái phép không giữ các cơ chế bảo vệ cần thiết — điều này gây ra vấn đề về an ninh quốc gia.
Các công ty Mỹ đang triển khai hệ thống để ngăn chặn việc sử dụng trí tuệ nhân tạo trong phát triển vũ khí sinh học, các cuộc tấn công mạng độc hại và các hành động nguy hiểm khác. Các mô hình được tạo ra qua distillation trái phép không có các hạn chế này.
Các phòng thí nghiệm nước ngoài có thể tích hợp các khả năng không được bảo vệ vào các hệ thống quân sự và tình báo, cho phép các chính phủ độc tài sử dụng AI tiên tiến để tấn công mạng, gây nhiễu thông tin và giám sát quy mô lớn, các công ty bổ sung.
Các phương pháp đối phó
Các chuyên gia của Anthropic ủng hộ các hạn chế xuất khẩu để duy trì vị thế dẫn đầu của Mỹ trong lĩnh vực AI. Theo họ, các cuộc tấn công distillation phá vỡ các biện pháp này, cho phép các phòng thí nghiệm nước ngoài rút ngắn khoảng cách công nghệ.
Anthropic đã đề xuất các phương pháp đối phó của riêng mình:
Đây không phải là lần đầu tiên có cáo buộc như vậy. Vào tháng 1 năm 2025, ngay sau khi DeepSeek-R1 ra mắt đột ngột, công ty này đã bị nghi ngờ ăn cắp dữ liệu của OpenAI.
Tiếp tục cuộc chiến với Pentagon
CEO của Anthropic, Dario Amodei, sẽ gặp Bộ trưởng Quốc phòng Pita Hegset tại Pentagon để thảo luận về các cách sử dụng các mô hình AI của công ty trong quân đội.
Gần đây, giữa hai bên đã xuất hiện những bất đồng — Anthropic phản đối việc sử dụng trí tuệ nhân tạo để giám sát quy mô lớn công dân Mỹ và tạo ra vũ khí tự hành. Bộ Quốc phòng rõ ràng cho biết họ dự định sử dụng LLM “cho tất cả các kịch bản hợp pháp” mà không có hạn chế.
Đến mức Pentagon đã tuyên bố có thể chấm dứt hợp đồng với Anthropic.
Máy quét lỗ hổng AI
Cổ phiếu của các công ty công nghệ an ninh mạng hàng đầu đã giảm sau khi Anthropic ra mắt công cụ Claude Code Security — một máy quét lỗ hổng trong mã nguồn.
Trang web của công ty cho biết dịch vụ mới “phân tích toàn bộ cơ sở mã để phát hiện lỗ hổng, kiểm tra từng phát hiện để giảm thiểu báo động giả và đề xuất các sửa chữa.”
Claude thực hiện phân tích “như một nhà nghiên cứu an ninh giàu kinh nghiệm”: hiểu ngữ cảnh, theo dõi luồng dữ liệu, phát hiện lỗ hổng.
Theo VentureBeat, Claude Opus 4.6 đã phát hiện hơn 500 lỗ hổng nghiêm trọng, tồn tại hàng thập kỷ bất chấp các kiểm tra của chuyên gia.
Năm công ty Mỹ lớn nhất về an ninh mạng đã giảm giá cổ phiếu hai chữ số trong năm ngày qua do sự xuất hiện của đối thủ AI:
Nhắc lại, vào tháng 2, OpenAI cùng Paradigm đã giới thiệu EVMbench — một chuẩn đánh giá khả năng của các AI trong việc phát hiện, sửa chữa và khai thác các lỗ hổng trong hợp đồng thông minh.