Anthropic tuyên bố 3 công ty Trung Quốc đã lừa đảo nó, sử dụng công cụ AI của mình để huấn luyện các mô hình của họ: ‘How the turn tables’

(SeaPRwire) –   Anthropic đã cáo buộc ba doanh nghiệp trí tuệ nhân tạo (AI) Trung Quốc nổi tiếng sử dụng chatbot Claude của mình trên quy mô lớn để huấn luyện các mô hình cạnh tranh một cách bí mật—một phát triển không ngờ trong cuộc tranh luận toàn cầu kéo dài nhiều năm về điểm nào là gian lận và đâu là thực hành tiêu chuẩn ngành.

In a , San Francisco–based Anthropic alleged that Chinese labs DeepSeek, Moonshot AI, and MiniMax violated corporate law by interacting with Claude, its . “We have identified industrial-scale campaigns by three AI laboratories—DeepSeek, Moonshot, and MiniMax—to illicitly extract Claude’s capabilities to improve their own models,” the company said. “These labs generated over 16 million exchanges with Claude through approximately 24,000 fraudulent accounts, in violation of our terms of service and regional access restrictions.”

Theo Anthropic, các doanh nghiệp Trung Quốc dựa trên một kỹ thuật được gọi là “distillation” (chưng cất), trong đó một mô hình được huấn luyện trên đầu ra của mô hình khác, thường là hệ thống có năng lực cao hơn. Các chiến dịch được cáo buộc tập trung vào các lĩnh vực mà Anthropic coi là điểm khác biệt chính của Claude, bao gồm lý luận phức tạp, hỗ trợ lập trình và sử dụng công cụ.

Anthropic lập luận rằng mặc dù distillation là một “phương pháp huấn luyện được sử dụng rộng rãi và hợp pháp,” nhưng việc các doanh nghiệp Trung Quốc sử dụng nó theo cách này có thể là “với mục đích bất hợp pháp.” Việc sử dụng mạng lưới rộng lớn của các tài khoản giả để sao chép mô hình độc quyền của đối thủ vi phạm điều khoản dịch vụ của Anthropic và làm suy yếu các điều kiểm soát xuất khẩu của Mỹ nhằm hạn chế quyền truy cập của Trung Quốc vào AI tiên tiến, Anthropic nói, kêu gọi “hành động nhanh chóng, phối hợp giữa các nhà phát triển ngành, nhà lập chính sách và cộng đồng AI toàn cầu.”

Nếu không phải hoàn toàn là distillation, Anthropic gần đây đã bị hàng nghìn tác giả cáo buộc vi phạm bản quyền, được cáo buộc tải xuống sách số lượng lớn từ các thư viện bóng để huấn luyện các mô hình AI của mình, thay vì mua bản sao và quét chúng tự mình. , Anthropic đã giải quyết vụ kiện đó với số tiền 1,5 tỷ USD vào tháng 9 năm 2025, trả cho các tác giả khoảng 3.000 USD mỗi cuốn sách cho khoảng 500.000 tác phẩm.

Những điều các doanh nghiệp Trung Quốc bị cáo buộc

Công ty tuyên bố ba phòng thí nghiệm đã vượt qua các hạn chế địa lý (geofencing) và kinh doanh hạn chế tính khả dụng thương mại của Claude ở Trung Quốc bằng cách định tuyến lưu lượng truy cập thông qua các dịch vụ proxy bán lại quyền truy cập vào các mô hình AI phương Tây lớn. Một “hydra cluster” (cụm hydra) như vậy, Anthropic nói, đã vận hành hàng chục nghìn tài khoản cùng một lúc để phân phối các yêu cầu trên các khóa API và nhà cung cấp đám mây khác nhau.

Khi các tài khoản đó đã được thiết lập, các phòng thí nghiệm được cáo buộc đã lập kịch bản các cuộc trò chuyện dài, có nhiều token được thiết kế để trích xuất các câu trả lời chi tiết, từng bước có thể được đưa trở lại vào hệ thống của riêng họ như dữ liệu huấn luyện. Theo lời kể của Anthropic, kết quả là một pipeline không chính thức (off-the-books) đã biến Claude thành một giáo viên không tự nguyện cho các mô hình đang được phát triển trong ngành AI ngày càng cạnh tranh của Trung Quốc.

Anthropic vẫn chưa công bố các vụ kiện cụ thể chống lại ba doanh nghiệp, nhưng nó đã báo hiệu rằng nó đã cắt ngắn các điểm truy cập đã biết và đang thúc giục Washington thắt chặt các điều kiểm soát xuất khẩu đối với các chip tiên tiến và dịch vụ AI để ngăn chặn các nỗ lực tương tự trong tương lai.

‘How the turn tables’

Nếu Anthropic hy vọng được sự thông cảm, thì và trong số những người theo dõi ngành đã đặc biệt nghi ngờ. Những người bình luận nhanh chóng chỉ ra rằng chính Anthropic đã phải đối mặt với các cáo buộc nổi tiếng về việc quá mức trong các thực hành thu thập dữ liệu của riêng mình ngoài vụ kiện bản quyền từ các tác giả, chẳng hạn như một . “How the turn tables,” một người bình luận viết trên , trích dẫn một câu từ bộ phim tài liệu giả tưởng truyền hình The Office.

Đằng sau những lời chỉ trích là một cuộc chiến rộng hơn về ai đặt ra các quy tắc cho một ngành được xây dựng trên việc remix (tái tạo) công việc của con người. Các doanh nghiệp Mỹ như Anthropic và OpenAI ngày càng thúc đẩy thực hiện nghiêm ngặt chống lại các đối thủ cạnh tranh nước ngoài mà họ cáo buộc sao chép các hệ thống độc quyền, ngay cả khi họ bảo vệ việc thu thập dữ liệu rộng lớn của riêng mình dưới biểu ngữ sử dụng công bằng.

Các phòng thí nghiệm Trung Quốc, trong đó nhiều phòng phát hành nhiều mô hình nguồn mở hơn, đang chạy đua để thu hẹp khoảng cách hiệu suất với các đối thủ phương Tây bằng cách sử dụng bất kỳ lợi thế pháp lý nào họ có thể tìm thấy. Với Washington đã đang tranh luận về các hạn chế thắt chặt hơn đối với việc xuất khẩu chip AI và dịch vụ đám mây đến Trung Quốc, các cáo buộc của Anthropic có khả năng thúc đẩy các lời kêu gọi về các thanh bảo vệ mới—trong khi đó cho phép những người chỉ trích có một cơ hội nữa để lưu ý đến sự đối xứng không thoải mái ở trung tâm của AI hiện đại.

Đối với câu chuyện này, các nhà báo đã sử dụng AI tạo sinh như một công cụ nghiên cứu. Một biên tập viên đã xác minh độ chính xác của thông tin trước khi xuất bản.

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.