(SeaPRwire) – Hợp đồng trị giá 200 triệu USD giữa Anthropic và Bộ Quốc phòng đang处在不确定状态,此前据报道Anthropic对五角大楼在今年1月对尼古拉斯·马杜罗的突袭行动中使用其Claude人工智能模型表示担忧。
“Hợp đồng của Bộ Chiến tranh với Anthropic đang được xem xét,” Phó phát ngôn viên chính phủ Quốc phòng Sean Parnell nói trong một phát biểu addressed to . “Quốc gia chúng ta đòi hỏi các đối tác của chúng ta sẵn sàng giúp các chiến sĩ của chúng ta chiến thắng trong bất kỳ cuộc chiến đấu nào. Cuối cùng, điều này liên quan đến quân đội của chúng ta và an ninh của người dân Mỹ.”
Trong những tuần gần đây, căng thẳng đã tăng lên sau khi một高層官員 của Anthropic reportedly liên hệ với một高層管理層 của Palantir để hỏi về cách Claude được sử dụng trong cuộc tấn công, theo Người quản lý Palantir nhận định rằng sự liên hệ này là sự không đồng ý với việc sử dụng mô hình trong cuộc tấn công và đã chuyển các chi tiết của cuộc交換 cho Bộ Quốc phòng. (Tổng thống Trump nói rằng quân đội vũ khí trong cuộc tấn công làm cho trang bị của đối thủ ‘không hoạt động’.)
“Anthropic chưa thảo luận về việc sử dụng Claude cho các hoạt động cụ thể với Bộ Chiến tranh,” một nhà phát ngôn của Anthropic nói trong một phát biểu addressed to . “Chúng tôi cũng chưa thảo luận điều này với bất kỳ đối tác ngành nào hoặc bày tỏ lo ngại gì ngoài các cuộc thảo luận thường xuyên về các vấn đề kỹ thuật chặt chẽ.”
Tại trung tâm của tranh chấp này là các rào cản hợp đồng quy định cách sử dụng các mô hình AI trong các hoạt động quốc phòng. Chủ tịch thị trường của Anthropic Dario Amodei liên tục khuyến nghị về các giới hạn chặt chẽ trên việc sử dụng và quy định AI, thậm chí đã nhận định . Trong vài tháng nay, công ty và Bộ Quốc phòng đã tiến hành các cuộc đàm phán tranh cãi về cách Claude có thể được sử dụng trong các hoạt động quân sự.
Theo hợp đồng với Bộ Quốc phòng, Anthropic không cho phép Bộ Quốc phòng sử dụng các mô hình AI của mình để theo dõi khối lượng người Mỹ hoặc sử dụng công nghệ của mình trong các vũ khí tự động hoàn toàn. Công ty cũng cấm sử dụng công nghệ của mình trong các ứng dụng quân sự ‘trừng phạt’ hoặc ‘kinh học’. Bất kỳ sự tham gia trực tiếp vào bắn súng tích cực trong cuộc tấn công vào Maduro đều có thể vi phạm các điều khoản đó.
Trong số các công ty AI hợp đồng với chính phủ—bao gồm OpenAI, và xAI—Anthropic chiếm vị trí lôi cuốn với việc đặt Claude làm một trong những mô hình ngôn ngữ lớn duy nhất được cấp phép trên các mạng bí mật của Bộ Quốc phòng.
Vị trí này được nhấn mạnh bởi Anthropic trong một phát biểu addressed to . “Claude được sử dụng cho một loạt các trường hợp liên quan đến thông tin trên toàn bộ chính phủ, bao gồm Bộ Chiến tranh, theo chính sách Sử dụng của chúng ta.”
Công ty “is committed to using frontier AI in support of US national security,” the statement read. “We are having productive conversations, in good faith, with DoW on how to continue that work and get these complex issues right.”
Palantir, OpenAI, Google và xAI không ngay lập tức phản hồi yêu cầu về ý kiến.
AI ra tranh cãi
Mặc dù Bộ Quốc phòng đã tăng tốc các nỗ lực để tích hợp AI vào các hoạt động của mình, chỉ xAI đã cấp phép Bộ Quốc phòng sử dụng các mô hình của mình cho “tất cả các mục đích hợp pháp”, trong khi các công ty khác duy trì các hạn chế sử dụng.
Amodei đã cảnh báo trong vài tháng về việc bảo vệ người dùng, cung cấp Anthropic làm một lựa chọn ưu tiên an toàn so với OpenAI và Google khi thiếu các quy định chính phủ. “ being made by a few companies,” he said back in November. Although it was rumored that Anthropic was planning to ease restrictions, the company now faces the possibility of being cut out of the defense industry altogether.
Một高層官員 của Bộ Quốc phòng nói với Thư ký Quốc phòng Pete Hegseth đang “gần” xóa Anthropic khỏi chuỗi cung ứng quân sự, buộc bất kỳ ai muốn làm生意 với quân sự cũng phải cắt liên hệ với công ty.
“Điều này sẽ rất khó khăn để giải quyết, và chúng ta sẽ đảm bảo họ phải trả giá cho việc buộc chúng ta như vậy,”高層官員 nói với cơ quan báo.
Being deemed a military supply risk issue is a special designation usually reserved only for foreign adversaries. The closest precedent is the government’s 2019 ban on over national security concerns. In Anthropic’s case, sources told Axios that defense officials have been looking to pick a fight with the San Francisco–based company for some time.
The Pentagon’s comments are the latest in a public dispute coming to a boil. The government claims that having companies set ethical limits to its models would be unnecessarily restrictive, and the sheer number of gray areas would render the technologies futile. As the Pentagon continues to negotiate with the AI subcontractors to expand usage, the public spat becomes a proxy skirmish for who will dictate the uses of AI.
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.