(SeaPRwire) – Công ty AI Anthropic cho biết họ không thể chấp nhận lời đề “tốt nhất và cuối cùng” của Lầu Năm Góc để giải quyết các hạn chế mà công ty đang áp dụng về cách quân đội Mỹ có thể sử dụng các mô hình AI của mình. Chỉ còn vài giờ trước thời hạn ngày thứ Sáu để tuân thủ các yêu cầu của Lầu Năm Góc hoặc đối mặt với các hành động có thể khiến Anthropic bị cấm kinh doanh với bất kỳ công ty nào cũng kinh doanh với quân đội Mỹ, cuộc tranh chấp ngày càng trở nên xấu xí.
Các quan chức Lầu Năm Góc đã công khai đặt câu hỏi về nhân cách của CEO Anthropic Dario Amodei. Trong khi đó, nhân viên tại các phòng thí nghiệm AI đối thủ đã ký các bức thư ngỏ ủng hộ lập trường của Anthropic. CEO OpenAI Sam Altman đã nói với nhân viên của mình trong một bản ghi nhớ vào thứ Năm, theo một báo cáo từ Axios, rằng OpenAI sẽ thúc đẩy các hạn chế tương tự đối với vũ khí tự chủ và giám sát hàng loạt giống như Anthropic đang có khi đàm phán để mở rộng việc sử dụng ChatGPT, hiện có sẵn cho quân đội cho các trường hợp sử dụng không nhạy cảm, sang các lĩnh vực được phân loại cao hơn.
Cuộc chiến giữa Anthropic và Lầu Năm Góc hiện đang đe dọa leo thang thành một cuộc nổi dậy trên toàn ngành among công nhân công nghệ tại các công ty AI về cách các hệ thống AI mà họ xây dựng được quân đội sử dụng. Vào thứ Năm, hơn 100 nhân viên của Google đã gửi một lá thư cho Jeff Dean, nhà khoa học trưởng của công ty, cũng yêu cầu các giới hạn tương tự về cách các mô hình AI Gemini của Google được quân đội Mỹ sử dụng, theo .
Vào thứ Năm, Amodei đã đăng một bài viết giải thích lý do tại sao công ty tin rằng nên có các hạn chế đối với việc sử dụng công nghệ AI của công ty ông cho vũ khí tự chủ và giám sát hàng loạt. Đây là hai lĩnh vực mà Anthropic hiện đang hạn chế quân đội sử dụng các mô hình của mình, cả trong các điều khoản hợp đồng và thông qua các biện pháp bảo vệ được tích hợp trực tiếp vào các mô hình Claude của mình. Lầu Năm Góc muốn loại bỏ các hạn chế này và yêu cầu Anthropic đồng ý rằng quân đội Mỹ có thể sử dụng các mô hình của họ “cho bất kỳ mục đích hợp pháp nào.” Các hệ thống AI tiên phong “không đủ đáng tin cậy để vận hành các vũ khí hoàn toàn tự chủ,” và nếu không có sự giám sát thích hợp, chúng “không thể được tin cậy để thể hiện phán xét quan trọng mà đội quân được đào tạo bài bản và chuyên nghiệp của chúng ta thể hiện mỗi ngày,” Amodei viết trong tuyên bố của mình. Về giám sát, ông lập luận, AI mạnh mẽ hiện nay có thể kết hợp các dữ liệu công cộng vô hại riêng lẻ, chẳng hạn như hồ sơ vị trí, lịch sử duyệt web và các mối quan hệ xã hội, thành một bức tranh toàn diện về cuộc sống của bất kỳ công dân Mỹ nào ở quy mô lớn.
Emil Michael, Thứ trưởng Bộ Chiến tranh của Mỹ, đã gọi Amodei là “một kẻ nói dối” có “ảo tưởng quyền năng” để đáp lại, cáo buộc CEO này muốn “cá nhân kiểm soát quân đội Mỹ” trong các bài đăng trên nền tảng mạng xã hội. Trong một bài đăng riêng, Michael cũng mô tả Hiến pháp Claude của Anthropic—một tài liệu nội bộ phác thảo các giá trị và nguyên tắc mà công ty tích hợp vào AI của mình—là một âm mưu của doanh nghiệp nhằm “áp đặt luật pháp doanh nghiệp của họ lên người Mỹ.”
Lầu Năm Góc đã yêu cầu Anthropic loại bỏ các hạn chế hợp đồng mà họ phản đối trước 5:01 chiều thứ Sáu hoặc đối mặt với việc hủy hợp đồng 200 triệu USD với quân đội Mỹ hoặc, trong một động thái cực đoan hơn, bị gán nhãn là “rủi ro chuỗi cung ứng,” điều này sẽ thực sự cấm bất kỳ công ty nào kinh doanh với quân đội sử dụng công nghệ của Anthropic.
Loại bước này thường được dành cho các công ty của đối thủ nước ngoài như của Trung Quốc hoặc công ty an ninh mạng Kaspersky của Nga.
“Việc sử dụng nó chống lại một công ty trong nước vì lý do họ không sẵn sàng nhượng bộ trên một số nguyên tắc như vậy thực sự là khá leo thang và chưa từng có tiền lệ,” Seán Ó hÉigeartaigh, giám đốc điều hành của Trung tâm Nghiên cứu Rủi ro Hiện sinh của Cambridge, cho biết .
Bộ Chiến tranh cũng đã đe dọa kích hoạt Đạo luật Sản xuất Quốc phòng thời Chiến tranh Lạnh, sử dụng luật này để buộc Anthropic phải giao một phiên bản không bị hạn chế của Claude với lý do chính phủ coi đây là điều cần thiết cho an ninh quốc gia. Nếu Lầu Năm Góc đi theo con đường này, họ sẽ sử dụng các quyền lực chỉ dành cho các tình huống khẩn cấp để giải quyết tranh chấp hợp đồng trong thời bình. Có một số tiền lệ cho việc này: Chính quyền Biden cũng đã kích hoạt DPA vào năm 2023 để buộc các phòng thí nghiệm AI tiên phong phải cung cấp thông tin về sự an toàn của các mô hình AI của họ. Nhưng việc buộc một công ty sản xuất một sản phẩm, thay vì chỉ cung cấp thông tin, lại gần giống với việc quốc hữu hóa một công ty công nghệ hàng đầu hơn.
“Nếu họ đang bị ép buộc hiệu quả để cho phép công nghệ của họ được sử dụng theo những cách mà chính họ nói là không đáng tin cậy trong các tình huống sinh tử rủi ro cao như trên chiến trường,” Ó hÉigeartaigh nói, “điều đó sẽ thiết lập một tiền lệ rất nguy hiểm.”
Bộ Chiến tranh đã công khai tuyên bố họ không có ý định tiến hành giám sát hàng loạt hoặc loại bỏ con người khỏi các quyết định nhắm mục tiêu vũ khí, nhưng tranh chấp có thể dựa trên cách mỗi bên định nghĩa “tự chủ” hoặc “giám sát” trong thực tế. Các đại diện của bộ chưa phản hồi ngay lập tức yêu cầu bình luận từ .
Một phát ngôn viên của Anthropic cho biết rằng công ty đang tiếp tục “tham gia thiện chí” với Bộ Chiến tranh. Tuy nhiên, phát ngôn viên cho biết ngôn ngữ hợp đồng nhận được qua đêm đã tạo ra “gần như không có tiến bộ” nào đối với các vấn đề cốt lõi. Ngôn ngữ mới “được định hình là sự thỏa hiệp” lại “đi kèm với các thuật ngữ pháp lý sẽ cho phép những biện pháp bảo vệ này bị bỏ qua tùy ý,” họ nói. Amodei đã gọi các mối đe dọa từ Bộ Chiến tranh là “mâu thuẫn về bản chất” vì “một bên gán nhãn chúng tôi là rủi ro an ninh; bên kia gán nhãn Claude là cần thiết cho an ninh quốc gia.”
Anthropic đã nhận được lời khen ngợi từ một số góc độ vì sự sẵn lòng kiên định. Giáo sư luật Harvard Lawrence Lessig đã khen ngợi tuyên bố của công ty là “một hành động đẹp của sự liêm chính và nguyên tắc” và gọi nó là “cực kỳ hiếm có đối với thời đại của chúng ta.”
Các đối thủ OpenAI và xAI đã đồng ý các hợp đồng với Lầu Năm Góc cho phép sử dụng các mô hình của họ cho tất cả các mục đích hợp pháp, với xAI đi xa hơn bằng cách đồng ý triển khai các hệ thống của họ trong một số cài đặt được phân loại. Nhưng hơn 330 nhân viên hiện tại tại các phòng thí nghiệm đối thủ DeepMind và OpenAI cũng đã xuất bản một bức thư ngỏ ủng hộ Anthropic, kêu gọi lãnh đạo của chính họ đi theo dẫn dắt của công ty này. “Họ đang cố gắng chia rẽ từng công ty bằng nỗi sợ rằng công ty kia sẽ nhượng bộ,” bức thư viết. “Chiến lược đó chỉ hoạt động nếu không ai trong số chúng ta biết vị thế của người kia.” Những người ký tên bao gồm các nhà khoa học nghiên cứu cấp cao và cả các nhà nghiên cứu có tên và ẩn danh từ cả hai công ty.
Ó hÉigeartaigh nói rằng kết quả của cuộc tranh chấp có thể mở rộng xa ngoài Anthropic. “Nếu Lầu Năm Góc chiến thắng trong vụ này,” ông nói, “nó sẽ thiết lập các tiền lệ sẽ không tốt cho sự độc lập của các công ty này, hoặc khả năng giữ vững các tiêu chuẩn đạo đức của họ.”
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.