Hegseth rao ra ca nhắc cuối cùng cho công ty khởi nghiệp ‘AI woke’ Anthropic: Tham gia chương trình quân sự trước thứ sáu hoặc mất 200 triệu USD

(SeaPRwire) –   Chính phủ Trump đã liên tục khẳng định rằng các biện pháp bảo vệ AI là “AI woke”. Trong một buổi họp bùng nổ vào tháng 1, Thủ tướng Quốc phòng Pete Hegseth đã khẳng cáo chống lại các hệ thống AI có các hạn chế lý tưởng. “AI của Bộ Quốc phòng sẽ không là AI woke”, anh ấy nói. “Nó sẽ làm việc cho chúng ta. Chúng ta đang xây dựng vũ khí và hệ thống sẵn cho chiến tranh, không phải là các chatbot cho phòng giảng của Đại học Ivy League.”

Với chỉ còn vài ngày trước khi hạn chế của Hegseth cho Anthropic phải bỏ qua các yêu cầu dường như “woke” về an toàn AI và đảm bảo không sử dụng cho mục đích quân sự, Anthropic đã nói với rằng nó “tiếp tục các cuộc trò chuyện trong tinh thần trung thực” với Bộ Quốc phòng.

Anthropic đang đối mặt với một hạn chế là 13h01 thứ sáu để cung cấp cho Bộ Quốc phòng quyền truy cập không hạn chế vào công nghệ AI của mình hoặc bị đen danh khỏi chuỗi cung ứng quân sự, theo đã được xác nhận bởi Associated Press.

Việc đối lập này phát sinh sau nhiều tháng đàm phán giữa Bộ Quốc phòng và Anthropic về cách quân sự có thể sử dụng AI của công ty. Như đã báo, Hegseth cảnh báo Anthropic rằng Bộ Quốc phòng có thể gán nhãn công ty là “rủi ro chuỗi cung ứng”, một định danh dành cho các công ty đối thủ quốc tế, chẳng hạn như các công ty có gốc sở tại Trung Quốc , nếu công ty không tuân thủ, buộc các nhà thầu quân sự cắt liên hệ với Anthropic. Anh ấy cũng threated sẽ áp dụng Luật Sản xuất Quốc phòng, một luật pháp mà chính phủ Trump áp dụng trong thời đại dịch COVID để khuyến khích các công ty mở rộng sản xuất các sản phẩm y tế, một threated mà Hegseth lại nhấn mạnh vào thứ Hai.

Một đại diện của Anthropic bổ sung rằng công ty sẽ hỗ trợ các hoạt động của chính phủ theo nguyên tắc của công ty về AI trách nhiệm, nói rằng nó sẽ “tiếp tục hỗ trợ nhiệm vụ an ninh quốc gia của chính phủ theo những gì các mô hình của chúng ta có thể làm đáng tin cậy và trách nhiệm”.

Việc xung đột này đã phát triển thành một chiến tranh đại diện trong một cuộc tranh luận rộng rãi về ai sẽ quy định các điều kiện sử dụng AI: các công ty công nghệ hay chính phủ Hoa Kỳ. Bộ Quốc phòng đã trao hợp đồng với Anthropic, cùng với , OpenAI và xAI, có giá trị lên đến 200 triệu USD vào năm ngoái. Trong khi cho đến gần đây, Anthropic là công ty AI duy nhất được phép sử dụng bởi Bộ Quốc phòng, nhưng công ty khởi nghiệp đã có thái độ cứng cáp đối với các ứng dụng quân sự của AI của mình, cấm sử dụng trong vũ khí tự động hoàn toàn và giám sát nội địa. Nhưng xAI của Elon Musk vào tuần này cho phép Bộ Quốc phòng sử dụng AI của nó cho các hệ thống bí mật, thêm sự cạnh tranh vào hợp tác độc quyền từng có của Anthropic. 

Bộ Quốc phòng reportedly đã sử dụng mô hình AI Claude của Anthropic thông qua hợp tác của Anthropic với Palantir trong cuộc tấn công của Hoa Kỳ vào Venezuela, đã dẫn đến việc bắt giữ前總統 Venezuela Nicolás Maduro. Anthropic sau đó liên hệ với Palantir, hỏi cách AI của công ty đã được sử dụng trong hoạt động đó, mà Palantir sau đó đã báo cho Bộ Quốc phòng, theo .

Việc làm mát cam kết về an ninh

“Nhưng Anthropic đang dần rải rác cam kết chặt chẽ về an ninh. Công ty AI đã phát hành phiên bản cập nhật của Chính sách Phát triển Trách Nhiệm (RSP) ban đầu được xuất bản vào tháng 9 năm 2023 để duy trì cạnh tranh, phát biểu rằng chính sách mới là phản ứng terhadap các thay đổi trong môi trường thị trường. “Môi trường chính sách đã chuyển sang ưu tiên tính cạnh tranh của AI và tăng trưởng kinh tế, trong khi các cuộc thảo luận về an ninh chưa đạt được sự traction đáng kể ở cấp联邦,” đọc.”

Chủ tịch điều hành Dario Amodei đã gợi ý việc làm mát cam kết về an ninh, với chủ trương podcast Dwarkesh Patel rằng công ty phải đối mặt với “áp lực thương mại” và rằng các biện pháp an ninh chặt chẽ của nó đã hạn chế khả năng cạnh tranh với các đối thủ hoạt động dưới các quy tắc ít nghiêm ngặt hơn.

“Trong một cuộc phỏng vấn riêng tư với , Jared Kaplan, nhà khoa học chính của Anthropic, nói rằng các thay đổi trong RSP được thực hiện出于 sự lo ngại về an ninh hơn là sợ cạnh tranh. “Chúng tôi cảm thấy rằng việc dừng đào tạo các mô hình AI sẽ không thực sự giúp任何人,” Kaplan nói. “Chúng tôi không thực sự cảm thấy, với sự tiến bộ nhanh chóng của AI, rằng cho chúng ta phải làm các cam kết một bên … nếu các đối thủ đang tiến bộ nhanh.”

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.