Cuộc đối đầu bất thường
Sự bất đồng công khai giữa Bộ Chiến tranh Mỹ và công ty trí tuệ nhân tạo (AI) Anthropic được nhìn nhận là một điều bất thường, bởi nó đặt sức mạnh quốc gia đối đầu với sức mạnh doanh nghiệp. Đặc biệt là trong quân sự, một lĩnh vực xưa nay vốn dĩ coi những sức mạnh đó mặc định song hành.
Theo The Conversation, nguồn gốc của bất đồng bắt nguồn từ nhiều tháng trước, khi David Sacks-"ông trùm" AI và tiền điện tử của Nhà Trắng do Tổng thống Donald Trump bổ nhiệm-liên tục chỉ trích lập trường chính sách được cho là "cực đoan" của Anthropic. Tuy nhiên, căng thẳng thực sự leo thang sau khi truyền thông đưa tin, rằng công nghệ của Anthropic đã được sử dụng trong vụ bắt cóc vợ chồng Tổng thống Venezuela Nicolás Maduro do quân đội Mỹ thực hiện hồi đầu năm nay. Có thông tin cho rằng vụ việc gây ra sự bất mãn lan rộng trong nội bộ công ty, dù Anthropic đã lên tiếng phủ nhận.
![]() |
| Theo Giám đốc điều hành Anthropic Dario Amodei, AI chưa đủ độ tin cậy để được trao quyền vận hành vũ khí sát thương (ảnh minh họa). Ảnh: Getty Images |
Bất đồng lên đến đỉnh điểm, khi vào cuối tháng 2, Bộ trưởng Chiến tranh Pete Hegseth đưa ra tối hậu thư, yêu cầu Anthropic đồng ý để Bộ Chiến tranh Mỹ sử dụng công nghệ AI của Anthropic một cách vô điều kiện và không hạn chế. Với Anthropic, yêu cầu của Bộ trưởng Pete Hegseth đã “chạm tới ranh giới đạo đức và lương tâm” mà công ty không thể thỏa hiệp.
Theo Giám đốc điều hành Anthropic Dario Amodei, việc sử dụng AI để giám sát diện rộng công dân Mỹ và phát triển hệ thống nhắm mục tiêu quân sự hoàn toàn tự động, không có sự kiểm soát của con người là không được phép, là vi phạm chính sách về “AI có trách nhiệm” của công ty. Với tư cách một tên tuổi lớn trong lĩnh vực AI, hẳn không phải vô lý mà Anthropic cho rằng các hệ thống AI tiên tiến hiện nay chưa đủ độ tin cậy để được trao quyền tự vận hành vũ khí sát thương.
Ở chiều ngược lại, Bộ trưởng Pete Hegseth phản bác, rằng những ranh giới mà Anthropic đặt ra quá khắt khe, không phù hợp trong bối cảnh địa chính trị đầy bất ổn, khó lường đòi hỏi sự vận dụng và ứng phó linh hoạt.
Để hiểu rõ hơn, trọng tâm của cuộc tranh chấp xoay quanh cách thức sử dụng mô hình ngôn ngữ lớn (LLM) Claude của Anthropic trong môi trường quân sự. Claude được triển khai rộng rãi trong Bộ Chiến tranh và các cơ quan an ninh quốc gia khác cho các nhiệm vụ quan trọng, như phân tích tình báo, mô phỏng, lập kế hoạch tác chiến, hoạt động không gian mạng... Trước đó, tháng 7-2024, công ty phân tích dữ liệu Palantir của Mỹ tuyên bố hợp tác với Anthropic để “đưa các mô hình AI Claude vào các hoạt động tình báo và quốc phòng của Chính phủ Mỹ”. Anthropic đã ký một hợp đồng trị giá 200 triệu USD với Bộ Chiến tranh, trong đó quy định một số điều khoản tuân thủ chính sách của công ty, theo đó cấm sử dụng Claude trong việc giám sát hàng loạt công dân Mỹ hoặc kích hoạt các hệ thống vũ khí tấn công một cách hoàn toàn tự động, không cần sự can thiệp của con người.
Đối mặt với sự “cứng đầu” của Anthropic, Bộ trưởng Pete Hegseth tuyên bố chấm dứt hợp tác với công ty, khẳng định “lập trường của Anthropic về cơ bản không tương thích với các nguyên tắc của Mỹ”, CNBC mô tả. Ông Pete Hegseth cũng chỉ đạo Lầu Năm Góc xếp Anthropic vào danh sách “rủi ro chuỗi cung ứng đối với an ninh quốc gia”. Điều này đồng nghĩa với việc bất kỳ một nhà thầu, nhà cung cấp hay đối tác nào muốn hợp tác với quân đội Mỹ đều không được phép “dính líu” tới Anthropic. “Lầu Năm Góc đang đụng độ với các công ty tư nhân kiểm soát AI theo cách chưa từng có trong thời kỳ hậu Chiến tranh thế giới lần thứ hai”, CNBC bình luận. Cùng lúc, Tổng thống Donald Trump ra lệnh cho mọi cơ quan chính phủ “ngừng ngay lập tức” việc sử dụng công nghệ từ Anthropic.
“Không ai thắng trong cuộc tranh chấp này cả... Nó để lại dư vị khó chịu trong lòng mọi người”, nhà nghiên cứu cao cấp Lauren Kahn tại Trung tâm An ninh và Công nghệ mới nổi của Đại học Georgetown nhận định. Tuy nhiên, theo Lauren Kahn, nó đánh dấu một sự thay đổi lớn, khi mà giờ đây, khu vực thương mại là động lực chính thúc đẩy khả năng tiên phong. Vốn tư nhân, cạnh tranh toàn cầu và quy mô dữ liệu thương mại đang thúc đẩy AI với tốc độ mà các cơ quan của chính phủ khó có thể bắt kịp.
Vụ việc cũng làm nổi bật một thực tế, rằng các công ty tư nhân phát triển AI có thể tự đặt ra quyền giới hạn về cách thức triển khai công nghệ này, bất chấp điều đó có liên hệ mật thiết tới an ninh quốc gia.



















