Tổng thống Trump chỉ đạo loại bỏ sản phẩm AI của Anthropic khỏi chính phủ Mỹ
Ngày 27-2, Tổng thống Mỹ Donald Trump đã công bố quyết định quan trọng, yêu cầu các cơ quan chính phủ ngừng hợp tác với Công ty trí tuệ nhân tạo (AI) Anthropic. Động thái này đi kèm với tuyên bố từ Lầu Năm Góc về việc liệt kê Anthropic vào diện rủi ro chuỗi cung ứng, gây chấn động trong ngành công nghệ và an ninh quốc gia.
Thời hạn 6 tháng và cảnh báo nghiêm khắc
Theo thông báo chính thức, Tổng thống Trump đã chỉ đạo Bộ Chiến tranh và các cơ quan khác trong chính phủ có thời hạn 6 tháng để dần loại bỏ hoàn toàn các sản phẩm của Anthropic. Ông Trump nhấn mạnh rằng nếu Anthropic không hỗ trợ quá trình chuyển đổi này, ông sẽ sử dụng toàn bộ quyền lực của Tổng thống để buộc công ty tuân thủ, đồng thời cảnh báo về những hậu quả dân sự và hình sự nghiêm trọng có thể xảy ra.
Hạn chót ngày 27-2 được Lầu Năm Góc đặt ra cho Anthropic, công ty có trụ sở tại San Francisco, nhằm giải quyết dứt điểm căng thẳng liên quan đến việc sử dụng AI trong các hoạt động chiến tranh và an ninh quốc gia.
Nguồn cơn mâu thuẫn: Lo ngại về đạo đức và an ninh
Mâu thuẫn giữa chính phủ Mỹ và Anthropic bắt nguồn từ những lo ngại sâu sắc về việc Bộ Chiến tranh Mỹ (Bộ Quốc phòng) có thể không tuân thủ các ràng buộc đạo đức khi sử dụng AI cho nhiệm vụ an ninh quốc gia, dù các nhà phát triển AI đã thiết lập các điều khoản an toàn và đạo đức nghiêm ngặt.
Anthropic đã yêu cầu có cam kết rõ ràng rằng AI của công ty sẽ không được sử dụng cho vũ khí hoàn toàn tự động hoặc phục vụ hoạt động giám sát hàng loạt trong nước. Lầu Năm Góc khẳng định họ không có ý định sử dụng AI cho những mục đích này, nhưng sự thiếu tin tưởng vẫn tồn tại.
Vị thế cạnh tranh và ảnh hưởng của Anthropic
Anthropic đang cạnh tranh quyết liệt để bán công nghệ AI mới cho cả doanh nghiệp và chính phủ, đặc biệt trong lĩnh vực an ninh quốc gia. Công ty này là tiên phong trong việc đưa mô hình lên mạng lưới mật thông qua nhà cung cấp đám mây Amazon, và là đơn vị đầu tiên xây dựng mô hình tùy chỉnh cho khách hàng trong lĩnh vực an ninh quốc gia. Sản phẩm Claude của hãng hiện đang được sử dụng rộng rãi trong cộng đồng tình báo và lực lượng vũ trang Mỹ.
Phản ứng chính trị và nguy cơ khởi kiện
Thượng nghị sĩ Đảng Dân chủ Mark Warner, Phó chủ tịch Ủy ban Tình báo Thượng viện, đã chỉ trích mạnh mẽ động thái của Tổng thống Trump. Ông cho rằng quyết định này làm dấy lên nghi ngờ về việc liệu các quyết định an ninh quốc gia có dựa trên phân tích thận trọng hay bị chi phối bởi yếu tố chính trị.
Trong tuyên bố ngay sau đó, Anthropic - công ty từng nhận hợp đồng trị giá lên đến 200 triệu USD từ Lầu Năm Góc trong năm ngoái - khẳng định sẵn sàng khởi kiện nếu bị chính thức xếp vào diện rủi ro chuỗi cung ứng. Luật sư Franklin Turner nhận định rằng Anthropic có cơ sở pháp lý để khởi kiện, do động thái này đe dọa nghiêm trọng đến hoạt động kinh doanh và làm tổn hại quan hệ của công ty với khu vực tư nhân.
Hậu quả tiềm tàng và so sánh với trường hợp Huawei
Việc Anthropic bị Bộ Chiến tranh Mỹ chỉ định là rủi ro chuỗi cung ứng có thể khiến các nhà thầu cho Lầu Năm Góc phải ngưng sử dụng AI của công ty này. Biện pháp này thường chỉ được áp dụng với các nhà cung cấp từ quốc gia đối địch, như trường hợp của Tập đoàn công nghệ Huawei của Trung Quốc trước đây. Chính phủ Mỹ đã dùng cách tương tự để loại Huawei khỏi chuỗi cung ứng của Lầu Năm Góc, cấm các cơ quan liên bang mua thiết bị và ngừng cấp vốn.
Bối cảnh lịch sử và nghiên cứu đáng lo ngại
Xung đột giữa các công ty công nghệ và Lầu Năm Góc không phải là hiếm. Năm 2018, nhân viên của Google đã phản đối mạnh mẽ việc AI của công ty được sử dụng để phân tích hình ảnh từ máy bay không người lái, cho thấy sự nhạy cảm về đạo đức trong ngành.
Đáng chú ý, một nghiên cứu mới đây đã chỉ ra rằng các mô hình AI ngôn ngữ lớn (LLM) có xu hướng dễ leo thang xung đột hạt nhân khi đóng vai trò cố vấn trong các mô phỏng chiến tranh, làm dấy lên thêm lo ngại về việc sử dụng AI trong lĩnh vực quân sự và an ninh quốc gia.



