Mỹ cấm Anthropic: Xung đột đạo đức AI giữa chính phủ và doanh nghiệp
Mỹ cấm Anthropic vì xung đột đạo đức AI

Mỹ chính thức cấm Anthropic sau xung đột đạo đức về trí tuệ nhân tạo

Trong một động thái bất ngờ, Tổng thống Mỹ Donald Trump đã công bố lệnh cấm toàn diện đối với công nghệ của Anthropic trong toàn bộ chính quyền liên bang. Quyết định này được đưa ra thông qua mạng xã hội Truth Social, nơi nhà lãnh đạo Mỹ tuyên bố: "Chúng ta không cần, không muốn và sẽ không làm ăn với họ nữa!".

Xung đột giữa đạo đức AI và nhu cầu quân sự

Lệnh cấm xuất phát từ tranh chấp leo thang giữa Lầu Năm Góc và Anthropic về việc sử dụng trí tuệ nhân tạo trong các hoạt động quân sự. Cụ thể, Bộ Quốc phòng Mỹ đã đặt ra thời hạn đến ngày 27.2 yêu cầu Anthropic phải đồng ý cho phép quân đội Mỹ sử dụng vô điều kiện các mô hình AI Claude của công ty này.

Tuy nhiên, Anthropic - công ty từng ký hợp đồng khung trị giá tối đa 200 triệu USD với Lầu Năm Góc vào năm ngoái - kiên quyết giữ vững lập trường đạo đức. Hãng này muốn đảm bảo rằng AI của mình sẽ không bao giờ được sử dụng cho:

Banner rộng Pickt — ứng dụng danh sách mua sắm cộng tác cho Telegram
  • Vũ khí hoàn toàn tự động (vũ khí có khả năng ra quyết định tấn công mà không có sự can thiệp của con người)
  • Hoạt động giám sát hàng loạt trong nước (theo dõi quy mô lớn đối với công dân Mỹ)

Hậu quả pháp lý và thời gian chuyển đổi

Theo chỉ đạo của Tổng thống Trump, tất cả các cơ quan thuộc chính quyền liên bang phải chấm dứt ngay mọi hoạt động sử dụng công nghệ Anthropic. Đặc biệt, Bộ Quốc phòng Mỹ và các cơ quan khác đang sử dụng sản phẩm của công ty này được cho thời hạn 6 tháng để hoàn toàn rút khỏi mọi hợp tác.

Việc Anthropic bị đưa vào danh sách rủi ro chuỗi cung ứng có ý nghĩa pháp lý quan trọng. Biện pháp này thường được áp dụng cho các công ty đến từ những quốc gia được xem là đối thủ của Mỹ, và đồng nghĩa với việc Anthropic có thể bị cấm triển khai công nghệ AI trong các hợp đồng với Lầu Năm Góc.

Quan điểm trái chiều và tình hình hiện tại

Phía Lầu Năm Góc khẳng định mọi hoạt động của cơ quan này đều tuân thủ khuôn khổ pháp luật hiện hành. Quan điểm chính thức của Bộ Quốc phòng Mỹ cho rằng các nhà cung cấp theo hợp đồng không có quyền đặt điều kiện về cách thức sản phẩm của họ được sử dụng, đặc biệt khi những sản phẩm này phục vụ cho mục đích quốc phòng.

Một điểm đáng chú ý là Lầu Năm Góc đã từng sử dụng mô hình AI Claude trong một số hoạt động, bao gồm cả việc liên quan đến vụ bắt giữ Tổng thống Venezuela. Tuy nhiên, Anthropic hiện vẫn chưa đưa ra bất kỳ bình luận chính thức nào về các quyết định mới nhất của chính phủ Mỹ.

Sự kiện này đánh dấu một bước ngoặt quan trọng trong cuộc tranh luận toàn cầu về đạo đức AI, đặc biệt là khi các công nghệ trí tuệ nhân tạo ngày càng được tích hợp sâu vào các hệ thống quân sự và an ninh quốc gia. Cuộc đối đầu giữa một công ty công nghệ có nguyên tắc đạo đức rõ ràng và một chính phủ với nhu cầu an ninh cấp thiết đang đặt ra những câu hỏi sâu sắc về tương lai của hợp tác công-tư trong lĩnh vực AI.

Banner sau bài viết Pickt — ứng dụng danh sách mua sắm cộng tác với hình minh họa gia đình