Cuộc đối đầu lịch sử giữa đạo đức AI và lợi ích quân sự
Trong bối cảnh thời hạn tối hậu thư từ Lầu Năm Góc sắp kết thúc, Anthropic - một trong những công ty trí tuệ nhân tạo hàng đầu thế giới - vẫn giữ vững lập trường kiên định: AI không được phép trở thành công cụ sát thủ. Quyết định đạo đức này có thể khiến họ đánh mất hợp đồng trị giá 200 triệu USD cực kỳ quan trọng đối với hoạt động kinh doanh của công ty.
Hai lằn ranh đỏ không thể vượt qua
Lầu Năm Góc đã đặt ra thời hạn chót vào lúc 5:01 sáng thứ Bảy (giờ Việt Nam) để Anthropic chấp nhận các yêu cầu của quân đội Mỹ hoặc đối mặt với việc bị dán nhãn "rủi ro chuỗi cung ứng" - một chỉ định thường dành cho các công ty được xem là phần mở rộng của đối thủ nước ngoài. Tuy nhiên, CEO Dario Amodei đã công khai tuyên bố công ty không có ý định khuất phục.
Cơ quan quốc phòng Mỹ, hiện đang sử dụng hệ thống AI Claude của Anthropic trên các mạng lưới mật, muốn có quyền sử dụng công nghệ này cho "tất cả các mục đích hợp pháp". Nhưng Anthropic đã xác định hai ranh giới không thể thương lượng:
- Claude sẽ không được sử dụng trong các vũ khí tự chủ hoàn toàn
- Claude sẽ không được sử dụng cho việc giám sát đại trà công dân Mỹ
Những hạn chế này đã được ghi rõ trong "chính sách sử dụng chấp nhận được" của hợp đồng 200 triệu USD mà Anthropic ký kết với Lầu Năm Góc từ mùa hè năm ngoái.
Lập trường bất di bất dịch giữa các mối đe dọa
"Các mối đe dọa không làm thay đổi lập trường của chúng tôi: chúng tôi không thể vì lương tâm mà chấp nhận yêu cầu của họ," Amodei viết trong một tuyên bố dài. Ông mô tả hoạt động giám sát đại trà và vũ khí tự vận hành hoàn toàn là những cách sử dụng "nằm ngoài ranh giới của những gì công nghệ ngày nay có thể làm một cách an toàn và đáng tin cậy."
Mối căng thẳng đã đạt đến đỉnh điểm vào thứ Ba tại một cuộc họp căng thẳng giữa Bộ trưởng Quốc phòng Pete Hegseth và CEO Anthropic Dario Amodei. Mặc dù cuộc họp được mô tả là diễn ra một cách lịch sự, các quan chức Lầu Năm Góc không chỉ đe dọa hủy bỏ hợp đồng 200 triệu USD mà còn đưa ra chỉ định có thể đe dọa nghiêm trọng đến toàn bộ hoạt động kinh doanh của Anthropic.
Những tuyên bố cứng rắn từ cả hai phía
Phát ngôn viên Lầu Năm Góc Sean Parnell viết trên X: "Đây là một yêu cầu đơn giản, phù hợp với lẽ thường sẽ ngăn Anthropic khỏi việc gây nguy hiểm cho các hoạt động quân sự quan trọng và có khả năng đặt các chiến sĩ của chúng ta vào nguy hiểm. Chúng tôi sẽ không để BẤT KỲ công ty nào ra lệnh về cách chúng tôi đưa ra quyết định hoạt động."
Lầu Năm Góc tuyên bố không có ý định sử dụng AI cho cả hai mục đích bị cấm và khẳng định họ cần sự tự do để sử dụng công nghệ mà họ đang cấp phép. Một quan chức cấp cao của Lầu Năm Góc nói với NPR: "Tính hợp pháp là trách nhiệm của Lầu Năm Góc với tư cách là người dùng cuối."
Theo quan điểm của cơ quan quốc phòng Mỹ, họ không muốn rơi vào tình huống an ninh quốc gia mà phải xin phép một công ty tư nhân để các rào cản bảo vệ được dỡ bỏ.
Ngôn ngữ hợp đồng mới và những lo ngại
Anthropic tiết lộ rằng Lầu Năm Góc đã gửi cho công ty ngôn ngữ hợp đồng mới qua đêm, nhưng theo quan điểm của họ, "hầu như không có tiến triển nào trong việc ngăn chặn việc Claude được sử dụng cho giám sát đại trà người Mỹ hoặc trong các vũ khí hoàn toàn tự chủ."
Ngôn ngữ mới được đóng khung như một thỏa hiệp nhưng lại kết hợp với thuật ngữ pháp lý cho phép những biện pháp bảo vệ đó bị bỏ qua theo ý muốn của người sử dụng.
Hậu quả vượt xa hợp đồng 200 triệu USD
Rủi ro đối với Anthropic không chỉ dừng lại ở việc mất hợp đồng 200 triệu USD. Geoffrey Gertz, một nghiên cứu viên cấp cao tại Trung tâm An ninh Mỹ Mới, cảnh báo rằng việc coi Anthropic là rủi ro chuỗi cung ứng sẽ là hành động bất thường.
Chỉ định này "theo truyền thống được sử dụng cho công nghệ của đối thủ nước ngoài," như trường hợp của công ty viễn thông Trung Quốc Huawei. Điều này không chỉ làm tổn hại đến danh tiếng của Anthropic mà còn có thể khiến họ mất đi các hợp đồng với những doanh nghiệp lớn khác, bao gồm cả các đối tác hiện tại của Lầu Năm Góc - những hợp đồng đã trở thành nền tảng cho thành công ngày nay của công ty AI này.
Thời gian đang cạn dần và những câu hỏi lớn
Anthropic cho biết công ty sẵn sàng tiếp tục đàm phán và "cam kết duy trì hoạt động liên tục cho Bộ và các chiến sĩ của Mỹ." Tuy nhiên, với thời hạn chỉ còn vài giờ đồng hồ, cuộc đối đầu này đang đặt ra những câu hỏi sâu sắc về:
- Ranh giới đạo đức trong việc sử dụng AI cho mục đích quân sự
- Quyền của các công ty công nghệ trong việc đặt ra các hạn chế an toàn cho sản phẩm của chính họ
- Sự cân bằng giữa an ninh quốc gia và nguyên tắc đạo đức trong phát triển công nghệ
- Tương lai của quan hệ đối tác giữa chính phủ và khu vực tư nhân trong lĩnh vực AI
Cuộc đối đầu giữa Anthropic và Lầu Năm Góc không chỉ là một tranh chấp hợp đồng thông thường, mà đã trở thành một bài kiểm tra quan trọng về nguyên tắc đạo đức trong kỷ nguyên AI, nơi mà các quyết định ngày hôm nay sẽ định hình tương lai của công nghệ và cách nó được sử dụng trong các lĩnh vực nhạy cảm nhất của xã hội.



