Lầu Năm Góc chấm dứt hợp đồng AI 200 triệu USD với Anthropic, chuyển sang OpenAI
Bộ Quốc phòng Mỹ (Lầu Năm Góc) đã chính thức hủy bỏ hợp đồng phát triển trí tuệ nhân tạo trị giá 200 triệu USD với công ty Anthropic, đồng thời chuyển giao dự án này cho đối thủ OpenAI. Quyết định này được đưa ra sau khi hai bên không thể đạt được thỏa thuận về mức độ kiểm soát mà quân đội Mỹ nên có đối với các mô hình AI của Anthropic.
Bất đồng về quyền kiểm soát mô hình AI
Theo nguồn tin từ Lầu Năm Góc, nguyên nhân chính dẫn đến việc hủy hợp đồng là do bất đồng sâu sắc về phạm vi kiểm soát các mô hình AI, đặc biệt trong các lĩnh vực nhạy cảm như vũ khí tự hành và hệ thống giám sát quy mô lớn trong nước. Anthropic đã từ chối cấp cho quân đội Mỹ quyền truy cập không hạn chế vào công nghệ lõi của họ, trong khi Lầu Năm Góc cho rằng điều này là cần thiết cho mục đích an ninh quốc gia.
Hậu quả trực tiếp của việc này là Anthropic đã bị xếp vào danh sách các nhà cung cấp có rủi ro chuỗi cung ứng, một động thái có thể ảnh hưởng lâu dài đến khả năng hợp tác của công ty này với chính phủ liên bang Mỹ.
OpenAI tiếp quản và làn sóng phản đối
Khi hợp đồng với Anthropic đổ vỡ, Lầu Năm Góc đã nhanh chóng chuyển hướng sang OpenAI. Công ty này đã chấp nhận thỏa thuận, nhưng ngay sau thông tin này được công bố, số lượt gỡ cài đặt ChatGPT đã tăng vọt 295%, phản ánh mối quan ngại sâu sắc của công chúng về việc công nghệ AI có thể bị quân đội sử dụng cho mục đích chiến tranh.
Sự kiện này làm dấy lên cuộc tranh luận rộng rãi về giới hạn hợp lý trong việc quân đội tiếp cận các mô hình AI tiên tiến, cũng như trách nhiệm đạo đức của các công ty công nghệ khi tham gia vào các dự án quốc phòng.
Thách thức trong quản lý và ứng dụng AI quốc phòng
Vụ việc giữa Anthropic và Lầu Năm Góc là một ví dụ điển hình về những khó khăn mà các công ty khởi nghiệp công nghệ phải đối mặt khi theo đuổi hợp đồng với chính phủ, đặc biệt trong bối cảnh chính quyền Washington vẫn đang loay hoay tìm cách quản lý và sử dụng AI một cách hiệu quả và có đạo đức.
Các cuộc đàm phán về quyền kiểm soát và đạo đức trong ứng dụng AI đang ngày càng trở nên phức tạp, nhất là khi liên quan đến các vấn đề an ninh quốc gia. Sự thay đổi nhà cung cấp từ Anthropic sang OpenAI cùng phản ứng dữ dội của công chúng đã nhấn mạnh:
- Rủi ro tiềm ẩn khi tích hợp AI vào hệ thống quốc phòng
- Tranh cãi về cân bằng giữa an ninh quốc gia và quyền riêng tư
- Nguy cơ lạm dụng công nghệ AI trong các mục đích quân sự
- Áp lực đạo đức đối với các công ty phát triển AI
Vấn đề cốt lõi hiện nay là tìm ra điểm cân bằng giữa nhu cầu bảo vệ an ninh quốc gia và các nguyên tắc đạo đức cơ bản trong phát triển và ứng dụng trí tuệ nhân tạo. Cuộc khủng hoảng này cho thấy cộng đồng công nghệ và các cơ quan chính phủ vẫn còn một chặng đường dài để xây dựng khuôn khổ pháp lý và đạo đức phù hợp cho kỷ nguyên AI.



