Lầu Năm Góc hủy hợp đồng AI 200 triệu USD với Anthropic, chuyển sang OpenAI gây tranh cãi
Anthropic mất hợp đồng AI quốc phòng 200 triệu USD

Lầu Năm Góc chấm dứt hợp đồng AI 200 triệu USD với Anthropic, chuyển sang OpenAI

Bộ Quốc phòng Mỹ (Lầu Năm Góc) đã chính thức hủy bỏ hợp đồng phát triển trí tuệ nhân tạo trị giá 200 triệu USD với công ty Anthropic, đồng thời chuyển giao dự án này cho đối thủ OpenAI. Quyết định này được đưa ra sau khi hai bên không thể đạt được thỏa thuận về mức độ kiểm soát mà quân đội Mỹ nên có đối với các mô hình AI của Anthropic.

Bất đồng về quyền kiểm soát mô hình AI

Theo nguồn tin từ Lầu Năm Góc, nguyên nhân chính dẫn đến việc hủy hợp đồng là do bất đồng sâu sắc về phạm vi kiểm soát các mô hình AI, đặc biệt trong các lĩnh vực nhạy cảm như vũ khí tự hànhhệ thống giám sát quy mô lớn trong nước. Anthropic đã từ chối cấp cho quân đội Mỹ quyền truy cập không hạn chế vào công nghệ lõi của họ, trong khi Lầu Năm Góc cho rằng điều này là cần thiết cho mục đích an ninh quốc gia.

Hậu quả trực tiếp của việc này là Anthropic đã bị xếp vào danh sách các nhà cung cấp có rủi ro chuỗi cung ứng, một động thái có thể ảnh hưởng lâu dài đến khả năng hợp tác của công ty này với chính phủ liên bang Mỹ.

Banner rộng Pickt — ứng dụng danh sách mua sắm cộng tác cho Telegram

OpenAI tiếp quản và làn sóng phản đối

Khi hợp đồng với Anthropic đổ vỡ, Lầu Năm Góc đã nhanh chóng chuyển hướng sang OpenAI. Công ty này đã chấp nhận thỏa thuận, nhưng ngay sau thông tin này được công bố, số lượt gỡ cài đặt ChatGPT đã tăng vọt 295%, phản ánh mối quan ngại sâu sắc của công chúng về việc công nghệ AI có thể bị quân đội sử dụng cho mục đích chiến tranh.

Sự kiện này làm dấy lên cuộc tranh luận rộng rãi về giới hạn hợp lý trong việc quân đội tiếp cận các mô hình AI tiên tiến, cũng như trách nhiệm đạo đức của các công ty công nghệ khi tham gia vào các dự án quốc phòng.

Thách thức trong quản lý và ứng dụng AI quốc phòng

Vụ việc giữa Anthropic và Lầu Năm Góc là một ví dụ điển hình về những khó khăn mà các công ty khởi nghiệp công nghệ phải đối mặt khi theo đuổi hợp đồng với chính phủ, đặc biệt trong bối cảnh chính quyền Washington vẫn đang loay hoay tìm cách quản lý và sử dụng AI một cách hiệu quả và có đạo đức.

Các cuộc đàm phán về quyền kiểm soát và đạo đức trong ứng dụng AI đang ngày càng trở nên phức tạp, nhất là khi liên quan đến các vấn đề an ninh quốc gia. Sự thay đổi nhà cung cấp từ Anthropic sang OpenAI cùng phản ứng dữ dội của công chúng đã nhấn mạnh:

  • Rủi ro tiềm ẩn khi tích hợp AI vào hệ thống quốc phòng
  • Tranh cãi về cân bằng giữa an ninh quốc gia và quyền riêng tư
  • Nguy cơ lạm dụng công nghệ AI trong các mục đích quân sự
  • Áp lực đạo đức đối với các công ty phát triển AI

Vấn đề cốt lõi hiện nay là tìm ra điểm cân bằng giữa nhu cầu bảo vệ an ninh quốc giacác nguyên tắc đạo đức cơ bản trong phát triển và ứng dụng trí tuệ nhân tạo. Cuộc khủng hoảng này cho thấy cộng đồng công nghệ và các cơ quan chính phủ vẫn còn một chặng đường dài để xây dựng khuôn khổ pháp lý và đạo đức phù hợp cho kỷ nguyên AI.

Banner sau bài viết Pickt — ứng dụng danh sách mua sắm cộng tác với hình minh họa gia đình