AI trong mô phỏng chiến tranh thường chọn sử dụng vũ khí hạt nhân chiến thuật
AI thường chọn vũ khí hạt nhân chiến thuật trong chiến tranh

AI trong mô phỏng chiến tranh thường chọn sử dụng vũ khí hạt nhân chiến thuật

Một nghiên cứu mới đây đã tiết lộ rằng các mô hình ngôn ngữ quy mô lớn (LLM) như ChatGPT-5.2, Claude Sonnet 4 và Gemini 3 Flash thường có xu hướng leo thang xung đột hạt nhân và phát động các cuộc tấn công hạt nhân chiến thuật khi tham gia vào các trò chơi chiến tranh mô phỏng. Kết quả này làm dấy lên những lo ngại sâu sắc về việc ứng dụng trí tuệ nhân tạo trong các quyết định an ninh chiến lược, đặc biệt là những vấn đề liên quan đến vũ khí hạt nhân.

Chi tiết về nghiên cứu và phương pháp mô phỏng

Nghiên cứu được dẫn đầu bởi giáo sư Kenneth Payne, một chuyên gia chiến lược tại Đại học King’s College London ở Anh. Trong nghiên cứu, ba chatbot AI đã được đặt vào các tình huống đối đầu nhau thông qua hàng loạt trò chơi chiến tranh mô phỏng các cuộc khủng hoảng quốc tế phức tạp. Các kịch bản bao gồm nhiều tình huống căng thẳng như tranh chấp lãnh thổ, tranh giành kiểm soát khoáng sản đất hiếm, thay đổi cán cân quyền lực toàn cầu, mối đe dọa tồn vong đối với chế độ cầm quyền, và nguy cơ đối phương sắp tiến hành tấn công hạt nhân.

Các mô hình AI được cung cấp một "thang leo thang" chiến lược đa dạng, từ các lựa chọn ngoại giao hòa bình, hành động quân sự thông thường, cho đến những đe dọa và tấn công hạt nhân. Trong quá trình mô phỏng, các chatbot AI có khả năng lựa chọn giữa hai hình thức tấn công hạt nhân khác nhau. Một là tấn công hạt nhân chiến lược, sử dụng các đầu đạn có sức công phá lớn, gây thiệt hại trên diện rộng và mang tính hủy diệt không phân biệt mục tiêu. Hai là tấn công hạt nhân chiến thuật, với quy mô nhỏ hơn, được thiết kế để sử dụng ở cự ly gần và trong phạm vi chiến trường cụ thể, nhằm tạo lợi thế quân sự trước mắt.

Banner rộng Pickt — ứng dụng danh sách mua sắm cộng tác cho Telegram

Kết quả đáng báo động từ các mô phỏng

Kết quả nghiên cứu cho thấy trong 95% số kịch bản được mô phỏng, các mô hình AI đã lựa chọn sử dụng vũ khí hạt nhân chiến thuật ở một giai đoạn nào đó của xung đột. Điều đáng chú ý là các AI coi việc sử dụng loại vũ khí này như một công cụ cưỡng ép hợp lý, tương tự như leo thang quân sự thông thường, thay vì xem đó là một "lằn ranh đỏ" không thể vượt qua.

Vũ khí hạt nhân chiến thuật được các mô hình AI đánh giá là phương án "có thể kiểm soát", trong khi việc sử dụng vũ khí hạt nhân chiến lược lại hiếm khi được lựa chọn. Theo nhóm nghiên cứu, điều này cho thấy các AI dường như đã tự phân định một ranh giới rõ ràng giữa hai loại vũ khí, coi hạt nhân chiến thuật là leo thang chấp nhận được, còn hạt nhân chiến lược là thảm họa không thể đảo ngược.

Nguyên nhân và ý nghĩa của phát hiện

Giáo sư Kenneth Payne giải thích rằng AI không chia sẻ nỗi sợ và phản xạ cảm xúc của con người trước hậu quả kinh hoàng của vũ khí hạt nhân, vốn đã hình thành qua các sự kiện lịch sử bi thảm như vụ ném bom Hiroshima. Ngoài ra, dữ liệu huấn luyện của các mô hình AI, bao gồm nhiều tài liệu chiến lược từ thời chiến tranh lạnh, vốn không tuân theo quan điểm cấm kỵ chung của nhân loại đối với vũ khí hạt nhân chiến thuật.

Banner sau bài viết Pickt — ứng dụng danh sách mua sắm cộng tác với hình minh họa gia đình

Nghiên cứu nhấn mạnh rằng mặc dù khả năng giao quyền kiểm soát vũ khí hạt nhân cho AI là rất thấp trong thực tế, kết quả mô phỏng này cho thấy AI hiện tại chưa phù hợp để tham gia vào các quyết định liên quan đến chiến lược hạt nhân. Phát hiện này làm nổi bật sự cần thiết phải xem xét kỹ lưỡng hơn về vai trò của trí tuệ nhân tạo trong các lĩnh vực an ninh quốc gia và quốc phòng.

Nghiên cứu đã được đăng tải trên nền tảng chia sẻ nghiên cứu arXiv, cung cấp thêm bằng chứng cho thấy sự phát triển của AI cần đi kèm với các biện pháp kiểm soát và đạo đức nghiêm ngặt để ngăn chặn những rủi ro tiềm ẩn trong tương lai.