Dự thảo nghị định AI: Xác định trách nhiệm khi trí tuệ nhân tạo gây thiệt hại
Bộ Tư pháp vừa chính thức công bố hồ sơ thẩm định dự thảo nghị định quy định chi tiết một số điều và biện pháp thi hành Luật Trí tuệ nhân tạo (AI). Dự thảo này do Bộ Khoa học và Công nghệ (KH-CN) soạn thảo, nhằm giải quyết những thách thức cấp bách trong quản lý và phát triển công nghệ AI tại Việt Nam.
Thách thức pháp lý nhức nhối: AI gây thiệt hại, ai chịu trách nhiệm?
Theo Bộ KH-CN, AI đang trở thành công nghệ mũi nhọn của cuộc Cách mạng công nghiệp 4.0, mở ra nhiều cơ hội to lớn cho phát triển kinh tế - xã hội. Tuy nhiên, công nghệ này cũng đặt ra không ít thách thức về quản lý, đạo đức và an toàn. Một trong những vấn đề nhức nhối nhất là khoảng trống về trách nhiệm pháp lý khi AI gây ra thiệt hại.
Cơ quan soạn thảo đặt vấn đề: khi một hệ thống AI gây ra thiệt hại, chẳng hạn như xe tự lái gây tai nạn, phần mềm chẩn đoán y tế đưa ra kết quả sai, hoặc hệ thống tín dụng tự động từ chối cho vay một cách phân biệt đối xử, thì ai sẽ chịu trách nhiệm? Liệu đó là nhà phát triển, nhà sản xuất, người sử dụng, hay chính hệ thống AI? Thực tế cho thấy, pháp luật dân sự và hình sự hiện hành chưa có câu trả lời thỏa đáng cho những tình huống này, gây hoang mang cho người tiêu dùng và rủi ro cho doanh nghiệp.
Những nguy cơ an ninh và đạo đức từ sự phát triển của AI
Ngoài vấn đề trách nhiệm, sự phát triển của AI còn đặt ra những thách thức về an ninh quốc gia, trật tự xã hội và các giá trị đạo đức. Công nghệ deepfake bị lạm dụng để tạo ra các thông tin sai lệch, bôi nhọ, lừa đảo hoặc gây bất ổn chính trị xã hội. Hệ thống vũ khí tự động đặt ra các câu hỏi phức tạp về đạo đức và luật pháp quốc tế, đòi hỏi phải có quy định quản lý chặt chẽ.
Hơn nữa, thuật toán thiên vị có thể tạo ra các hệ thống AI vô tình hoặc cố ý học và khuếch đại các định kiến có sẵn trong dữ liệu, dẫn đến các quyết định bất công và phân biệt đối xử trong xã hội. Điều này nhấn mạnh sự cần thiết của một khung pháp lý toàn diện để kiểm soát và định hướng phát triển AI một cách an toàn và công bằng.
Giải pháp pháp lý: Phân loại rủi ro và bắt buộc đánh giá tác động
Để tạo hành lang pháp lý giải quyết những vấn đề trên, dự thảo nghị định đề xuất thiết lập khung chi tiết phân loại AI thành ba cấp độ: rủi ro cao, trung bình và thấp. Nhà cung cấp AI có trách nhiệm tự thực hiện phân loại, lập hồ sơ kỹ thuật chi tiết về kiến trúc, dữ liệu và biện pháp quản trị rủi ro, đồng thời thông báo kết quả cho Bộ KH-CN để nhận mã định danh hệ thống.
Đối với hệ thống AI rủi ro trung bình, trọng tâm quản lý đặt vào nghĩa vụ minh bạch, thông báo và gắn nhãn nội dung nhằm tránh gây nhầm lẫn cho người dùng. Trong khi đó, các hệ thống AI rủi ro cao bắt buộc phải thực hiện đánh giá hoặc chứng nhận sự phù hợp trước khi đưa ra thị trường.
Dự thảo còn thiết lập khung pháp lý về minh bạch, giải trình và quản lý sự cố để bảo đảm quyền lợi hợp pháp của các đối tượng chịu tác động bởi hệ thống AI. Cụ thể:
- Nhà cung cấp hệ thống AI rủi ro trung bình và cao có nghĩa vụ cung cấp thông tin về chức năng, logic vận hành và cảnh báo rủi ro khi có yêu cầu hợp pháp từ cơ quan nhà nước hoặc bên bị tác động.
- Các nội dung do AI tạo sinh như âm thanh, hình ảnh, video bắt buộc phải được đánh dấu kỹ thuật ở định dạng máy đọc và gắn nhãn hiển thị rõ ràng nếu có khả năng gây nhầm lẫn về tính xác thực.
- Cơ chế giải trình yêu cầu các bên làm rõ mức độ tự động hóa, vai trò giám sát của con người và phương thức xử lý sai lệch phát sinh trong quá trình vận hành.
Đặc biệt, dự thảo quy định cơ quan nhà nước bắt buộc thực hiện đánh giá tác động trước khi vận hành các hệ thống AI rủi ro cao hoặc có ảnh hưởng lớn đến quyền lợi công dân và dịch vụ công. Điều này nhằm đảm bảo an toàn và hiệu quả trong việc triển khai công nghệ AI vào thực tiễn.



