Luật Trí tuệ nhân tạo có hiệu lực: Phép thử đầu tiên với phân loại AI rủi ro cao
Ngày 1/3/2026, Luật Trí tuệ nhân tạo chính thức có hiệu lực, đánh dấu lần đầu tiên Việt Nam có một khung pháp lý riêng biệt cho lĩnh vực AI. Với 8 chương và 35 điều, luật này đặt ra nguyên tắc cốt lõi: AI phải phục vụ con người, không được thay thế thẩm quyền và trách nhiệm của con người. Tuy nhiên, sự chú ý của cộng đồng công nghệ ngay lập tức tập trung vào một điểm then chốt: cách quản lý các hệ thống AI được phân loại là "rủi ro cao".
Phân loại rủi ro và những ngưỡng quan trọng
Theo luật, hệ thống AI được phân thành ba mức độ rủi ro: cao, trung bình và thấp. Nhóm rủi ro cao phải tuân thủ các nghĩa vụ nghiêm ngặt hơn, bao gồm đánh giá sự phù hợp, lưu giữ hồ sơ kỹ thuật, và đảm bảo khả năng giám sát, can thiệp của con người. Nhóm này được định nghĩa là có khả năng gây thiệt hại đáng kể đến tính mạng, sức khỏe, quyền lợi hợp pháp của tổ chức, cá nhân, lợi ích quốc gia, an ninh quốc gia, và lợi ích công cộng.
Danh mục AI rủi ro cao hiện vẫn trong giai đoạn dự thảo, nhưng đã đề xuất các ngưỡng cụ thể. Ví dụ, hệ thống AI sàng lọc hồ sơ, đánh giá hiệu suất, hoặc chấm dứt hợp đồng sẽ thuộc diện rủi ro cao nếu áp dụng cho từ 500 lao động mỗi năm trở lên, hoặc khi kết quả là căn cứ chính cho quyết định nhân sự. Trong lĩnh vực tài chính, hệ thống xét duyệt tín dụng hoặc định giá bảo hiểm có thể bị xếp vào nhóm này nếu ảnh hưởng trực tiếp đến 1.000 khách hàng mỗi năm trở lên, hoặc khi quyết định được tự động hóa từ 30% trở lên.
Tương tự, hệ thống AI đánh giá kết quả học tập hoặc tuyển sinh sẽ phải chịu quản lý chặt chẽ hơn nếu áp dụng cho từ 500 người học mỗi năm. Một số trường hợp khác, như hệ thống AI nhận dạng sinh trắc học từ xa trong không gian công cộng hoặc trên diện rộng, và hệ thống AI hỗ trợ chẩn đoán, điều trị y tế, phải được đánh giá và có chứng nhận sự phù hợp trước khi đưa vào sử dụng.
Phản ứng từ doanh nghiệp và chuyên gia
Ông Phùng Quang Hưng, CEO của One Mount, nhận định rằng sự ra đời của luật là một bước tiến đáng chờ đợi. "Khi một lĩnh vực mới như AI có hành lang pháp lý rõ ràng, doanh nghiệp có cơ sở để dựa vào và thực hiện đúng", ông nói, đồng thời nhấn mạnh rằng luật giúp tạo ra sự thống nhất trong việc hiểu nghĩa vụ khi ứng dụng và phát triển AI, đặc biệt trong bảo vệ quyền lợi người dùng và chủ thể dữ liệu.
Tuy nhiên, ông Ngô Minh Quân, Giám đốc chuyển đổi số tại Rikkeisoft, chỉ ra rằng vấn đề mấu chốt không nằm ở việc phân loại có hợp lý hay không, mà là quy trình đánh giá sẽ được thực hiện như thế nào. "AI phát triển rất nhanh với chu kỳ sản phẩm ngắn. Một quy trình đánh giá kéo dài hoặc thiếu rõ ràng có thể làm thay đổi nhịp phát triển", ông giải thích. Ông đề xuất một cơ chế linh hoạt hơn, chẳng hạn chỉ yêu cầu đánh giá đầy đủ khi hệ thống được triển khai ở quy mô thực sự lớn.
Ông Lê Thanh Hưng, chuyên gia phát triển cộng đồng tại Hiệp hội mã nguồn mở châu Á (FOSSASIA) và admin cộng đồng Bình dân học AI, thừa nhận có những lo lắng từ các nhà phát triển. "Trước đây, nhiều sản phẩm AI được phát triển trong môi trường linh hoạt. Khi có luật, doanh nghiệp buộc phải rà soát lại hệ thống và dữ liệu của mình", ông nói. Ông cũng chỉ ra mối quan tâm về an ninh dữ liệu và quyền sở hữu trí tuệ, đặc biệt đối với các startup.
Cân bằng giữa kiểm soát và phát triển
Dù vậy, ông Lê Thanh Hưng nhìn nhận cơ quan soạn thảo có cơ sở khi đưa ra danh mục về mức độ rủi ro. "Nếu dữ liệu người dùng bị rò rỉ, hệ quả rất lớn, không chỉ doanh nghiệp chịu thiệt hại mà cả xã hội bị ảnh hưởng", ông lấy ví dụ. Ông nhấn mạnh rằng nếu quy trình đánh giá minh bạch và không gây cản trở, doanh nghiệp sẽ dễ chấp nhận hơn.
CEO Phùng Quang Hưng cũng đồng tình rằng cần tìm được điểm cân bằng giữa kiểm soát và phát triển. "Quan trọng là phải cân bằng giữa mục tiêu kiểm soát, bảo vệ quyền lợi, ứng dụng AI một cách lành mạnh, có đạo đức và không để các thủ tục làm ảnh hưởng tới tốc độ đổi mới sáng tạo", ông nói. Ông cho rằng, giống như nhiều luật mới khác, Luật Trí tuệ nhân tạo sẽ cần thời gian để có các hướng dẫn chi tiết và tiếp nhận góp ý từ doanh nghiệp và người dân.
Thách thức phía trước
Mặc dù Luật Trí tuệ nhân tạo đã chính thức có hiệu lực, phép thử thực sự sẽ đến từ những văn bản hướng dẫn thi hành luật, đặc biệt là Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao đang trong quá trình hoàn thiện. Các quy định này có tiềm năng thúc đẩy sự phát triển lành mạnh của AI tại Việt Nam, nhưng cũng có thể dẫn đến sự chần chừ, do dự, hoặc thậm chí hoang mang từ phía các nhà phát triển và doanh nghiệp.
Cuối cùng, sự thành công của luật sẽ phụ thuộc vào khả năng tạo ra một môi trường pháp lý vừa bảo vệ được quyền lợi con người và lợi ích công cộng, vừa không kìm hãm tốc độ đổi mới và sáng tạo trong lĩnh vực công nghệ đầy tiềm năng này.



