EU 'tuýt còi' AI tạo ảnh nhạy cảm, cấm 'AI nuder' và siết chặt quản lý
Ngày 26/3 vừa qua, Nghị viện châu Âu (EP) đã nhất trí thông qua quyết định quan trọng nhằm kiểm soát các ứng dụng trí tuệ nhân tạo (AI) có khả năng tạo hoặc chỉnh sửa hình ảnh nhạy cảm, mang tính riêng tư của cá nhân mà không có sự đồng ý của họ. Động thái này cụ thể hóa một số quy định trong Đạo luật Trí tuệ nhân tạo (AI Act) của Liên minh châu Âu (EU), đồng thời thiết lập hành lang pháp lý rõ ràng cho việc quản lý AI trong hai năm tới.
Lệnh cấm 'AI nuder' và bảo vệ quyền riêng tư
Một điểm đáng chú ý trong quyết định của EP là việc bổ sung lệnh cấm đối với các công cụ được gọi là “AI nuder” (tạm dịch là "AI tạo hình ảnh khỏa thân"). Đây là những phần mềm sử dụng thuật toán để biến đổi hình ảnh người thật thành các phiên bản khỏa thân hoặc mang tính riêng tư, dù không có sự cho phép của những người trong ảnh. Các nghị sĩ EP cảnh báo rằng công nghệ này tiềm ẩn nguy cơ xâm phạm nghiêm trọng quyền cá nhân, đặc biệt khi bị lạm dụng trên mạng xã hội.
Tuy nhiên, EP cũng nhấn mạnh rằng những hệ thống AI đã tích hợp cơ chế bảo vệ hiệu quả để ngăn chặn việc tạo ra nội dung vi phạm sẽ không bị áp dụng lệnh cấm mới. Điều này nhằm tạo sự cân bằng giữa bảo vệ người dùng và không kìm hãm đổi mới công nghệ, khuyến khích phát triển các giải pháp an toàn và minh bạch.
Vụ việc Grok và phán quyết từ Hà Lan
Trước đó, dư luận châu Âu đã đặc biệt chú ý đến vụ việc liên quan đến Grok - một công cụ AI trên nền tảng mạng xã hội X. Công cụ này có khả năng tạo ra hàng loạt hình ảnh khỏa thân của người thật theo yêu cầu người dùng, bao gồm cả trường hợp liên quan đến người chưa thành niên, làm dấy lên lo ngại về kiểm soát nội dung và trách nhiệm của các nhà phát triển AI.
Vào ngày 26/3, một tòa án tại Hà Lan đã ra phán quyết cấm Grok tạo lập và phát tán các hình ảnh khỏa thân, cũng như nội dung khiêu dâm liên quan đến trẻ em. Phán quyết này áp dụng đối với các nội dung liên quan đến cá nhân đang sinh sống tại Hà Lan, đồng thời bao gồm cả hoạt động sản xuất và phát tán các nội dung vi phạm trong lãnh thổ nước này.
Các bên khởi kiện, bao gồm Trung tâm chuyên môn về lạm dụng trực tuyến Offlimits và Quỹ Hỗ trợ nạn nhân trực tuyến của Hà Lan, cho rằng việc phổ biến các công cụ AI như Grok đang khiến hành vi lạm dụng trực tuyến trở nên phổ biến hơn, đồng thời làm gia tăng số lượng nạn nhân và mức độ nghiêm trọng của các tổn hại tâm lý.
Tòa án quận Amsterdam (Hà Lan) tuyên bố mỗi hành vi vi phạm lệnh cấm sẽ bị xử phạt 100.000 euro (tương đương 115.000 USD) mỗi ngày, với mức tối đa lên tới 10 triệu euro. Đồng thời, nền tảng X phải đình chỉ hoạt động của công cụ Grok cho đến khi đáp ứng đầy đủ các yêu cầu mà tòa án đưa ra.
Phân loại mức độ rủi ro và quản lý AI toàn diện
Những động thái trên phản ánh xu hướng siết chặt quản lý các công nghệ AI có nguy cơ bị lạm dụng, đặc biệt trong việc tạo ra nội dung giả mạo và xâm phạm quyền riêng tư trên không gian mạng. Ngoài việc đề xuất cấm sử dụng AI tạo hình ảnh nhạy cảm trái phép, EP cũng xem xét nới lỏng một số nghĩa vụ đối với các sản phẩm vốn đã chịu sự điều chỉnh của các quy định chuyên ngành như thiết bị y tế hay đồ chơi trẻ em, nhằm tránh chồng chéo pháp lý.
Đạo luật AI của EU, có hiệu lực từ tháng 8/2024, thiết lập hệ thống phân loại AI dựa trên rủi ro. Các hệ thống AI được phân loại theo mức độ rủi ro có thể gây ra cho người dùng, với các yêu cầu tuân thủ khác nhau:
- Rủi ro không thể chấp nhận được: Bị cấm tại EU, bao gồm AI làm thao túng nhận thức và hành vi đối với cá nhân hoặc các nhóm dễ bị tổn thương, như đồ chơi điều khiển bằng giọng nói khuyến khích hành vi nguy hiểm ở trẻ em; AI chấm điểm xã hội, phân loại người dùng dựa trên hành vi, địa vị kinh tế xã hội hoặc đặc điểm cá nhân.
- Rủi ro cao: Là hệ thống AI gây ảnh hưởng tiêu cực đến sự an toàn hoặc các quyền cơ bản của người dân, bao gồm AI sử dụng trong các sản phẩm như đồ chơi, hàng không, xe ô-tô, thiết bị y tế và thang máy. Những hệ thống này phải được đánh giá trước khi đưa ra thị trường và trong suốt vòng đời của chúng.
Theo EP, tất cả các hệ thống AI rủi ro cao sẽ phải đăng ký trong cơ sở dữ liệu của EU và tuân thủ các quy định nghiêm ngặt. Hiện nay, AI tạo sinh như ChatGPT không được xếp vào loại rủi ro cao, nhưng vẫn phải tuân thủ các yêu cầu về tính minh bạch và luật bản quyền của EU.
Định hướng tương lai và thách thức quản lý
Tại Hội nghị liên nghị viện “Kỷ nguyên AI” tổ chức tại Cyprus cuối năm ngoái, ông Nicodemus Damianou, Thứ trưởng Bộ Nghiên cứu, Đổi mới và Kỹ thuật số Cyprus, nhấn mạnh: “Thách thức thật sự của AI không nằm ở bản thân công nghệ mà nằm ở cách quản lý. Chúng ta hướng đến tạo hành lang pháp lý nhằm khuyến khích đổi mới sáng tạo tại châu Âu, cho phép các công ty phát triển và thử nghiệm mô hình AI đa năng trước khi đưa ra thị trường.”
Bà Henna Virkkunen, Ủy viên phụ trách công nghệ của EU, cho biết: “Chúng tôi bảo đảm quản lý AI một cách linh hoạt, nghĩa là sự đổi mới phải phục vụ lợi ích công cộng và không bỏ lại ai phía sau. Dựa trên dữ liệu khảo sát năm 2023, hai trên năm người châu Âu coi thông tin sai lệch hoặc gây hiểu nhầm lan truyền trực tuyến và ngoại tuyến là mối đe dọa nghiêm trọng. Những video deepfake hay chiến dịch thông tin sai lệch hiện có thể được triển khai với tốc độ và quy mô chưa từng có. Đây chính là lý do tại sao chúng tôi đang tăng cường biện pháp bảo vệ quản trị kỹ thuật số. Quản trị không phải để kìm hãm sự đổi mới, mà là để định hướng nó.”
Trong thời gian tới, EP sẽ bước vào các vòng đàm phán để thống nhất văn bản cuối cùng liên quan đến điều chỉnh lộ trình áp dụng quy định đối với hệ thống AI. Kết quả của quá trình này được kỳ vọng sẽ định hình khung pháp lý quan trọng cho việc quản lý AI tại châu Âu trong những năm tới, cân bằng giữa bảo vệ người dùng và thúc đẩy đổi mới công nghệ.



