Microsoft thừa nhận AI Copilot chỉ dành cho giải trí, cảnh báo doanh nghiệp
Trong khi liên tục quảng cáo là công cụ năng suất thay đổi cách làm việc, Microsoft lại đối mặt với tranh cãi khi điều khoản sử dụng của AI Copilot nêu rõ công cụ này "chỉ dành cho mục đích giải trí" và không nên được sử dụng cho các quyết định quan trọng. Sự mâu thuẫn này đang gây làn sóng phản ứng từ cộng đồng người dùng, đặc biệt là các doanh nghiệp đang trả phí cho dịch vụ.
Điều khoản sử dụng gây sốc
Theo nội dung cập nhật từ cuối năm ngoái, Microsoft ghi rõ Copilot có thể mắc lỗi và "có thể không hoạt động như dự kiến". Công ty khuyến cáo người dùng không nên dựa vào các phản hồi của AI cho lời khuyên quan trọng, đồng thời nhấn mạnh việc sử dụng Copilot là "tự chịu rủi ro". Điều khoản cũng cho biết Microsoft không đưa ra bất kỳ tuyên bố nào về độ chính xác hay tính hợp pháp của nội dung do Copilot tạo ra.
Cụ thể, công ty không thể đảm bảo các phản hồi của AI sẽ không vi phạm bản quyền, quyền riêng tư hoặc gây ảnh hưởng đến cá nhân, tổ chức khác. Nếu người dùng chia sẻ hoặc công bố nội dung do Copilot tạo ra, họ sẽ phải tự chịu trách nhiệm hoàn toàn. Những nội dung này gần đây lan truyền rộng rãi trên mạng xã hội và nhanh chóng vấp phải chỉ trích.
Phản ứng từ cộng đồng và doanh nghiệp
Nhiều ý kiến cho rằng cách diễn đạt trong điều khoản sử dụng không tương xứng với cách Microsoft đang định vị Copilot như một công cụ hỗ trợ công việc hiệu quả. Một số người dùng đặt câu hỏi về mức độ tin cậy của sản phẩm, với lập luận rằng nếu chính nhà cung cấp cũng không đảm bảo độ chính xác, thì người dùng khó có thể đặt niềm tin vào kết quả AI tạo ra.
Đáng chú ý, cách diễn đạt "chỉ dành cho mục đích giải trí" được cho là tương tự các tuyên bố miễn trừ trách nhiệm thường thấy trong dịch vụ nhạy cảm như tư vấn tâm linh, nhằm tránh rủi ro pháp lý. Điều này càng làm gia tăng sự hoài nghi về cách các công ty công nghệ đang xử lý trách nhiệm liên quan đến AI.
Phản hồi từ Microsoft và xu hướng ngành
Trước phản ứng của dư luận, đại diện Microsoft cho biết cụm từ này là "ngôn ngữ cũ" từ giai đoạn Copilot còn hoạt động như công cụ tìm kiếm mở rộng trên Bing. Theo công ty, cách diễn đạt không còn phản ánh đúng cách Copilot được sử dụng hiện nay và sẽ được điều chỉnh trong các bản cập nhật sắp tới. Dù vậy, Microsoft vẫn giữ quan điểm rằng Copilot nên được xem là công cụ hỗ trợ, không phải hệ thống ra quyết định.
Người dùng được khuyến nghị kiểm chứng thông tin từ nhiều nguồn và thận trọng khi xử lý dữ liệu nhạy cảm hoặc quan trọng. Thực tế, cách tiếp cận này không chỉ riêng Microsoft. Các công ty phát triển AI khác như OpenAI, Google hay Anthropic cũng đưa ra cảnh báo tương tự trong điều khoản sử dụng, bao gồm việc không chịu trách nhiệm về độ chính xác tuyệt đối và chuyển phần trách nhiệm sang phía người dùng.
Diễn biến trên cho thấy xu hướng rộng hơn trong ngành công nghệ: khi AI ngày càng được ứng dụng sâu vào công việc và đời sống, các doanh nghiệp cung cấp công nghệ này cũng đang tìm cách xác định lại ranh giới trách nhiệm. Trong khi công cụ AI tiếp tục được thương mại hóa và bán cho khách hàng doanh nghiệp, những điều khoản như vậy đồng thời phản ánh mức độ rủi ro mà chính nhà cung cấp cũng thừa nhận vẫn tồn tại.



