Microsoft Copilot đối mặt làn sóng chỉ trích vì điều khoản sử dụng gây tranh cãi
Trong khi tích cực quảng bá các công cụ trí tuệ nhân tạo như giải pháp tăng năng suất cho doanh nghiệp, Microsoft lại vấp phải tranh luận gay gắt khi điều khoản sử dụng của Microsoft Copilot nêu rõ công cụ này "chỉ dành cho mục đích giải trí" và không nên được sử dụng cho các quyết định quan trọng. Nội dung này, được cập nhật từ cuối năm ngoái, đã lan truyền rộng rãi trên mạng xã hội và nhận về nhiều ý kiến phản đối.
Điều khoản sử dụng gây sốc: Copilot có thể mắc lỗi và không đảm bảo chính xác
Theo tài liệu chính thức, Microsoft ghi rõ Copilot có thể mắc lỗi và "có thể không hoạt động như dự kiến". Công ty khuyến cáo người dùng không nên dựa vào các phản hồi của AI cho lời khuyên quan trọng, đồng thời nhấn mạnh việc sử dụng Copilot là "tự chịu rủi ro". Điều khoản này cũng cho biết Microsoft không đưa ra bất kỳ tuyên bố nào về độ chính xác hay tính hợp pháp của nội dung do Copilot tạo ra.
Cụ thể, công ty không thể đảm bảo các phản hồi của AI sẽ không vi phạm bản quyền, quyền riêng tư hoặc gây ảnh hưởng đến cá nhân hay tổ chức khác. Nếu người dùng chia sẻ hoặc công bố nội dung do Copilot tạo ra, họ sẽ phải tự chịu trách nhiệm hoàn toàn. Những quy định này đã làm dấy lên làn sóng chỉ trích từ cộng đồng người dùng và chuyên gia.
Phản ứng dữ dội từ cộng đồng: Mâu thuẫn giữa quảng cáo và thực tế
Nhiều ý kiến cho rằng cách diễn đạt trong điều khoản sử dụng không tương xứng với cách Microsoft đang định vị Copilot như một công cụ hỗ trợ công việc hiệu quả cho cá nhân và doanh nghiệp. Một số người dùng đặt câu hỏi về mức độ tin cậy của sản phẩm, với lập luận rằng nếu chính nhà cung cấp cũng không đảm bảo độ chính xác, thì người dùng khó có thể đặt niềm tin vào các kết quả mà AI tạo ra.
Đáng chú ý, cách diễn đạt "chỉ dành cho mục đích giải trí" được cho là tương tự các tuyên bố miễn trừ trách nhiệm thường thấy trong các dịch vụ nhạy cảm như tư vấn tâm linh, nhằm tránh các rủi ro pháp lý. Điều này càng làm gia tăng sự hoài nghi về cách các công ty công nghệ đang xử lý trách nhiệm liên quan đến AI.
Phản hồi từ Microsoft: Ngôn ngữ cũ và cam kết điều chỉnh
Trước phản ứng của dư luận, đại diện Microsoft cho biết cụm từ này là "ngôn ngữ cũ" từ giai đoạn Copilot còn hoạt động như một công cụ tìm kiếm mở rộng trên Bing. Theo công ty, cách diễn đạt này không còn phản ánh đúng cách Copilot được sử dụng hiện nay và sẽ được điều chỉnh trong các bản cập nhật sắp tới.
Tuy nhiên, Microsoft vẫn giữ quan điểm rằng Copilot nên được xem là một công cụ hỗ trợ, không phải là hệ thống ra quyết định. Người dùng được khuyến nghị kiểm chứng thông tin từ nhiều nguồn và thận trọng khi xử lý các dữ liệu nhạy cảm hoặc quan trọng.
Xu hướng chung trong ngành công nghệ: Ranh giới trách nhiệm của AI
Thực tế, cách tiếp cận này không chỉ riêng Microsoft. Các công ty phát triển AI khác như OpenAI, Google hay Anthropic cũng đưa ra những cảnh báo tương tự trong điều khoản sử dụng, bao gồm việc không chịu trách nhiệm về độ chính xác tuyệt đối và chuyển một phần trách nhiệm sang phía người dùng.
Diễn biến trên cho thấy một xu hướng rộng hơn trong ngành công nghệ: khi AI ngày càng được ứng dụng sâu vào công việc và đời sống, các doanh nghiệp cung cấp công nghệ này cũng đang tìm cách xác định lại ranh giới trách nhiệm. Trong khi các công cụ AI tiếp tục được thương mại hóa và bán cho khách hàng doanh nghiệp, những điều khoản như vậy đồng thời phản ánh mức độ rủi ro mà chính nhà cung cấp cũng thừa nhận vẫn tồn tại.
Tóm lại, vụ việc này không chỉ làm nổi bật sự mâu thuẫn trong chiến lược tiếp thị của Microsoft mà còn đặt ra câu hỏi lớn về trách nhiệm pháp lý và đạo đức trong kỷ nguyên AI phát triển mạnh mẽ.



