Các điều khoản của Copilot của Microsoft gọi AI là ‘chỉ dành cho mục đích giải trí’

Tuyên bố từ chối trách nhiệm của Copilot của Microsoft thu hút sự chú ý
Microsoft đang phải đối mặt với sự giám sát mới về ngôn ngữ trong các điều khoản sử dụng của Copilot, mô tả trợ lý AI này là “chỉ dành cho mục đích giải trí”. Ngôn ngữ này, dường như đã được cập nhật lần cuối vào ngày 24 tháng 10 năm 2025, đã lan truyền trên mạng xã hội khi người dùng chỉ ra khoảng cách giữa tiếp thị AI và những giới hạn mà các công ty đặt ra cho sản phẩm của chính họ.
Các điều khoản cũng cảnh báo rằng Copilot “có thể mắc lỗi và có thể không hoạt động như dự định”, đồng thời bổ sung: “Đừng dựa vào Copilot để có lời khuyên quan trọng. Sử dụng Copilot với rủi ro của riêng bạn.”
Tuyên bố từ chối trách nhiệm này nổi bật vì Microsoft đang tích cực thúc đẩy Copilot đến các khách hàng doanh nghiệp như một phần của chiến lược AI rộng lớn hơn của mình. Nhưng ngôn ngữ này nhấn mạnh một sự căng thẳng quen thuộc trong ngành AI: các công ty quảng bá những công cụ này như những trợ lý hữu ích, có khả năng nhưng đồng thời cũng cảnh báo người dùng không nên tin tưởng chúng quá nhiều.
Microsoft cho biết ngôn ngữ này đã lỗi thời
Một phát ngôn viên của Microsoft nói với PCMag rằng công ty có kế hoạch sửa đổi cái mà họ gọi là “ngôn ngữ cũ”. Phát ngôn viên cho biết cách diễn đạt này “không còn phản ánh cách Copilot được sử dụng ngày nay” và sẽ được thay đổi trong bản cập nhật tiếp theo.
Microsoft không đơn độc trong việc sử dụng ngôn ngữ cảnh báo. Tom’s Hardware lưu ý rằng OpenAI và xAI cũng nói với người dùng không nên coi hệ thống của họ là một nguồn sự thật tuyệt đối. xAI nói rằng người dùng không nên dựa vào đầu ra của nó như “sự thật”, trong khi OpenAI nói rằng dịch vụ của họ không nên được coi là “một dịch vụ duy nhất về sự thật hoặc thông tin thực tế.”
Cuộc tranh luận xung quanh các điều khoản của Copilot diễn ra khi các công ty AI tiếp tục cố gắng cân bằng giữa những lời hứa với người tiêu dùng và các tuyên bố từ chối trách nhiệm pháp lý và thực tế về độ chính xác. Lời cảnh báo này có thể thẳng thừng một cách bất thường, nhưng nó phản ánh một thực tế rộng lớn hơn trong toàn ngành: ngay cả các công ty xây dựng những hệ thống này cũng đang nói với người dùng rằng đầu ra của AI có thể sai, không đầy đủ hoặc không đáng tin cậy khi có nhiều rủi ro.
Nguồn: