Terma Copilot Microsoft menyatakan AI ‘untuk tujuan hiburan sahaja’

Penafian Copilot Microsoft menarik perhatian
Microsoft sedang menghadapi penelitian baharu mengenai bahasa dalam terma penggunaan Copilot, yang menggambarkan pembantu AI itu sebagai “untuk tujuan hiburan sahaja.” Perkataan tersebut, yang nampaknya kali terakhir dikemas kini pada 24 Oktober 2025, telah tersebar di media sosial apabila pengguna menunjukkan jurang antara pemasaran AI dan had yang diletakkan oleh syarikat pada produk mereka sendiri.
Terma tersebut juga memberi amaran bahawa Copilot “boleh membuat kesilapan, dan ia mungkin tidak berfungsi seperti yang dimaksudkan,” sambil menambah: “Jangan bergantung pada Copilot untuk nasihat penting. Gunakan Copilot atas risiko anda sendiri.”
Penafian itu menonjol kerana Microsoft secara aktif mempromosikan Copilot kepada pelanggan korporat sebagai sebahagian daripada strategi AI yang lebih luas. Tetapi bahasa tersebut menggariskan ketegangan yang biasa dalam industri AI: syarikat mempromosikan alat ini sebagai pembantu yang berguna dan berkemampuan sambil juga memberi amaran kepada pengguna agar tidak terlalu mempercayainya.
Microsoft menyatakan bahasa tersebut sudah lapuk
Seorang jurucakap Microsoft memberitahu PCMag bahawa syarikat itu merancang untuk menyemak semula apa yang disebutnya sebagai “bahasa warisan.” Jurucakap itu berkata perkataan tersebut “tidak lagi mencerminkan bagaimana Copilot digunakan hari ini” dan akan diubah dalam kemas kini seterusnya.
Microsoft tidak bersendirian dalam menggunakan bahasa berhati-hati. Tom’s Hardware menyatakan bahawa OpenAI dan xAI juga memberitahu pengguna agar tidak menganggap sistem mereka sebagai sumber kebenaran yang muktamad. xAI mengatakan pengguna tidak seharusnya bergantung pada outputnya sebagai “kebenaran,” manakala OpenAI mengatakan perkhidmatannya tidak seharusnya dianggap sebagai “satu-satunya perkhidmatan kebenaran atau maklumat fakta.”
Perdebatan mengenai terma Copilot timbul apabila syarikat AI terus cuba mengimbangi janji-janji kepada pengguna dengan penafian undang-undang dan praktikal mengenai ketepatan. Amaran itu mungkin luar biasa terus terang, tetapi ia mencerminkan realiti yang lebih luas di seluruh industri: malah syarikat yang membina sistem ini memberitahu pengguna bahawa output AI boleh salah, tidak lengkap atau tidak boleh dipercayai apabila risikonya tinggi.
Sumber: