Ketentuan Copilot Microsoft menyebut AI 'hanya untuk tujuan hiburan'

Penafian Copilot Microsoft menarik perhatian
Microsoft menghadapi pengawasan baru atas bahasa dalam ketentuan penggunaan Copilot, yang menggambarkan asisten AI tersebut sebagai 'hanya untuk tujuan hiburan.' Kata-kata tersebut, yang tampaknya terakhir diperbarui pada 24 Oktober 2025, telah beredar di media sosial karena pengguna menunjukkan kesenjangan antara pemasaran AI dan batasan yang ditempatkan perusahaan pada produk mereka sendiri.
Ketentuan tersebut juga memperingatkan bahwa Copilot 'dapat membuat kesalahan, dan mungkin tidak berfungsi sebagaimana mestinya,' menambahkan: 'Jangan mengandalkan Copilot untuk nasihat penting. Gunakan Copilot dengan risiko Anda sendiri.'
Penafian ini menonjol karena Microsoft secara aktif mendorong Copilot kepada pelanggan korporat sebagai bagian dari strategi AI yang lebih luas. Namun, bahasa tersebut menggarisbawahi ketegangan yang lazim dalam industri AI: perusahaan mempromosikan alat-alat ini sebagai asisten yang berguna dan mampu, sementara juga memperingatkan pengguna untuk tidak terlalu mempercayainya.
Microsoft mengatakan bahasa tersebut sudah usang
Seorang juru bicara Microsoft mengatakan kepada PCMag bahwa perusahaan berencana untuk merevisi apa yang disebutnya 'bahasa lama.' Juru bicara tersebut mengatakan bahwa kata-kata tersebut 'tidak lagi mencerminkan bagaimana Copilot digunakan saat ini' dan akan diubah dalam pembaruan berikutnya.
Microsoft tidak sendirian dalam menggunakan bahasa peringatan. Tom’s Hardware mencatat bahwa OpenAI dan xAI juga memberi tahu pengguna untuk tidak memperlakukan sistem mereka sebagai sumber kebenaran yang definitif. xAI mengatakan pengguna tidak boleh mengandalkan keluarannya sebagai 'kebenaran,' sementara OpenAI mengatakan layanannya tidak boleh diperlakukan sebagai 'satu-satunya layanan kebenaran atau informasi faktual.'
Perdebatan seputar ketentuan Copilot muncul karena perusahaan AI terus mencoba menyeimbangkan janji-janji yang berhadapan dengan konsumen dengan penafian hukum dan praktis tentang akurasi. Peringatan tersebut mungkin sangat blak-blakan, tetapi itu mencerminkan realitas yang lebih luas di seluruh industri: bahkan perusahaan yang membangun sistem ini memberi tahu pengguna bahwa keluaran AI bisa salah, tidak lengkap, atau tidak dapat diandalkan ketika taruhannya tinggi.
Sumber: