ข้อกำหนดของ Copilot ของ Microsoft ระบุว่า AI 'เพื่อความบันเทิงเท่านั้น'

ข้อความปฏิเสธความรับผิดชอบของ Copilot ของ Microsoft ดึงดูดความสนใจ
Microsoft กำลังเผชิญกับการตรวจสอบอย่างเข้มงวดอีกครั้งเกี่ยวกับภาษาในข้อกำหนดการใช้งานของ Copilot ซึ่งอธิบายว่าผู้ช่วย AI นี้ 'เพื่อความบันเทิงเท่านั้น' ถ้อยคำดังกล่าวซึ่งดูเหมือนจะได้รับการอัปเดตล่าสุดเมื่อวันที่ 24 ตุลาคม 2025 ได้แพร่หลายในโซเชียลมีเดียในขณะที่ผู้ใช้ชี้ให้เห็นถึงช่องว่างระหว่างการตลาดของ AI และข้อจำกัดที่บริษัทกำหนดไว้สำหรับผลิตภัณฑ์ของตนเอง
ข้อกำหนดยังเตือนด้วยว่า Copilot “อาจทำผิดพลาดได้ และอาจไม่ทำงานตามที่ตั้งใจไว้” พร้อมเสริมว่า: “อย่าพึ่งพา Copilot สำหรับคำแนะนำที่สำคัญ ใช้ Copilot โดยยอมรับความเสี่ยงของคุณเอง”
ข้อความปฏิเสธความรับผิดชอบนี้โดดเด่นเนื่องจาก Microsoft กำลังผลักดัน Copilot ให้กับลูกค้าองค์กรอย่างแข็งขันซึ่งเป็นส่วนหนึ่งของกลยุทธ์ AI ที่กว้างขึ้น แต่ภาษานี้เน้นย้ำถึงความตึงเครียดที่คุ้นเคยในอุตสาหกรรม AI: บริษัทส่งเสริมเครื่องมือเหล่านี้ว่าเป็นผู้ช่วยที่มีประโยชน์และมีความสามารถ ในขณะเดียวกันก็เตือนผู้ใช้ไม่ให้เชื่อถือมากเกินไป
Microsoft ระบุว่าภาษาดังกล่าวล้าสมัยแล้ว
โฆษกของ Microsoft บอกกับ PCMag ว่าบริษัทวางแผนที่จะแก้ไขสิ่งที่เรียกว่า “ภาษาเก่า” โฆษกกล่าวว่าถ้อยคำดังกล่าว “ไม่สะท้อนถึงวิธีการใช้งาน Copilot ในปัจจุบันอีกต่อไป” และจะถูกเปลี่ยนแปลงในการอัปเดตครั้งต่อไป
Microsoft ไม่ได้อยู่โดดเดี่ยวในการใช้ภาษาเตือน Tom’s Hardware ตั้งข้อสังเกตว่า OpenAI และ xAI ก็บอกผู้ใช้ไม่ให้ถือว่าระบบของตนเป็นแหล่งข้อมูลที่แน่นอน xAI ระบุว่าผู้ใช้ไม่ควรพึ่งพาผลลัพธ์ของตนว่าเป็น “ความจริง” ในขณะที่ OpenAI ระบุว่าบริการของตนไม่ควรถือเป็น “บริการเดียวที่เป็นแหล่งความจริงหรือข้อมูลข้อเท็จจริง”
การถกเถียงเกี่ยวกับข้อกำหนดของ Copilot เกิดขึ้นในขณะที่บริษัท AI ยังคงพยายามสร้างสมดุลระหว่างคำมั่นสัญญาที่มุ่งเน้นผู้บริโภคกับข้อความปฏิเสธความรับผิดชอบทางกฎหมายและเชิงปฏิบัติเกี่ยวกับความถูกต้อง คำเตือนนี้อาจจะตรงไปตรงมาผิดปกติ แต่ก็สะท้อนถึงความเป็นจริงที่กว้างขึ้นทั่วทั้งอุตสาหกรรม: แม้แต่บริษัทที่สร้างระบบเหล่านี้ก็ยังบอกผู้ใช้ว่าผลลัพธ์ของ AI อาจผิดพลาด ไม่สมบูรณ์ หรือไม่น่าเชื่อถือเมื่อมีความเสี่ยงสูง
แหล่งที่มา: