شروط Copilot من Microsoft تصف الذكاء الاصطناعي بأنه 'لأغراض الترفيه فقط'

إخلاء مسؤولية Copilot من Microsoft يلفت الانتباه
تواجه Microsoft تدقيقًا جديدًا بشأن اللغة المستخدمة في شروط استخدام Copilot، والتي تصف مساعد الذكاء الاصطناعي بأنه 'لأغراض الترفيه فقط'. وقد انتشرت هذه الصياغة، التي يبدو أنها تم تحديثها آخر مرة في 24 أكتوبر 2025، على وسائل التواصل الاجتماعي حيث يشير المستخدمون إلى الفجوة بين تسويق الذكاء الاصطناعي والقيود التي تضعها الشركات على منتجاتها الخاصة.
كما تحذر الشروط من أن Copilot 'يمكن أن يرتكب أخطاء، وقد لا يعمل كما هو مقصود'، مضيفة: 'لا تعتمد على Copilot للحصول على نصيحة مهمة. استخدم Copilot على مسؤوليتك الخاصة'.
يبرز إخلاء المسؤولية هذا لأن Microsoft تدفع Copilot بنشاط للعملاء من الشركات كجزء من استراتيجيتها الأوسع للذكاء الاصطناعي. لكن اللغة تؤكد توترًا مألوفًا في صناعة الذكاء الاصطناعي: تروج الشركات لهذه الأدوات كمساعدين مفيدين وقادرين بينما تحذر المستخدمين أيضًا من عدم الثقة بهم كثيرًا.
Microsoft تقول إن اللغة قديمة
صرح متحدث باسم Microsoft لموقع PCMag بأن الشركة تخطط لمراجعة ما أسمته 'اللغة القديمة'. وقال المتحدث إن الصياغة 'لم تعد تعكس كيفية استخدام Copilot اليوم' وسيتم تغييرها في التحديث التالي.
ليست Microsoft وحدها من تستخدم لغة تحذيرية. أشار موقع Tom’s Hardware إلى أن OpenAI و xAI يخبران المستخدمين أيضًا بعدم التعامل مع أنظمتهم كمصدر نهائي للحقيقة. تقول xAI إنه لا ينبغي للمستخدمين الاعتماد على مخرجاتها على أنها 'الحقيقة'، بينما تقول OpenAI إنه لا ينبغي التعامل مع خدمتها على أنها 'خدمة وحيدة للحقيقة أو المعلومات الواقعية'.
يأتي الجدل حول شروط Copilot في الوقت الذي تواصل فيه شركات الذكاء الاصطناعي محاولة الموازنة بين الوعود الموجهة للمستهلكين وإخلاءات المسؤولية القانونية والعملية بشأن الدقة. قد يكون التحذير صريحًا بشكل غير عادي، لكنه يعكس حقيقة أوسع عبر الصناعة: حتى الشركات التي تبني هذه الأنظمة تخبر المستخدمين أن مخرجات الذكاء الاصطناعي يمكن أن تكون خاطئة أو غير كاملة أو غير موثوقة عندما تكون المخاطر عالية.
المصادر: