תנאי השימוש של Copilot מבית Microsoft קובעים שה-AI מיועד 'למטרות בידור בלבד'

הצהרת הויתור של Copilot מבית Microsoft מושכת תשומת לב
Microsoft מתמודדת עם בדיקה מחודשת לגבי השפה בתנאי השימוש של Copilot, המתארים את עוזר ה-AI כ'למטרות בידור בלבד'. הניסוח, שנראה כי עודכן לאחרונה ב-24 באוקטובר 2025, הופץ ברשתות החברתיות כאשר משתמשים מצביעים על הפער בין שיווק AI לבין המגבלות שחברות מציבות על המוצרים שלהן.
התנאים גם מזהירים כי Copilot 'יכול לטעות, וייתכן שלא יעבוד כמתוכנן', ומוסיפים: 'אל תסתמכו על Copilot לקבלת ייעוץ חשוב. השתמשו ב-Copilot על אחריותכם בלבד'.
הצהרת הויתור בולטת מכיוון ש-Microsoft מקדמת באופן פעיל את Copilot ללקוחות עסקיים כחלק מאסטרטגיית ה-AI הרחבה שלה. אך השפה מדגישה מתח מוכר בתעשיית ה-AI: חברות מקדמות כלים אלה כעוזרים שימושיים ומוכשרים, תוך שהן מזהירות משתמשים שלא לסמוך עליהם יותר מדי.
Microsoft אומרת שהניסוח מיושן
דובר Microsoft אמר ל-PCMag שהחברה מתכננת לתקן את מה שכינתה 'שפה מיושנת'. הדובר אמר שהניסוח 'אינו משקף עוד את האופן שבו Copilot משמש כיום' וישונה בעדכון הבא.
Microsoft אינה לבד בשימוש בשפה זהירה. Tom’s Hardware ציין כי גם OpenAI ו-xAI אומרות למשתמשים לא להתייחס למערכות שלהן כמקור סופי לאמת. xAI אומרת שמשתמשים לא צריכים לסמוך על התפוקה שלה כ'אמת', בעוד OpenAI אומרת שאין להתייחס לשירות שלה כ'שירות יחיד של אמת או מידע עובדתי'.
הדיון סביב תנאי השימוש של Copilot מגיע בזמן שחברות AI ממשיכות לנסות לאזן בין הבטחות המופנות לצרכנים לבין הצהרות ויתור משפטיות ומעשיות לגבי דיוק. האזהרה אולי בוטה באופן יוצא דופן, אך היא משקפת מציאות רחבה יותר בתעשייה: אפילו החברות שבונות מערכות אלה אומרות למשתמשים שתפוקת ה-AI יכולה להיות שגויה, לא שלמה או לא אמינה כאשר הסיכונים גבוהים.
מקורות: