Microsoft के Copilot के नियम AI को 'केवल मनोरंजन के उद्देश्य से' बताते हैं

Microsoft के Copilot के अस्वीकरण ने ध्यान आकर्षित किया
Microsoft Copilot के उपयोग की शर्तों में भाषा को लेकर नई जांच का सामना कर रहा है, जो AI असिस्टेंट को 'केवल मनोरंजन के उद्देश्य से' बताती है। यह शब्दावली, जिसे आखिरी बार 24 अक्टूबर, 2025 को अपडेट किया गया था, सोशल मीडिया पर प्रसारित हो रही है क्योंकि उपयोगकर्ता AI मार्केटिंग और कंपनियों द्वारा अपने उत्पादों पर लगाई गई सीमाओं के बीच के अंतर को इंगित कर रहे हैं।
शर्तें यह भी चेतावनी देती हैं कि Copilot 'गलतियाँ कर सकता है, और यह इच्छानुसार काम नहीं कर सकता है,' यह जोड़ते हुए: 'महत्वपूर्ण सलाह के लिए Copilot पर भरोसा न करें। Copilot का उपयोग अपने जोखिम पर करें।'
यह अस्वीकरण इसलिए खास है क्योंकि Microsoft अपनी व्यापक AI रणनीति के हिस्से के रूप में Copilot को कॉर्पोरेट ग्राहकों तक सक्रिय रूप से पहुँचा रहा है। लेकिन यह भाषा AI उद्योग में एक परिचित तनाव को रेखांकित करती है: कंपनियाँ इन उपकरणों को उपयोगी, सक्षम असिस्टेंट के रूप में बढ़ावा देती हैं, जबकि उपयोगकर्ताओं को उन पर बहुत अधिक भरोसा न करने की चेतावनी भी देती हैं।
Microsoft का कहना है कि भाषा पुरानी हो चुकी है
Microsoft के एक प्रवक्ता ने PCMag को बताया कि कंपनी 'पुरानी भाषा' कहे जाने वाले शब्दों को संशोधित करने की योजना बना रही है। प्रवक्ता ने कहा कि यह शब्दावली 'अब इस बात को नहीं दर्शाती कि Copilot का उपयोग आज कैसे किया जाता है' और अगले अपडेट में इसे बदल दिया जाएगा।
Microsoft चेतावनी वाली भाषा का उपयोग करने वाला अकेला नहीं है। Tom’s Hardware ने बताया कि OpenAI और xAI भी उपयोगकर्ताओं को अपने सिस्टम को सच्चाई के निश्चित स्रोत के रूप में न मानने के लिए कहते हैं। xAI का कहना है कि उपयोगकर्ताओं को इसके आउटपुट पर 'सच्चाई' के रूप में भरोसा नहीं करना चाहिए, जबकि OpenAI का कहना है कि उसकी सेवा को 'सच्चाई या तथ्यात्मक जानकारी की एकमात्र सेवा' के रूप में नहीं माना जाना चाहिए।
Copilot की शर्तों को लेकर बहस ऐसे समय में हो रही है जब AI कंपनियाँ सटीकता के बारे में कानूनी और व्यावहारिक अस्वीकरणों के साथ उपभोक्ता-उन्मुख वादों को संतुलित करने की कोशिश कर रही हैं। चेतावनी असामान्य रूप से सीधी हो सकती है, लेकिन यह उद्योग भर में एक व्यापक वास्तविकता को दर्शाती है: इन प्रणालियों का निर्माण करने वाली कंपनियाँ भी उपयोगकर्ताओं को बता रही हैं कि जब दांव ऊंचे होते हैं तो AI आउटपुट गलत, अधूरा या अविश्वसनीय हो सकता है।
स्रोत: