Masharti ya Copilot ya Microsoft yanasema AI ni 'kwa madhumuni ya burudani tu'

Kanusho la Copilot la Microsoft lavuta hisia
Microsoft inakabiliwa na uchunguzi mpya kuhusu lugha katika masharti ya matumizi ya Copilot, ambayo yanaeleza msaidizi wa AI kama 'kwa madhumuni ya burudani tu.' Maneno hayo, ambayo yanaonekana kusasishwa mara ya mwisho mnamo Oktoba 24, 2025, yamekuwa yakisambaa kwenye mitandao ya kijamii huku watumiaji wakionyesha pengo kati ya uuzaji wa AI na mipaka ambayo kampuni huweka kwenye bidhaa zao wenyewe.
Masharti hayo pia yanaonya kwamba Copilot 'inaweza kufanya makosa, na huenda isifanye kazi kama ilivyokusudiwa,' yakiongeza: 'Usitegemee Copilot kwa ushauri muhimu. Tumia Copilot kwa hatari yako mwenyewe.'
Kanusho hilo linajitokeza kwa sababu Microsoft inasukuma kikamilifu Copilot kwa wateja wa mashirika kama sehemu ya mkakati wake mpana wa AI. Lakini lugha hiyo inasisitiza mvutano unaojulikana katika tasnia ya AI: kampuni zinatangaza zana hizi kama wasaidizi muhimu, wenye uwezo huku pia zikiwaonya watumiaji wasiziamini sana.
Microsoft yasema lugha hiyo imepitwa na wakati
Msemaji wa Microsoft aliiambia PCMag kwamba kampuni inapanga kurekebisha kile ilichokiita 'lugha ya zamani.' Msemaji huyo alisema maneno hayo 'hayawakilishi tena jinsi Copilot inavyotumika leo' na yatabadilishwa katika sasisho lijalo.
Microsoft haiko peke yake katika kutumia lugha ya tahadhari. Tom’s Hardware ilibainisha kuwa OpenAI na xAI pia huwaambia watumiaji wasichukulie mifumo yao kama chanzo cha uhakika cha ukweli. xAI inasema watumiaji hawapaswi kutegemea matokeo yake kama 'ukweli,' wakati OpenAI inasema huduma yake haipaswi kuchukuliwa kama 'huduma pekee ya ukweli au habari za kweli.'
Mjadala kuhusu masharti ya Copilot unakuja huku kampuni za AI zikiendelea kujaribu kusawazisha ahadi zinazoelekezwa kwa watumiaji na kanusho za kisheria na kivitendo kuhusu usahihi. Onyo hilo linaweza kuwa la wazi isivyo kawaida, lakini linaakisi ukweli mpana katika tasnia nzima: hata kampuni zinazojenga mifumo hii zinawaambia watumiaji kwamba matokeo ya AI yanaweza kuwa mabaya, hayajakamilika au yasiyotegemewa wakati hatari ni kubwa.
Vyanzo: