Microsoft Copilot 약관, AI를 '오락용으로만' 명시

Microsoft Copilot 면책 조항이 주목받다
Microsoft는 AI 비서를 '오락용으로만' 설명하는 Copilot 사용 약관의 문구로 인해 새로운 조사를 받고 있습니다. 2025년 10월 24일에 마지막으로 업데이트된 것으로 보이는 이 문구는 사용자들이 AI 마케팅과 기업이 자사 제품에 부여하는 한계 사이의 간극을 지적하면서 소셜 미디어에서 회자되고 있습니다.
약관은 또한 Copilot이 '실수를 할 수 있으며, 의도한 대로 작동하지 않을 수 있다'고 경고하며, '중요한 조언을 위해 Copilot에 의존하지 마십시오. Copilot 사용은 전적으로 귀하의 책임입니다.'라고 덧붙입니다.
이 면책 조항은 Microsoft가 광범위한 AI 전략의 일환으로 기업 고객에게 Copilot을 적극적으로 홍보하고 있기 때문에 더욱 두드러집니다. 그러나 이 문구는 AI 산업에서 흔히 볼 수 있는 긴장감을 강조합니다. 기업들은 이러한 도구를 유용하고 유능한 비서로 홍보하면서도 사용자들에게 너무 신뢰하지 말라고 경고합니다.
Microsoft는 해당 문구가 시대에 뒤떨어졌다고 말한다
Microsoft 대변인은 PCMag에 회사가 '오래된 문구'라고 부르는 것을 수정할 계획이라고 말했습니다. 대변인은 해당 문구가 '오늘날 Copilot이 사용되는 방식을 더 이상 반영하지 않는다'며 다음 업데이트에서 변경될 것이라고 밝혔습니다.
Microsoft만 경고 문구를 사용하는 것은 아닙니다. Tom’s Hardware는 OpenAI와 xAI도 사용자들에게 자신들의 시스템을 진실의 결정적인 출처로 취급하지 말라고 말한다고 언급했습니다. xAI는 사용자들이 그 출력을 '진실'로 의존해서는 안 된다고 말하며, OpenAI는 자사의 서비스를 '진실 또는 사실 정보의 유일한 서비스'로 취급해서는 안 된다고 말합니다.
Copilot 약관을 둘러싼 논쟁은 AI 기업들이 소비자에게 약속하는 것과 정확성에 대한 법적, 실질적 면책 조항 사이에서 균형을 맞추기 위해 계속 노력하는 가운데 발생합니다. 이 경고는 이례적으로 직설적일 수 있지만, 업계 전반의 광범위한 현실을 반영합니다. 즉, 이러한 시스템을 구축하는 기업들조차도 중요한 상황에서 AI 출력이 틀리거나 불완전하거나 신뢰할 수 없을 수 있다고 사용자들에게 말하고 있습니다.
출처: