Os termos do Copilot da Microsoft chamam a IA de 'apenas para fins de entretenimento'

O aviso do Copilot da Microsoft chama a atenção
A Microsoft está enfrentando um novo escrutínio sobre a linguagem nos termos de uso do Copilot, que descrevem o assistente de IA como 'apenas para fins de entretenimento'. A redação, que parece ter sido atualizada pela última vez em 24 de outubro de 2025, tem circulado nas redes sociais enquanto os usuários apontam a lacuna entre o marketing de IA e os limites que as empresas impõem aos seus próprios produtos.
Os termos também alertam que o Copilot 'pode cometer erros e pode não funcionar como pretendido', acrescentando: 'Não confie no Copilot para conselhos importantes. Use o Copilot por sua conta e risco.'
O aviso se destaca porque a Microsoft está ativamente promovendo o Copilot para clientes corporativos como parte de sua estratégia de IA mais ampla. Mas a linguagem ressalta uma tensão familiar na indústria de IA: as empresas promovem essas ferramentas como assistentes úteis e capazes, ao mesmo tempo em que alertam os usuários para não confiarem demais nelas.
Microsoft diz que a linguagem está desatualizada
Um porta-voz da Microsoft disse à PCMag que a empresa planeja revisar o que chamou de 'linguagem legada'. O porta-voz afirmou que a redação 'não reflete mais como o Copilot é usado hoje' e será alterada na próxima atualização.
A Microsoft não está sozinha no uso de linguagem cautelosa. A Tom’s Hardware observou que a OpenAI e a xAI também dizem aos usuários para não tratarem seus sistemas como uma fonte definitiva de verdade. A xAI afirma que os usuários não devem confiar em sua saída como 'a verdade', enquanto a OpenAI diz que seu serviço não deve ser tratado como 'um único serviço de verdade ou informação factual'.
O debate em torno dos termos do Copilot surge enquanto as empresas de IA continuam tentando equilibrar as promessas voltadas para o consumidor com avisos legais e práticos sobre a precisão. O alerta pode ser incomumente direto, mas reflete uma realidade mais ampla em toda a indústria: mesmo as empresas que constroem esses sistemas estão dizendo aos usuários que a saída da IA pode estar errada, incompleta ou não confiável quando as apostas são altas.
Fontes: