Los términos de Copilot de Microsoft califican a la IA como 'solo para fines de entretenimiento'

El descargo de responsabilidad de Copilot de Microsoft llama la atención
Microsoft se enfrenta a un nuevo escrutinio por el lenguaje en los términos de uso de Copilot, que describen al asistente de IA como 'solo para fines de entretenimiento'. La redacción, que parece haber sido actualizada por última vez el 24 de octubre de 2025, ha estado circulando en redes sociales mientras los usuarios señalan la brecha entre el marketing de la IA y los límites que las empresas imponen a sus propios productos.
Los términos también advierten que Copilot 'puede cometer errores y puede no funcionar como se espera', añadiendo: 'No confíe en Copilot para consejos importantes. Use Copilot bajo su propio riesgo'.
El descargo de responsabilidad destaca porque Microsoft está impulsando activamente Copilot a clientes corporativos como parte de su estrategia de IA más amplia. Pero el lenguaje subraya una tensión familiar en la industria de la IA: las empresas promocionan estas herramientas como asistentes útiles y capaces, al mismo tiempo que advierten a los usuarios que no confíen demasiado en ellas.
Microsoft dice que el lenguaje está desactualizado
Un portavoz de Microsoft dijo a PCMag que la compañía planea revisar lo que llamó 'lenguaje heredado'. El portavoz dijo que la redacción 'ya no refleja cómo se usa Copilot hoy en día' y se cambiará en la próxima actualización.
Microsoft no es la única en usar lenguaje cautelar. Tom’s Hardware señaló que OpenAI y xAI también dicen a los usuarios que no traten sus sistemas como una fuente definitiva de verdad. xAI dice que los usuarios no deben confiar en su resultado como 'la verdad', mientras que OpenAI dice que su servicio no debe ser tratado como 'un único servicio de verdad o información fáctica'.
El debate en torno a los términos de Copilot surge mientras las empresas de IA continúan intentando equilibrar las promesas orientadas al consumidor con los descargos de responsabilidad legales y prácticos sobre la precisión. La advertencia puede ser inusualmente directa, pero refleja una realidad más amplia en toda la industria: incluso las empresas que construyen estos sistemas están diciendo a los usuarios que el resultado de la IA puede ser incorrecto, incompleto o poco fiable cuando hay mucho en juego.
Fuentes: