Microsofts Copilot-Bedingungen bezeichnen die KI als „nur zu Unterhaltungszwecken“

Microsofts Copilot-Haftungsausschluss erregt Aufmerksamkeit
Microsoft sieht sich einer neuen Prüfung der Formulierung in den Nutzungsbedingungen von Copilot gegenüber, die den KI-Assistenten als „nur zu Unterhaltungszwecken“ beschreiben. Die Formulierung, die zuletzt am 24. Oktober 2025 aktualisiert worden zu sein scheint, kursiert in den sozialen Medien, da Nutzer auf die Diskrepanz zwischen KI-Marketing und den Grenzen hinweisen, die Unternehmen ihren eigenen Produkten setzen.
Die Bedingungen warnen auch davor, dass Copilot „Fehler machen kann und möglicherweise nicht wie beabsichtigt funktioniert“, und fügen hinzu: „Verlassen Sie sich bei wichtigen Ratschlägen nicht auf Copilot. Nutzen Sie Copilot auf eigenes Risiko.“
Der Haftungsausschluss fällt auf, weil Microsoft Copilot aktiv als Teil seiner umfassenderen KI-Strategie an Unternehmenskunden vermarktet. Die Formulierung unterstreicht jedoch eine bekannte Spannung in der KI-Branche: Unternehmen bewerben diese Tools als nützliche, fähige Assistenten, warnen die Nutzer aber gleichzeitig davor, ihnen zu sehr zu vertrauen.
Microsoft sagt, die Formulierung sei veraltet
Ein Microsoft-Sprecher teilte PCMag mit, dass das Unternehmen plant, die von ihm als „veraltete Formulierung“ bezeichnete Sprache zu überarbeiten. Der Sprecher sagte, die Formulierung „spiegelt nicht mehr wider, wie Copilot heute verwendet wird“ und werde im nächsten Update geändert.
Microsoft ist nicht das einzige Unternehmen, das warnende Formulierungen verwendet. Tom’s Hardware stellte fest, dass OpenAI und xAI den Nutzern ebenfalls raten, ihre Systeme nicht als definitive Wahrheitsquelle zu behandeln. xAI sagt, Nutzer sollten sich nicht auf seine Ausgabe als „die Wahrheit“ verlassen, während OpenAI sagt, sein Dienst sollte nicht als „einzige Quelle der Wahrheit oder faktischer Informationen“ behandelt werden.
Die Debatte um die Copilot-Bedingungen kommt zu einem Zeitpunkt, da KI-Unternehmen weiterhin versuchen, kundenorientierte Versprechen mit rechtlichen und praktischen Haftungsausschlüssen bezüglich der Genauigkeit in Einklang zu bringen. Die Warnung mag ungewöhnlich direkt sein, aber sie spiegelt eine breitere Realität in der Branche wider: Selbst die Unternehmen, die diese Systeme entwickeln, sagen den Nutzern, dass die KI-Ausgabe falsch, unvollständig oder unzuverlässig sein kann, wenn viel auf dem Spiel steht.
Quellen: