Wie Sie verhindern, dass Claude AI Ihre Daten nutzt – Handeln vor Ablauf der Frist!

Der KI-Dienst Claude plant, künftig Nutzerdaten zu verwenden. Für Nutzerinnen und Nutzer stellt sich nun die Frage, wie sie dem widersprechen können und bis wann dies möglich ist. Die Frist für den Widerspruch rückt näher.
Tl;dr
- Claude speichert künftig Nutzerdaten standardmäßig für fünf Jahre.
- Nur neue Daten werden zur Modellverbesserung verwendet.
- Nutzer müssen aktiv widersprechen, sonst erfolgt Datennutzung.
Neue Datenschutzpraxis bei Anthropic: Ein Paradigmenwechsel?
Ein überraschender Kurswechsel bei Anthropic: Wer künftig den bekannten KI-Assistenten Claude nutzt, steht vor einer klaren Entscheidung. Ab sofort wird verlangt, dass Nutzer explizit angeben, ob ihre künftigen Unterhaltungen für das Training neuer Modelle herangezogen werden dürfen – oder nicht. Bisher hatte der Entwickler auf einen automatischen Löschmechanismus nach dreißig Tagen gesetzt, außer wenn gesetzliche Vorgaben anderes verlangten.
Was sich für Verbraucher konkret ändert
Die neue Regelung betrifft tatsächlich sämtliche Privatkunden: Egal ob sie das Free-, Pro- oder Max-Angebot nutzen – auch Nutzer von Claude Code sind einbezogen. Ausnahmen gelten lediglich für geschäftliche und institutionelle Anwender sowie bei der Nutzung per API. Die Aufbewahrungsfrist der Konversationen verlängert sich drastisch: Wer nicht aktiv widerspricht, stimmt zu, dass seine Gespräche mit Claude für bis zu fünf Jahre gespeichert und zur Weiterentwicklung eingesetzt werden.
Zudem ist die Einführung dieser Änderung alles andere als dezent: Schon bald erhalten sowohl Neu- als auch Bestandskunden eine Benachrichtigung mit dem Titel « Updates to Consumer Terms and Policies ». Dort steht man vor zwei Optionen:
- Zustimmen: Die künftigen Daten fließen in das Modelltraining ein.
- Ablehnen: Ein kaum sichtbarer Schalter ermöglicht den Widerspruch.
Bleibt die Entscheidung bis zum 28. September 2025 aus, wird der Zugang zu Claude automatisch gesperrt.
Blick auf den Datenschutz und offene Fragen
Laut Aussagen von Anthropic betrifft die neue Praxis ausschließlich zukünftige Interaktionen. Bereits getätigte Unterhaltungen bleiben unangetastet, solange der Nutzer nicht explizit anders entscheidet. Ebenso bleibt das Recht bestehen, einzelne Chats manuell zu löschen – diese Daten gelangen dann ebenfalls nicht ins Training. Es sei jedoch Vorsicht geboten: Sobald Inhalte im Modelltrainingsprozess integriert wurden, lassen sie sich im Nachhinein nicht mehr entfernen.
Obwohl das Unternehmen betont, keine Daten an Dritte weiterzuverkaufen und automatische Filter zum Schutz sensibler Informationen einzusetzen, verschiebt sich mit dieser Umstellung die Verantwortung merklich auf die Nutzerinnen und Nutzer selbst. Während viele wohl gelassen bleiben dürften, könnten Personen mit sensiblen Themen ein gewisses Unbehagen verspüren – immerhin verabschiedet man sich damit endgültig vom Grundsatz des « privacy by default ».