Wie Anthropic die Gespräche mit Claude für seine KI nutzt

Anthropic nutzt bei seinem KI-Chatbot Claude Nutzereingaben, um die Technologie weiterzuentwickeln. Dabei stellt sich die Frage, inwieweit diese Konversationen tatsächlich zur Verbesserung der künstlichen Intelligenz beitragen und wie mit Datenschutz umgegangen wird.
Tl;dr
Neue Datenschutzregeln bei Anthropic
Überraschend hat Anthropic, das Unternehmen hinter dem bekannten KI-Chatbot Claude, einen grundlegenden Kurswechsel in Sachen Nutzerdaten angekündigt. Künftig werden sämtliche Privatnutzer aufgefordert, einer Verwendung ihrer Chat-Verläufe zur Verbesserung der künftigen KI-Modelle entweder ausdrücklich zuzustimmen oder dies konsequent abzulehnen. Wer sich bis spätestens 28. September 2025 nicht entscheidet, verliert schlicht den Zugriff auf den Service.
Von automatischer Löschung zum Opt-out-Prinzip
Früher galt bei Anthropic: Chats und Code wurden nach spätestens dreißig Tagen routinemäßig gelöscht – es sei denn, gesetzliche Vorgaben standen im Weg. Mit den neuen Regeln erfolgt nun ein klarer Bruch mit dieser Linie. Die Daten dürfen künftig standardmäßig bis zu fünf Jahre gespeichert und für Trainingszwecke genutzt werden, sofern Nutzerinnen und Nutzer dem nicht aktiv widersprechen. Betroffen sind sämtliche Tarife, also Free, Pro und Max sowie Claude Code. Lediglich Geschäftskunden – darunter Unternehmen, Behörden, Bildungseinrichtungen oder API-Nutzende – bleiben weiterhin außen vor.
Praktische Umsetzung und Kontrollmöglichkeiten
Die Art der Umsetzung lässt wenig Interpretationsspielraum: Neuankömmlinge sehen direkt bei der Registrierung die Optionen, Bestandskunden erhalten einen Pop-up mit dem Titel „Updates to Consumer Terms and Policies“. Der auffällige blaue Button führt automatisch zum Teilen der Daten; wer dagegen Wert auf Vertraulichkeit legt, muss ein weniger sichtbares Feld aktivieren. Bleibt die Entscheidung aus, endet die Nutzungsmöglichkeit nach Ablauf der Frist.
Wer mehr Kontrolle wünscht, kann auf folgende Punkte setzen:
Nebenwirkungen und offene Fragen
Anthropic betont zwar: Die so erhobenen Daten werden nicht verkauft; sensible Informationen sollen zudem durch automatische Filter entfernt werden. Dennoch bleibt eine gewisse Unsicherheit bestehen. Für besonders datenschutzbewusste Nutzer – etwa Personen mit sensiblen Projekten oder leidenschaftliche Verteidiger digitaler Privatsphäre – könnte diese Entwicklung als Warnsignal verstanden werden. Hier offenbart sich einmal mehr das Spannungsfeld zwischen technologischem Fortschritt und dem Schutz individueller Rechte.