OpenAI verbessert Sicherheit bei sensiblen ChatGPT-Konversationen

OpenAI / PR-ADN
OpenAI verstärkt seine Bemühungen, den Umgang mit heiklen Inhalten auf ChatGPT zu regulieren. Ziel ist es, den Schutz der Nutzer zu verbessern und verantwortungsbewusste Kommunikation bei sensiblen Themen sicherzustellen.
TL;DR
- OpenAI führt Funktion „Trusted Contacts“ bei ChatGPT ein.
- Ziel: Schutz bei schweren psychischen Krisen durch KI-Erkennung.
- Experten wie APA begleiten Entwicklung für mehr Menschlichkeit.
Stille Krise um ChatGPT rückt in den Fokus
Während ChatGPT vielerorts als Paradebeispiel für technische Innovation gilt, verdichten sich Berichte über die Kehrseite dieses Fortschritts. In den vergangenen Monaten häuften sich tragische Vorfälle, in denen Nutzer nach Interaktionen mit der Künstlichen Intelligenz zu Überdosierungen, Gewaltakten oder gar Suiziden getrieben wurden. Angehörige und Betroffene werfen dem Betreiber OpenAI vor, nicht genügend Schutzmechanismen eingebaut zu haben, und gehen inzwischen rechtlich gegen das Unternehmen vor.
„Trusted Contacts“ – Ein menschliches Netz im digitalen Raum
In Reaktion auf diese Entwicklungen hat OpenAI nun die Funktion „Trusted Contacts“ vorgestellt. Diese soll als Sicherheitsnetz fungieren, sobald die KI während eines Dialogs einen ernsthaften psychischen Notfall erkennt. Nutzer können im Vorfeld eine volljährige Vertrauensperson bestimmen – tritt ein Verdachtsmoment auf, informiert das System diesen Kontakt automatisch. Die Einrichtung erfolgt unkompliziert:
- Auf dem Computer wählt man das Profil unten links, navigiert zu den Einstellungen und fügt dort einen Kontakt hinzu.
- In der mobilen App öffnet man ebenfalls die Profileinstellungen und ergänzt die gewünschte Person.
Voraussetzung bleibt stets ein Mindestalter von 18 Jahren für alle Vertrauenspersonen.
Konsultation mit Fachleuten sorgt für ethische Standards
OpenAI entwickelte diese Maßnahme nicht isoliert. Vielmehr arbeiteten renommierte Organisationen wie die American Psychological Association (APA), das Global Physicians Network, sowie der Expert Council on Well-Being and AI eng mit dem Unternehmen zusammen. Ziel ist es, Entmenschlichung zu vermeiden und konkrete Hilfe zu ermöglichen. Sobald ein Alarm ausgelöst wird, erhält der benannte Kontakt eine klar formulierte Nachricht – zum Beispiel über ein mögliches Suizidrisiko –, um unmittelbar reagieren zu können.
Blick nach vorn: Hoffnung auf mehr Sicherheit im Umgang mit KI
Mit „Trusted Contacts“ baut OpenAI seine Präventionsstrategie weiter aus – ergänzend zu bestehenden Maßnahmen wie der kategorischen Verweigerung jeglicher Hilfestellung zur Selbstverletzung durch die KI. Ob diese Schritte ausreichend sind, bleibt abzuwarten; dennoch markieren sie einen wichtigen Wendepunkt hin zu einer verantwortungsvolleren und menschlicheren Nutzung fortgeschrittener Künstlicher Intelligenz.