Menü
24matins.de
Navigation : 
  • Nachrichten
    • Gesundheit
    • Politik
    • Wirtschaft
    • Sport
    • Küche
  • Welt
  • Kultur
  • Technik
In diesem Moment : 
  • Divertissement
  • Tech
  • Gesundheit
  • Unterhaltung
  • International
  • Santé

ChatGPT Altersprüfung: Verbesserter Jugendschutz durch KI-gestützte Erkennung

Technik / Tech / OpenAI / ChatGPT
Par 24matins.de,  veröffentlicht am Januar 22, 2026 um 20:06 Uhr, geändert am Januar 22, 2026 um 20:07 Uhr.
Technik

OpenAI / PR-ADN

Die beliebte KI-Anwendung ChatGPT setzt verstärkt auf Jugendschutz und führt ein System zur Altersvorhersage ein. Damit sollen minderjährige Nutzer besser geschützt und die Nutzung der Plattform für Jugendliche sicherer gestaltet werden.

TL;DR

  • ChatGPT führt weltweite Altersprognose ein.
  • Schutzmechanismen für jugendliche Nutzer werden verstärkt.
  • Kritik und Chancen für verantwortungsvolle KI-Nutzung bleiben bestehen.

Neue Wege beim Jugendschutz: ChatGPT testet Altersprognose

Die Diskussion um den Schutz junger Menschen auf Plattformen der Künstlichen Intelligenz rückt immer mehr in den Fokus – nicht zuletzt angesichts wachsender Kritik an unzureichenden Maßnahmen. Nun setzt das Unternehmen OpenAI, das hinter ChatGPT steht, einen bemerkenswerten Schritt: Weltweit soll eine neue Technologie zur Altersprognose eingesetzt werden, die speziell auf den Schutz von Minderjährigen abzielt.

Verhaltensbasierte Einschätzung statt Ausweisprüfung

Im Gegensatz zu klassischen Lösungen, bei denen das Alter oft per Ausweisnachweis bestätigt wird, verfolgt OpenAI einen anderen Ansatz. Der neue Mechanismus verlässt sich auf eine Analyse verschiedener Nutzersignale:

  • Länge der bisherigen Kontonutzung,
  • typische Zeiten der Aktivität,
  • sowie das freiwillig angegebene Alter.

Diese Daten fließen in ein Modell ein, das abschätzt, ob es sich beim jeweiligen Nutzer vermutlich um eine minderjährige Person handelt. Sobald das System Hinweise darauf erkennt, greifen automatisch erweiterte Schutzmaßnahmen.

Umfangreiche Filter und wissenschaftliche Orientierung

Wie aus internen Unterlagen hervorgeht, wurde die Auswahl der Inhalte, die durch das neue System blockiert oder eingeschränkt werden sollen, gemeinsam mit Fachleuten entwickelt. Hierbei orientiert man sich an wissenschaftlichen Erkenntnissen zur Entwicklung Jugendlicher sowie deren Risikowahrnehmung. Zu den besonders sensiblen Bereichen gehören unter anderem:
– Explizite Darstellungen von Gewalt oder Sexualität,
– gefährliche virale Challenges,
– Inhalte zu Selbstverletzung oder Essstörungen.

Zielkonflikte und künftige Entwicklungen

Gleichzeitig stellt die Neuerung die Entwickler vor komplexe Fragen: Wie können Heranwachsende wirksam geschützt werden, ohne Erwachsene unnötig zu beschränken? Sollte ein volljähriger Nutzer fälschlich als minderjährig erkannt werden, besteht immerhin die Möglichkeit, das im Nutzerprofil zu berichtigen. Langfristig könnten daraus differenzierte Modi entstehen – etwa ein „Erwachsenenmodus“ für verifizierte Volljährige mit erweiterten Funktionen.

Unterm Strich ist klar: Die Innovation mag nicht sämtliche Risiken bannen. Doch sie verdeutlicht den wachsenden Druck auf Anbieter wie OpenAI, die Verantwortung für junge Menschen ernst zu nehmen und technische wie ethische Antworten auf gesellschaftliche Herausforderungen im Umgang mit Künstlicher Intelligenz zu finden.

Le Récap
  • TL;DR
  • Neue Wege beim Jugendschutz: ChatGPT testet Altersprognose
  • Verhaltensbasierte Einschätzung statt Ausweisprüfung
  • Umfangreiche Filter und wissenschaftliche Orientierung
  • Zielkonflikte und künftige Entwicklungen
Erfahren Sie mehr
  • Amazon: Auswirkungen steigender US-Preise auf Kunden und Händler
  • Mathematik-Pionierin des GPS im Alter von 95 Jahren verstorben
  • Sony und TCL kooperieren: Bravia Fernseher Zukunft gesichert
  • Über uns
  • Verwaltung von persönlichen Daten
© 2026 - Alle Rechte der Seiteninhalte vorbehalten 24matins.de