OpenAI entwickelt Tool zur Erkennung von ChatGPT-Texten, zögert jedoch mit der Veröffentlichung
Ein US-Unternehmen warnt, dass die seit einem Jahr genutzte Technologie Risiken für ihre künstliche Intelligenz birgt. Ihre Studien zeigen, dass die Einführung von ChatGPT zu Nutzerverlusten führen könnte. Wie lassen sich diese Risiken mindern?
OpenAI: Innovation mit Vorbehalten
Früher war es schwierig, von künstlicher Intelligenz erzeugte Texte zu erkennen. OpenAI, ein führendes Unternehmen im Bereich der KI, hat einen Weg bereitet, indem es ein System entwickelte, das Texte seines Spitzen-Textgenerators ChatGPT erkennen kann.
Kontroverse Innovation
Laut dem Wall Street Journal hat OpenAI das System vor etwa einem Jahr entwickelt, aber nicht eingeführt.
Das System funktioniert durch geringfügige Modifikationen in der Wortwahl von ChatGPT, was ein spezifisches, erkennbares Muster erzeugt. Trotz seiner Zuverlässigkeit funktioniert dieser spezielle ChatGPT-Detektor „nicht für Konkurrenten“.
Interne Debatte über die Einführung
Die Entscheidung, diese Technologie öffentlich zu machen, hat intern bei OpenAI zwei Jahre lang für Diskussionen gesorgt. Eine Sprecherin des Unternehmens äußerte sich vorsichtig: „Diese Methode, die wir entwickeln, ist technisch vielversprechend, birgt jedoch auch erhebliche Risiken, die wir bewerten“.
Nicht-englischsprachige Nutzer, die ChatGPT als Assistenten nutzen, könnten unverhältnismäßig betroffen sein.
Enthüllungen und Updates
OpenAI hat nach den Enthüllungen des Wall Street Journal in einem Blogbeitrag im Mai zusätzliche Informationen bereitgestellt.
Das Unternehmen erklärt, dass das System zwar gegen lokale Paraphrasierungen wirksam ist, jedoch leicht von bösartigen Akteuren umgangen werden kann, die den gesamten Text paraphrasieren.