ChatGPT-Erfinder will mit KI nun KI-Texte erkennen

Die Entwickler der schreibenden Software ChatGPT versuchen nun, die Folgen ihrer Erfindung in den Griff zu bekommen. Die Entwicklerfirma OpenAI veröffentlichte ein Programm, das unterscheiden soll, ob ein Text von einem Menschen oder einem Computer geschrieben wurde.

ChatGPT kann menschliche Sprache so gut nachahmen, dass es unter anderem Sorgen gibt, damit könnten bei Schul- und Studienarbeiten geschummelt oder im großen Stil Desinformationskampagnen erstellt werden.

Noch funktioniert die Erkennung allerdings schlecht, wie OpenAI in einem Blogeintrag gestern einräumte. In Testläufen habe die Software in 26 Prozent der Fälle korrekt von einem Computer geschriebene Texte identifiziert.

Nicht nur auf Tool verlassen

Zugleich seien aber auch neun Prozent der von Menschen formulierten Texte fälschlicherweise einer Maschine zugeordnet worden. Deshalb empfehle man vorerst, sich bei der Bewertung der Texte nicht hauptsächlich auf die Einschätzung des „Classifiers“ zu verlassen.

ChatGPT ist eine Software auf Basis künstlicher Intelligenz, die auf gewaltigen Mengen von Texten und Daten trainiert wurde, menschliche Sprache nachzuahmen. OpenAI machte ChatGPT im vergangenen Jahr öffentlich zugänglich und löste damit Bewunderung für die Fähigkeiten der Software und die Sorge vor Betrug aus.