Einleitung: Der Aufstieg der Generativen KI-Modelle

In den letzten Jahren haben generative KI-Modelle, insbesondere große Sprachmodelle wie ChatGPT, Bard und Claude, an Popularität gewonnen. Diese Modelle werden in zahlreichen Bereichen eingesetzt, von der Beantwortung von Fragen bis hin zur Textgenerierung, und zeigen ein enormes Potenzial zur Steigerung der Produktivität. Allerdings wirft ihre zunehmende Verwendung auch Fragen der Urheberschaft und Authentizität auf, insbesondere im akademischen Bereich, wo die unangemessene Verwendung dieser Werkzeuge das Lernen der Studierenden behindern oder die Forschung einschränken könnte.

Hintergrund: Herausforderungen bei der Erkennung von KI-generierten Texten

Die Fähigkeit, zwischen von Menschen geschriebenen und von KI-generierten Texten zu unterscheiden, stellt eine signifikante Herausforderung in der heutigen digitalen Welt dar. Konventionelle Plagiatserkennungssysteme sind zwar effektiv in der Identifizierung von kopierten oder leicht modifizierten Inhalten, stoßen jedoch an ihre Grenzen, wenn es um Texte geht, die von fortgeschrittenen AI-Modellen wie ChatGPT, Bard oder Claude erzeugt werden. Diese KI-Modelle sind in der Lage, Inhalte zu generieren, die nicht nur neu und einzigartig, sondern auch eine raffinierte Kombination und Paraphrasierung aus verschiedenen Quellen sind. Diese Eigenschaften machen es schwierig, AI-generierte Texte mit traditionellen Methoden zu erkennen. Darüber hinaus spiegelt die steigende Qualität und Menschlichkeit der von KI erzeugten Texte ein wachsendes Problem wider: Wie kann man sicherstellen, dass die Arbeit, die als menschliche Intelligenz präsentiert wird, nicht tatsächlich das Produkt einer Künstlichen Intelligenz ist?

Das Konzept der Selbst-Erkennung

Angesichts dieser Herausforderungen führt der Artikel von Caiado und Hahsler das innovative Konzept der Selbst-Erkennung ein. Diese Methode bezieht sich auf die Fähigkeit eines generativen KI-Systems, seine eigenen Ausgaben von von Menschen verfassten Texten zu unterscheiden. Die Grundlage dieser Idee liegt in der Annahme, dass aktuelle Transformer-basierte Sprachmodelle wie ChatGPT, Bard und Claude aufgrund ihrer fortschrittlichen Algorithmen und Trainingsdaten in der Lage sein sollten, ihre eigenen generierten Texte zu identifizieren. Diese Selbst-Erkennungsfähigkeit könnte eine neue Dimension in der Plagiatserkennung und Urheberschaftsbestimmung darstellen. Indem sie ihre eigene “Handschrift” erkennen, könnten diese Modelle nicht nur zwischen AI-erzeugten und menschlichen Texten unterscheiden, sondern auch potenziell die spezifische KI identifizieren, die einen bestimmten Text generiert hat. Diese Technologie könnte weitreichende Auswirkungen auf akademische Integrität, Urheberrechtsfragen und die Authentizität von Online-Inhalten haben.

Experimentelle Untersuchung

Die experimentelle Untersuchung in der Studie von Caiado und Hahsler konzentrierte sich auf die Fähigkeit von drei führenden KI-Modellen – OpenAI’s ChatGPT-3.5, Google’s Bard und Anthropic’s Claude (alle in ihrer Version von September 2023) – ihre eigenen Texte zu erkennen. Für das Experiment wurde ein neuer Datensatz erstellt, der Texte zu 50 verschiedenen Themen umfasste. Jedes Modell wurde verwendet, um Essays mit etwa 250 Wörtern pro Thema zu generieren. Um Vergleichbarkeit zu gewährleisten, erhielt jedes KI-System identische Anweisungen für die Texterstellung​​.

Nach der Erstellung der Essays wurde jeder Text von demselben KI-System paraphrasiert. Zusätzlich wurden 50 von Menschen geschriebene Essays ähnlicher Länge von bbc.com gesammelt, um einen Vergleichsmaßstab zu haben. Die KI-Systeme wurden anschließend mittels Zero-Shot-Prompting gebeten, eine Selbst-Erkennung durchzuführen. Hierbei sollten sie beurteilen, ob der vorgelegte Text ihrem Schreibstil und Wortwahl entspricht. Dieser Prozess wurde für die originalen, die paraphrasierten und die menschlichen Essays durchgeführt, und die Ergebnisse wurden aufgezeichnet​​.

Diskussion und Implikationen

Die Ergebnisse der Studie zeigen, dass die Fähigkeit zur Selbst-Erkennung bei den führenden KI-Systemen variiert. Bard von Google schnitt am besten ab und konnte sowohl ursprünglich erstellte als auch paraphrasierte Essays mit hoher Genauigkeit erkennen. ChatGPT war in der Lage, Essays, die es nach einem kurzen Prompt erstellt hatte, angemessen zu erkennen, hatte aber Schwierigkeiten, paraphrasierte Essays zuverlässig zu identifizieren. Claude hingegen konnte seine eigenen generierten Texte nicht erkennen. Diese Ergebnisse deuten darauf hin, dass die Fähigkeit zur Selbst-Erkennung von verschiedenen Faktoren beeinflusst wird, darunter die Art der Modellarchitektur, die verwendeten Prompts und die Feinabstimmung des Modells.

Interessant ist, dass die Ergebnisse der Selbst-Erkennung eine ähnliche Erkennungsleistung wie der externe AI-Inhaltsdetektor ZeroGPT zeigten. Dies weist darauf hin, dass Claude möglicherweise Texte mit weniger erkennbaren Artefakten erzeugt, was sie schwieriger von menschlichem Schreiben zu unterscheiden macht. Diese Beobachtungen unterstreichen die Komplexität und die Herausforderungen bei der Erkennung von KI-generierten Inhalten und die Notwendigkeit, robustere Methoden für deren Identifizierung zu entwickeln​​.

Fazit: Selbstreflexion von Künstlicher Intelligenz

Die Studie von Caiado und Hahsler öffnet ein neues Fenster zum Verständnis und zur Identifizierung von KI-generierten Inhalten. Sie wirft ein Licht auf die Grenzen der aktuellen Technologien und die Notwendigkeit, fortlaufend innovative Methoden zu entwickeln, um die Authentizität und Originalität im digitalen Zeitalter zu gewährleisten.

#KuenstlicheIntelligenz,#Plagiatserkennung,#Sprachmodelle,#ChatGPT,#Bard,#Claude

Quelle: ArXiv, Studien-Paper