KI-unterstütztes Plagiat? Der ChatGPT-Bot sagt, dass er eine Antwort darauf hat | Chatbots

‘EIN selbstbewusster Bullshitter, der sehr überzeugenden Unsinn schreiben kann“: kein Abklatschen eines nervigen Studenten oder eines ehemaligen britischen Premierministers, sondern eine Beschreibung eines Schreibprogramms mit künstlicher Intelligenz, das seinen Machern Kopfzerbrechen bereitet.

Angesichts wachsender Befürchtungen in der Wissenschaft vor einem neuen KI-Chatbot, der überzeugende Aufsätze schreiben kann – auch wenn einige Fakten, die er verwendet, nicht ganz der Wahrheit entsprechen –, versucht die Firma aus dem Silicon Valley, die hinter einem im letzten Monat veröffentlichten Chatbot steht, einen „Fingerabdruck“ seiner Ergebnisse, um einen abzuwehren Welle des „AIgiarism“ – oder KI-gestützten Plagiats.

ChatGPT, ein KI-basierter Textgenerator, der Anfang Dezember für die öffentliche Nutzung freigegeben wurde, wurde für die Qualität seiner Ausgabe gleichermaßen gelobt und kritisiert. Die Benutzer können Fragen stellen, die von einfachen sachlichen Fragen („Was ist der höchste Berg Großbritanniens?“) bis hin zu absurden Anfragen („Schreiben Sie einen Limerick, der die Abseitsregel erklärt“) reichen, und erhalten klare und zusammenhängende Antworten in natürlichem Englisch.

Schulleiter und Universitätsdozenten haben Bedenken geäußert, dass ChatGPT, das überzeugende menschlich klingende Antworten auf Prüfungsfragen liefern kann, eine Betrugswelle bei Hausaufgaben und Prüfungsleistungen auslösen könnte.

Jetzt versuchen die Macher des Bots, OpenAI aus San Francisco, dem Risiko entgegenzuwirken, indem sie die Ausgabe des Bots mit einem „Wasserzeichen“ versehen und Plagiate leichter erkennbar machen.

ChatGPT, das Anfang Dezember veröffentlicht wurde, wurde für die Qualität seiner Ausgabe gleichermaßen gelobt und kritisiert. Foto: Jonathan Raa/NurPhoto/Rex/Shutterstock

In einer Vorlesung an der University of Texas, sagte OpenAI-Gastforscher Scott Aaronson, dass das Unternehmen an einem System zur Bekämpfung von Betrug arbeite, indem „die Ausgaben statistisch mit Wasserzeichen versehen werden“. Die Technologie würde funktionieren, indem sie die von ChatGPT ausgewählte spezifische Wortwahl auf subtile Weise optimiert, sagte Aaronson, und zwar auf eine Weise, die für einen Leser nicht wahrnehmbar wäre, aber für jeden, der nach Anzeichen von maschinell generiertem Text sucht, statistisch vorhersehbar wäre.

„Wir möchten, dass es viel schwieriger wird, eine GPT-Ausgabe zu nehmen und weiterzugeben, als ob sie von einem Menschen stammt“, sagte Aaronson. „Dies könnte natürlich hilfreich sein, um akademisches Plagiat zu verhindern, aber auch zum Beispiel Massenproduktion von Propaganda – Sie wissen schon, jeden Blog mit scheinbar themenbezogenen Kommentaren zuzuspammen, die Russlands Invasion in der Ukraine unterstützen, ohne auch nur ein Gebäude voller Trolle in Moskau. Oder den Schreibstil einer Person nachahmen, um sie zu belasten.

„Wir haben tatsächlich einen funktionierenden Prototyp des Wasserzeichenschemas“, fügte Aaronson hinzu. „Es scheint ziemlich gut zu funktionieren – empirisch einige hundert [words] scheinen auszureichen, um ein vernünftiges Signal zu erhalten, dass dieser Text von GPT stammt.“

Der Bot funktioniert nicht perfekt. Es neigt dazu, Tatsachen zu „halluzinieren“, die nicht ganz der Wahrheit entsprechen, was der Technologieanalyst Benedict Evans als „wie ein Student beschreibt, der selbstbewusst eine Frage beantwortet, für die er keine Vorlesung besucht hat. Es sieht aus wie ein selbstbewusster Bullshitter, der sehr überzeugenden Unsinn schreiben kann.“

Aber die Technologie wurde von genau dieser Art von Studenten, die in Eile einen passablen Aufsatz erstellen müssen, eifrig angenommen. Die Ausgabe von ChatGPT hat bis zu diesem Zeitpunkt keine herkömmlichen Plagiatsdetektoren ausgelöst, da der erzeugte Text noch nie zuvor geschrieben wurde, sodass Prüfer Schwierigkeiten haben, herauszufinden, wie sie Betrüger identifizieren können.

Seit der Veröffentlichung von ChatGPT haben verschiedene Organisationen spezifische Richtlinien gegen das Einreichen von KI-generiertem Text als eigene Arbeit eingeführt. Stack Overflow, eine Q&A-Site, die darauf spezialisiert ist, Programmierern bei der Lösung von Codierungsproblemen zu helfen, verbot Benutzern, von ChatGPT geschriebene Antworten zu übermitteln. „Das Hauptproblem besteht darin, dass die Antworten, die ChatGPT produziert, zwar eine hohe Rate an Fehlern aufweisen, aber normalerweise so aussehen, als könnten sie gut sein, und die Antworten sind sehr einfach zu produzieren“, schrieben die Administratoren der Website.

„Da die durchschnittliche Rate, korrekte Antworten von ChatGPT zu erhalten, zu niedrig ist, ist das Posten von Antworten, die von ChatGPT erstellt wurden, insgesamt wesentlich schädlich für die Website und für Benutzer, die nach korrekten Antworten fragen oder suchen.“

Der Einsatz von KI-Tools zur Generierung von Texten, die als die eigenen ausgegeben werden können, wurde vom amerikanischen Risikokapitalgeber Paul Graham, dessen Frau, Jessica Livingston, eine der Unterstützerinnen von OpenAI ist, als „AIgiarismus“ bezeichnet. „Ich denke, die Regeln gegen AIgiarismus sollten denen gegen Plagiate ungefähr ähnlich sein“, sagte Graham im Dezember. „Das Problem mit Plagiaten besteht nicht nur darin, dass Sie jemand anderem die Ehre nehmen, sondern dass Sie es fälschlicherweise für sich selbst beanspruchen. Letzteres gilt immer noch im AIgiarismus. Und in der Tat trifft ersteres auch in gewisser Weise auf die aktuelle KI-Technologie zu.“

source site-27