Zwei Professoren, die sagen, sie hätten Studenten beim Schummeln von Aufsätzen mit ChatGPT erwischt, erklären, warum KI-Plagiate schwer nachzuweisen sein können

ChatGPT, ein KI-Chatbot, hat das Internet seit seiner Einführung im November in Aufruhr versetzt.

  • Zwei Philosophenprofessoren sagten, sie hätten ihre Studenten dabei erwischt, wie sie von ChatGPT geschriebene Essays einreichten.
  • Sie sagten, bestimmte Warnsignale hätten sie auf den Einsatz von KI aufmerksam gemacht.
  • Wenn Studenten nicht zugeben, dass sie das Programm verwenden, kann es laut Professoren schwer zu beweisen sein.

Ein paar Wochen nach dem Start des KI-Chatbots ChatGPT sagte Darren Hick, Philosophieprofessor an der Furman University, er habe einen Studenten dabei erwischt, wie er einen KI-generierten Aufsatz abgab.

Hick sagte, er sei misstrauisch geworden, als der Student einen themenbezogenen Aufsatz einreichte, der einige gut geschriebene Fehlinformationen enthielt.

Nachdem ich es durchlaufen habe Öffnen Sie den ChatGPT-Detektor von AIsagten die Ergebnisse, es sei zu 99 % wahrscheinlich, dass der Aufsatz von KI generiert wurde.

Antony Aumann, Professor für Religionswissenschaft und Philosophie an der Fordham University, sagte Insider, er habe zwei Studenten dabei erwischt, wie sie von ChatGPT verfasste Essays einreichten.

Nachdem der Schreibstil Alarm geschlagen hatte, schickte Aumann sie zurück an den Chatbot und fragte, wie wahrscheinlich es sei, dass sie vom Programm geschrieben wurden. Als der Chatbot sagte, er sei zu 99 % sicher, dass die Aufsätze von ChatGPT geschrieben wurden, leitete er die Ergebnisse an die Schüler weiter.

Sowohl Hick als auch Aumann sagten, sie hätten ihre Schüler konfrontiert, die schließlich alle den Verstoß gestanden hätten. Hicks Schüler fiel in der Klasse durch und Aumann ließ seine Schüler die Aufsätze von Grund auf neu schreiben.

„Es war wirklich gut falsch geschrieben“

In den Aufsätzen gab es bestimmte rote Fahnen, die die Professoren auf den Einsatz von KI aufmerksam machten. Hick sagte, der Aufsatz, den er gefunden habe, beziehe sich auf mehrere Tatsachen, die im Unterricht nicht erwähnt wurden, und habe eine unsinnige Behauptung aufgestellt.

„Wort für Wort war es ein gut geschriebener Aufsatz“, sagte er, aber bei näherer Betrachtung ergab eine Behauptung über den produktiven Philosophen David Hume „keinen Sinn“ und war „einfach falsch“.

„Wirklich gut falsch geschrieben war die größte rote Fahne“, sagte er.

Aumann schrieb der Chatbot einfach zu perfekt. „Ich denke, der Chat schreibt besser als 95 % meiner Schüler es jemals könnten“, sagte er.

„Plötzlich haben Sie jemanden, der nicht die Fähigkeit zeigt, auf diesem Niveau zu denken oder zu schreiben, etwas zu schreiben, das alle Anforderungen perfekt erfüllt, mit ausgefeilter Grammatik und komplizierten Gedanken, die in direktem Zusammenhang mit der Aufforderung für den Aufsatz stehen“, sagte er .

Christopher Bartel, Professor für Philosophie an der Appalachian State University, sagte, dass die Grammatik in KI-generierten Aufsätzen zwar nahezu perfekt ist, der Inhalt jedoch tendenziell an Details mangelt.

Er sagte: „Sie sind wirklich flauschig. Es gibt keinen Kontext, es gibt keine Tiefe oder Einsicht.“

Schwer nachweisbares Plagiat

Wenn Studenten nicht zugeben, dass sie KI für Aufsätze verwenden, kann dies Akademiker in eine schwierige Lage bringen.

Bartel sagte, dass die Regeln einiger Institutionen nicht weiterentwickelt wurden, um diese Art von Betrug zu bekämpfen. Wenn ein Schüler sich entschieden hat, sich zu verstecken und den Einsatz von KI zu leugnen, kann es schwierig sein, dies zu beweisen.

Bartel sagte, die angebotenen KI-Detektoren seien „gut, aber nicht perfekt“.

„Sie geben eine statistische Analyse darüber, wie wahrscheinlich es ist, dass der Text von KI generiert wird, was uns in eine schwierige Position bringt, wenn unsere Richtlinien so gestaltet sind, dass wir einen endgültigen und nachweisbaren Beweis dafür haben müssen, dass der Aufsatz eine Fälschung ist“, er sagte. „Wenn es mit einer 95-prozentigen Wahrscheinlichkeit zurückkommt, dass der Aufsatz von KI generiert wurde, besteht immer noch eine 5-prozentige Wahrscheinlichkeit, dass dies nicht der Fall ist.“

In Hicks Fall, obwohl die Erkennungsstelle sagte, es sei “zu 99% sicher”, dass der Aufsatz von einer KI erstellt worden sei, sagte er, es sei ihm ohne ein Geständnis nicht genug.

„Das Geständnis war wichtig, weil alles andere wie Indizien aussieht“, sagte er. „Bei KI-generierten Inhalten gibt es keine materiellen Beweise, und materielle Beweise haben viel mehr Gewicht als Indizienbeweise.“

Aumann sagte, obwohl er die Analyse durch den Chatbot für einen ausreichenden Beweis für Disziplinarmaßnahmen hielt, seien KI-Plagiate immer noch eine neue Herausforderung für Hochschulen.

Er sagte: „Im Gegensatz zu alten Plagiatsfällen, bei denen man einfach sagen kann: ‚Hey, hier ist der Absatz aus Wikipedia.’ Es gibt keinen überzeugenden Beweis, den Sie liefern können, außer dass der Chat besagt, dass dies die statistische Wahrscheinlichkeit ist.”

Lesen Sie den Originalartikel auf Business Insider

source site-19