College-Professoren erwägen kreative Wege, um Studenten davon abzuhalten, KI zum Schummeln zu verwenden

Professoren haben Beispiele von Studenten gemeldet, die ihre Aufgaben mithilfe von KI betrügen.

  • Einige Professoren sagen, dass Studenten neue Technologien verwenden, um KI-generierte Inhalte als ihre eigenen auszugeben.
  • Akademiker sind besorgt darüber, dass die Hochschulen nicht darauf ausgerichtet sind, den neuen Betrugsstil zu bekämpfen.
  • Professoren sagen, dass sie erwägen, wieder auf schriftliche Prüfungen und mündliche Prüfungen umzustellen.

College-Professoren spüren die Hitze, wenn es um KI geht.

Einige Professoren sagen, dass Studenten den lebhaften Chatbot von OpenAI, ChatGPT, verwenden, um KI-generierte Inhalte als ihre eigenen auszugeben.

Antony Aumann, ein Philosophieprofessor an der Northern Michigan University, und Darren Hick, ein Philosophieprofessor an der Furman University, sagen beide, sie hätten Studenten dabei erwischt, wie sie von ChatGPT geschriebene Essays einreichten.

Das Problem hat dazu geführt, dass Professoren über kreative Wege nachgedacht haben, um den Einsatz von KI an Hochschulen auszumerzen.

Blaue Bücher und mündliche Prüfungen

„Ich bin ratlos, wie ich in Zukunft mit KI umgehen soll“, sagte Aumann gegenüber Insider.

Er sagte, eine Möglichkeit, das Problem anzugehen, sei die Umstellung auf Lockdown-Browser, eine Art von Software, die darauf abzielt, Schüler am Schummeln zu hindern, wenn sie Prüfungen online oder aus der Ferne ablegen.

Andere Wissenschaftler erwägen drastischere Maßnahmen.

„Ich habe vor, bei den Schülern ins Mittelalter zu gehen und den ganzen Weg zurück zu mündlichen Prüfungen zu gehen“, sagte Christopher Bartel, Philosophieprofessor an der Appalachian State University. „Sie können den ganzen Tag Text in ihren Notizen generieren, wenn sie wollen, aber wenn sie ihn sprechen können müssen, ist das eine andere Sache.“

Bartel sagte, es gebe jedoch Bedenken hinsichtlich der Inklusivität. “Studenten, die tiefe soziale Ängste haben, in der Öffentlichkeit zu sprechen, müssen wir herausfinden.”

„Eine andere Möglichkeit, mit KI umzugehen, besteht darin, dass die Fakultät es vermeidet, Studenten Aufgaben zu geben, die sehr gut abgedeckt sind“, sagte er. „Wenn die Schüler in der Lage sein müssen, sich mit einer einzigartigen Idee zu beschäftigen, die an anderen Stellen nicht sehr tiefgehend behandelt wurde, wird es nicht viel Text geben, aus dem der KI-Generator schöpfen kann.“

Aumann sagte, einige Professoren schlugen vor, zu traditionellen schriftlichen Bewertungen wie Blue Books zurückzukehren.

„Da die Schüler ihre Aufsätze im Unterricht von Hand schreiben würden, gäbe es für sie keine Möglichkeit, durch Rücksprache mit dem Chatbot zu schummeln“, sagte er.

„Der Geist ist aus der Flasche“

Obwohl es in den von der KI generierten Essays rote Fahnen gab, die sowohl Aumann als auch Hick auf die Verwendung von ChatGPT aufmerksam machten, glaubt Aumann, dass diese nur vorübergehend sind.

Er sagte, den Aufsätzen des Chatbots fehle es an individueller Persönlichkeit, aber nachdem er damit herumgespielt hatte, konnte er ihn dazu bringen, weniger formell zu schreiben. „Ich denke, dass alle roten Fahnen, die wir haben, nur vorübergehend sind, soweit die Studenten herumkommen können“, sagte er.

“Meine Sorge ist, dass der Geist aus der Flasche ist”, sagte Hick, der glaubte, dass die Technologie besser werden würde. „Das ist irgendwie unvermeidlich“, sagte er.

Bartel stimmte zu, dass Studenten sehr leicht mit der Verwendung von KI davonkommen könnten. „Wenn sie das Programm bitten, einen Absatz zu schreiben, der eine Idee zusammenfasst, dann einen Absatz, der eine andere Idee zusammenfasst, und diese zusammen bearbeiten, wäre das für mich völlig unauffindbar und es könnte sogar ein anständiger Aufsatz werden“, sagte er.

Ein Vertreter von OpenAI sagte gegenüber Insider, er wolle nicht, dass ChatGPT für irreführende Zwecke verwendet werde.

„Unsere Richtlinien verlangen, dass Benutzer bei der Verwendung unserer API und kreativen Tools wie DALL-E und GPT-3 offen mit ihrem Publikum umgehen“, sagte der Vertreter. “Wir entwickeln bereits Gegenmaßnahmen, um jedem zu helfen, von diesem System generierten Text zu identifizieren.”

Obwohl es KI-Erkennungsprogramme gibt, die eine Analyse anbieten, wie wahrscheinlich es ist, dass der Text von einem KI-Programm geschrieben wurde, befürchten einige Wissenschaftler, dass dies nicht ausreichen würde, um einen Fall von KI-Plagiat zu beweisen.

„Wir werden etwas brauchen, um der Tatsache Rechnung zu tragen, dass wir jetzt eine unvollkommene Methode haben, um zu testen, ob etwas eine Fälschung ist oder nicht“, sagte Bartel. “Ich weiß nicht, was diese neue Richtlinie ist.”

Lesen Sie den Originalartikel auf Business Insider

source site-19