“Vollständiges Roboterschreiben”: die Herausforderung der künstlichen Intelligenz an Universitäten | Australische Universitäten

„Ich warte vor dem Hörsaal auf den Beginn meiner nächsten Vorlesung und neben mir diskutieren zwei Studenten, welches KI-Programm sich am besten für das Schreiben ihrer Aufsätze eignet. Ist es das, was ich markiere? KI-Aufsätze?“

Das Tweet der Historikerin Carla Ionescu Ende letzten Monats fängt das wachsende Unbehagen darüber ein, was künstliche Intelligenz für die traditionelle Hochschulbewertung bedeutet. “Nein. Auf keinen Fall“, twitterte sie. „Sag mir, dass wir noch nicht da sind.“

Aber KI hämmert schon seit einiger Zeit an das Tor der Uni.

2012 Computertheoretiker Ben Goertzel schlug vor, was er den „Robot University Student Test“ nannteund argumentiert, dass eine KI, die in der Lage ist, einen Abschluss auf die gleiche Weise wie ein Mensch zu erlangen, als bewusst angesehen werden sollte.

Goertzels Idee – eine Alternative zum bekannteren „Turing-Test“ – wäre vielleicht ein Gedankenexperiment geblieben, wären da nicht die Erfolge von KIs, die Natural Language Processing (NLP) einsetzen: Am bekanntesten ist, GPT-3das vom OpenAi-Forschungslabor erstellte Sprachmodell.

Vor zwei Jahren veröffentlichte der Informatiker Nassim Dehouche ein Stück demonstriert, dass GPT-3 glaubwürdiges akademisches Schreiben produzieren kann, das von der üblichen Anti-Plagiats-Software nicht erkannt werden kann.

„[I] fand das Ergebnis“, sagte Dehouche gegenüber Guardian Australia, „sowohl in Bezug auf Solidität als auch Originalität nicht von einem exzellenten Bachelor-Aufsatz zu unterscheiden. [My article] hieß zunächst: „Die beste Zeit zum Handeln war gestern, die zweitbeste Zeit ist jetzt“. Sein Zweck bestand darin, die dringende Notwendigkeit zu fordern, zumindest unsere Konzepte von Plagiaten zu aktualisieren.“

Ben Goertzel schlug vor, was er den „Robot University Student Test“ nannte, und argumentierte, dass eine KI, die in der Lage ist, einen Abschluss auf die gleiche Weise wie ein Mensch zu erlangen, als bewusst angesehen werden sollte. Foto: Horacio Villalobos/Corbis/Getty Images

Inzwischen seien wir längst über die Zeit hinaus, in der Studierende ganze Aufsätze (und andere Schreibformen) mit algorithmischen Methoden generieren konnten, meint er.

„Eine gute Übung für angehende Autoren“, sagt er, „wäre eine Art umgekehrter Turing-Test: ‚Können Sie eine Textseite schreiben, die nicht von einer KI generiert werden konnte, und erklären, warum?’ Soweit ich sehen kann, ist dies nicht möglich, es sei denn, man berichtet über einen originalen mathematischen Satz und seinen Beweis. Aber ich würde mich freuen, wenn mir das Gegenteil bewiesen würde.“

Viele andere teilen jetzt seine Dringlichkeit. In Nachrichten- und Meinungsartikeln hat GPT-3 überzeugend darüber geschrieben, ob es eine Bedrohung für die Menschheit darstellt (es sagt, dass dies nicht der Fall ist), und über Tierquälerei im Stil von Bob Dylan und William Shakespeare.

Ein 2021 Forbes Artikel über das Schreiben von KI-Aufsätzen gipfelte in einem dramatischen Mic-Drop: „Dieser Beitrag über die Verwendung einer KI zum Schreiben von Aufsätzen in der Schule“, erklärte er, „wurde mit einem Tool zum Schreiben von Inhalten mit künstlicher Intelligenz geschrieben“.

Natürlich lebt die Technologiebranche von ungerechtfertigtem Hype. Letzten Monat hat S Scott Graham in einem Stück für Innerhalb der Hochschulbildung beschrieb die Ermutigung von Studenten, die Technologie für ihre Aufgaben zu verwenden, mit ausgesprochen gemischten Ergebnissen. Die Allerbesten, sagte er, hätten die Mindestanforderungen erfüllt, aber kaum mehr. Schwächere Schüler hatten Probleme, da die Bereitstellung effektiver Eingabeaufforderungen (und die anschließende Bearbeitung der Ausgabe) des Systems Schreibfähigkeiten auf einem ausreichend hohen Niveau erforderten, um die KI überflüssig zu machen.

„Ich vermute stark“, schloss er, „das vollwertige Roboterschreiben wird immer und für immer ‚gleich um die Ecke‘ sein.“

Das mag stimmen, obwohl Aki Peritz von Slate nur einen Monat zuvor genau das Gegenteil festgestellt hatte: das zu erklären „Mit ein wenig Übung kann ein Student mithilfe von KI seine Hausarbeit in einem Bruchteil der Zeit schreiben, die es normalerweise dauern würde.“

Dennoch lässt sich die Herausforderung für die Hochschulbildung nicht auf „vollkommenes Roboterschreiben“ reduzieren.

Universitäten sehen sich nicht nur Essays oder Aufgaben gegenüber, die vollständig von Algorithmen generiert werden: Sie müssen auch eine Vielzahl subtilerer Probleme lösen. Beispielsweise schlagen KI-gestützte Textverarbeitungsprogramme gewöhnlich Alternativen zu unseren ungrammatischen Sätzen vor. Aber wenn eine Software den Satz eines Schülers algorithmisch umschreiben kann, warum sollte sie das nicht auch mit einem Absatz tun – und wenn es ein Absatz ist, warum nicht eine Seite?

Ab wann stellt das Eindringen von KI Betrug dar?

Prof. Phillip Dawson von der Deakin University ist darauf spezialisiert in der digitalen Bewertungssicherheit.

Er schlägt vor, KI lediglich als eine neue Form einer Technik namens Cognitive Offloading zu betrachten.

„Kognitives Offloading“, erklärt er, „benutzt man ein Tool, um die mentale Belastung einer Aufgabe zu reduzieren. Es kann so einfach sein, etwas aufzuschreiben, damit Sie sich nicht später daran erinnern müssen. Es gibt seit langem moralische Panik um Werkzeuge zum kognitiven Offloading, von Sokrates, der sich darüber beschwerte, dass Menschen Schrift verwenden, um so zu tun, als wüssten sie etwas, bis zum ersten Aufkommen von Taschenrechnern.

Dawson argumentiert, dass Universitäten den Studenten die Formen und den Grad der kognitiven Entlastung klar machen sollten, die für bestimmte Bewertungen zulässig sind, wobei KI zunehmend in Aufgaben auf höherer Ebene integriert wird.

„Ich denke, wir werden den Schülern tatsächlich beibringen, wie man diese Tools benutzt. Ich glaube nicht, dass wir ihnen das unbedingt verbieten werden.“

Denn auch die Berufe, auf die Hochschulen vorbereiten, werden bald auf KI setzen, besonders betroffen sind die Geisteswissenschaften. Nehmen Sie zum Beispiel den Journalismus. EIN Umfrage 2019 unter 71 Medienorganisationen aus 32 Ländern stellten fest, dass KI bereits ein „wesentlicher Teil des Journalismus“ ist, der für das Sammeln von Nachrichten (z. Abonnements verwalten, neue Zielgruppen finden usw.). Warum also sollten Journalistenausbilder Studenten dafür bestrafen, dass sie eine Technologie verwenden, die für ihre zukünftige Karriere wahrscheinlich von zentraler Bedeutung ist?

Studenten
„Schließlich werden bald auch die Berufe, auf die Universitäten vorbereiten, auf KI angewiesen sein, besonders betroffen sind die Geisteswissenschaften.“ Foto: Dean Lewins/AAP

„Ich denke, wir werden einen wirklich guten Blick darauf werfen, was die Berufe in Bezug auf diese Werkzeuge jetzt tun“, sagt Dawson, „und was sie wahrscheinlich in Zukunft damit tun werden, und wir werden versuchen, diese abzubilden Fähigkeiten zurück in unsere Kurse. Das bedeutet, herauszufinden, wie man sie referenziert, damit der Schüler sagen kann: Ich habe die KI dazu gebracht, diesen Teil zu tun, und dann habe ich Folgendes selbst gemacht.“

Doch die Formulierung von Richtlinien, wann und wo KI legitim eingesetzt werden könnte, ist eine Sache – und ihre Durchsetzung eine ganz andere.

Dr. Helen Gniel leitet die Einheit für Integrität im Hochschulbereich der Agentur für Qualität und Standards im Tertiärbereich (TEQSA), die unabhängige Regulierungsbehörde für die australische Hochschulbildung.

Wie Dawson sieht sie die Probleme rund um KI in gewisser Weise als Chance – eine Chance für Institutionen, „über das nachzudenken, was sie lehren, und die am besten geeigneten Methoden zur Bewertung des Lernens in diesem Kontext“.

Transparenz ist der Schlüssel.

„Wir erwarten von den Institutionen, dass sie ihre Regeln für den Einsatz von KI definieren und sicherstellen, dass die Erwartungen den Studierenden klar und regelmäßig mitgeteilt werden.“

Sie weist auf ICHM, das Institut für Gesundheitsmanagement und die Flinders Uni als drei Anbieter hin, die jetzt mit Flinders explizite Richtlinien haben Kennzeichnung der Einreichung von Arbeiten, die „durch einen Algorithmus, einen Computergenerator oder eine andere künstliche Intelligenz generiert wurden“ als eine Form des „Vertragsbetrugs“.

Aber dieser Vergleich wirft andere Fragen auf.

Im August blockierte TEQSA rund 40 Websites, die mit der traditionelleren Form des Vertragsbetrugs in Verbindung gebracht werden – dem Verkauf von vorgefertigten Aufsätzen an Studenten. Die 450.000 Besuche, die diese Websites jeden Monat erhalten, deuten auf einen riesigen potenziellen Markt für KI-Schreiben hin, da diejenigen, die einst Menschen dafür bezahlten, für sie zu schreiben, sich stattdessen digitalen Alternativen zuwenden.

Forschung von Dr. Guy Curtis von der University of Western Australia fanden heraus, dass Befragte mit einem nicht englischsprachigen Hintergrund mit dreimal höherer Wahrscheinlichkeit Aufsätze kaufen als Befragte mit Englisch als Muttersprache. Diese Zahl spiegelt zweifellos den Druck wider, der auf die fast ausgeübt wird 500.000 internationale Studenten, die Kurse an der Australian Institutionen, die möglicherweise mit unsicherer Arbeit, Lebenshaltungskosten, sozialer Isolation und der damit verbundenen Schwierigkeit der Beurteilung in einer Fremdsprache zu kämpfen haben.

Aber man könnte auch die umfassendere Beziehung zwischen der Ausweitung des Vertragsbetrugs und der Umwandlung der Hochschulbildung in eine lukrative Exportindustrie feststellen. Wenn ein Universitätsabschluss lediglich zu einem Produkt wird, das gekauft und verkauft werden muss, scheint die Entscheidung eines erfolglosen Studenten, einen externen Auftragnehmer (ob menschlich oder algorithmisch) hinzuzuziehen, einfach eine rationale Marktentscheidung zu sein.

Es ist ein weiteres Beispiel dafür, wie KI unbequeme Fragen über die Natur der Bildung stellt.

Ben Goertzel stellte sich seinen „Robot University Student Test“ als Demonstration „künstlicher allgemeiner Intelligenz“ vor: eine digitale Nachbildung des menschlichen Intellekts. Aber darum geht es beim NLP nicht. Im Gegenteil, wie sagen Luciano Floridi und Massimo Chiriattimit KI „entkoppeln wir zunehmend die Fähigkeit, ein Problem effektiv zu lösen … von der Notwendigkeit, dafür intelligent zu sein“.

Bob Dylan
GPT-3 hat überzeugend darüber geschrieben, ob es eine Bedrohung für die Menschheit darstellt, und über Tierquälerei im Stil von Bob Dylan (im Bild) und William Shakespeare. Foto: Nachrichtenagentur TT/Alamy

Die neuen KIs trainieren mit riesigen Datensätzen und durchforsten riesige Mengen an Informationen, um plausible Antworten auf Text- und andere Eingabeaufforderungen zu extrapolieren. Emily M. Bender und ihre Kollegen Beschreiben Sie ein Sprachmodell als „stochastischen Papagei“, etwas, das „willkürlich [stitches] Sequenzen von sprachlichen Formen, die es in seinen riesigen Trainingsdaten beobachtet hat, nach probabilistischen Informationen darüber zusammen, wie sie sich kombinieren, aber ohne Bezug auf Bedeutung“.

Wenn es also möglich ist, Bewertungsaufgaben zu bestehen, ohne ihre Bedeutung zu verstehen, was genau bewerten die Aufgaben?

In seinem Buch von 2011 Für die Universität: Demokratie und die Zukunft der Institutionschlägt Thomas Docherty von der University of Warwick vor, dass korporatisierte Bildung offenes und destabilisierendes „Wissen“ durch „das effiziente und kontrollierte Management von Informationen“ ersetzt, wobei die Bewertung von den Studenten lediglich den Nachweis verlangt, dass sie Zugang zur Datenbank des „Wissens“ erhalten haben. … und dass sie dieses Wissen dann manipuliert oder „gemanagt“ haben, indem sie aus ausgeschnittenen und zusammengefügten Teilen ein neues Ganzes organisiert haben.

Die potenzielle Kompetenz von „stochastischen Papageien“ bei der tertiären Bewertung wirft ein neues Licht auf Dochertys Argument und bestätigt, dass solche Aufgaben tatsächlich nicht so sehr Wissen (das KIs von Natur aus fehlt) messen, sondern den Informationstransfer (bei dem sich KIs auszeichnen).

Anders ausgedrückt: KI wirft Fragen für den Bildungssektor auf, die über alle unmittelbaren Maßnahmen hinausgehen, die ergriffen werden könnten, um die Nutzung solcher Systeme durch die Schüler zu regeln. Man könnte sich zum Beispiel vorstellen, dass die Technologie a „langweilige Dystopie“, wodurch jene Aspekte der Universität weiter herabgesetzt werden, die bereits am stärksten von Unternehmenszwängen erodiert sind. Schließlich hat die Hochschulbildung stark in KI-Systeme investiert für die Einstufungso dass Algorithmen theoretisch die Ausgabe anderer Algorithmen markieren könnten, in einem unendlichen Prozess, in dem überhaupt nichts gelernt wird.

Aber vielleicht, nur vielleicht, könnte die Herausforderung der KI etwas anderes anregen. Vielleicht könnte es ein Gespräch darüber anregen, was Bildung ist und vor allem, was wir von ihr wollen. KI könnte uns dazu anspornen, echtes Wissen anzuerkennen, damit die Universität der Zukunft, wenn sie sich der Technologie zuwendet, neu erkennt, was uns zu Menschen macht.


source site-27