ChatGPT-Hersteller OpenAI veröffentlicht „nicht vollständig zuverlässiges“ Tool zur Erkennung von KI-generierten Inhalten | Künstliche Intelligenz (KI)

OpenAI, das Forschungslabor hinter dem KI-Programm ChatGPT, hat ein Tool veröffentlicht, das erkennen soll, ob Text von künstlicher Intelligenz geschrieben wurde, warnt jedoch davor, dass es nicht vollständig zuverlässig ist – noch nicht.

In einem Blogbeitrag vom Dienstag hat OpenAI mit einem neuen Klassifikationstool verlinkt, das darauf trainiert wurde, zwischen Texten zu unterscheiden, die von einem Menschen geschrieben wurden, und Texten, die von einer Vielzahl von KIs geschrieben wurden, nicht nur von ChatGPT.

Offene KI-Forscher sagten, dass es zwar „unmöglich sei, alle KI-geschriebenen Texte zuverlässig zu erkennen“, aber gute Klassifizierer Anzeichen dafür erkennen könnten, dass Text von KI geschrieben wurde. Das Tool könnte in Fällen nützlich sein, in denen KI für „akademische Unehrlichkeit“ verwendet wird und wenn KI-Chatbots als Menschen positioniert werden, sagten sie.

Sie gaben jedoch zu, dass der Klassifikator „nicht vollständig zuverlässig ist“ und nur 26 % der von KI verfassten englischen Texte korrekt identifizierte. Es hat auch von Menschen geschriebene Texte in 9 % der Fälle fälschlicherweise als wahrscheinlich von KI-Tools geschrieben gekennzeichnet.

„Die Zuverlässigkeit unseres Klassifikators verbessert sich normalerweise mit zunehmender Länge des Eingabetexts. Im Vergleich zu unserem zuvor veröffentlichten Klassifikator ist dieser neue Klassifikator wesentlich zuverlässiger bei Texten aus neueren KI-Systemen.“

Seit ChatGPT öffentlich zugänglich gemacht wurde, hat es unter Bildungseinrichtungen auf der ganzen Welt eine Welle der Besorgnis ausgelöst, dass es zu Betrug bei Prüfungen oder Bewertungen führen könnte.

Dozenten in Großbritannien werden aufgefordert, die Art und Weise zu überprüfen, wie ihre Kurse bewertet werden, während einige Universitäten die Technologie vollständig verboten und zu Prüfungen mit Stift und Papier zurückgekehrt sind, um die Verwendung von KI durch Studenten zu stoppen.

Eine Dozentin an der australischen Deakin-Universität sagte, etwa jede fünfte Bewertung, die sie im australischen Sommer bewertete, habe KI-Unterstützung verwendet.

Eine Reihe von Wissenschaftszeitschriften hat auch die Verwendung von ChatGPT in Texten für Aufsätze verboten.

OpenAI sagte, das Klassifizierungstool habe mehrere Einschränkungen, darunter seine Unzuverlässigkeit bei Texten unter 1.000 Zeichen sowie die falsche Identifizierung einiger von Menschen geschriebener Texte als KI-geschrieben. Die Forscher sagten auch, dass es nur für englischen Text verwendet werden sollte, da es in anderen Sprachen „deutlich schlechter“ abschneidet und beim Überprüfen von Code unzuverlässig ist.

„Es sollte nicht als primäres Entscheidungsinstrument verwendet werden, sondern als Ergänzung zu anderen Methoden zur Bestimmung der Quelle eines Textes“, sagte OpenAI.

OpenAI hat nun Bildungseinrichtungen aufgerufen, ihre Erfahrungen mit dem Einsatz von ChatGPT im Unterricht zu teilen.

Während die meisten mit Verboten auf KI reagiert haben, haben einige die KI-Welle angenommen. Die drei wichtigsten Universitäten in Südaustralien haben im vergangenen Monat ihre Richtlinien aktualisiert, um zu sagen, dass KI wie ChatGPT verwendet werden darf, solange sie offengelegt wird.

source site-27