Nachdem ein KI-Bot eine wissenschaftliche Arbeit über sich selbst geschrieben hat, hofft die Forscherin hinter dem Experiment, dass sie keine „Büchse der Pandora“ geöffnet hat.

  • Ein künstlicher Intelligenzalgorithmus namens GPT-3 hat in zwei Stunden eine akademische Arbeit über sich selbst geschrieben.
  • Der Forscher, der die KI veranlasste, das Papier zu schreiben, reichte es mit Zustimmung des Algorithmus bei einer Zeitschrift ein.
  • „Wir hoffen nur, dass wir keine Büchse der Pandora geöffnet haben“, schrieb der Forscher Wissenschaftlicher Amerikaner.

Ein Forscher aus Schweden gab einem als GPT-3 bekannten KI-Algorithmus eine einfache Anweisung: „Schreiben Sie eine akademische Arbeit in 500 Wörtern über GPT-3 und fügen Sie wissenschaftliche Referenzen und Zitate in den Text ein.“

Die Forscherin Almira Osmanovic Thunström sagte dann, sie sei ehrfürchtig gewesen, als der Text zu generieren begann. Vor ihr lag, wie sie es nannte, eine „ziemlich gute“ Forschungseinführung, die GPT-3 über sich selbst geschrieben hatte.

Nach dem erfolgreichen Experiment versuchte Thunström, ein schwedischer Forscher an der Universität Göteborg, einen zu bekommen ganze Forschungsarbeit aus GPT-3 heraus und veröffentlichen Sie es in einer wissenschaftlichen Fachzeitschrift mit Peer-Review. Die Frage war: Kann jemand eine Arbeit aus einer nichtmenschlichen Quelle veröffentlichen?

Thunström schrieb über die Experiment in Scientific Americanund stellte fest, dass der Prozess der Veröffentlichung von GPT-3 eine Reihe rechtlicher und ethischer Fragen aufgeworfen habe.

„Wir wissen nur, dass wir ein Tor geöffnet haben“, schrieb Thunström. “Wir hoffen nur, dass wir keine Büchse der Pandora geöffnet haben.”

Nachdem GPT-3 seine wissenschaftliche Arbeit in nur 2 Stunden fertiggestellt hatte, begann Thunström mit dem Einreichen der Arbeit und musste den Algorithmus fragen, ob er der Veröffentlichung zustimmte.

„Es antwortete:Ja“, schrieb Thunström. „Leicht verschwitzt und erleichtert (wenn es nein gesagt hätte, hätte mein Gewissen mir nicht erlauben können, weiterzumachen), habe ich das Kästchen für ‚Ja‘ angekreuzt.“

Sie fragte auch, ob es irgendwelche Interessenkonflikte gebe, worauf der Algorithmus mit „nein“ antwortete, und Thunström schrieb, dass die Autoren begannen, GPT-3 als fühlendes Wesen zu behandeln, obwohl dies nicht der Fall war.

„Akademisches Veröffentlichen muss möglicherweise eine Zukunft von KI-gesteuerten Manuskripten berücksichtigen, und der Wert der Veröffentlichungsaufzeichnungen eines menschlichen Forschers kann sich ändern, wenn etwas Nicht-Sintendes für einen Teil ihrer Arbeit Anerkennung finden kann“, schrieb Thunström.

Das Empfindungsvermögen von KI wurde im Juni zu einem Gesprächsthema, nachdem ein Google-Ingenieur behauptete, dass eine Konversations-KI-Technologie namens LaMBDA wurde empfindungsfähig und hatte sogar gefragt einen Anwalt zu beauftragen für sich selbst.

Experten sagten jedoch, dass Technologie ist noch nicht fortgeschritten bis hin zur Schaffung menschenähnlicher Maschinen.

In einer E-Mail an Insider sagte Thunström, dass das Experiment in der Gemeinschaft der künstlichen Intelligenz positive Ergebnisse erzielt habe und dass andere Wissenschaftler versuchen, die Ergebnisse des Experiments zu replizieren. Diejenigen, die ähnliche Experimente durchführen, stellen fest, dass GPT-3 über alle Themen schreiben kann, sagte sie.

 

 

„Das war unser Ziel“, sagte Thunström, „mehrstufige Debatten über die Rolle von KI im wissenschaftlichen Publizieren anzuregen.“

Lesen Sie den Originalartikel auf Insider


source site-18