Eine weitere OpenAI-Mitarbeiterin kündigte ihre Kündigung aus Sicherheitsgründen, Stunden bevor zwei Führungskräfte zurücktraten

  • Ein weiterer OpenAI-Mitarbeiter hat nach zwei aufsehenerregenden Rücktritten aus Sicherheitsgründen gekündigt.
  • Gretchen Krueger gab auf X ihren Rücktritt bekannt und schloss sich damit den Bedenken von Ilya Sutskever und Jan Leike an.
  • Laut Krueger können Technologieunternehmen diejenigen entmachten, die sie zur Verantwortung ziehen wollen, indem sie Zwietracht säen.

OpenAI steht vor weiteren Turbulenzen, da eine weitere Mitarbeiterin ihre Kündigung aus Sicherheitsbedenken bekannt gibt.

Zuvor waren bereits die beiden hochrangigen Manager Ilya Sutskever und Jan Leike zurückgetreten, die das inzwischen aufgelöste Sicherheitsforschungsteam Superalignment des Konzerns geleitet hatten.

Gretchen Krueger gab in einem Faden auf X am Mittwoch, dass sie den ChatGPT-Hersteller am 14. Mai verlassen habe und dass es „keine leichte Entscheidung gewesen sei.“

Krueger schrieb: „Ich bin ein paar Stunden, bevor ich die Nachrichten über @ilyasut und @janleike hörte, zurückgetreten und habe meine Entscheidung unabhängig getroffen. Ich teile ihre Bedenken. Ich habe auch zusätzliche und sich überschneidende Bedenken.“

Sie fügte hinzu, dass mehr getan werden müsse, um „Entscheidungsprozesse, Rechenschaftspflicht, Transparenz, Dokumentation, Durchsetzung von Richtlinien, die Sorgfalt, mit der wir unsere eigene Technologie verwenden, und die Abmilderung der Auswirkungen auf Ungleichheit, Rechte und die Umwelt“ zu verbessern.

Der ehemalige Politikwissenschaftler sagte, dass Menschen und Gemeinschaften diese Sorgen teilen, die „einen Einfluss darauf haben können, wie und von wem Aspekte der Zukunft geplant werden können“ und dass sie nicht „als eng, spekulativ oder unzusammenhängend missverstanden werden sollten“.

In einem anderen Beitrag schrieb sie: „Eine der Möglichkeiten, mit denen Technologieunternehmen im Allgemeinen diejenigen entmachten können, die sie zur Verantwortung ziehen wollen, besteht darin, Zwietracht unter denen zu säen, die Bedenken äußern oder ihre Macht in Frage stellen. Es ist mir ein großes Anliegen, dies zu verhindern.“

Letzte Woche gab Chefwissenschaftler und Mitbegründer Ilya Sutskever seinen Rücktritt bekannt, gefolgt von Geschäftsführer Jan Leike. Das Paar leitete gemeinsam sein Superalignment-Team, dessen Aufgabe es war, Schutzmaßnahmen zu entwickeln, um zu verhindern, dass künstliche allgemeine Intelligenz außer Kontrolle gerät.

Leike beschuldigte OpenAI, „glänzende Produkte“ über Sicherheit zu stellen, und behauptete, dass das Superalignment-Team „um Rechenressourcen kämpfte“ und dass „es immer schwieriger wurde, diese wichtige Forschung durchzuführen“.

Die Abgänge in dieser und in der letzten Woche folgten denen von zwei anderen Sicherheitsforschern, Daniel Kokotajlo und William Saunders, die in den letzten Monaten aus ähnlichen Gründen zurücktraten. Kokotajlo sagte, er sei gegangen, nachdem er „das Vertrauen verloren hatte, dass es [OpenAI] würde sich zur Zeit von AGI verantwortungsbewusst verhalten.“

OpenAI antwortete nicht sofort auf die Bitte von Business Insider um einen Kommentar.

Lesen Sie den Originalartikel auf Business Insider

source site-19