Ex-OpenAI-Manager wirft Sam Altman vor, er habe „glänzende Produkte“ der KI-Sicherheit vorgezogen

OpenAI-CEO Sam Altman

  • Ein hochrangiger OpenAI-Manager, der sich mit Sicherheit beschäftigt, hat am Dienstag gekündigt.
  • Jan Leike sagte, er habe einen „Bruchpunkt“ erreicht.
  • Er fügte hinzu, dass Sam Altmans Unternehmen „glänzenden Produkten“ Vorrang vor Sicherheit gebe.

Ein ehemaliger Top-Sicherheitsmanager bei OpenAI legt alles dar.

Am Dienstagabend gab Jan Leike, Leiter der Superalignment-Gruppe des Unternehmens für künstliche Intelligenz, bekannt, dass er mit a aufhören werde stumpfer Beitrag auf X: “Ich resignierte.”

Jetzt, drei Tage später, teilte Leike mehr über seinen Ausstieg mit – und sagte, OpenAI nehme die Sicherheit nicht ernst genug.

„Sicherheitskultur und -prozesse sind in den letzten Jahren gegenüber glänzenden Produkten in den Hintergrund gerückt“, sagt Leike schrieb am Freitag in einem langen Thread über X.

In seine BeiträgeLeike sagte, er sei OpenAI beigetreten, weil er dachte, es sei der beste Ort der Welt, um zu erforschen, wie man künstliche allgemeine Intelligenz (AGI) „steuert und kontrolliert“, also die Art von KI, die schneller denken kann als ein Mensch.

„Allerdings war ich mit der Führung von OpenAI schon seit geraumer Zeit anderer Meinung über die Kernprioritäten des Unternehmens, bis wir schließlich an einem Bruchpunkt angelangt sind.“ Leike schrieb.

Der ehemalige OpenAI-Manager sagte, das Unternehmen sollte sich hauptsächlich auf Themen wie „Sicherheit, Überwachung, Bereitschaft, Schutz, Robustheit gegenüber Gegnern, (Super-)Ausrichtung, Vertraulichkeit, gesellschaftliche Auswirkungen und verwandte Themen“ konzentrieren.

Aber Leike sagte, sein Team – das daran arbeitete, KI-Systeme auf das Beste für die Menschheit auszurichten – segele bei OpenAI „gegen den Wind“.

„Es ist längst überfällig, dass wir die Auswirkungen von AGI unglaublich ernst nehmen“, sagte er schriebund fügte hinzu: „OpenAI muss ein AGI-Unternehmen werden, bei dem Sicherheit an erster Stelle steht.“

Leike beendete seinen Thread mit einer Nachricht an die OpenAI-Mitarbeiter, in der er sie ermutigte, die Sicherheitskultur des Unternehmens zu ändern.

„Ich zähle auf dich. Die Welt zählt auf dich“ er sagte.

Rücktritte bei OpenAI

Sowohl Leike als auch Ilya Sutskever, der andere Leiter des Superalignment-Teams, verließen OpenAI am Dienstag innerhalb weniger Stunden nacheinander.

In einem Aussage zu XAltman lobte Sutskever als „einfach einen der größten Köpfe unserer Generation, einen Leitstern unseres Fachgebiets und einen lieben Freund.“

„Ohne ihn wäre OpenAI nicht das, was es ist“, schrieb Altman. „Obwohl er etwas persönlich Bedeutsames vorhat, an dem er arbeiten wird, bin ich für immer dankbar für das, was er hier getan hat und sich dafür eingesetzt hat, die Mission, die wir gemeinsam begonnen haben, zu Ende zu bringen.“

Altman äußerte sich nicht zu Leikes Rücktritt.

Am Freitag, Wired berichtete dass OpenAI das KI-Risikoteam des Paares aufgelöst hatte. Laut Wired werden Forscher, die die Gefahren der KI-Abweichung untersucht haben, nun in andere Teile des Unternehmens integriert.

OpenAI reagierte nicht auf Anfragen von Business Insider nach einem Kommentar.

Das KI-Unternehmen, das kürzlich ein neues großes Sprachmodell GPT-4o vorgestellt hat, wurde in den letzten Wochen von hochkarätigen Umwälzungen erschüttert.

Zusätzlich zum Weggang von Leike und Sutskever sind Diane Yoon, Vizepräsidentin für Menschen, und Chris Clark, Leiter für gemeinnützige und strategische Initiativen, gegangen. laut The Information. Und letzte Woche berichtete BI, dass zwei weitere Forscher, die sich mit Sicherheit befassen, das Unternehmen verlassen haben.

Einer dieser Forscher schrieb später, er habe das Vertrauen verloren, dass OpenAI sich „zur Zeit von AGI verantwortungsbewusst verhalten würde“.

Lesen Sie den Originalartikel auf Business Insider

source site-18