OpenAI-Vorstandsmitglieder ignorieren Warnungen ehemaliger Direktoren und verteidigen Sam Altman als „äußerst aufgeschlossen“

Helen Toner und Tasha McCauley verließen OpenAI, als Sam Altman als CEO zurückkehrte.

  • Zwei ehemalige Vorstandsmitglieder von OpenAI warnten in einem Meinungsartikel im Economist vor CEO Sam Altman und der Sicherheit von KI.
  • Zwei aktuelle Vorstandsmitglieder haben in einer Antwort auf diese Bedenken zurückgewiesen.
  • Die derzeitigen Mitglieder verwiesen auf den neuen Sicherheitsausschuss von OpenAI und Altmans Unterstützung für eine Regulierung.

Dies war eine Woche voller konkurrierender Meinungsbeiträge ehemaliger und aktueller Vorstandsmitglieder von OpenAI.

Die derzeitigen OpenAI-Vorstandsmitglieder Bret Taylor und Larry Summers antworteten am Donnerstag auf Sicherheitsbedenken hinsichtlich der KI und erklärten, dass „der Vorstand entsprechende Schritte unternimmt, um Sicherheit und Schutz zu gewährleisten.“

Die Antwort kommt wenige Tage, nachdem The Economist veröffentlicht ein Kommentar der ehemaligen OpenAI-Vorstandsmitglieder Helen Toner und Tasha McCauley, die CEO Sam Altman und die Sicherheitspraktiken von OpenAI kritisierten und gleichzeitig eine Regulierung der KI forderten. Der Titel des Artikels argumentierte, dass „KI-Unternehmen sich nicht selbst regieren dürfen“.

Taylor und Summers, die beiden derzeitigen Mitglieder, wehrten sich gegen die Ansprüche der ehemaligen Direktoren in einem Antwort das auch im Economist veröffentlicht wurde. Sie verteidigten Altman und diskutierten OpenAIs Haltung zur Sicherheit, einschließlich der Gründung eines neuen Sicherheitsausschusses durch das Unternehmen und einer Reihe freiwilliger Verpflichtungen, die OpenAI gegenüber dem Weißen Haus eingegangen ist, um Sicherheit und Schutz zu verstärken.

Die beiden sagten, sie hätten zuvor als Teil des neu gegründeten Vorstands einen Sonderausschuss geleitet und eine externe Überprüfung der Ereignisse, die zu Altmans Absetzung führten, durch die Anwaltskanzlei WilmerHale veranlasst. Der Prozess umfasste die Überprüfung von 30.000 Dokumenten sowie Dutzenden von Interviews mit dem früheren Vorstand, den Führungskräften und anderen relevanten Zeugen von OpenAI, fügten sie hinzu.

Taylor und Summers wiederholten, dass WilmerHale zu dem Schluss gekommen sei, dass Altmans Entlassung „nicht auf Bedenken hinsichtlich der Produktsicherheit oder -gewährleistung“ oder „des Entwicklungstempos“ zurückzuführen sei.

Sie widersprachen auch der Beschreibung des Leitartikels, Altman habe „eine giftige Kultur der Lüge“ geschaffen und sich psychologisch missbräuchlich verhalten. In den letzten sechs Monaten, so die beiden aktuellen Vorstandsmitglieder, hätten sie Altman „in allen relevanten Fragen äußerst aufgeschlossen und mit seinem Managementteam stets kollegial“ erlebt.

In einem Interview, das am selben Tag wie ihr Kommentar veröffentlicht wurde, erklärte Toner, warum der ehemalige Vorstand beschlossen hatte, Altman zu entlassen. Sie sagte, er habe sie „mehrfach“ belogen und Informationen zurückgehalten. Sie sagte auch, der alte OpenAI-Vorstand habe über Twitter von der Veröffentlichung von ChatGPT erfahren.

„Obwohl es jetzt vielleicht schwer zu erinnern ist, hat Openai Chatgpt im November 2022 als Forschungsprojekt veröffentlicht, um mehr darüber zu erfahren, wie nützlich seine Modelle in Gesprächssituationen sind“, schrieben Taylor und Summers als Antwort. „Es basierte auf gpt-3.5, einem bestehenden KI-Modell, das zu diesem Zeitpunkt bereits seit mehr als acht Monaten verfügbar war.“

Toner antwortete vor der Veröffentlichung nicht auf eine Bitte um Stellungnahme. OpenAI antwortete nicht auf eine Bitte um Stellungnahme.

OpenAI unterstütze eine „effektive Regulierung künstlicher allgemeiner Intelligenz“ und Altman, der nur wenige Tage nach seiner Absetzung wieder in sein Amt eingesetzt wurde, habe die Gesetzgeber „angefleht“, KI zu regulieren, fügten die beiden derzeitigen Vorstandsmitglieder hinzu.

Altman plädiert seit 2015 für eine Form der KI-Regulierung und äußerte sich jüngst für die Gründung einer internationalen Regulierungsbehörde. Allerdings sagte er auch, er sei „sehr nervös wegen einer Überregulierung“.

Auf dem World Government Summit im Februar sagte Altman empfohlen eine „regulatorische Sandbox“, in der Menschen mit der Technologie experimentieren und Vorschriften dazu erlassen können, was „wirklich schief gelaufen“ und was „wirklich richtig gelaufen“ ist.

OpenAI musste in den letzten Wochen mehrere hochkarätige Abgänge verzeichnen, darunter den Machine-Learning-Forscher Jan Leike, den leitenden Wissenschaftler Ilya Sutskever und die Politikforscherin Gretchen Krueger. Sowohl Leike als auch Krueger äußerten nach ihrem Abgang Sicherheitsbedenken.

Leike und Sutskever, der auch Mitbegründer von OpenAI ist, leiteten gemeinsam das Superalignment-Team des Unternehmens. Das Team wurde beauftragt, die langfristigen Risiken der KI zu untersuchen, einschließlich der Möglichkeit, dass sie „abtrünnig“ wird.

OpenAI löste das Superalignment-Sicherheitsteam auf und gab später die Gründung eines neuen Sicherheitsausschusses bekannt.

Lesen Sie den Originalartikel auf Business Insider

source site-18