Bei OpenAI gerät alles (wieder) ins Wanken

Der negative Nachrichtenzyklus von OpenAI hält an und umfasst Bedenken hinsichtlich der Sicherheit, Geheimhaltungsvereinbarungen und der Interessenkonflikte von Sam Altman.

  • Bei OpenAI herrscht ein echtes Durcheinander, da immer mehr Bedenken hinsichtlich des Engagements des Unternehmens für die Sicherheit ans Licht kommen.
  • Der Entwickler von ChatGPT sah sich mit heftigen Reaktionen wegen Transparenzproblemen, der Nutzung einer Geheimhaltungsvereinbarung und einem Streit mit Scarlett Johansson konfrontiert.
  • Auch CEO Sam Altman sieht nicht allzu gut aus, da er eine neue Aufgabe übernimmt: Schadensbegrenzung.

Aus der harten Woche von OpenAI ist ein harter Monat geworden – und es sieht nicht so aus, als ob das Problem für den Top-CEO des Unternehmens, Sam Altman, so leicht zu lösen wäre.

In der jüngsten Entwicklung der OpenAI-ist-eine-Katastrophe-Saga hat eine Gruppe aktueller und ehemaliger OpenAI-Mitarbeiter ihre Bedenken über die finanziellen Beweggründe des Unternehmens und sein Engagement für verantwortungsvolle KI öffentlich gemacht. In einem New York Times Bericht Sie wurden am Dienstag veröffentlicht und beschrieben eine Kultur falscher Versprechungen in Bezug auf die Sicherheit.

„Die Welt ist nicht bereit, und wir sind nicht bereit“, schrieb Daniel Kokotajlo, ein ehemaliger OpenAI-Forscher, in einer E-Mail, in der er seinen Rücktritt ankündigte, so der Bericht der Times. „Ich bin besorgt, dass wir ungeachtet dessen voranstürmen und unsere Handlungen rechtfertigen.“

Ebenfalls am Dienstag veröffentlichten die Whistleblower zusammen mit anderen KI-Insidern einen offenen Brief, in dem sie Veränderungen in der Branche forderten. Die Gruppe forderte von KI-Unternehmen, sich zu einer Kultur der offenen Kritik zu bekennen und zu versprechen, keine Vergeltungsmaßnahmen gegen diejenigen zu ergreifen, die Bedenken äußern.

Obwohl der Brief nicht speziell an OpenAI gerichtet ist, handelt es sich dabei um einen ziemlich eindeutigen Subtweet und eine weitere schädliche Entwicklung für ein Unternehmen, das in den letzten Wochen mehr als genug Rückschläge einstecken musste.

In einer Stellungnahme gegenüber Business Insider bekräftigte ein Sprecher von OpenAI das Engagement des Unternehmens für die Sicherheit und betonte, dass es eine „anonyme Integritätshotline“ gebe, über die Mitarbeiter ihre Bedenken äußern können, sowie den Sicherheitsausschuss des Unternehmens.

„Wir sind stolz auf unsere Erfolgsbilanz bei der Bereitstellung der leistungsfähigsten und sichersten KI-Systeme und glauben an unseren wissenschaftlichen Ansatz zur Bewältigung von Risiken“, sagten sie per E-Mail. „Wir sind uns einig, dass angesichts der Bedeutung dieser Technologie eine gründliche Debatte von entscheidender Bedeutung ist, und wir werden weiterhin mit Regierungen, der Zivilgesellschaft und anderen Gemeinschaften auf der ganzen Welt zusammenarbeiten.“

Sicherheit an zweiter (oder dritter) Stelle

Ein gemeinsames Thema der Beschwerden ist, dass bei OpenAI nicht die Sicherheit an erster Stelle steht, sondern Wachstum und Gewinne.

Im Jahr 2019 entwickelte sich das Unternehmen von einer gemeinnützigen Organisation, die sich der sicheren Technologie verschrieben hatte, zu einer Organisation mit „gedeckeltem Gewinn“ im Wert von 86 Milliarden Dollar. Und jetzt erwägt Altman, es zu einem ganz normalen, gewinnorientierten Vehikel des Kapitalismus zu machen.

Laut Aussagen ehemaliger Vorstandsmitglieder und Mitarbeiter rutschte die Sicherheit dadurch auf die Prioritätenliste.

“Aufgrund unserer Erfahrung glauben wir, dass die Selbstverwaltung dem Druck von Gewinnanreizen nicht zuverlässig standhalten kann”, schrieben die ehemaligen Vorstandsmitglieder Helen Toner und Tasha McCauley in einem Economist Kommentar letzten Monat, der eine externe Aufsicht über KI-Unternehmen forderte. Toner und McCauley stimmten letztes Jahr für Altmans Absetzung. (In einem darauffolgenden Leitartikel verteidigten die derzeitigen OpenAI-Vorstandsmitglieder Bret Taylor und Larry Summers Altman und die Sicherheitsstandards des Unternehmens.)

Diese Gewinnanreize haben das Wachstum in den Mittelpunkt gerückt, sagen einige Insider, wobei OpenAI im Wettlauf mit anderen Unternehmen der künstlichen Intelligenz steht, um fortgeschrittenere Formen der Technologie zu entwickeln – und diese Produkte auf den Markt bringt, bevor manche Leute denken, dass sie bereit für das Rampenlicht sind.

Laut einem Interview, das Toner letzte Woche gab, log Altman regelmäßig und hielt dem Vorstand Informationen vor, darunter auch solche über Sicherheitsprozesse. Der Vorstand war sich der Veröffentlichung von ChatGPT im November 2023 nicht einmal bewusst – und fand erst auf Twitter heraus, dass es online ging, sagte sie. (Das Unternehmen bestritt dies nicht ausdrücklich, sagte aber in einer Erklärung, es sei „enttäuscht, dass Frau Toner diese Themen immer wieder aufgreift.“)

Der ehemalige Forscher Kokotajlo sagte der Times, dass Microsoft begonnen habe, Bing mit einer noch nicht veröffentlichten Version von GPT zu testen, ein Schritt, den das Sicherheitsgremium von OpenAI nicht genehmigt habe. (Laut der New York Times bestritt Microsoft, dass dies geschehen sei.)

Die Bedenken ähneln denen des kürzlich ausgeschiedenen Jan Leike, der das Superalignment-Team des Unternehmens zusammen mit dem ebenfalls kürzlich abgewanderten Chefwissenschaftler Ilya Sutskever leitete. Das Team, das sich der Erforschung der Risiken widmet, die die Superintelligenz künstlicher Intelligenz für die Menschheit darstellt, erlebte in den letzten Monaten mehrere Abgänge. Es löste sich auf, als seine Leiter das Unternehmen verließen, allerdings hat das Unternehmen inzwischen ein neues Sicherheitskomitee gebildet.

„In den letzten Jahren sind Sicherheitskultur und -prozesse gegenüber glänzenden Produkten in den Hintergrund gerückt“, schrieb Leike in einer Reihe von Social-Media-Posts rund um seinen Abgang. „Ich war schon seit einiger Zeit anderer Meinung als die Führung von OpenAI über die Kernprioritäten des Unternehmens, bis wir schließlich einen Bruchpunkt erreichten.“

Diese Bedenken werden noch größer, da sich das Unternehmen der künstlichen allgemeinen Intelligenz nähert – also einer Technologie, die alle menschlichen Verhaltensweisen nachahmen kann. Viele Experten sagen, dass AGI die Wahrscheinlichkeit von P(doom) erhöht, einem nerdigen und deprimierenden Begriff für die Wahrscheinlichkeit, dass KI die Menschheit vernichtet.

Um es unverblümt auszudrücken, sagte der führende KI-Forscher Stuart Russell im vergangenen Monat gegenüber BI: „Selbst die Leute, die diese Technologie entwickeln, sagen, dass die Gefahr des Aussterbens der Menschheit besteht. Was gibt ihnen das Recht, mit jedermanns Kindern Russisches Roulette zu spielen?“

Ein A-Liste-Schauspieler und Geheimhaltungsvereinbarungen

Dass Black Widow es mit einem Giganten aus dem Silicon Valley aufnehmen würde, stand wahrscheinlich nicht auf Ihrer Bingokarte für 2024, aber so ist es nun einmal.

In den letzten Wochen ist das Unternehmen auf einige unerwartete Gegner getroffen, deren Bedenken über die Sicherheit hinausgehen, darunter Scarlett Johansson.

Letzten Monat schaltete die Schauspielerin einen Anwalt ein und schrieb eine vernichtende Stellungnahme zu OpenAI, nachdem das Unternehmen ein neues KI-Modell mit einer Stimme auf den Markt gebracht hatte, die ihrer unheimlich ähnlich war. Obwohl das Unternehmen darauf beharrt, es habe nicht versucht, Johansson zu imitieren, waren die Ähnlichkeiten nicht zu leugnen – insbesondere angesichts der Tatsache, dass Altman etwa zum Zeitpunkt der Produktankündigung „Her“ twitterte, was offenbar eine Anspielung auf Johanssons Film von 2013 ist, in dem sie eine virtuelle KI-Assistentin spielt. (Spoiler-Alarm: Der Film ist nicht gerade ein gutes Beispiel für die Technologie.)

„Ich war schockiert, wütend und konnte nicht glauben, dass Herr Altman eine Stimme anstrebte, die so unheimlich ähnlich klang“, sagte Johansson über das Modell und fügte hinzu, dass sie mehrere Angebote von Altman, eine Stimme für OpenAI bereitzustellen, abgelehnt habe.

Die Verteidigung des Unternehmens bestand im Wesentlichen darin, dass seine Führung nicht richtig kommuniziert und die Angelegenheit ungeschickt gehandhabt habe – was nicht gerade beruhigend ist, wenn man bedenkt, dass es sich bei dem Unternehmen um einige der leistungsstärksten Technologien der Welt handelt.

Die Lage wurde noch schlimmer, als ein belastender Bericht über die Unternehmenskultur der Unterdrückung von Kritik durch restriktive und ungewöhnliche Geheimhaltungsvereinbarungen veröffentlicht wurde. Ehemalige Mitarbeiter, die das Unternehmen verließen, ohne eine Geheimhaltungsvereinbarung zu unterzeichnen, konnten ihr unverfallbares Eigenkapital verlieren – für manche Millionen wert. Eine solche Vereinbarung war in der Welt der Technologie praktisch unbekannt.

„Das geht auf meine Kappe und ist eines der wenigen Male, dass ich mich beim Ausführen von OpenAI wirklich geschämt habe. Ich wusste nicht, dass das passierte, aber ich hätte es wissen müssen“, antwortete Altman in einem Tweet auf die Vorwürfe.

Doch Tage später wurde er blamiert, als ein Bericht erschien, der darauf hindeutete, dass Altman die ganze Zeit über die Geheimhaltungsvereinbarungen Bescheid wusste.

Altman musste lernen: Wenn es regnet, dann in Strömen.

Kein weißer Ritter mehr

Aber der Mairegen brachte keine Juniblumen.

Wie viele andere Tech-Raketen zuvor ist OpenAI eng mit seinem Mitbegründer und CEO Sam Altman verbunden – der bis vor kurzem als wohlwollender Superhirn mit einer Vision für eine bessere Welt galt.

Doch während sich die Wahrnehmung des Unternehmens immer weiter verschlechtert, verschlechtert sich auch die Wahrnehmung seines Chefs.

Anfang des Jahres begann sich die Risikokapital-Elite gegen Altman zu wenden, und nun könnte die Öffentlichkeit seinem Beispiel folgen.

Der Vorfall mit Scarlet Johansson ließ ihn inkompetent erscheinen, das Fumble bei der Geheimhaltung ließ ihn ein bisschen wie eine Schlange aussehen und die Sicherheitsbedenken ließen ihn wie ein böses Genie aussehen.

Zuletzt: Das Wall Street Journal gemeldet Am Montag einige fragwürdige Geschäftstransaktionen von Altman.

Obwohl er nicht direkt von OpenAI profitiert – er besitzt keine Anteile an dem Unternehmen und sein angebliches Gehalt von 65.000 Dollar ist im Vergleich zu seinem Milliardenvermögen ein Tropfen auf dem heißen Stein –, gibt es zahlreiche Interessenkonflikte. Er hat persönliche Investitionen in mehrere Unternehmen, mit denen OpenAI Geschäfte macht, berichtete das Journal.

Er besitzt beispielsweise Aktien von Reddit, das kürzlich einen Vertrag mit OpenAI unterzeichnet hat. Der erste Kunde des Atomenergie-Startups Helion, an dem Altman maßgeblich beteiligt ist, war Microsoft, OpenAIs größter Partner. (Altman und OpenAI sagten, er habe sich von diesen Verträgen zurückgezogen.)

Angesichts der Flut an negativer Berichterstattung in den Medien versuchten das Unternehmen und sein Chef, den Schaden zu begrenzen: Altman gab bekannt, dass er den Giving Pledge unterzeichnet und damit verspricht, den Großteil seines Vermögens zu spenden. Zudem hat das Unternehmen Berichten zufolge einen wichtigen Deal mit Apple abgeschlossen.

Aber ein paar positive Schlagzeilen werden nicht ausreichen, um das Chaos zu beseitigen, mit dem Altman konfrontiert ist. Es ist Zeit für ihn, einen Eimer und einen Wischmopp in die Hand zu nehmen und sich an die Arbeit zu machen.

Lesen Sie den Originalartikel auf Business Insider

source site-19