Warum es immer schwieriger wird, OpenAI zu vertrauen

Ein zusammengesetztes Foto von OpenAI-CEO Sam Altman, Edward Snowden und dem ehemaligen NSA-Chef Paul Nakasone.

  • OpenAI hat den ehemaligen NSA-Direktor Paul Nakasone in seinen Vorstand berufen.
  • Mit der Einstellung von Nakasone soll die KI-Sicherheit verbessert werden, es weckt sich jedoch Bedenken hinsichtlich der Überwachung.
  • Auch die interne Sicherheitsgruppe des Unternehmens wurde praktisch aufgelöst.

Vor dem Büro stehen gruselige Undercover-Sicherheitsleute. Gerade hat die Organisation einen ehemaligen NSA-Direktor in den Vorstand berufen. Und die interne Arbeitsgruppe, die den sicheren Einsatz künstlicher Intelligenz fördern sollte, hat sich praktisch aufgelöst.

OpenAI fühlt sich von Tag zu Tag ein bisschen weniger offen an.

In seinem neuesten, aufsehenerregenden Schritt hat das Unternehmen sagte Freitag Sie hatte den ehemaligen NSA-Direktor Paul Nakasone in ihren Vorstand berufen.

Neben seiner Tätigkeit als Leiter der NSA war Nakasone auch Chef des US Cyber ​​Command – der Cybersicherheitsabteilung des US-Verteidigungsministeriums. OpenAI sagt, die Einstellung von Nakasone zeige sein „Engagement für Sicherheit und Schutz“ und unterstreiche die Bedeutung der Cybersicherheit angesichts der fortschreitenden Entwicklung der KI.

„OpenAIs Engagement für seine Mission steht im Einklang mit meinen eigenen Werten und Erfahrungen im öffentlichen Dienst“, sagte Nakasone in einer Erklärung. „Ich freue mich darauf, zu OpenAIs Bemühungen beizutragen, sicherzustellen, dass künstliche allgemeine Intelligenz sicher und für Menschen auf der ganzen Welt von Nutzen ist.“

Kritiker befürchten jedoch, dass hinter der Einstellung Nakasones etwas anderes stecken könnte: Überwachung.

Edward Snowden, der US-Whistleblower, der 2013 geheime Dokumente über Überwachungsmaßnahmen durchsickern ließ, sagte in einem Beitrag auf X dass die Einstellung Nakasones ein „kalkulierter Verrat an den Rechten jedes Menschen auf der Erde“ sei.

„Sie haben die Maske komplett abgelegt: Vertrauen Sie OpenAI oder seinen Produkten (ChatGPT usw.) niemals“, schrieb Snowden.

In einem anderen Kommentar zu XSnowden sagte, die „Verbindung von künstlicher Intelligenz mit dem Ozean an Massenüberwachungsdaten, der sich in den letzten beiden Jahrzehnten angesammelt hat, wird wahrhaft furchtbare Macht in die Hände einer kleinen Gruppe legen, die niemand zur Rechenschaft ziehen kann.“

Senator Mark Warner, ein Demokrat aus Virginia und Vorsitzender des Geheimdienstausschusses des Senats, bezeichnete Nakasones Einstellung dagegen als „riesigen Glücksfall“.

„Es gibt niemanden in der Sicherheitsgemeinschaft, der mehr Respekt genießt“, sagte Warner. sagte Axios.

Nakasones Fachwissen im Bereich Sicherheit könnte bei OpenAI benötigt werden, wo Kritiker befürchten, dass Sicherheitsprobleme das System anfällig für Angriffe machen könnten.

OpenAI entließ im April das ehemalige Vorstandsmitglied Leopold Aschenbrenner, nachdem dieser ein Memo mit einem „schweren Sicherheitsvorfall“ verschickt hatte. Er beschrieb die Sicherheitsmaßnahmen des Unternehmens als „eklatant unzureichend“, um es vor Diebstahl durch ausländische Akteure zu schützen.

Kurz darauf löste sich das Superalignment-Team von OpenAI – dessen Schwerpunkt auf der Entwicklung von KI-Systemen lag, die mit menschlichen Interessen vereinbar waren – abrupt auf, als zwei der bekanntesten Sicherheitsforscher des Unternehmens kündigten.

Jan Leike, einer der scheidenden Forscher, sagte, er sei „schon seit geraumer Zeit anderer Meinung als die Führung von OpenAI hinsichtlich der Kernprioritäten des Unternehmens gewesen“.

Ilya Sutskever, der Chefwissenschaftler von OpenAI, der das Superalignment-Team ursprünglich ins Leben gerufen hatte, äußerte sich zurückhaltender zu den Gründen für seinen Weggang. Unternehmensinsider sagten jedoch, sein Ruf sei aufgrund seiner Rolle bei der gescheiterten Entlassung von CEO Sam Altman auf wackeligen Beinen gestanden. Sutskever missbilligte Altmans aggressiven Ansatz bei der KI-Entwicklung, der ihren Machtkampf befeuerte.

Und als ob das alles noch nicht genug wäre, sagen sogar Anwohner, die in der Nähe des OpenAI-Büros in San Francisco leben und arbeiten, dass ihnen das Unternehmen langsam Angst macht. Eine Kassiererin in einer benachbarten Tierhandlung sagte Der San Francisco Standard dass im Büro eine „geheimnisvolle Atmosphäre“ herrsche.

Mehrere Mitarbeiter benachbarter Unternehmen berichten, dass vor dem Gebäude Männer stünden, die wie verdeckte Sicherheitsleute aussahen. Sie wollen jedoch nicht sagen, dass sie für OpenAI arbeiten.

“[OpenAI] ist kein schlechter Nachbar”, sagte einer. “Aber sie sind geheimnisvoll.”

Lesen Sie den Originalartikel auf Business Insider

source site-19