Ihre Aufgabe war es, dafür zu sorgen, dass Menschen vor der Superintelligenz von OpenAI sicher sind. Sie haben einfach aufgehört.

Das Superalignment-Team von OpenAI ist jetzt ohne seine beiden Chefs, den Forscher für maschinelles Lernen Jan Leike und den Mitbegründer Ilya Sutskever.

  • Der Forscher für maschinelles Lernen Jan Leike und der Wissenschaftler Ilya Sutskever sind gerade von OpenAI zurückgetreten.
  • Die Aufgabe ihres Teams bestand im Wesentlichen darin, sicherzustellen, dass Menschen vor der Superintelligenz von OpenAI geschützt sind.
  • Das Team kämpfte darum, sicherzustellen, dass die KI weiterhin im Einklang mit den Interessen der Menschheit steht.

Es ist noch zu früh, um zu sagen, was große Veränderungen bei OpenAI für das Unternehmen bedeuten oder ob Sam Altman plant, die Leute in diesen Rollen durch neue Mitarbeiter zu ersetzen. Aber dies ist kein guter Tag für KI-Untergangspropheten.

Ilya Sutskever, Mitbegründer von OpenAI und Chefwissenschaftler des Unternehmens, sagte am Dienstag auf X, dass er „die Entscheidung getroffen habe, OpenAI zu verlassen“. Sutskever bezeichnete es als „eine Ehre und ein Privileg, mit Altman und seinem Team zusammengearbeitet zu haben“ und zog sich von der Rolle zurück. Er sei „zuversichtlich, dass OpenAI eine AGI entwickeln wird, die sowohl sicher als auch nützlich ist“.

Der abruptere Abgang kam von Jan Leike, einem weiteren Top-Manager von OpenAI. Am Dienstagabend veröffentlichte Leike auf X eine unverblümte, aus zwei Worten bestehende Bestätigung seines Ausstiegs aus OpenAI: „Ich bin zurückgetreten.“

Leike und Sutskever leiteten das Superalignment-Team bei OpenAI, das in den letzten Monaten eine Reihe weiterer Abgänge erlebte.

„Wir brauchen wissenschaftliche und technische Durchbrüche, um KI-Systeme viel intelligenter zu steuern und zu kontrollieren als wir“, sagte OpenAI in einem Beitrag vom 5. Juli 2023 auf seiner Website über Superalignment. „Um dieses Problem innerhalb von vier Jahren zu lösen, gründen wir ein neues Team unter der gemeinsamen Leitung von Ilya Sutskever und Jan Leike und widmen 20 % der Rechenleistung, die wir bisher gesichert haben, dieser Aufgabe.“

Daraus folgt, dass ein Teil der Arbeit des Duos darin bestand, in den Worten von OpenAI „sicherzustellen, dass KI-Systeme, die viel intelligenter sind als Menschen, menschlichen Absichten folgen“.

Und die Tatsache, dass es solche Kontrollen noch nicht gibt, ist ein Problem, das OpenAI in seinem Beitrag vom Juli 2023 erkannt hat.

„Derzeit haben wir keine Lösung, um eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie abtrünnig wird. Unsere aktuellen Techniken zur Ausrichtung der KI, wie z Verstärkungslernen aus menschlichem Feedback, verlassen sich auf die Fähigkeit des Menschen, KI zu überwachen“, heißt es in dem Beitrag von OpenAI. „Aber Menschen werden nicht in der Lage sein, KI-Systeme, die viel intelligenter sind als wir, zuverlässig zu überwachen, und daher werden unsere aktuellen Ausrichtungstechniken nicht auf Superintelligenz skalierbar sein.“ Wir brauchen neue wissenschaftliche und technische Durchbrüche.“

Leike – der vor seinem Auftritt bei OpenAI bei Googles DeepMind arbeitete – hatte große Ambitionen, Menschen vor der von uns geschaffenen Superintelligenz zu schützen.

„Es ist, als hätten wir dieses schwierige Problem, über das wir schon seit vielen Jahren reden, und jetzt haben wir eine echte Chance, es tatsächlich zu lösen“, sagte Leike auf einer Folge des Podcasts „80.000 Stunden“ vom August 2023.

Auf seinem Substack hat Leike dargelegt, wie das Ausrichtungsproblem – wenn Maschinen nicht im Einklang mit den Absichten des Menschen handeln – gelöst werden kann und was zur Lösung erforderlich ist.

„Vielleicht liegt eine endgültige Lösung des Ausrichtungsproblems im Raum der Probleme, die Menschen lösen können. Aber vielleicht auch nicht“, sagt Leike schrieb im März 2022. „Indem wir versuchen, das gesamte Problem zu lösen, versuchen wir möglicherweise, etwas zu erreichen, das außerhalb unserer Reichweite liegt. Stattdessen können wir ein weniger ehrgeiziges Ziel verfolgen, das uns letztendlich dennoch zu einer Lösung führen kann, einem minimal lebensfähigen Produkt (MVP). zur Ausrichtung: Aufbau eines ausreichend ausgerichteten KI-Systems, das die Ausrichtungsforschung beschleunigt, um leistungsfähigere KI-Systeme auszurichten.“

Sutskever, Leike und Vertreter von OpenAI antworteten nicht sofort auf Anfragen von Business Insider nach Kommentaren, die außerhalb der regulären Geschäftszeiten gesendet wurden.

Lesen Sie den Originalartikel auf Business Insider

source site-18