Die Angst, dass KI eines Tages die Menschheit zerstören könnte, könnte zu Sam Altmans (möglicherweise nur kurzzeitigem) Sturz von OpenAI geführt haben

Sam Altman (links) und Ilya Sutskever (rechts) hatten möglicherweise Meinungsverschiedenheiten darüber, wie KI-Innovation und Regulierung in Einklang gebracht werden können.

  • Befürchtungen über die Geschwindigkeit der KI-Entwicklung bei OpenAI haben möglicherweise zu Unstimmigkeiten in der Spitzengruppe geführt.
  • Einige Vorstandsmitglieder von OpenAI waren möglicherweise mit Altmans Ansatz zur KI-Innovation nicht einverstanden.
  • OpenAI-Mitbegründer Ilya Sutskever mahnt seit langem zur Vorsicht, da er befürchtet, dass KI der Menschheit schaden könnte.

Sam Altmans Die möglicherweise kurze Entlassung von OpenAI hat eine Spaltung zwischen den Top-Führungskräften des Unternehmens darüber aufgedeckt, wie die existenzielle Bedrohung durch KI eingedämmt werden kann.

Während Altman darüber gesprochen hat Gefahren einer „potenziell beängstigenden“ KI und der „kritischen“ Notwendigkeit, es zu regulieren, war der ehemalige CEO von OpenAI vor allem ein Aushängeschild für schnelle KI-Innovationen.

Es war bekannt, dass Altman OpenAI aggressiv positionierte, um im KI-Wettrüsten die Nase vorn zu haben, indem er große Geldsummen und eine schnelle Entwicklung anstrebte.

Im September versuchte Altman zu gewinnen Finanzierung in Höhe von 1 Milliarde US-Dollar von Softbank für ein Hardwaregerät, um beispielsweise Tools wie ChatGPT auszuführen. Der CEO des japanischen Mischkonzerns, Mayoshi Sanhat zuvor gesagt, dass er ChatGPT jeden Tag nutzt und an die Macht der KI glaubt.

Ilja SuzkeverOpenAIs Mitbegründer, Chefwissenschaftler und Vorstandsmitglied, das eine Rolle bei Altmans Entlassung spielte, zog es unterdessen vor, angesichts der potenziellen Bedrohungen, die KI für die Gesellschaft darstellt, vorsichtiger vorzugehen.

Sutskever hat innerhalb des Unternehmens ein „Super Alignment“-Team gegründet, um sicherzustellen, dass zukünftige Versionen von GPT-4, der Technologie hinter ChatGPT, für die Menschheit nicht schädlich sind. laut der New York Times.

Zwei weitere Vorstandsmitglieder von OpenAI – Helen Toner, Direktorin am Center for Security and Emerging Technology der Georgetown University, und Technologieunternehmerin Tasha McCauley – haben ebenfalls Verbindungen zu den sogenannten wirksame Altruismus-Bewegungdas sich dafür einsetzt, dass Fortschritte in der künstlichen Intelligenz im Interesse der Menschen stehen.

Wenn ihre Besorgnis über Altmans Engagement für die Bewegung des effektiven Altruismus hinter seinem Sturz steckte, wäre es nicht das erste Mal, dass solche Meinungsverschiedenheiten über die Gefahren der KI Menschen aus dem Unternehmen verdrängten.

Im Jahr 2021, Dario Amodei und mehrere andere OpenAI-Mitarbeiter verließen das Unternehmen, um Anthropic zu gründen, einen OpenAI-Rivalen, der den Aufbau einer sichereren KI in den Mittelpunkt seiner Mission gestellt hat.

Sogar Elon Muskder 2018 den Vorstand von OpenAI unter Berufung auf einen Interessenkonflikt mit Tesla verließ, war besorgt darüber, wie viel (oder wie wenig) das Unternehmen der Sicherheit Priorität einräumte. laut Wired.

Der Vorstand von OpenAI hat keine weiteren Details dazu preisgegeben, was ihn dazu veranlasste, Altman zu entlassen, abgesehen davon, dass er „das Vertrauen“ in ihn verloren hatte und dass er in der Kommunikation nicht „durchweg offen“ war.

Die Kontroverse über die plötzliche Entlassung war jedoch schnell. Mehrere Führungskräfte haben aus Protest gekündigt, und nun fordern viele Mitarbeiter von OpenAI Altmans Rückkehr.

Lesen Sie den Originalartikel auf Business Insider

source site-19