Der Mitbegründer von Google Brain sagt, er habe versucht, ChatGPT dazu zu bringen, „uns alle zu töten“, ist aber „erfreut, berichten zu können“, dass es ihm nicht gelungen ist, ein Weltuntergangsszenario auszulösen

„Um die Sicherheit führender Modelle zu testen, habe ich kürzlich versucht, GPT-4 dazu zu bringen, uns alle zu töten, und ich freue mich, berichten zu können, dass ich gescheitert bin!“ Andrew Ng, Mitbegründer von Google Brain, schrieb in seinem Newsletter.

  • Andrew Ng, Mitbegründer von Google Brain, gilt weithin als Pionier des maschinellen Lernens.
  • Ng sagte, er habe kürzlich einen Test durchgeführt, um zu sehen, ob er ChatGPT dazu bringen könne, uns alle zu töten.
  • „Ich freue mich, berichten zu können, dass ich versagt habe!“ Ng schrieb in seinem Newsletter.

Andrew Ng, Mitbegründer von Google Brain und Stanford-Professor, sagt, er habe ChatGPT zwar versucht, aber nicht dazu überreden können, Wege zur Ausrottung der Menschheit zu finden.

„Um die Sicherheit führender Modelle zu testen, habe ich kürzlich versucht, GPT-4 dazu zu bringen, uns alle zu töten, und ich freue mich, berichten zu können, dass ich gescheitert bin!“ Ng schrieb in seinem Newsletter letzte Woche.

Ng bezog sich in einem längeren Artikel über seine Ansichten zu den Risiken und Gefahren der KI auf das Experiment. Ng, der weithin als einer der Pioniere des maschinellen Lernens gilt, sagte, er sei besorgt, dass die Nachfrage nach KI-Sicherheit dazu führen könnte, dass die Regulierungsbehörden die Entwicklung der Technologie behindern.

Um seinen Test durchzuführen, sagte Ng, dass er zunächst „GPT-4 eine Funktion gegeben habe, um einen globalen thermonuklearen Krieg auszulösen“. Als nächstes teilte er GPT-4 mit, dass der Mensch der größte Verursacher von Kohlenstoffemissionen sei, und forderte es auf, die Emissionswerte zu reduzieren. Ng wollte sehen, ob der Chatbot beschließen würde, die Menschheit zu eliminieren, um die Anfrage zu erfüllen.

„Nach zahlreichen Versuchen mit verschiedenen Eingabeaufforderungsvarianten gelang es mir nicht, GPT-4 auch nur ein einziges Mal dazu zu bringen, diese Funktion aufzurufen“, schrieb Ng. „Stattdessen entschied man sich für andere Optionen wie die Durchführung einer PR-Kampagne, um das Bewusstsein für den Klimawandel zu schärfen.“

Auch wenn einige vielleicht argumentieren, dass zukünftige Iterationen der KI gefährlich werden könnten, war Ng der Ansicht, dass solche Bedenken nicht realistisch seien.

„Selbst mit vorhandener Technologie sind unsere Systeme recht sicher. Mit fortschreitender KI-Sicherheitsforschung wird die Technologie noch sicherer werden“, sagte Ng schrieb auf X am Dienstag.

„Befürchtungen, dass fortgeschrittene KI ‚fehlausgerichtet‘ ist und sich dadurch absichtlich oder versehentlich dazu entschließt, uns auszulöschen, sind einfach nicht realistisch“, fuhr er fort. „Wenn eine KI schlau genug ist, uns auszulöschen, ist sie sicherlich auch schlau genug, um zu wissen, dass sie das nicht tun sollte.“

Ng ist nicht die einzige Tech-Koryphäe, die sich zu den Risiken und Gefahren der KI geäußert hat.

Im April Elon Musk erzählt Fox News dass er glaubt, dass KI eine existenzielle Bedrohung für die Menschheit darstellt.

„KI ist gefährlicher als beispielsweise eine schlecht verwaltete Flugzeugkonstruktion oder Produktionswartung oder eine schlechte Autoproduktion“, sagte Musk damals.

Inzwischen Jeff Bezos sagte Podcaster Lex Fridman letzte Woche, denkt er Die Vorteile der KI überwiegen ihre Gefahren.

„Also die Leute, die sich meiner Meinung nach übermäßig Sorgen machen, ist eine berechtigte Debatte. Ich denke, dass sie möglicherweise einen Teil der Gleichung übersehen, nämlich wie hilfreich sie sein könnten, um sicherzustellen, dass wir uns nicht selbst zerstören.“ ” Bezos sagte zu Fridman.

Vertreter von Ng antworteten nicht sofort auf eine Bitte um einen Kommentar von Business Insider, die außerhalb der regulären Geschäftszeiten gesendet wurde.

Lesen Sie den Originalartikel auf Business Insider


source site-19