Sam Altmans Wahlkampfplan zeigt, dass er unbedingt vermeiden möchte, die Fehler von Mark Zuckerberg zu wiederholen

OpenAI-Chef Sam Altman wird daran interessiert sein, Facebooks Wahlfehler zu vermeiden.

  • Sam Altman hat in Davos eine große Aufgabe: die Staats- und Regierungschefs davon zu überzeugen, dass er die Wahlfehler von Facebook nicht wiederholen wird.
  • OpenAI hat seinen Plan dargelegt, zu verhindern, dass Tools wie ChatGPT zur Beeinträchtigung von Wahlen eingesetzt werden.
  • Der Plan sieht einen „proaktiven Ansatz“ gegen Deep Fakes und ein Verbot von Apps für politische Kampagnen vor.

Sam Altman wird in Davos eine Charmeoffensive starten.

Als die ChatGPT Chef, der diese Woche zum Weltwirtschaftsforum die Schweizer Alpen besucht, kann darauf wetten, dass er aus der üblichen Parade von Eliten, die an der jährlichen Klausur teilnehmen, hochfliegende Fragen über die Zukunft der KI stellen wird.

Die Verärgerten unter ihnen werden eine viel dringendere Frage zu stellen haben: Was will er vermeiden? Wahlfehler von Mark Zuckerberg?

Als die Die USA und andere Nationen bereiten sich auf die diesjährigen Wahlen vorwird die politische Klasse negative Erinnerungen an die Rolle haben, die Facebook im letzten Jahrzehnt bei der Schädigung des demokratischen Prozesses gespielt hat.

Unter Zuckerbergs Aufsicht erleichterte Facebook die Verbreitung von Fehlinformationen und wurde zum Ziel von Bösewichte aus Russland missbrauchen seinen Dienstund ermöglichte es einem Unternehmen, das dies anstrebte, die Daten von Millionen von Benutzern zu sammeln Ändern Sie die Absichten Ihrer Wähler mit gezielter Werbung.

Nach der Wahl 2016 wies Zuckerberg die Behauptung, Facebook habe die Abstimmung beeinflusst, als „ziemlich verrückte Idee“ zurück. Er sagte, die Wähler hätten „Entscheidungen auf der Grundlage ihrer gelebten Erfahrungen“ getroffen und gefälschte Nachrichten machten einen kleinen Teil der Inhalte auf der Plattform aus.

Zwei Jahre später, im Jahr 2018, erschien er vor dem Kongress und räumte ein, dass das Unternehmen „nicht genug getan“ habe, um unter anderem ausländische Einmischung in Wahlen zu verhindern.

Bedenken, dass KI einen Einfluss auf Wahlen haben könnte, sind nicht unberechtigt. Seit der Einführung von ChatGPT gab es zahlreiche Beispiele dafür, dass generative KI „halluziniert“ – oder ungenaue Informationen erzeugt.

Politische Führer werden verzweifelt hoffen, dass Altman nicht zulässt, dass ChatGPT das Ausmaß des Chaos anrichtet, das Facebook zuvor in der Wahlsaison erlebt hat.

Gut, dass Altman mit einem Plan in Davos aufgetaucht ist.

Mark Zuckerberg sagte im April 2010 im Hart Senate Office Building zum Cambridge-Analytica-Skandal aus.  Er sitzt vor einer Gedenktafel, auf der sein Name steht.
Mark Zuckerberg von Meta wurde vor dem Kongress wegen der Rolle des Unternehmens bei der Verbreitung von Fehlinformationen kritisiert.

Am Montag, OpenAI hat einen Blog veröffentlicht Darin wurden seine Pläne für die bevorstehenden weltweiten Wahlen im Jahr 2024 detailliert beschrieben.

„Der Schutz der Integrität von Wahlen erfordert die Zusammenarbeit aus allen Bereichen des demokratischen Prozesses, und wir möchten sicherstellen, dass unsere Technologie nicht in einer Weise eingesetzt wird, die diesen Prozess untergraben könnte“, heißt es in der Eröffnungserklärung des Blogs.

Um dies sicherzustellen, ergreifen die OpenAI-Teams – einschließlich der Abteilungen für Sicherheitssysteme, Bedrohungsinformationen, Rechts-, Technik- und Richtlinienabteilungen – verschiedene Schritte.

Der erste, so heißt es, sei ein proaktiver Ansatz, um zu verhindern, dass seine Tools zum Erstellen verwendet werden tiefe Fälschungensowie „skalierte Einflussoperationen oder Chatbots, die sich als Kandidaten ausgeben“.

OpenAI sagt zum Beispiel DALL-E, ein Text-zu-Bild-Modell„hat Leitplanken, um Anfragen abzulehnen, die die Generierung von Bildern realer Menschen, einschließlich Kandidaten, erfordern.“

Das Unternehmen verbietet außerdem die Verwendung seiner Tools zur Entwicklung von Anwendungen für „politische Kampagnen und Lobbying“, bis es herausgefunden hat, wie effektiv sie Menschen überzeugen können.

Transparenz ist auch für OpenAI ein großes Gesprächsthema.

In einer Welt, in der es immer mehr KI-generierte Inhalte gibt, kann es schwieriger sein zu bestimmen, was KI-generiert ist und was nicht. Aus diesem Grund werden Instrumente eingeführt, mit denen die Wähler zwischen ihnen unterscheiden können.

ChatGPTIn der Zwischenzeit wird „sich zunehmend in vorhandene Informationsquellen integrieren“, wie zum Beispiel Nachrichtenberichte in Echtzeit, sodass Benutzer die Zuschreibungen der Informationen sehen können, die sie vom Chatbot erhalten.

Wie viel davon einen Unterschied macht, muss noch ermittelt werden. KI ist bereits einsatzbereit und wird für Kampagnen eingesetzt. Die Republikaner nutzten letztes Jahr eine KI-generierte Anzeige um eine düstere, imaginäre Zukunft für die USA darzustellen, falls Joe Biden wiedergewählt würde.

Altman hofft, dass diese Sicherheitsvorkehrungen ausreichen. In einem Jahr, in dem über 64 Länder zur Wahl gehen, es könnte kaum wichtiger sein, dass sie es tun.

Lesen Sie den Originalartikel auf Business Insider

source site-19