Sam Altmans großes Problem? ChatGPT muss „aufgeweckt“ werden, wenn er Geld von Corporate America will

Sam Altman, CEO von OpenAI, hat eingeräumt, dass ChatGPT ein Bias-Problem hat.

  • ChatGPT leidet wie andere KI-Tools unter einem Bias-Problem, das die Akzeptanz von Unternehmen behindern könnte.
  • Sam Altman, CEO von OpenAI, räumt ein, dass die Technologie „Mängel in Bezug auf Voreingenommenheit“ aufweist.
  • Corporate America wird kein Tool implementieren, das riskiert, des Rassismus oder Sexismus beschuldigt zu werden.

OpenAI ist bereit, aus der Begeisterung von ChatGPT Kapital zu schlagen.

Am Mittwoch kündigte das Unternehmen an, dass es eine Pilotversion des Chatbots namens ChatGPT Plus für 20 US-Dollar pro Monat anbieten wird, die den Benutzern in Spitzenzeiten vorrangigen Zugriff und schnellere Antworten bietet. Die kostenlose Version bleibt verfügbar, ist aber so beliebt, dass sie oft ausgelastet ist oder nur langsam Antworten gibt.

In einem klaren Schub für die Kommerzialisierung sagte OpenAI auch, dass es eine API-Warteliste, verschiedene bezahlte Ebenen und Geschäftspläne einführen werde. Offenbar glaubt OpenAI, dass Unternehmen bereit sein werden, für die Fähigkeiten seines Chatbots zu bezahlen.

Aber es gibt eine große Hürde: Corporate Americas „Woke-as-a-Business-a-Strategie“.

Der CEO von OpenAI, Sam Altman, gab dies am Mittwoch zuChatGPT hat “Mängel in Bezug auf Voreingenommenheit”, obwohl er nicht ins Detail ging.In der Praxis bedeutet dies wahrscheinlich, dass das zugrunde liegende KI-Modell so trainiert ist, dass es manchmal rassistische, sexistische oder anderweitig voreingenommene Antworten ausspuckt. The Intercept fragte ChatGPTzum Beispiel, welche Flugpassagiere ein größeres Sicherheitsrisiko darstellen könnten. Berichten zufolge spuckte der Bot eine Formel aus, die ein erhöhtes Risiko berechnete, wenn der Passagier entweder aus Syrien, dem Irak, Afghanistan oder Nordkorea kam oder einfach nur dort war.

Nur wenige große Unternehmen, die mit Bargeld herumwerfen können, abonnieren die Black-Box-Technologie, die sie möglicherweise mitten in einen Kulturkrieg versetzt. Und es ist Altmans größte Herausforderung, von der Technologie zu profitieren.

Warum ChatGPT geweckt werden muss

Das rechte Medienökosystem hat ChatGPT des Seins beschuldigtzuaufgewachtder sagt, dass der Bot beispielsweise zu LGBT-Themen progressive Positionen einnimmt.

OpenAI könnte hier einnicken, um die Kopfschmerzen der politischen Kontrolle durch Konservative zu lindern. Aber das riskiert, das Endergebnis zu beeinträchtigen. Die Realität ist, dass Blue-Chip-Unternehmen empfindlich auf Kulturkriegsprobleme reagieren und schlechte Presse und den Verlust von Kunden fürchten. Beweise deuten darauf hin, dass sie Recht haben: Eine Umfrage unter 3.000 Amerikanern im Jahr 2021 ergab, dass die Mehrheit möchte, dass CEOs zu Themen wie Rassismus und Sexismus Stellung beziehen. Es ist ein guter Kapitalismus, progressiv zu sein, und die wahre Anti-Wake-Crowd ist eigentlich eine politische Minderheit.

Der NYU-Professor und Wirtschaftskommentator Scott Galloway legte letztes Jahr explizit die „Wake-as-a-Business“-Strategie dar und verwies zum Beispiel auf eine Nike-Werbung mit Colin Kaepernick, die darauf hinwies, dass er zur Unterstützung von Black Lives Matter auf die Knie ging.

Unglücklicherweise für OpenAI hatte ChatGPT bereits mehrere Vorurteilsfälle auftauchen. Die Veröffentlichung im November machte die Technologie laut UBS in nur zwei Monaten für 100 Millionen Menschen zugänglich.

 

Wir haben bereits viele Beweise dafür, dass große US-Firmen vor allem zurückschrecken, was sexistisch oder rassistisch aussehen könnte – nicht zuletzt von Microsoft, dem großen Geldgeber von OpenAI.

Microsoft, das schätzungsweise 10 Milliarden US-Dollar in OpenAI gesteckt hat, veröffentlichte 2016 einen Chatbot auf Twitter namens Tay, der sich schnell in einen Fremdenhasser verwandelte, der rassistische Beleidigungen verbreitete.

Das Unternehmenschloss es und bot eine Entschuldigung an für „die unbeabsichtigten beleidigenden und verletzenden Tweets von Tay“.

Unternehmen könnten OpenAI dazu drängen, transparenter mit Trainingsdaten umzugehen

Altman sagte, die Korrektur der Vorurteile von ChatGPT werde „schwieriger sein, als es sich anhört, und wir werden Zeit brauchen, um es richtig zu machen“.

Professor Michael Wooldridge, Direktor der Foundation AI Research am Turing Institute, sagte gegenüber Insider, dass Bots wie ChatGPT, die mit riesigen Datenmengen trainiert werden, aus mehreren Gründen unter Voreingenommenheit leiden.

Zum einen stellt Wooldridge fest, dass „weiße, männliche Amerikaner mit College-Ausbildung“ die Hauptdemografie der Menschen darstellen, die KI-Systeme bauen, sodass alle Vorurteile, die sie mit sich bringen, in den Bot einfließen können.

Ein weiteres Problem: Alle Menschen sind irgendwie voreingenommen.

„Ich denke, viele Forscher würden argumentieren, dass das allgemeinere Problem darin besteht, dass Sie unabhängig davon, wie Sie Ihre Trainingsdaten erhalten, gesellschaftliche Vorurteile absorbieren, selbst wenn sie von einer Vielzahl von Menschen stammen“, sagte Wooldridge.

OpenAI hat keine detaillierten Informationen darüber gegeben, welche Daten zum Trainieren von GPT-3.5, dem Modell, das ChatGPT zugrunde liegt, verwendet wurden, obwohl Wooldridge anmerkt, dass es wahrscheinlich das gesamte Web umfasst.

„Das bedeutet ganz Reddit, ganz Twitter, jeden digitalen Text, den sie in die Finger bekommen können“, sagte er. „Man muss nicht sehr lange nachdenken, um zu erkennen, dass in diesen Trainingsdaten eine enorme Menge an toxischen Inhalten von absolut jeder erdenklichen Sorte vorhanden ist.“

Obwohl OpenAI bisher erfolgreich war, könnte Wooldridge ein Szenario sehen, in dem das Unternehmen von Kunden dazu gedrängt wird, seine Trainingsdaten offenzulegen. Es ist unwahrscheinlich, dass die Voreingenommenheit von ChatGPT sofort behoben wird, aber Transparenz und Kontrolle könnten am Ende besser für das Endergebnis von OpenAI sein.

Lesen Sie den Originalartikel auf Business Insider


source site-19