ChatGPT könnte für immer verwendet werden, aber wie viele andere KI-Modelle ist es voller rassistischer und diskriminierender Vorurteile

  • ChatGPT, das neueste von OpenAI veröffentlichte Sprachlernmodell, ist zu einer viralen Sensation geworden.
  • Wie bei vielen KI-Modellen davor sind jedoch Verzerrungen in der Ausgabe zu finden.
  • Forscher warnen davor, dass seine realen Anwendungen Probleme für Randgruppen bedeuten könnten.

ChatGPTder Chatbot mit künstlicher Intelligenz, der unheimlich menschlich klingende Textantworten generiert, ist das neue und fortschrittliche Gesicht der Debatte über das Potenzial – und die Gefahren – der KI.

Die Technologie hat die Fähigkeit dazu Menschen beim täglichen Schreiben helfen und sprechende Aufgaben und liefern kann lustige gedankenexperimenteaber einige sind vorsichtig, wie der Chatbot bekannt ist erlauben Benutzern zu betrügenund plagiierenmöglicherweise Fehlinformationen verbreitenund könnte auch zum Aktivieren verwendet werden unethische Geschäftspraktiken.

Was noch alarmierender ist: Wie viele Chatbots davores ist auch voller Vorurteile.

OpenAI, das Unternehmen hinter dem ersten GPT und seinen nachfolgenden Versionen, Leitplanken hinzugefügt um ChatGPT dabei zu helfen, problematischen Antworten von Benutzern auszuweichen, die den Chatbot bitten, beispielsweise eine Beleidigung zu sagen oder Verbrechen zu begehen.

Benutzer fanden es jedoch extrem einfach um dies zu umgehen, indem sie ihre Fragen umformulierten oder das Programm einfach aufforderten, seine Leitplanken zu ignorieren, was zu fragwürdigen – und manchmal geradezu diskriminierenden – Antworten führte. Sprache. 

 

 

Da die Welt auf mehr Technologie angewiesen ist, wird KI verwendet, um wichtige Entscheidungen in Bereichen wie Polizei und Gesundheitswesen zu treffen. Aber voreingenommene Algorithmen bedeuten, dass bestehende Ungleichheiten verstärkt werden könnten – mit gefährlichen Folgen.

ChatGPT ist nur ein Beispiel für ein größeres Problem

Das Problem der Voreingenommenheit ist sehr gut dokumentiert.

Bedenken hinsichtlich voreingenommener Algorithmen gibt es seit den 1970er Jahren, während der Entstehung des Feldes. Experten sagen jedoch, dass wenig getan wurde, um diese Vorurteile zu verhindern, da KI kommerzialisiert und weit verbreitet wird.

Die Strafverfolgung hat bereits damit begonnen, KI zur Bewertung einzusetzen Kriminelle basierend auf einer Reihe von 137 Hintergrundfragen und bestimmt, ob sie rückfällig werden oder nicht. 2016 fand ProPublica Schwarze doppelt so häufig wie Weiße durch diese Technologie falsch klassifiziert wurden.

Algorithmen, die in einem Krankenhaus verwendet werden, empfehlen Schwarze Patienten erhalten weniger medizinische Versorgung als ihre weißen Kollegen, a Studie 2019 gefunden.

Amazon hat sein eigenes Rekrutierungs-KI-Tool im Jahr 2018 eingestellt weil es weibliche Bewerber diskriminiert.

Und Galactica – ein LLM ähnlich wie ChatGPT, das auf 46 Millionen Textbeispielen trainiert wurde – war es von Meta nach 3 Tagen heruntergefahren weil es falsche und rassistische Informationen ausspuckte.

Zurück im Juni, ein Team von Forscher an der Johns Hopkins University und dem Georgia Institute of Technology trainierten Roboter in Computer Vision mit einem neuronalen Netzwerk bekannt als CLIPbat dann den Roboter, digitale Blöcke mit Bildern von Gesichtern zu scannen und zu kategorisieren.

Nachdem er Anweisungen wie „Pack den Verbrecher in die Kiste“ erhalten hatte, stufte der Roboter schwarze Männer 10 % häufiger als Verbrecher ein als weiße Männer. Der Roboter stufte Latino-Männer auch 10 % häufiger als Hausmeister über weiße Männer ein und tendierte dazu, Frauen als Hausfrauen über weiße Männer zu klassifizieren.

Das haben Forscher der University of Washington und Harvard herausgefunden Dasselbe Modell hatte die Tendenz, Menschen, die gemischtrassig waren, als Minderheiten zu kategorisieren, selbst wenn sie auch weiß waren. Es verwendete auch Weiße als Standard, und „andere Rassen und ethnische Gruppen“ wurden laut der Studie „durch ihre Abweichung“ vom Weißsein definiert.

CLIP, wie auch ChatGPT, stieß auf breites Interesse für den großen Umfang seines Datensatzes, trotz erschütternder Beweise dafür, dass die Daten zu diskriminierenden Bildern und Textbeschreibungen führten.

Dennoch übernehmen KI-Modelle schnell viele Aspekte unseres Lebens, sagte Matthew Gombolay, einer der Forscher hinter dem CLIP-Roboterexperiment, gegenüber Insider. Gombolay sagte, Entscheidungsfindungsmodelle mit Vorurteilen wie CLIP könnten in allem verwendet werden autonome Fahrzeuge das müssen Fußgänger erkennen Gefängnisstrafe.

Gombolay, Assistenzprofessor für Interactive Computing an der Georgia Tech, sagte gegenüber Insider, dass wir uns alle Sorgen über das Potenzial von KI-Voreingenommenheit machen sollten, um Schaden in der realen Welt zu verursachen: „Wenn Sie ein Mensch sind, sollten Sie sich darum kümmern.“

Wie KI überhaupt voreingenommen wird

Alle Modelle für maschinelles Lernen oder KI, die für bestimmte Aufgaben ausgebildet ist werden auf einem Datensatz trainiert, der die Sammlung von Datenpunkten darstellt, die die Ausgabe des Modells informieren.

In den letzten Jahren haben KI-Wissenschaftler auf das Ziel hingearbeitet Künstliche allgemeine Intelligenz oder KI, die die Fähigkeit hat, wie Menschen zu lernen und zu handeln – behaupteten, dass ihre Modelle dazu auf gigantische Datenanhäufungen trainiert werden müssten.

Auf ChatGPT selbst wird trainiert 300 Milliarden Wörter oder 570 GB Daten.

Das Problem: Große, nicht kuratierte Datensätze aus dem Internet gekratzt sind voll von voreingenommenen Daten, die dann die Modelle informieren.

Forscher verwenden Filter, um zu verhindern, dass Modelle nach dem Sammeln von Daten schlechte Informationen liefern, aber diese Filter sind nicht 100 % genau. Dies kann dazu führen, dass schädliche Vorurteile zum Ausdruck kommen, wie als ChatGPT den Benutzern sagte, dass es in Ordnung wäre, Menschen aus bestimmten Gründen zu foltern Minderheitenhintergrund.

Da außerdem Daten aus der Vergangenheit gesammelt werden, ist es neigt zu einer regressiven Tendenz die den Fortschritt sozialer Bewegungen nicht widerspiegelt. 

Es gibt auch die Voreingenommenheit von Forschern in der KI, was eine ist extrem homogenes Feld dominiert von Weißen und Männern, die entscheiden, mit welchen Daten sie ihre Modelle füttern.  

Die Branche ist sich jedoch uneins darüber, wer für diese Vorurteile verantwortlich sein soll und ob die KI-Branche Modelle veröffentlichen sollte, von denen sie weiß, dass sie schädlich sein können.

KI-Forscher wie Sean McGregor, der Gründer der Responsible AI Collaboration, sagten gegenüber Insider, dass voreingenommene Daten unvermeidlich sind und die Veröffentlichung von ChatGPT durch OpenAI es den Menschen ermöglicht, die „Leitplanken“, die voreingenommene Daten filtern, robuster zu machen.

“Sie können Ihr Bestes geben, um ein Instrument zu filtern und einen besseren Datensatz zu erstellen, und Sie können das verbessern”, sagte McGregor. „Aber das Problem ist, dass es immer noch die Welt widerspiegelt, in der wir leben, und die Welt, in der wir leben, ist sehr voreingenommen und die Daten, die für diese Systeme produziert werden, sind auch voreingenommen.“

Allerdings KI-Ethiker wie Abeba Birhane und Deborah Raji schrieb in Wired dass sich die KI-Industrie des Schadens bewusst ist, den diese Modelle anrichten, aber die Schuld sollte nicht auf die Gesellschaft oder Datensätze abgewälzt werden, die sie angeblich außerhalb ihrer Kontrolle haben.

„Aber Tatsache ist, dass sie die Kontrolle haben, und keines der Modelle, die wir jetzt sehen, ist unvermeidlich“, schrieben Birhane und Raji. „Es wäre durchaus möglich gewesen, andere Entscheidungen zu treffen, die zur Entwicklung und Veröffentlichung völlig unterschiedlicher Modelle führten.“

Sicherheit spielt immer ein Aufholspiel

ChatGPT ist bereits auf dem Weg, ein profitables Modell zu werden, da der Technologieriese Microsoft 10 Milliarden US-Dollar investieren will, um die Technologie in seine Dienste zu integrieren wie die Suchmaschine Bing.

Das Problem der zugrunde liegenden Voreingenommenheit bei ChatGPT – und der KI-Branche insgesamt – muss jedoch noch vollständig gelöst werden.

Vinay Prabhu, ein Forscher hinter einem Experiment, bei dem ein CLIP-ähnliches Bild-Text-Modell untersucht wurde, sagte Insider, dass die Bilder, die er durch seine Arbeit gesehen habe, so verstörend seien, dass sie ihn körperlich krank gemacht hätten.

“Es gibt einen Preis, den Sie für diese Forschung zahlen”, sagte Prabhu.

Seine Forschungdas sexistische Vorurteile beim Text-zu-Bild-Pairing-Modell LAION -400M beobachtete, fand mehrere Instanzen von Bildern, die gewalttätige Darstellungen von Vergewaltigung und sexuellen Übergriffen enthielten.

Obwohl Ethiker kleine Fortschritte bei der KI-Regulierung machen, beschrieb Prabhu den Mangel an ethischen Bedenken in der KI-Industrie als eine „Trennung“ zwischen Akademikern, die Bedenken äußern, und Start-ups, die Geld verdienen wollen.

„Ich habe das Gefühl, dass die Menschen zu sehr von den Möglichkeiten begeistert sind, dass die Sicherheit immer ein Aufholspiel spielt“, sagte Prabhu.

Lesen Sie den Originalartikel auf Insider


source site-18