Mark Zuckerberg ist mit einer chinesisch-amerikanischen Frau verheiratet, aber Metas KI-Bildgenerator kann sich keinen asiatischen Mann mit einer weißen Frau vorstellen

Priscilla Chan und Mark Zuckerberg

  • Metas KI-Bildgenerator Imagine wird rassistische Voreingenommenheit vorgeworfen.
  • Das Tool war nicht in der Lage, Bilder eines asiatischen Mannes mit einer weißen Frau zu erstellen.
  • Die offensichtliche Voreingenommenheit ist überraschend, da Zuckerberg, CEO von Meta, mit einer Frau ostasiatischer Herkunft verheiratet ist.

Dem KI-Bildgenerator von Meta wurde rassistische Voreingenommenheit vorgeworfen, nachdem Benutzer herausfanden, dass er nicht in der Lage war, ein Bild eines asiatischen Mannes mit einer weißen Frau zu erstellen.

Der KI-gestützter Bildgenerator, Imagine, wurde Ende letzten Jahres ins Leben gerufen. Es ist in der Lage, fast jede schriftliche Aufforderung aufzunehmen und sie sofort in ein realistisches Bild umzuwandeln.

Benutzer stellten jedoch fest, dass die KI keine Bilder erstellen konnte, die Paare gemischter Abstammung zeigen. Als Business Insider das Tool aufforderte, ein Bild eines asiatischen Mannes mit einer weißen Frau zu erstellen, wurden nur Bilder asiatischer Paare gezeigt.

Meta Imagine

Die offensichtliche Voreingenommenheit der KI ist überraschend, wenn man bedenkt, dass Mark Zuckerberg, CEO von Meta, mit einer Frau ostasiatischer Herkunft verheiratet ist.

Priscilla Chan, die Tochter chinesischer Einwanderer in Amerika, lernte Zuckerberg während ihres Studiums in Harvard kennen. Das Paar heiratete im Jahr 2012.

Einige Benutzer gingen zu X, um Bilder von Zuckerberg und Chan zu teilen, und scherzten, dass es ihnen gelungen sei, die Bilder mit Imagine zu erstellen.

Der Rand habe das Problem zuerst gemeldet am Mittwoch, als die Reporterin Mia Sato behauptete, sie habe „dutzende Male“ versucht, Bilder von asiatischen Männern und Frauen mit weißen Partnern und Freunden zu erstellen.

Sato sagte, der Bildgenerator sei nur in der Lage, ein genaues Bild der in ihren Eingabeaufforderungen angegebenen Rennen zurückzugeben.

Meta reagierte nicht sofort auf eine Bitte von BI um einen Kommentar, die außerhalb der normalen Geschäftszeiten gestellt wurde.

Meta ist keineswegs das erste große Technologieunternehmen, das wegen „rassistischer“ KI kritisiert wird.

Im Februar musste Google seinen Gemini-Bildgenerator anhalten, nachdem Nutzer festgestellt hatten, dass dieser in der Vergangenheit ungenaue Bilder erstellte.

Benutzer stellten fest, dass der Bildgenerator Bilder von asiatischen Nazis im Deutschland von 1940, schwarzen Wikingern oder sogar weiblichen mittelalterlichen Rittern erzeugen würde.

Dem Technologieunternehmen wurde vorgeworfen, dadurch übermäßig „wach“ zu sein.

Zu der Zeit, Google sagte „Die KI-Bildgenerierung von Gemini generiert tatsächlich ein breites Spektrum an Menschen. Und das ist im Allgemeinen gut so, weil Menschen auf der ganzen Welt es nutzen. Aber hier verfehlt es das Ziel.“

Doch die rassistischen Vorurteile der KI geben seit langem Anlass zur Sorge.

Dr. Nakeema Stefflbauer, Spezialistin für KI-Ethik und CEO des Women-in-Tech-Netzwerks Frauenloop, sagte zuvor gegenüber Business Insider: „Wenn Vorhersagealgorithmen oder sogenannte ‚KI‘ so weit verbreitet sind, kann es schwierig sein, zu erkennen, dass diese Vorhersagen häufig vorkommen.“ basierend auf kaum mehr als dem schnellen Wiederkäuen von Crowdsourcing-Meinungen, Stereotypen oder Lügen.

„Algorithmische Vorhersagen schließen Einzelpersonen und Gemeinschaften aus, stereotypisieren sie und zielen sie auf unfaire Weise auf Daten ab, die beispielsweise von Reddit stammen“, sagte sie.

Generative KIs wie Gemini und Imagine werden auf der Grundlage riesiger Datenmengen trainiert, die der gesamten Gesellschaft entnommen werden.

Wenn die zum Training des Modells verwendeten Daten weniger Bilder von Paaren gemischter Abstammung enthalten, kann dies der Grund dafür sein, dass die KI Schwierigkeiten hat, diese Art von Bildern zu generieren.

Lesen Sie den Originalartikel auf Business Insider

source site-18