Generative KI-Modelle können jetzt Nachbildungen markenrechtlich geschützter Charaktere mit Eingabeaufforderungen erstellen, die so einfach sind wie „Videospiel-Italienisch“.

Eine aktuelle Studie hat Hunderte von Beispielen gefunden, in denen KI markenverletzende Bilder erstellt hat.

  • KI-Forscher untersuchten, ob generative KI-Modelle Bilder plagiieren können.
  • Sie fanden heraus, dass bestimmte visuelle Modelle markenrechtlich geschützte Charaktere mit kurzen oder indirekten Eingabeaufforderungen generierten.
  • Beispielsweise erzeugten die Modelle nahezu exakte Bilder von Simpsons- und Star-Wars-Figuren.

Das Generieren einer Urheberrechtsklage könnte so einfach sein, als würde man so etwas wie eine Spielshow-Eingabeaufforderung in eine KI eingeben.

Als Forscher die aus zwei Wörtern bestehende Eingabeaufforderung „Videospiel Italienisch“ in Dall-E 3 von OpenAI eingaben, lieferte das Modell erkennbare Bilder von Mario aus der legendären Nintendo-Franchise und der Ausdruck „animierter Schwamm“ lieferte klare Bilder des Helden von „Spongebob Schwammkopf“. “

Die Ergebnisse waren Teil einer zweiwöchigen Untersuchung durch KI-Forscher Gary Marcus und der Digitalkünstler Reid Southen, der herausfand, dass KI-Modelle mit einer einfachen Textaufforderung „nahezu Nachbildungen markenrechtlich geschützter Charaktere“ erzeugen können.

Marcus und Southen stellten zwei visuelle KI-Modelle auf die Probe – Midjourney und Dall-E 3 – und stellten fest, dass beide in der Lage sind, nahezu exakte Bilder aus Filmen und Videospielen zu reproduzieren, selbst wenn den Modellen kurze und indirekte Eingabeaufforderungen gegeben werden, so a Bericht veröffentlicht in IEEE Spectrum.

Die Forscher fütterten Midjourney mit dem Stichwort „beliebter Zeichentrickfilm der 90er Jahre mit gelber Haut“ und es wurden erkennbare Bilder davon reproduziert Charaktere aus „Die Simpsons“..“ Gleichzeitig stellte „Schwarze Rüstung mit Lichtschwert“ eine große Ähnlichkeit zu Charakteren aus der Star Wars-Reihe her.

Im Laufe ihrer Untersuchung fanden die Forscher Hunderte erkennbarer Beispiele animierter und menschlicher Charaktere aus Filmen und Spielen.

Die Studie findet vor dem Hintergrund wachsender Bedenken statt generative KI-Modelle‘ Fähigkeit zum Plagiieren. Zum Beispiel eine aktuelle Klage der New York Times gegen OpenAI eingereicht behauptete, dass GPT-4 reproduziert Blöcke aus Artikeln der New York Times fast wörtlich.

Das Problem besteht darin, dass generative Modelle immer noch „Black Boxes“ sind, bei denen die Beziehung zwischen den Eingaben und Ausgaben für Endbenutzer nicht ganz klar ist. Daher ist es dem Bericht der Autoren zufolge schwer vorherzusagen, wann ein Modell wahrscheinlich eine plagiatorische Antwort hervorrufen wird.

Für den Endbenutzer bedeutet dies, dass er, wenn er ein markenrechtlich geschütztes Bild in der Ausgabe eines KI-Modells nicht sofort erkennt, keine andere Möglichkeit hat, eine Urheberrechtsverletzung zu überprüfen, so die Autoren.

„In einem generativen KI-System besteht die vorgeschlagene Schlussfolgerung darin, dass es sich bei der Kreation um ein Originalkunstwerk handelt, das der Benutzer frei verwenden kann. Es wird kein Manifest darüber bereitgestellt, wie das Kunstwerk erstellt wurde“, schrieben sie. Wenn jemand andererseits ein Bild über die Google-Suche beschafft, stehen ihm mehr Ressourcen zur Verfügung, um die Quelle zu ermitteln – und festzustellen, ob die Verwendung akzeptabel ist.

Derzeit liegt die Verantwortung für die Verhinderung von Urheberrechtsverletzungen bei den Künstlern oder Bildeigentümern. Dall-E 3 verfügt über ein Opt-out-Verfahren für Künstler und Bildbesitzer, aber es ist so belastend, dass ein Künstler es als „erzürnend“ bezeichnete. Und Bildende Künstler haben Midjourney verklagt wegen Urheberrechtsverletzung.

Die Autoren schlugen vor, dass KI-Modelle einfach urheberrechtlich geschützte Werke aus ihren Trainingsdaten entfernen, problematische Abfragen herausfiltern oder einfach die zur Generierung von Bildern verwendeten Quellen auflisten könnten. Sie sagten, dass KI-Modelle nur ordnungsgemäß lizenzierte Trainingsdaten verwenden sollten, bis jemand eine bessere Lösung findet, um die Herkunft von Bildern zu melden und Urheberrechtsverletzungen herauszufiltern.

Midjourney und OpenAI antworteten nicht auf eine Bitte um einen Kommentar von Business Insider.

Lesen Sie den Originalartikel auf Business Insider

source site-19