Bilder von sexuellem Missbrauch von Kindern werden in einer Datenbank gefunden, die zum Trainieren von KI-Bildgeneratoren verwendet wird

  • Ein Datensatz, der zum Trainieren von KI-Bildgeneratoren verwendet wird, enthält Bilder von sexuellem Kindesmissbrauch, wie eine Studie ergab.
  • Die Ergebnisse verstärken die Befürchtungen, dass KI-Tools eine Welle von KI-generierten Inhalten über sexuellen Missbrauch von Kindern auslösen könnten.
  • Die LAION-Datenbank wurde jetzt offline geschaltet, während ihre Ersteller die Bilder entfernen.

Einem neuen Bericht zufolge enthält ein Datensatz, der zum Trainieren von KI-Bildgeneratoren verwendet wird, Tausende mutmaßlicher Bilder von sexuellem Kindesmissbrauch.

Ein Untersuchung des Cyber ​​Policy Center der Stanford University fand heraus, dass die LAION-5B-Datenbank zum Trainieren mehrerer KI-Bildgeneratoren verwendet wurde einschließlich Stable Diffusion 1.5eine frühere Version eines KI-Modells von Stability AI, enthielt über 3.200 Bilder von mutmaßlichem Kindesmissbrauch.

Es wurde bestätigt, dass es sich bei etwas mehr als 1.000 dieser Bilder um Material über sexuellen Missbrauch von Kindern handelte. Der Bericht warnt davor, dass ihre Anwesenheit im Datensatz die Verwendung generativer KI-Tools ermöglichen könnte, die auf diesen Daten basieren Erstellen Sie neue Inhalte über Kindesmissbrauch.

LAION-5B ist ein riesiges öffentliches Archiv mit rund fünf Milliarden Bildern, die aus dem offenen Internet stammen.

Es wurde von einer Vielzahl von KI-Unternehmen verwendet, die riesige Datenmengen benötigen, um generative KI-Modelle zu trainieren, die in Sekundenschnelle neue Bilder erzeugen können.

Experten warnen seit langem vor der Gefahr, dass KI-Bildgeneratoren entfesselt werden ein Tsunami ultrarealistischer KI-generierter Bilder von sexuellem Kindesmissbrauchwobei die Internet Watch Foundation (IWF) warnt, dass es solche Bilder bereits gibt im Dark Web weit verbreitet.

Online-Sicherheitsorganisationen im Vereinigten Königreich haben dies inzwischen getan forderte „dringendes Handeln“ Es kommt immer wieder vor, dass Kinder in der Schule KI-Bildgeneratoren nutzen, um anstößige Inhalte ihrer Mitschüler zu erstellen.

KI-Apps, die ähnliche Technologie nutzen Frauen auf Fotos „auszuziehen“. Durch die Erstellung gefälschter Nacktbilder von ihnen erfreuen sich demnach auch immer größerer Beliebtheit Daten von Graphika.

Stable Diffusion ist das bekannteste Modell zur Verwendung der LAION-Datenbank. Das Tool, das von der britischen Firma Stability AI entwickelt wurde, ist geworden einer der am weitesten verbreiteten und beliebtesten Bildgeneratoren seit seiner Einführung im Jahr 2022.

Ein Sprecher der deutschen Non-Profit-Organisation LAION, der hinter dem Datensatz steht, sagte Bloomberg dass die Gruppe ihre Datensätze vorübergehend aus dem Internet entfernte, während sie sie von illegalen Inhalten befreite.

Ein Sprecher von Stability AI sagte unterdessen gegenüber Business Insider, dass das Unternehmen Filter eingeführt habe, um zu verhindern, dass Benutzer mit Stable Diffusion illegale Inhalte erstellen, und dass die Modelle von Stability AI nur auf einer gefilterten Teilmenge von LAION-5B trainiert wurden.

Das Unternehmen veröffentlichte Stable Diffusion 2.0 wurde auch auf einer Teilmenge der LAION-5B-Daten trainiert aber hat strengere Kontrollen für sexuell eindeutige Inhalte, letztes Jahr. Allerdings ist Version 1.5, die explizite Inhalte generiert, weiterhin im offenen Web verfügbar.

Der Sprecher sagte, Stable Diffusion 1.5 sei vom KI-Video-Startup RunwayML veröffentlicht worden, nicht von Stability AI. Runway teilte Bloomberg jedoch mit, dass es sich um eine Zusammenarbeit zwischen den beiden handele.

LAION-400M, eine frühere Version der 5B-Datenbank, die stellten die Stanford-Forscher fest festgestellt wurde, dass es „pornografische Bilder, rassistische Beleidigungen und schädliche soziale Stereotypen“ enthielt, wurde von Google verwendet, um eine frühe Version seines Imagen-Text-zu-Bild-Generators zu trainieren. Google hat seitdem keine LAION-Datensätze mehr verwendet.

BI kontaktierte LAION mit der Bitte um einen weiteren Kommentar, erhielt jedoch nicht sofort eine Antwort.

22. Dezember 2023: Diese Geschichte wurde aktualisiert, um klarzustellen, dass das im zweiten Absatz genannte Stable Diffusion-Modell Version 1.5 ist.

Lesen Sie den Originalartikel auf Business Insider

source site-19