Der Eigentümer von Lensa AI sagt, dass die Gesichtsveränderungstechnologie des Unternehmens dazu verleitet werden kann, NSFW-Bilder zu erzeugen – aber einige Benutzer sagen, dass es ihnen passiert ist, ohne es überhaupt zu versuchen

Lensa

  • Das Lensa-App erstellt mithilfe von maschinellem Lernen und von Benutzern hochgeladenen Fotos gesichtsverändernde Effekte.
  • Einige Benutzer haben dank KI-generierter Bearbeitungen Bilder von sich selbst erhalten, die nackt dargestellt wurden.
  • Das Unternehmen sagt, dass Lensa dazu verleitet werden kann, Aktfotos zu machen, aber einige Benutzer sagen, dass sie keine NSFW-Bilder hochgeladen haben.

Die trendige Lensa-App – derzeit die Top-Foto-App in den Apple- und Google Play-Stores – generiert künstlerische Bearbeitungen basierend auf von Benutzern hochgeladenen Referenzfotos, aber ihre maschinelle Lerntechnologie scheint unbeabsichtigte Akte ihrer Benutzer zu erstellen.

„Okay, ich habe meine 20 heißesten Bilder in Lensa eingefügt, anstatt nur die ersten 20 Selfies, die ich finden konnte, und es kam mit einem Haufen von KI-generierten Akten zurück“, sagte ein Benutzer schrieb auf Twitter. „Um es klar zu sagen, KEINES der Fotos, die ich eingereicht habe, enthielt Nacktheit, was die App ausdrücklich verbietet!“

Dieses Gefühl wurde von Dutzenden anderer, hauptsächlich Frauen, geteilt, die sagten, die App habe automatisch sexualisierte oder offene Nacktfotos von ihnen generiert, obwohl sie in ihren Uploads keine nicht-sicheren Referenzfotos für die Arbeit vermeiden.

Während der CEO und Mitbegründer der Lensa-Muttergesellschaft Prisma Lab Andrey Usoltsev sagte TechCrunch solche Bilder „können nicht versehentlich von der App produziert werden“, sagte er, es könne provoziert werden, Nacktbilder durch „vorsätzliches Fehlverhalten“ zu erstellen, wie zum Beispiel das Hochladen von Akten gegen die Nutzungsbedingungen (die das Hochladen von Inhalten verbieten, die „obszön, pornographisch, anstößig, anzüglich, anzüglich“ oder anderweitig sexualisiert sind).

Obwohl unklar ist, wie oft die App Nacktbilder ohne Aufforderung generiert, berichten mehrere Benutzer, dass dies bei ihnen der Fall war.

„Das Seltsame ist, dass ich keine Akte eingereicht habe, da dies gegen die Richtlinien dieser Lensa-App verstoßen würde, aber am Ende wurden trotzdem Akte generiert???“ ein anderer User hat gepostet auf Twitter.

Von besonderer Bedeutung für einige Benutzer ist, ob die App irgendwie auf Fotos aus dem internen Speicher zugegriffen hat, die nicht hochgeladen wurden, und ob es sich um Fotos der App handelt Datenschutz-Bestimmungen ermöglicht, dass von der App generierte Daten von Drittanbietern wie Google Cloud Platform und Amazon Web Services verwendet werden.

“Lensa-Benutzer: Haben Sie ein stark sexualisiertes Bild in Ihrem Avatar-Paket erhalten?” ein unruhiger Benutzer schrieb auf Twitter. „Ich habe in meinem Paket ein Oben-ohne-Vollfront-Nacktbild erhalten und mache mir Sorgen. Ich mache mir Sorgen darüber, ob die App auf andere Bilder auf meinem Telefon zugegriffen hat, und über die Rechte an diesem Bild.“

Usolzew sagte TechCrunch Die Technologie, die zum Generieren der Fotobearbeitungen verwendet wird, lernt im Laufe der Zeit dazu und kann – obwohl sie über einige Verfahren zur Moderation von Inhalten verfügt – immer noch von Benutzern überlistet werden oder auf unvorhersehbare Weise agieren, was zur Ausgabe von Nacktbearbeitungen führt.

„Wir geben an, dass das Produkt nicht für Minderjährige bestimmt ist, und warnen die Benutzer vor dem möglichen Inhalt. Wir verzichten auch darauf, solche Bilder in unseren Werbematerialien zu verwenden“, sagte Usoltsev sagte TechCrunch. „Um die Arbeit von Lensa zu verbessern, sind wir dabei, den NSFW-Filter zu erstellen. Er wird alle als solche erkannten Bilder effektiv unkenntlich machen. Es liegt im alleinigen Ermessen des Benutzers, ob er solche Bilder öffnen oder speichern möchte.“

Vertreter von Prisma Labs reagierten nicht sofort auf die Bitte von Insider um einen Kommentar.

Lesen Sie den Originalartikel auf Business Insider


source site-19