Deepfake-Erkennungstool von Microsoft vorgestellt

Von Leo Kelion
Technology Desk Editor

BildrechteGetty Images

Microsoft hat ein Tool entwickelt, um Deepfakes zu erkennen – computergesteuerte Bilder, bei denen die Ähnlichkeit einer Person verwendet wurde, um die einer anderen Person zu ersetzen.

Die Software analysiert Fotos und Videos, um eine Vertrauensbewertung darüber zu erhalten, ob das Material wahrscheinlich künstlich erstellt wurde.
Das Unternehmen hofft, dass die Technologie zur "Bekämpfung der Desinformation" beitragen wird.
Ein Experte hat gesagt, dass es aufgrund des Tempos, mit dem Deepfake-Technologie voranschreitet, schnell veraltet sein könnte.
Um dies zu beheben, hat Microsoft außerdem ein separates System angekündigt, mit dem Inhaltsproduzenten ihrem Filmmaterial versteckten Code hinzufügen können, damit nachfolgende Änderungen problemlos gekennzeichnet werden können.

Face-Swaps finden

Deepfakes wurde Anfang 2018 bekannt, nachdem ein Entwickler modernste Techniken der künstlichen Intelligenz angepasst hatte, um Software zu erstellen, die das Gesicht einer Person gegen eine andere austauschte.
Der Prozess funktionierte, indem einem Computer viele Standbilder einer Person und Videomaterial einer anderen Person zugeführt wurden. Die Software verwendete dies dann, um ein neues Video mit dem Gesicht des ersteren anstelle des letzteren zu erstellen, mit passenden Ausdrücken, Lippensynchronisation und anderen Bewegungen.
Seitdem wurde der Prozess vereinfacht und für mehr Benutzer geöffnet. Jetzt sind weniger Fotos erforderlich.
Es gibt einige Apps, für die nur ein einziges Selfie erforderlich ist, um das Gesicht eines Filmstars durch das des Benutzers in Clips aus Hollywood-Filmen zu ersetzen.
Es gibt jedoch Bedenken, dass der Prozess auch missbraucht werden kann, um irreführende Clips zu erstellen, in denen eine prominente Persönlichkeit dazu gebracht wird, auf eine Weise zu sagen oder zu handeln, die niemals stattgefunden hat, aus politischen oder anderen Gründen.
Anfang dieses Jahres hat Facebook Deepfakes verboten, die Benutzer irreführen könnten

Ich dachte, ein Thema hätte etwas gesagt, was sie nicht gesagt hatten. Twitter und TikTok folgten später mit ähnlichen eigenen Regeln.

Das Video Authenticator-Tool von Microsoft versucht, Werbegeschenke dafür zu erkennen, dass ein Bild künstlich generiert wurde, das für das menschliche Auge möglicherweise unsichtbar ist.
BildrechteMicrosoft
BildbeschreibungDas Videoauthentifizierungs-Tool gibt eine prozentuale Konfidenzbewertung an, wie wahrscheinlich es ist, dass ein Clip eine Deepfake ist
Dazu gehören subtile Überblendungen oder Graustufenpixel an der Grenze, an der die vom Computer erstellte Version des Gesichts des Ziels mit der des Körpers des ursprünglichen Motivs zusammengeführt wurde.
Um es aufzubauen, wandte das Unternehmen seine eigenen Techniken des maschinellen Lernens auf a an öffentlicher Datensatz von etwa 1.000 tief gefälschten Videosequenzen und dann das resultierende Modell gegen eine gerade getestet größere Face-Swap-Datenbank von Facebook erstellt.
Ein Technologieberater stellte fest, dass Deepfake-Videos derzeit noch relativ selten sind und dass die meisten manipulierten Clips gröbere Nachbearbeitungen durch einen Menschen beinhalten. Trotzdem begrüßte sie die Intervention von Microsoft.
"Die einzige wirklich weit verbreitete Verwendung, die wir bisher gesehen haben, ist die nicht einvernehmliche Pornografie gegen Frauen", kommentierte Nina Schick, Autorin des Buches Deep Fakes and the Infocalypse.
"Es wird jedoch erwartet, dass synthetische Medien in etwa drei bis fünf Jahren allgegenwärtig werden. Daher müssen wir diese Tools in Zukunft weiterentwickeln.
"Mit der Verbesserung der Erkennungsfunktionen wird jedoch auch die Generierungsfunktion verbessert. Microsoft wird niemals ein Tool veröffentlichen, mit dem alle Arten von Videomanipulationen erkannt werden können."
Microsoft hat diese Herausforderung erkannt.
Kurzfristig hoffte man, dass sein bestehendes Produkt dazu beitragen könnte, vor den US-Wahlen im November Deepfakes zu identifizieren.
Anstatt es der Öffentlichkeit zugänglich zu machen, bietet es es jedoch nur an über eine Drittorganisation, die es wiederum kostenlos an Nachrichtenverleger und politische Kampagnen weitergeben wird.
Der Grund dafür ist, zu verhindern, dass schlechte Schauspieler an den Code gelangen und ihn verwenden, um ihren gefälschten Generatoren beizubringen, wie sie ihm ausweichen können.
Um die längerfristige Herausforderung zu bewältigen, hat Microsoft unter anderem mit der BBC zusammengearbeitet, um Project Origin zu unterstützen, eine Initiative, um Online-Inhalte so zu "markieren", dass Manipulationen des Materials automatisch erkannt werden können.
Das US-amerikanische Technologieunternehmen wird dies in einem zweiteiligen Prozess tun.
Erstens wurde ein Internet-Tool erstellt, mit dem den Metadaten der Medien ein digitaler Fingerabdruck in Form von Zertifikaten und "Hash" -Werten hinzugefügt werden kann.
Zweitens wurde ein Leser erstellt, um zu prüfen, ob die Fingerabdrücke durch Änderungen des Inhalts durch Dritte beeinflusst wurden.
Laut Microsoft können Benutzer den Reader dann in Form einer Browsererweiterung verwenden, um zu überprüfen, ob eine Datei authentisch ist, und um zu überprüfen, wer sie erstellt hat.

Die Manipulation von Fotos und Videos ist entscheidend für die Verbreitung oft recht überzeugender Desinformationen in sozialen Medien.
Derzeit ist jedoch keine komplexe oder tiefgreifende Technologie erforderlich. Einfache Bearbeitungstechnologie ist häufig die bevorzugte Option.
Dies war der Fall bei einem kürzlich manipulierten Video des US-Präsidentschaftskandidaten Joe Biden, das in den sozialen Medien über zwei Millionen Mal angesehen wurde.
Der Clip zeigt ein Fernsehinterview, in dem Biden einzuschlafen schien. Aber es war eine Fälschung – der Clip des Moderators stammte aus einem anderen Fernsehinterview und Schnarch-Effekte wurden hinzugefügt.
Computergenerierte Fotos von Gesichtern von Menschen hingegen sind bereits zu gängigen Kennzeichen anspruchsvoller ausländischer Interferenzkampagnen geworden, mit denen gefälschte Konten authentischer erscheinen.
Eines ist sicher: Mehr Möglichkeiten, manipulierte oder veränderte Medien zu erkennen, sind im Kampf gegen Online-Desinformation keine schlechte Sache.

Verwandte Themen

  • Microsoft

  • Deepfakes