Laut FBI verwenden immer mehr Menschen Deepfakes, um sich für Remote-Tech-Jobs zu bewerben

Das FBI sagte am Dienstag, dass mehr Menschen Deepfake-Videos bei Vorstellungsgesprächen verwenden. Auf diesem Bild sieht sich eine Person am 25. Januar 2019 ein Deepfake-Video an, das mit künstlicher Intelligenz manipuliert wurde, um Zuschauer möglicherweise zu täuschen.

  • Menschen verwenden Deepfake-Technologie, um sich in Vorstellungsgesprächen als jemand anderes auszugeben, sagte das FBI.
  • Sie scheinen sich auf IT-Rollen zu konzentrieren, die ihnen Zugriff auf sensible Daten gewähren würden, sagte die Behörde.
  • Anti-Deepfake-Technologien sind immer noch nicht narrensicher, aber es gibt einfache Möglichkeiten, Deepfakes zu erkennen.

Immer mehr Menschen nutzen die Deepfake-Technologie, um sich in Interviews für Remote-Jobs als jemand anderes auszugeben, sagte das FBI am Dienstag.

In seinem öffentliche Ankündigung, gab das FBI bekannt, dass es einen Anstieg der Beschwerden über Personen erhalten hat, die sich während Live-Vorstellungsgesprächen Videos, Bilder oder Audioaufnahmen einer anderen Person überlagern. Die Beschwerden waren mit Remote-Tech-Rollen verbunden, die erfolgreichen Kandidaten Zugang zu sensiblen Daten gewährt hätten, darunter „Kunden-PII (Personal Identifiable Information), Finanzdaten, Unternehmens-IT-Datenbanken und/oder proprietäre Informationen“, sagte die Agentur.

Deepfake-Videos könnten verwendet werden unterhaltsam Zwecke, aber sie könnten auch extrem schädlich sein. Im März sagte Meta, es habe ein Deepfake-Video entfernt, das angeblich den ukrainischen Präsidenten Wolodymyr Selenskyj zeigt, der die ukrainischen Streitkräfte auffordert, angesichts der russischen Invasion die Waffen niederzulegen.

Ebenso besorgniserregend ist der Schaden, den Privatpersonen erleiden könnten, wenn sie von Deepfakes angegriffen werden, wie in den vom FBI am Dienstag hervorgehobenen Fällen. „Der Einsatz der Technologie, um Privatpersonen zu belästigen oder zu schädigen, die keine öffentliche Aufmerksamkeit erregen und nicht über die erforderlichen Ressourcen verfügen können, um Unwahrheiten zu widerlegen, sollte besorgniserregend sein“, sagte der Abteilung für innere Sicherheit warnte 2019 in einem Bericht vor der Deepfake-Technologie.

Betrügerische Bewerber für Tech-Jobs sind nichts Neues. In einem November 2020 LinkedIn-Beitrag, schrieb ein Personalvermittler, dass einige Kandidaten externe Hilfe einstellen, um sie während der Vorstellungsgespräche in Echtzeit zu unterstützen, und dass sich der Trend während der Pandemie anscheinend verschlechtert habe. Im Mai stellten Personalvermittler fest, dass nordkoreanische Betrüger sich als amerikanische Bewerbungsgesprächspartner für Krypto- und Web3-Startups ausgaben.

Was in der Ankündigung des FBI vom Dienstag neu ist, ist der Einsatz von KI-gestützter Deepfake-Technologie, um Menschen bei der Anstellung zu helfen. Das FBI sagte nicht, wie viele Vorfälle es registriert hat.

Anti-Deepfake-Technologien sind alles andere als perfekt

Im Jahr 2020 erreichte die Zahl der bekannten Online-Deepfake-Videos laut a. 145.227, neunmal mehr als ein Jahr zuvor 2020-Bericht von Sentinelein estnischer Geheimdienst für Bedrohungen.

Technologien und Prozesse, die Deepfake-Videos aussortieren, sind alles andere als narrensicher. Ein Bericht von Sensibilitätein Threat-Intelligence-Unternehmen mit Sitz in Amsterdam, stellte fest, dass Anti-Deepfake-Technologien Deepfake-Videos in 86 % der Fälle als echt akzeptierten.

Es gibt jedoch einige verräterische Anzeichen für Deepfakes, darunter abnormales Blinzeln, ein unnatürlich weicher Fokus um Haut oder Haare und ungewöhnliche Beleuchtung.

In seiner Ankündigung gab das FBI auch einen Tipp zum Erkennen von Sprach-Deepfake-Technologie. „In diesen Interviews stimmen die Aktionen und Lippenbewegungen der vor der Kamera gesehenen Person nicht vollständig mit dem Ton der sprechenden Person überein. Manchmal sind Aktionen wie Husten, Niesen oder andere auditive Aktionen nicht mit dem abgestimmt, was ist visuell präsentiert”, schrieb die Agentur.

Das FBI sagte, Personen oder Unternehmen, die Deepfake-Versuche identifiziert haben, sollten ihm die Fälle melden Beschwerde-Website.

Lesen Sie den Originalartikel auf Business Insider

source site-19