Kriminelle nutzten KI, um die Stimme des Firmenchefs zu klonen und 35 Millionen US-Dollar zu stehlen

Die Polizei in den Vereinigten Arabischen Emiraten untersucht einen Fall, in dem KI angeblich verwendet wurde, um die Stimme eines Firmenchefs zu klonen und 35 Millionen Dollar in einem massiven Raubüberfall zu stehlen. Obwohl es sich um ein erstaunliches und ungewöhnliches Verbrechen handelt, ist es nicht das erste Mal, dass Betrüger auf KI-basierte Sprach-Spoofing zurückgreifen, um gewagte Raubüberfälle durchzuführen. Ein früherer Fall, in dem eine solche Technologie für einen ähnlichen Betrug verwendet wurde, stammt aus dem Jahr 2019, als Kriminelle in Großbritannien Deepfake-Software verwendet haben sollen, um die Stimme des CEO eines Energieunternehmens nachzuahmen, um betrügerisch rund 243.000 US-Dollar zu überweisen.

Künstliche Intelligenz wird in den kommenden Jahren voraussichtlich eine Welle von Möglichkeiten eröffnen, aber auch die Bedrohungen durch die Technologie sind sehr real. Automatisierungsbedingte Arbeitsplatzverluste werden oft als das dringendste Problem der KI angesehen, aber die Technologie stellt auch in anderen Bereichen ernsthafte Herausforderungen dar, darunter Bedrohungen der Privatsphäre durch den zügellosen Einsatz von Gesichtserkennung sowie Audio- und Video-Deepfakes, die durch Manipulation von Stimmen erzeugt werden und Ähnlichkeit. Während ersteres in den Mainstream-Medien Aufmerksamkeit erregt, stellt letzteres auch eine ernsthafte Bedrohung dar, wie sich in diesen Betrugsfällen zeigt.

Verbunden: Deepfake-Technologie könnte die Zukunft der kurzfristigen Wettervorhersage sein

Wie berichtet von Forbes, Der letzte Fall von manipulierter Stimme, die für Betrug verwendet wurde, ereignete sich in den Vereinigten Arabischen Emiraten Anfang 2020, als Kriminelle angeblich KI benutzten, um die Stimme eines Unternehmensdirektors zu klonen, um einen Bankmanager zu bitten, Gelder im Wert von 35 Millionen US-Dollar für eine Akquisition zu überweisen. Der Bankmanager hat die Überweisungen ordnungsgemäß durchgeführt, weil er alles für legitim hielt, nur um später zu erkennen, dass es sich um einen ausgeklügelten Betrug handelte, der von High-Tech-Kriminellen entworfen wurde. Wie sich herausstellte, hatten die Betrüger die „Deep Voice“-Technologie verwendet, um den Manager zu täuschen und die Bank um den riesigen Betrag zu betrügen.

Nach a Gerichtsurkunde, suchen die Ermittler in den Vereinigten Arabischen Emiraten nun Hilfe bei den US-Behörden, um gestohlene Gelder in Höhe von 400.000 US-Dollar aufzuspüren, von denen sie glauben, dass sie auf US-Bankkonten gehalten werden. Es wird angenommen, dass der Rest der Gelder bei vielen verschiedenen Banken unter verschiedenen Namen in verschiedenen Ländern auf der ganzen Welt aufbewahrt wird. Nach Angaben der Behörden der Vereinigten Arabischen Emirate sind mindestens siebzehn Personen an dem Programm beteiligt, deren Namen und Nationalität jedoch nicht sofort klar waren.

Im Gespräch mit Forbes, Jake Moore, ein Experte der Cyber-Sicherheitsfirma ESET, sagte, dass die Audio- und Video-Deepfake-Technologie in den Händen der falschen Leute ein echtes Problem sein kann, wenn Deepfakes posieren “eine enorme Bedrohung für Daten, Geld und Unternehmen.” Moore fügte außerdem hinzu, dass in Zukunft wahrscheinlich mehr Unternehmen Opfer ähnlicher realistischer Deepfake-Audio-Betrügereien werden werden.

Next: Wissenschaftler arbeiten mit KI zusammen, um eine Behandlung für Hirntumor bei Kindern zu entwickeln

Quelle: Forbes

source site