Scammers use “deepfakes” to apply for remote positions


According to the FBI, scammers or criminals use “deepfakes” and stolen personal data during online job interviews for remote positions.

The use of “deepfakes” or artificial audio, image and video content created using AI or machine learning technologies has been considered a potential phishing threat for several years.

The New Ghost Recruits

The FBI’s Internet Crime Complaint Center (IC3) now says it has seen an increase in the number of complaints alleging the use of “deepfakes” and stolen personal data to apply for remote jobs, mostly in the tech industry.

While some organizations are trying to organize a return to the office, the information technology sector is[ le plus réticent à abandonner le mode de travail à distance qui s’était installé depuis la pandémie de Covid-19.


Les signalements adressés à l’IC3 concernaient principalement les postes vacants dans les technologies de l’information, la programmation, les bases de données et les fonctions liées aux logiciels.


Soulignant le risque pour une organisation d’embaucher un candidat frauduleux, le FBI note que “certains des postes signalés incluent l’accès à des données personnelles de clients, des données financières, des bases de données informatiques d’entreprise et/ou des informations exclusives”.

Des incohérences visuelles à identifier


Dans les cas signalés à l’IC3, le FBI indique que les plaintes portent sur l’utilisation d’outils d’imitation de la voix lors d’entretiens en ligne avec des candidats potentiels. Mais il note également que les victimes ont remarqué des incohérences visuelles.


“Dans ces entretiens, les actions et le mouvement des lèvres de la personne que l’on voit interviewée devant la caméra ne correspondent pas complètement à l’audio de la personne qui parle. Parfois, des actions telles que la toux, les éternuements ou d’autres actions auditives ne sont pas alignées avec ce qui est présenté visuellement”, a déclaré le FBI.


Les plaintes déposées auprès de l’IC3 décrivent également l’utilisation de renseignements personnels volés pour postuler à ces postes à distance.


“Les victimes ont signalé l’utilisation de leur identité et les vérifications des antécédents avant l’embauche ont permis de découvrir que les données personnelles fournies par certains des candidats appartenaient à une autre personne”, indique le FBI.


Le FBI en mars 2021 a prévenu que les acteurs malveillants utiliseraient presque certainement les deepfakes pour des opérations d’influence à l’étranger dans les 12 à 18 prochains mois.


Il a également prédit que le contenu créé par deep learning pourrait être utilisé comme une extension du spearphishing et de l’ingénierie sociale. L’organisation craint que les fraudeurs à l’origine des arnaques de compromission du courrier électronique professionnel (BEC) – la forme de fraude la plus coûteuse aujourd’hui – ne passent à la compromission de l’identité professionnelle, où les fraudeurs créent des personnalités d’entreprise artificielle ou une imitation sophistiquée d’un employé existant.


Le FBI a également noté que des indicateurs visuels tels que des distorsions et des incohérences dans les images et les vidéos peuvent trahir un deepfake. Les incohérences visuelles typiques des vidéos artificielles comprennent les mouvements de la tête et du torse et les problèmes de synchronisation entre les mouvements du visage et des lèvres, et le son associé.


Les attaques frauduleuses contre les processus de recrutement ne sont pas une menace nouvelle, mais l’utilisation de deepfakes dans ce domaine est une nouveauté.


Source : “ZDNet.com”





Source link -97