Des cybercriminels utilisent la technologie de clonage vocal dans un braquage de banque de 35 millions de dollars

Très inquiétant… Merci X’yd

Source Anguille sous Roche

Le directeur d’une banque des Émirats arabes unis a été convaincu d’autoriser un transfert de 35 millions de dollars après avoir reçu une confirmation vocale du titulaire du compte. Seulement, ce n’était pas celui que le directeur pensait être…

L’homme était tout excité à l’idée que sa société était sur le point de faire une acquisition importante, et il avait donc besoin que la banque autorise un transfert de 35 millions de dollars dans les plus brefs délais. Le client a ajouté qu’un avocat nommé Martin Zelner avait été engagé pour s’occuper de l’acquisition, et le directeur pouvait voir des e-mails de l’avocat dans sa boîte de réception. Il avait déjà parlé au client auparavant, il reconnaissait sa voix, et tout ce qu’il disait se vérifiait. Il a donc fait l’erreur la plus coûteuse de sa carrière…

Le directeur de la banque a autorisé les virements, persuadé que tout était légitime, mais en réalité, il venait d’être victime d’une escroquerie high-tech élaborée. La personne avec laquelle il avait parlé au téléphone avait utilisé une technologie « deepvoice » alimentée par l’IA pour cloner la voix du client de la banque et faire en sorte que personne ne puisse la distinguer de l’originale.

Ce méga-vol a été révélé dans des documents judiciaires dans lesquels les Émirats arabes unis demandaient l’aide d’enquêteurs américains pour retrouver une partie des 35 millions de dollars (400 000 $) qui auraient été versés sur des comptes américains détenus par la Centennial Bank.

Peu d’informations ont été révélées dans cette affaire, si ce n’est que les autorités des E.A.U. pensent que le stratagème élaboré impliquait au moins 17 personnes et que l’argent a été envoyé sur des comptes dans le monde entier, afin de rendre difficile sa traque et son recouvrement. Ni le parquet de Dubaï ni l’avocat américain mentionné par les fraudeurs, Martin Zelner, n’avaient répondu à la demande de commentaire de Forbes, au moment de la rédaction de cet article.

Il s’agit seulement du deuxième cas connu de braquage de banque impliquant la technologie deepvoice, le premier ayant eu lieu en 2019, mais les experts en cybercriminalité préviennent que ce n’est que le début. Les technologies de deepfake vidéo et de deepvoice ont toutes deux évolué à un rythme étonnant, et les criminels ne manqueront pas d’en tirer parti.

« La manipulation de l’audio, qui est plus facile à orchestrer que la réalisation de deep fake vidéos, ne fera qu’augmenter en volume et sans l’éducation et la sensibilisation à ce nouveau type de vecteur d’attaque, ainsi que de meilleures méthodes d’authentification, davantage d’entreprises sont susceptibles d’être victimes de conversations très convaincantes », a déclaré l’expert en cybersécurité Jake Moore. Nous sommes actuellement à l’aube d’un transfert d’expertise et de ressources de la part d’acteurs malveillants qui utilisent les technologies les plus récentes pour manipuler des personnes qui ignorent innocemment les domaines de la technologie deep fake et même leur existence.

L’idée qu’un échantillon de votre voix, qu’il provienne d’une vidéo YouTube ou Facebook, ou d’un simple appel téléphonique, puisse être utilisé pour cloner votre voix à des fins malveillantes est assez terrifiante…

Lire aussi : Sensity dévoile un outil de détection de deepfakes qui combine l’apprentissage profond et l’intelligence automatisée, pour repérer si une image est créée pour être manipulée ou pas

Source : Oddity Central – Traduit par Anguille sous roche

4 commentaires

Laisser un commentaire