Deep Fake Elon Musk Inonde YouTube lors du lancement de SpaceX dans la montée en puissance de l'arnaque Crypto

2024-06-19, 07:44

[TL; DR]

Récemment, certains escrocs ont utilisé la technologie deepfake pour imiter la voix et les actions d’Elon Musk afin de tromper les gens et les inciter à investir dans un programme d’escroquerie cryptographique.

Les escrocs utilisent l’intelligence artificielle et l’apprentissage automatique pour créer des voix et des manières générées par l’IA de personnalités importantes afin de promouvoir des arnaques crypto.

Les organisations devraient former leur personnel à détecter et gérer les cas de deepfake.

Introduction

Les avancées technologiques ont engendré des risques plus importants que jamais auparavant. Par exemple, certains acteurs malveillants utilisent l’intelligence artificielle et les technologies connexes pour imiter les voix et les actions de personnalités connues afin de tromper leur public et de voler leurs actifs numériques. En particulier, ces mauvais acteurs créent de fausses informations et des vidéos deepfake pour tromper les investisseurs et les escroquer. Cet article examine comment certains de ces acteurs malveillants ont créé un deepfake d’Elon Musk sur YouTube lors du lancement de SpaceX.

Lire aussi: Elon Musk est accusé de manipuler Dogecoin

L’escroquerie se dévoile - Comment plus de 35 fausses diffusions en direct d’Elon Musk ont été diffusées sur YouTube

Le 6 juin, certains escrocs ont inondé YouTube de vidéos deepfake d’Elon Musk dans le but d’exploiter les investisseurs en crypto-monnaie de leurs actifs numériques pendant la période de lancement de SpaceX. Lors de l’événement de lancement de la fusée Starship, les escrocs ont diffusé en direct la voix générée par l’IA de Musk sur plus de 35 chaînes YouTube. À travers la diffusion en direct, ils ont imité la voix et les manières de Musk pour attirer les investisseurs vers un projet de crypto-monnaie où ils promettaient aux investisseurs de doubler leur montant investi.

Les séquences vidéo donnaient l’impression que Musk parlait à l’extérieur de SpaceX. Cependant, les images comportaient des sections floues programmées de manière à dissimuler la réalité de la situation. Les flux frauduleux qui ont coïncidé avec le lancement du quatrième test de SpaceX ont téléporté la fusée à un point où elle entrait dans l’atmosphère depuis la Terre. Il a également montré le moment où la fusée a plongé dans l’océan Indien comme prévu.

Lire aussi: Systèmes d’escroquerie à l’inion et comment les prévenir

Identification des faux flux : la technologie Deepfake utilisée pour imiter l’apparence et la voix d’Elon Musk

Les imposteurs ont incorporé divers éléments pour faire croire au public que c’était Elon Musk qui leur parlait. Selon un La publication de Cointelegraph, une chaîne YouTube s’est fait passer pour un livestream de scam du compte officiel de SpaceX et a attiré plus de 170 000 spectateurs. Certains experts pensent que la plupart des spectateurs prétendus étaient de simples bots utilisés pour convaincre le public qu’il s’agissait d’un véritable livestream. Un tel impact sur les spectateurs était conçu pour attirer les investisseurs en crypto-monnaie à investir dans le prétendu projet d’investissement de Musk.

La voix générée par l’IA avec la ressemblance de Musk a persuadé le public d’envoyer différents types d’actifs cryptographiques tels que Bitcoin ou Ether aux adresses de portefeuille numérique citées. Les créateurs de la vidéo deepfake ont fait beaucoup pour convaincre les gens que c’était en fait Musk qui parlait. Par exemple, ils incluent sa manière habituelle et d’autres aspects de sa voix naturelle tels que le bégaiement et les pauses. Cela était évident lorsque la voix a dit, “Ce n’est pas un faux, c’est un vrai cadeau. Je vous le garantis personnellement.” Il y avait aussi un code QR que les investisseurs scannaient pour effectuer leurs dépôts en crypto.

La voix ajouta : “Vous avez la chance de voir votre crypto propulser de manière exponentielle pendant que notre fusée se propulse vers les étoiles.” Cette déclaration fut suivie par une foule en applaudissant, dont les voix étaient également truquées. Pour l’instant, il n’y a pas de chiffre exact sur le nombre de personnes qui ont été victimes de cette escroquerie sur YouTube. Cependant, il existe des preuves que certaines personnes ont envoyé leur cryptomonnaie aux adresses mentionnées. La capture d’écran suivante montre une personne qui a envoyé des actifs cryptographiques d’une valeur de 30 $ à l’un des portefeuilles des escrocs.

Source : x.com

Cependant, les flux vidéo ont ensuite été supprimés et la chaîne a été rebrandée pour imiter le Cardano Fondation. Mysk, un groupe de recherche, a été le premier à er le communauté crypto de l’arnaque cryptographique comme l’indique l’image suivante.

Source: x.com

Sans aucun doute, Mysk a aidé la communauté crypto à prendre conscience du danger auquel elle était confrontée à l’époque. De tels avertissements de sécurité en ligne sont essentiels pour préserver la dignité du secteur des actifs numériques. Cependant, ce n’est pas la première fois que Musk se retrouve mêlé à une telle escroquerie. Les escrocs ciblent le milliardaire crypto en raison de son soutien ouvert aux cryptomonnaies et de sa promotion de plusieurs projets crypto tels que Dogecoin et Shiba Inu. Par exemple, en avril, Talal Haj Bakry et Tommy Mysk ont identifié un autre compte YouTube SpaceX frauduleux avec un message similaire, invitant les investisseurs en crypto à investir dans un projet frauduleux qui double votre argent.

Implications plus larges pour la crypto et la sécurité en ligne

Tout d’abord, il est important de noter que les deepfakes exploitent des techniques puissantes utilisant l’intelligence artificielle et l’apprentissage automatique pour manipuler le contenu audio et visuel afin de tromper certaines sections de la communauté. Par conséquent, le meilleur moyen de contrer de telles manipulations est d’utiliser des technologies similaires pour détecter les deepfakes et atténuer les menaces en matière de cybersécurité qu’ils posent.

En d’autres termes, les organisations, y compris les entreprises numériques, devraient utiliser des technologies d’apprentissage automatique et d’intelligence artificielle pour authentifier le contenu visuel et audio qu’elles pourraient considérer comme suspect. Par conséquent, les organisations devraient investir dans des solutions pertinentes d’apprentissage automatique qui exploitent l’automatisation pour la détection et la vérification de la vitalité. Cela est dû au fait que ce que l’œil humain pourrait manquer, les systèmes basés sur l’apprentissage automatique peuvent détecter.

Deuxièmement, les organisations devraient mettre en place des systèmes pour gérer les risques émergents de cybersécurité liés aux deepfakes et à l’usurpation d’identité. Par exemple, elles devraient inclure la sensibilisation aux deepfakes dans le cadre de leurs programmes de sensibilisation à la cybersécurité organisationnelle. En d’autres termes, elles devraient former leur personnel à tous les niveaux de l’organisation pour identifier les contenus deepfaked et y répondre de manière appropriée.

Enfin, il est essentiel que les organisations opérant dans le secteur numérique trouvent des moyens de communiquer entre elles lorsque des incidents de deepfake se produisent. Elles doivent également travailler aux côtés des organisations chargées de l’application des lois pour gérer de tels cas.

Conclusion

Les cas de deepfake augmentent dans l’industrie numérique, en particulier dans le secteur des crypto-monnaies. Récemment, certains escrocs crypto se sont fait passer pour Elon Musk pour tromper certains investisseurs. mettre leurs fonds dans une arnaque de crypto-monnaie. Cependant, des organisations d’e telles que Mysk ont pu détecter cette menace en matière de cybersécurité. À l’avenir, les organisations du secteur numérique devraient former leur personnel à détecter et à traiter les cas de deepfake.


Auteur :Mashell C., Chercheur chez Gate.io
Cet article ne représente que les opinions du chercheur et ne constitue pas de suggestions d'investissement.
Gate.io se réserve tous les droits sur cet article. La reprise de l'article sera autorisée à condition que Gate.io soit mentionné. Dans tous les cas, des mesures juridiques seront prises en cas de violation du droit d'auteur.


Partager
Contente
gate logo
Gate
Effectuer une transaction
Rejoindre Gate pour gagner des récompenses