Au fil des ans, les escroqueries sont devenues de plus en plus sophistiquées. Les escrocs ont recours à de nouvelles technologies pour augmenter leur efficacité. L’Intelligence Artificielle (IA) et le Deepfake audio sont maintenant utilisés pour tromper les gens.
Le Deepfake audio est une technologie qui permet de créer des enregistrements audio de haute qualité qui semblent authentiques, même s’ils sont complètement falsifiés. Les escrocs l’utilisent pour créer des enregistrements audio qui semblent provenir d’un proche, comme un membre de la famille ou un ami, pour tromper leur victime.
Les techniques utilisées pour créer des escroqueries de Deepfake audio
Les escrocs obtiennent d’abord des informations personnelles sur leurs victimes, qu’ils peuvent ensuite utiliser pour créer leurs faux audios. Ils peuvent également utiliser des techniques de phishing pour obtenir des informations de connexion à des comptes de messagerie ou de réseaux sociaux, leur permettant ainsi d’accéder aux conversations de la victime.
Les escroqueries de Deepfake audio sont particulièrement insidieuses, car elles exploitent la confiance que les gens ont envers leurs proches. Les victimes sont souvent prêtes à aider un proche en difficulté et ne se méfient pas de l’appel.
Les précautions à prendre pour éviter les escroqueries
Les autorités mettent en garde contre cette tendance à la hausse des arnaques de Deepfake audio et recommandent de ne jamais donner de l’argent à quelqu’un sans avoir vérifié l’identité de la personne.
Il est important de prendre le temps de vérifier que l’appel provient bien de la personne qu’elle prétend être, même si cela prend plus de temps. Les victimes doivent également signaler immédiatement tout incident aux autorités compétentes pour aider à prévenir d’autres escroqueries.
Des escrocs utilisent des intelligences artificielles (deepfakes audio) pour se faire passer pour des proches en détresse dans de vrais-faux appels téléphoniques destinés à leurs victimes.
C'est déprimant tout ça ????
+ d'infos???? https://t.co/2274xKXup1 pic.twitter.com/ENN6fn3gTR
— Edith Brou Bleu (@edithbrou) March 19, 2023