Un guide rapide sur 4 escroqueries tendance à l’IA à éviter en 2024

Publié: 2024-07-16

L’ère de l’IA a marqué le début de nombreux changements dans le monde en ligne. Du contenu généré par l’IA sur chaque plateforme de médias sociaux aux chatbots IA dans chaque logiciel d’entreprise, la technologie évolue à une vitesse vertigineuse.

Cette évolution comporte cependant de sérieux risques. En fait, les escrocs ont rapidement adopté cette technologie dans leurs actes néfastes, ce qui a donné naissance à un tout nouvel aspect de la fraude sur Internet qu’il convient de surveiller.

Dans ce guide, vous découvrirez certaines des escroqueries les plus récentes alimentées par l'IA, ainsi que quelques conseils pour les éviter à l'avenir.

Escroqueries à l’IA en 2024

Les escroqueries ont considérablement augmenté en 2024, ce qui signifie qu’il sera essentiel de comprendre quels types de menaces existent pour vous protéger en ligne. Voici quelques-unes des escroqueries liées à l’IA auxquelles vous devriez prêter attention à l’ère moderne :

  • Deepfakes
  • Clonage vocal
  • Les escroqueries par phishing
  • Arnaques aux annonces

Logo Surfshark 🔎 Vous souhaitez naviguer sur le Web en privé ? 🌎 Ou apparaître comme si vous étiez dans un autre pays ?
Obtenez un énorme 86 % de réduction sur Surfshark avec cette offre spéciale tech.co. Voir le bouton Offre

Escroqueries deepfakes

La technologie Deepfake existe depuis un certain temps. Il décrit un contenu vidéo montrant une image falsifiée d’une autre personne. Ces manipulations numériques ont été utilisées à des fins très diverses, allant des escroqueries à la désinformation , mais jusqu'à récemment, la plupart d'entre elles étaient assez faciles à repérer.

Malheureusement, ce n’est absolument pas le cas à l’ère de l’IA. La technologie Deepfake a été considérablement améliorée par l’évolution de la technologie, conduisant à des représentations d’individus en ligne d’une précision troublante.

Pire encore, ces ressemblances sont utilisées pour toute une série de raisons néfastes. Des sosies de célébrités vendant des produits contrefaits aux amis personnels demandant de l'argent, les façons dont les escrocs utilisent la technologie deepfake sont tout simplement vastes.

Exemples d’arnaque deepfake

L’une des escroqueries deepfake les plus importantes qui ont frappé des particuliers cette année était celle impliquant sans doute la plus grande star du monde du moment : Taylor Swift. La pop star a été vue en ligne en train de donner 3 000 ustensiles de cuisine Le Creuset dans une vidéo publiée sur les réseaux sociaux. Le problème? Ce n’était pas vraiment Taylor Swift et il n’existait pas de produits d’ustensiles de cuisine Le Creuset à proprement parler.

Au lieu de cela, la vidéo était une arnaque deepfake mettant en vedette Taylor Swift , conçue pour voler des détails personnels et des informations financières en exigeant des frais d'expédition minimes. Bien entendu, les ustensiles de cuisine n’apparaissent jamais et vos données personnelles sont compromises à jamais.

Escroqueries au clonage vocal

Tout comme les vidéos deepfake, le clonage vocal est un moyen populaire et terriblement troublant d’escroquer les gens et de leur soutirer de l’argent. La pratique consiste à reproduire la voix de quelqu'un que vous connaissez, généralement un être cher dont vous reconnaîtriez immédiatement la voix. Ensuite, ils peuvent profiter de votre confiance évidente en demandant de l’argent, des informations personnelles ou à peu près tout ce que vous donneriez à cet ami ou membre de votre famille.

Le plus grand risque de cette arnaque est la précision avec laquelle l’IA a rendu le processus de réplication vocale. Les personnes victimes d’escroqueries par clonage vocal ont déclaré par la suite qu’elles « n’avaient jamais douté une seule seconde » du fait qu’elles parlaient à leur proche au téléphone. Et étant donné que certaines enquêtes ont révélé que très peu de personnes peuvent reconnaître la différence entre les escroqueries par clonage vocal , ce genre de chose devrait être sur votre radar à tout moment.

Exemple d'arnaque au clonage vocal

De toute évidence, les escroqueries ressemblant à des célébrités ne seraient pas diffusées aussi bien que les vidéos deepfake, mais les escroqueries par clonage vocal empruntent généralement une voie différente.

Le plus courant est l'urgence familiale, dans laquelle un membre de la famille, généralement un fils ou une fille, appelle quelqu'un et lui dit qu'il a des problèmes. Soit un accident de voiture, une arrestation ou une autre crise qui nécessiterait une sorte de solution financière. Une fois que vous avez payé pour résoudre l’urgence inexistante, vous n’aurez aucune ressource pour la récupérer.

Les escroqueries par phishing

Les escroqueries par phishing sont un problème courant sur Internet depuis longtemps. Les pirates informatiques et les escrocs qui tentent de vous amener à fournir des informations personnelles ou des données financières avec de faux e-mails usurpant l'identité d'entreprises réputées sont à l'heure actuelle une pratique vieille comme le monde.

Aujourd’hui, cependant, l’IA rend le travail beaucoup plus facile. Dans la plupart des cas, ces e-mails et SMS de phishing sont remplis de fautes d’orthographe et d’autres indicateurs clés. Cependant, ces escroqueries par phishing deviennent de plus en plus difficiles à détecter, grâce à l’IA qui fournit un peu plus de puissance pour générer un contenu plus légitime.

Pire encore, les plateformes d’IA générative facilitent la création de plus en plus d’e-mails de phishing. Bien sûr, beaucoup de ces chatbots disposent de mesures de protection pour empêcher ce genre de choses, mais nous avons constaté que quelques commandes simples créent une faille qui vous permet de générer du contenu de phishing facilement et efficacement.

Exemple d'arnaque par phishing

L'une des escroqueries par phishing les plus courantes en circulation à l'heure actuelle est un message texte indiquant que votre colis UPS a été retardé et que vous devez confirmer vos coordonnées pour y accéder. Lorsque vous cliquez sur le lien fourni, vous êtes redirigé vers un site Web UPS étonnamment réaliste qui vous demande de remplir un formulaire pour accéder à votre colis. Bien sûr, votre colis n’est pas perdu, mais vos données financières et vos informations personnelles le sont.

L’IA n’a pas radicalement modifié les escroqueries par phishing, mais elle les a rendues plus répandues et plus difficiles à détecter. Les générateurs de contenu les rendent plus précis et plus faciles à créer, donc si vous constatez une augmentation significative dans les années à venir, méfiez-vous de l'endroit où vous saisissez vos informations.

Arnaques aux annonces

Comme certaines des autres escroqueries que nous avons abordées ici, les escroqueries liées aux listings ne sont pas nouvelles, mais l’IA a donné aux fraudeurs la possibilité de les produire à une vitesse et à un volume jamais vus auparavant. Comme la plupart des escroqueries, il s’agit d’un jeu de chiffres, et il suffit qu’une seule personne y réponde pour que cela en vaille la peine.

Les arnaques aux listings couvrent tout ce qui est à vendre, des produits électroniques aux voitures en passant par les maisons. Générer de fausses listes est désormais facile, grâce à la façon dont les résumés textuels de l'IA peuvent être convaincants. Certains fraudeurs iront même jusqu'à générer des images IA des produits en question, créant ainsi une « image unique », ce qui signifie qu'elle n'apparaîtra pas dans une recherche d'images Google comme ayant été volée ailleurs (auparavant, c'était un très bon moyen d'identifier les produits en question). une escroquerie). Une fois que l'escroc a récupéré votre argent, vous ne verrez jamais le produit et vous pourriez même vous exposer à d'autres escroqueries de la part du « vendeur ».

Ce ne sont pas seulement les produits qui sont exposés aux arnaques aux listings. L’année dernière, le nombre d’arnaques aux offres d’emploi a considérablement augmenté, leur prévalence croissante étant imputée à l’IA. Ces escroqueries promettent des emplois trop beaux pour être vrais, avant d'exiger que de l'argent soit envoyé pour garantir le poste ou à des fins de formation. L’IA aide à créer des sites Web d’entreprise réalistes, des portraits du personnel et peut même être utilisée pour de fausses interviews. Lisez notre guide pour éviter les escroqueries à la FMH .

Exemples d'arnaque à une annonce

L’une des escroqueries les plus courantes en matière de listing par l’IA est la vente ou la location d’une propriété. Les fraudeurs créent des annonces réalistes pour des propriétés, généralement dans des zones recherchées, à des prix compétitifs. Ensuite, ils demanderont de l’argent d’avance, comme une caution ou plusieurs mois de loyer. Il s’agit d’une arnaque lucrative, car ils s’adressent souvent à plusieurs victimes à la fois.

Ce qui est particulièrement néfaste dans cette arnaque, c'est que l'IA permet à l'escroc de générer des documents de propriété raisonnablement réalistes, ce qui pourrait convaincre la victime que la transaction est légitime. Ils peuvent également demander des informations personnelles ainsi que de l’argent, laissant vos données compromises.

Comment éviter les escroqueries liées à l'IA

Vous avez déjà fait le premier pas pour éviter les escroqueries liées à l'IA , et cela consiste à comprendre quels types d'escroqueries existent réellement. C'est vrai, rien qu'en ouvrant et en lisant cet article, vous êtes sur la bonne voie vers une existence en ligne plus sécurisée. Voici quelques autres conseils pour éviter les escroqueries liées à l’IA :

  • Confirmez toujours – Qu’il s’agisse d’un deepfake ou d’une arnaque au clonage vocal, trouvez un moyen de confirmer la source de l’information. Une simple recherche sur Google ou un appel à un proche peut vous éviter bien des conflits.
  • Faites attention à ce que vous publiez – De nombreux escrocs utilisent les données des réseaux sociaux pour cibler des personnes vulnérables ou former des modèles sur votre voix.
  • Signalez l’arnaque – Cela ne vous aidera peut-être pas à l’éviter, mais en signalant l’arnaque aux autorités compétentes, vous pouvez être sûr que les tentatives futures échoueront, quelle que soit la quantité d’IA utilisée.

Au-delà de cela, il est important d' être un peu sceptique lorsqu'il s'agit de fournir des informations financières ou des données personnelles en ligne ou par téléphone. L’IA rend ces escroqueries infiniment plus convaincantes, donc faire preuve d’un peu de scepticisme sain lorsque vous abordez ces transactions peut grandement contribuer à assurer votre sécurité.