Um guia rápido para quatro tendências de golpes de IA a serem evitados em 2024

Publicados: 2024-07-16

A era da IA ​​marcou o início de muitas mudanças no mundo online. Desde conteúdo gerado por IA em todas as plataformas de mídia social até chatbots de IA em cada software empresarial, a tecnologia está evoluindo a uma velocidade vertiginosa.

Com essa evolução, porém, surgem alguns riscos sérios. Na verdade, os golpistas têm sido rápidos em adotar a tecnologia em seus atos nefastos, levando a um aspecto totalmente novo de fraude na Internet que deve ser observado.

Neste guia, você aprenderá sobre alguns dos golpes mais recentes movidos por IA, bem como algumas dicas sobre como evitá-los no futuro.

Golpes de IA em 2024

Os golpes aumentaram notavelmente em 2024, o que significa que compreender que tipo de ameaças existem será vital para se proteger online. Aqui estão alguns dos golpes de IA que você deve observar na era moderna:

  • Deepfakes
  • Clonagem de voz
  • Golpes de phishing
  • Listando golpes

Logotipo do Surfshark 🔎 Quer navegar na web com privacidade? 🌎Ou aparecer como se estivesse em outro país?
Obtenha um enorme desconto de 86% no Surfshark com esta oferta especial do tech.co. Ver botão de oferta

Golpes falsos

A tecnologia Deepfake já existe há algum tempo. Descreve conteúdo de vídeo que mostra uma imagem falsificada de outra pessoa. Essas manipulações digitais têm sido usadas para uma ampla variedade de propósitos, desde fraudes até desinformação , mas até recentemente, a maioria delas era bastante fácil de detectar.

Infelizmente, esse não é o caso na era da IA. A tecnologia Deepfake foi drasticamente melhorada pela evolução da tecnologia, levando a algumas representações preocupantemente precisas de indivíduos online.

Pior ainda, essas semelhanças estão sendo usadas por uma ampla gama de razões nefastas. De sósias de celebridades vendendo produtos falsos a amigos pessoais pedindo dinheiro, as maneiras pelas quais os golpistas estão usando a tecnologia deepfake são muito expansivas.

Exemplos de golpes deepfake

Um dos golpes deepfake mais proeminentes que atingiram indivíduos este ano foi aquele envolvendo, sem dúvida, a maior estrela do mundo no momento: Taylor Swift. A estrela pop foi vista online distribuindo 3.000 utensílios de cozinha Le Creuset em um vídeo postado nas redes sociais. O problema? Na verdade, não era Taylor Swift e não havia utensílios de cozinha Le Creuset dignos de nota.

Em vez disso, o vídeo era um golpe deepfake com Taylor Swift , projetado para roubar dados pessoais e informações financeiras, exigindo uma pequena taxa de envio. É claro que os utensílios de cozinha nunca aparecem e os seus dados pessoais ficam comprometidos para sempre.

Golpes de clonagem de voz

Assim como os vídeos deepfake, a clonagem de voz é um meio popular e terrivelmente perturbador de roubar o dinheiro das pessoas. A prática envolve replicar a voz de alguém que você conhece, normalmente um ente querido cuja voz você reconheceria imediatamente. Então, eles podem tirar vantagem de sua confiança óbvia pedindo dinheiro, informações pessoais ou praticamente qualquer coisa que você daria a um amigo ou familiar.

O maior risco desse golpe é a precisão com que a IA tornou o processo de replicação de voz. Indivíduos vítimas de golpes de clonagem de voz observaram posteriormente que “nunca duvidaram nem por um segundo” de que estavam conversando com seu ente querido ao telefone. E considerando que algumas pesquisas descobriram que poucos conseguem reconhecer a diferença nos golpes de clonagem de voz , esse tipo de coisa deve estar sempre no seu radar.

Exemplo de golpe de clonagem de voz

Obviamente, golpes parecidos com celebridades não funcionariam tão bem quanto vídeos deepfake, mas golpes de clonagem de voz geralmente seguem um caminho diferente.

O mais comum é o ângulo de emergência familiar, em que um membro da família, normalmente um filho ou filha, liga para alguém e diz que está com problemas. Seja um acidente de carro, uma prisão ou outra crise que exija algum tipo de solução financeira. Depois de pagar para resolver a emergência inexistente, você não terá recursos para recuperá-la.

Golpes de phishing

Os golpes de phishing são um problema comum na Internet há muito tempo. Hackers e golpistas que tentam fazer com que você forneça informações pessoais ou dados financeiros por meio de e-mails falsos que se passam por empresas respeitáveis ​​é uma prática tão antiga quanto o tempo.

Agora, porém, a IA está tornando muito mais fácil realizar o trabalho. Na maioria dos casos, esses e-mails e mensagens de texto de phishing estão repletos de erros ortográficos e outros indicadores importantes. No entanto, esses golpes de phishing estão cada vez mais difíceis de detectar, graças à IA que fornece um pouco mais de poder para gerar conteúdo aparentemente mais legítimo.

Pior ainda, as plataformas generativas de IA estão facilitando a criação cada vez mais de e-mails de phishing. Claro, muitos desses chatbots têm salvaguardas para evitar esse tipo de coisa, mas descobrimos que alguns comandos simples criam uma brecha que permite gerar conteúdo de phishing de maneira fácil e eficaz.

Exemplo de golpe de phishing

Um dos golpes de phishing mais comuns em circulação atualmente é uma mensagem de texto informando que seu pacote da UPS foi atrasado e você precisa confirmar seus dados para obter acesso. Ao clicar no link fornecido, você é levado a um site da UPS de aparência surpreendentemente realista, onde você preenche um formulário para obter acesso ao seu pacote. É claro que seu pacote não está perdido, mas seus dados financeiros e informações pessoais estão.

A IA não mudou drasticamente os golpes de phishing, mas os tornou mais prevalentes e mais difíceis de detectar. Os geradores de conteúdo os tornam mais precisos e fáceis de criar, portanto, se você observar um aumento significativo nos próximos anos, tenha cuidado ao inserir suas informações.

Listando golpes

Como alguns dos outros golpes que abordamos aqui, listar golpes não é novidade, mas a IA deu aos golpistas a capacidade de produzi-los em velocidade e volume em uma escala que nunca vimos antes. Como a maioria dos golpes, é um jogo de números e basta uma pessoa responder para que valha a pena.

Os golpes de listagem cobrem tudo à venda, desde produtos eletrônicos a carros e residências. Gerar listagens falsas é fácil agora, graças à forma como os resumos de texto de IA podem ser convincentes. Alguns golpistas chegam ao ponto de gerar imagens de IA dos produtos em questão, criando uma 'imagem única', o que significa que não aparecerá em uma pesquisa de imagens do Google como sendo roubada de outro lugar (anteriormente, uma boa maneira de identificar uma farsa). Depois que o golpista receber seu dinheiro, você nunca mais verá o produto e poderá até mesmo se expor a novos golpes por parte do 'vendedor'.

Não são apenas os produtos que estão sujeitos a fraudes. No ano passado, assistimos a um enorme aumento no número de fraudes em anúncios de emprego, com o aumento da sua prevalência a ser atribuído à IA. Esses golpes prometem empregos bons demais para ser verdade, antes de exigir o envio de dinheiro para garantir o cargo ou para fins de treinamento. A IA ajuda a criar sites de empresas realistas, fotos de funcionários e pode até ser usada para entrevistas falsas. Leia nosso guia para evitar golpes de WFH .

Exemplos de fraude de listagem

Um dos golpes de listagem de IA mais comuns é a venda ou aluguel de propriedades. Os golpistas criam anúncios realistas de propriedades, geralmente em áreas desejáveis, a preços competitivos. Em seguida, eles pedirão dinheiro adiantado, como um depósito ou vários meses de aluguel. É um golpe lucrativo, pois muitas vezes eles falam com várias vítimas ao mesmo tempo.

O que é particularmente nefasto neste golpe é que a IA permite que o golpista gere documentos de propriedade razoavelmente realistas, o que pode convencer a vítima de que a transação é legítima. Eles também podem solicitar informações pessoais e dinheiro, deixando seus dados comprometidos.

Como evitar golpes de IA

Você já deu o primeiro passo para evitar golpes de IA e isso é entender que tipo de golpes existem. É isso mesmo, apenas abrindo e lendo este artigo você está no caminho certo para uma existência online mais segura. Aqui estão algumas outras dicas para evitar golpes de IA:

  • Sempre confirme – Seja um deepfake ou um golpe de clonagem de voz, encontre uma maneira de confirmar a fonte da informação. Uma simples pesquisa no Google ou uma ligação para um ente querido pode evitar muitos conflitos.
  • Tenha cuidado com o que você posta – Muitos golpistas usam dados de mídias sociais para atingir indivíduos vulneráveis ​​ou treinar modelos com base em sua voz.
  • Denunciar o golpe – Pode não ajudar você a evitá-lo, mas ao denunciar o golpe às autoridades competentes, você pode ter certeza de que tentativas futuras fracassarão, não importa quanta IA elas usem.

Além disso, é importante ser um pouco cético quando se trata de fornecer informações financeiras ou dados pessoais online ou por telefone. A IA está tornando esses golpes infinitamente mais convincentes, portanto, manter um pouco de ceticismo saudável ao abordar essas transações pode ajudar muito a mantê-lo seguro.