Golpes de ChatGPT e IA a serem observados e evitados
Publicados: 2023-05-29Desde que o ChatGPT foi lançado em novembro do ano passado, ele provou ser infinitamente útil, com funcionários de todo o mundo encontrando maneiras inovadoras de aplicar a tecnologia todos os dias. No entanto, tal é o poder das ferramentas de IA que elas também podem ser usadas para fins insidiosos, como escrever scripts de malware e e-mails de phishing.
Junto com a utilização de inteligência artificial para orquestrar golpes, nos últimos seis a oito meses, hackers foram vistos aproveitando o tema quente para extorquir dinheiro das pessoas e roubar suas informações por meio de oportunidades de investimento falsas e aplicativos fraudulentos.
Os golpes de IA estão entre os mais difíceis de identificar, e muitas pessoas não investem em ferramentas como o antivírus Surfshark , que avisa os usuários quando eles estão prestes a acessar sites suspeitos ou baixar um aplicativo duvidoso. Então, reunimos este guia de todas as táticas comuns que foram observadas na natureza recentemente. Ao todo, neste artigo, abordamos:
- Golpes de IA: quão comuns são?
- Golpes de phishing assistidos por IA
- Golpes de clonagem de voz AI
- Aplicativos GPT de bate-papo falsos
- Sites Falsos de ChatGPT
- Golpes de investimento em IA
- Golpes de IA: eles só vão piorar
Golpes de IA: o que são e quão comuns são?
Como mencionamos na introdução deste artigo, “golpes de IA” podem se referir a dois gêneros diferentes de golpes, exemplos dos quais surgiram regularmente durante 2023.
Em golpes assistidos por IA , a inteligência artificial ajuda o golpista a realmente cometer o golpe, como escrever o texto para um e-mail de phishing. Em golpes gerais de IA , o hacker está aproveitando a popularidade e a natureza zeitgeisty da IA como um tópico para intrigar alvos curiosos, como um falso golpe de aplicativo ChatGPT.
O DFPI da Califórnia registrou um aumento nos golpes de investimento em IA, enquanto empresas de segurança cibernética como a McAfee observaram um aumento nos golpes de clonagem de voz de IA nos últimos meses.
O lançamento explosivo do ChatGPT também levou à criação de uma onda de domínios maliciosos, que também serão discutidos neste artigo.
Recentemente, o cofundador da Apple, Steve Wozniak – um recente signatário de uma carta pedindo uma pausa no desenvolvimento da IA – alertou que a inteligência artificial tornará os golpes muito mais difíceis de detectar e permitirá que atores maliciosos pareçam cada vez mais convincentes. A era dos golpes assistidos por IA chegou.
Assim como o ransomware como serviço reduziu o nível de habilidade técnica necessária para atacar uma empresa, ferramentas de IA como o ChatGPT significam que praticamente qualquer pessoa pode parecer convincente, então, em teoria, um grupo demográfico maior agora pode orquestrá-las de forma eficaz.
Golpes de phishing assistidos por IA
Os golpes de phishing existem há anos - os golpistas enviam e-mails ou mensagens de texto se passando por uma empresa legítima, como a Microsoft, na tentativa de fazer você clicar em um link, que o levará a um site malicioso.
A partir daí, um agente de ameaça pode injetar malware em seu dispositivo ou roubar informações pessoais, como uma senha. Historicamente, uma das maneiras mais fáceis de identificá-los são os erros de ortografia e gramática que uma empresa de prestígio como a Microsoft simplesmente não cometeria em um e-mail oficial para seus clientes.
Em 2023, no entanto, com um prompt simples, o ChatGPT pode gerar uma cópia limpa e fluida que não contém erros de ortografia. Isso torna muito mais difícil distinguir entre correspondência legítima e ataques de phishing.
Se você pedir explicitamente ao ChatGPT para criar um e-mail com a finalidade de phishing, o chatbot se recusará a fazê-lo. No entanto, pedimos ao ChatGPT para produzir dois tipos diferentes de e-mails que poderiam ser usados como um modelo para um golpe de phishing e, surpreendentemente, parece que esses tipos de solicitações não são bloqueadas pelas regras de conteúdo:
Protegendo-se contra golpes de phishing de IA
Se você receber um e-mail que parece ser de uma empresa legítima, mas está tentando injetar um senso de urgência em sua tomada de decisão (como pedir para pagar uma multa ou fazer login em sua conta para evitar que seja excluído), trate com extrema cautela. Essa é uma tática típica de phishing.
Lembre-se, se você acha que o e-mail provavelmente é genuíno, você sempre pode abrir uma nova linha de comunicação com a pessoa ou a empresa.
Por exemplo, se você receber um e-mail suspeito de seu banco dizendo que sua conta foi acessada por um terceiro não autorizado, não responda ao e-mail – basta entrar em contato com a equipe de atendimento ao cliente do banco, usando o número ou endereço listado em seu site.
Golpes de clonagem de voz AI
Os golpes de AI Voice são um tipo de golpe assistido por IA que vem ganhando as manchetes nos últimos meses. Uma pesquisa global da McAfee descobriu recentemente que 10% dos entrevistados já foram alvos pessoais de um golpe de voz de IA. Outros 15% relataram que conheciam alguém que havia sido alvo.
11% das vítimas dos EUA que perderam dinheiro durante golpes de clonagem de voz de IA foram enganadas em US$ 5.000 a US$ 15.000.
Em golpes de voz de IA, atores mal-intencionados extraem dados de áudio da conta de mídia social de um alvo e, em seguida, os executam por meio de um aplicativo de conversão de texto em fala que pode gerar novo conteúdo no estilo do áudio original. Esses tipos de aplicativos podem ser acessados online gratuitamente e têm usos não nefastos legítimos.
O golpista criará uma mensagem de voz ou nota de voz descrevendo seu alvo em perigo e precisando desesperadamente de dinheiro. Isso será enviado aos membros da família, esperando que eles não consigam distinguir entre a voz de seu ente querido e uma versão gerada por IA.
Protegendo-se de golpes de voz de IA
A Federal Trade Commission (FTC) aconselha os consumidores a manter a calma se receberem correspondência supostamente de um ente querido em perigo e tentar ligar para o número de onde receberam a ligação para confirmar que é de fato real.
Se você acha que está nessa posição e não pode ligar para o número, tente o número de telefone normal da pessoa em questão. Se você não obtiver uma resposta, tente verificar seu paradeiro entrando em contato com pessoas próximas a eles – e verifique aplicativos como o Find My Friends, se você os usa, para ver se eles estão em um local seguro.
Se você não puder verificar o paradeiro deles, é crucial que entre em contato com a polícia imediatamente. Se você descobrir que é uma farsa, certifique-se de denunciar o mesmo diretamente à FTC.
Golpes fraudulentos do aplicativo ChatGPT
Assim como qualquer outra grande mania de tecnologia, se as pessoas estão falando sobre isso – e mais importante, procurando por isso – os golpistas vão aproveitá-lo para meios nefastos. ChatGPT é um excelente exemplo disso.
Um relatório recente da Sophos encontrou uma infinidade de aplicativos adjacentes ao ChatGPT que apelidou de “fleeceware”. Os aplicativos Fleeceware fornecem um programa gratuito com funcionalidade limitada e, em seguida, bombardeiam os usuários com anúncios no aplicativo até que eles se inscrevam para uma assinatura superfaturada.
De acordo com a empresa de segurança cibernética, “usando uma combinação de publicidade dentro e fora das lojas de aplicativos e avaliações falsas que manipulam os sistemas de classificação das lojas, os desenvolvedores desses aplicativos enganosos são capazes de atrair usuários de dispositivos desavisados para baixá-los”.
Um aplicativo falso do ChatGPT chamado Genie, que oferece assinaturas de US$ 7 por semana ou US$ 70 por ano, faturou US$ 1 milhão em um período mensal, de acordo com a SensorTower. Outros ganharam dezenas de milhares de libras. Outro, chamado “Chat GBT” na loja Android, foi nomeado especificamente no relatório da Sophos:
(Crédito da imagem: Sophos)
De acordo com a empresa de segurança cibernética, os recursos "profissionais" pelos quais os usuários acabam pagando uma quantia alta são "essencialmente os mesmos" da versão gratuita. Eles também relatam que, antes de o aplicativo ser retirado, a seção de avaliações estava repleta de “comentários de pessoas que baixaram o aplicativo e descobriram que ele não funcionava – ou ele exibia apenas anúncios ou não respondia às perguntas quando desbloqueado”.
Protegendo-se de falsos golpes de aplicativos ChatGPT
A maneira mais simples de garantir que você não incorra nesses tipos de taxas de assinatura – ou baixe malwares indesejados – é simplesmente não baixar os aplicativos. Os usuários do iPhone agora podem baixar o aplicativo oficial do ChatGPT, que foi lançado recentemente. Será intrigante ver se isso marca o fim dos falsos aplicativos ChatGPT que atualmente povoam a App Store.
Como alternativa, os usuários de iOS e Android podem adicionar um link da Web do ChatGPT à tela inicial e, se você for um usuário do iPhone, poderá criar um atalho da Siri que o levará direto ao ChatGPT na Web. Há pouca diferença prática entre o atalho da tela inicial e um aplicativo nativo neste contexto.
Sites Falsos de ChatGPT
Juntamente com aplicativos falsos do ChatGPT, também existem vários sites falsos do ChatGPT por aí, capitalizando o enorme volume de pesquisa em torno do termo.
Em fevereiro de 2023, o usuário do Twitter Alvosec identificou quatro domínios que estavam distribuindo malware sob um nome relacionado ao ChatGPT:
️ Cuidado com esses domínios #ChatGPT que distribuem malware
chat-gpt-windows[.]com
chat-gpt-online-pc[.]com
chat-gpt-pc[.]online
chat-gpt[.]run@OpenAI #cybersecurity #infosec pic.twitter.com/hOZIVGN4Wi— Alvosec ️ (@alvosec) 23 de fevereiro de 2023
Alguns relatórios observaram que sites falsos do ChatGPT apresentam o chatbot da OpenAI como um aplicativo do Windows para download, em vez de um aplicativo no navegador, permitindo que eles carreguem malware nos dispositivos.
Como se proteger de sites falsos do ChatGPT
Lembre-se, ChatGPT é um produto OpenAI, e a única forma de acessar o chatbot é através do aplicativo móvel, ou através de seu domínio especificamente. “ChatGPT[.]com”, por exemplo, não tem nada a ver com o real e legítimo ChatGPT, e você não pode baixar o ChatGPT como se fosse um cliente de software.
Estranhamente, o URL da página inicial de login/inscrição legítima do ChatGPT nem mesmo contém a palavra “ChatGPT”: https://chat.openai.com/auth/login.
Você também pode se inscrever através do blog da OpenAI (https://openai.com/blog/chatgpt), mas, novamente, isso faz parte do domínio da OpenAI. Se alguém lhe enviar um link para um site ChatGPT que não leve a um dos endereços acima, recomendamos que você não clique nele e navegue até o site legítimo por meio do Google.
Golpes de investimento em IA
Assim como a criptomoeda, os golpistas estão aproveitando o hype em torno da IA – bem como a própria tecnologia – para criar oportunidades de investimento falsas que parecem genuínas.
“TeslaCoin” e “TruthGPT Coin” foram usados em golpes, pegando carona no burburinho da mídia em torno de Elon Musk e ChatGPT e se apresentando como oportunidades de investimento da moda.
O Departamento de Proteção Financeira e Inovação da Califórnia alega que uma empresa chamada Maxpread Technologies criou um CEO falso gerado por IA e o programou com um script incentivando os apostadores a investir (foto abaixo). A empresa recebeu uma ordem de desistir e abster-se.
(Crédito da imagem: coinstats.app)
A Forbes relata que outra empresa de investimentos, a Harvest Keeper - que o DFPI diz ter falido em março - contratou um ator para se passar por seu CEO, a fim de reinar em clientes entusiasmados. Isso ilustra até onde alguns golpistas irão para garantir que seu argumento de venda seja realista o suficiente.
Protegendo-se de golpes de investimento em IA
Se alguém que você não conhece está entrando em contato diretamente com oportunidades de investimento, trate suas dicas com extremo cuidado. Oportunidades de investimento valiosas não tendem a cair no colo das pessoas dessa maneira.
Se parece bom demais para ser verdade e alguém está oferecendo a você retornos garantidos, não acredite. Os retornos nunca são garantidos nos investimentos e seu capital está sempre em risco.
Se você é alguém que investe regularmente em empresas, saberá a importância de fazer sua devida diligência antes de abrir mão de seu dinheiro suado. Recomendamos aplicar um nível ainda mais alto de escrutínio a possíveis investimentos em IA, considerando o burburinho em torno de produtos relacionados e a prevalência de golpes.
Golpes de IA: eles só vão piorar
Em 2022, os consumidores dos EUA perderam enormes $ 8,8 bilhões em golpes - e é improvável que 2023 seja diferente. Períodos de instabilidade financeira geralmente se correlacionam com aumentos de fraudes também e, globalmente, muitos países estão lutando.
Atualmente, a inteligência artificial é uma mina de ouro para golpistas. Todo mundo está falando sobre isso, mas poucos realmente sabem o que é o quê, e empresas de todas as formas e tamanhos estão lançando produtos de IA no mercado.
No momento, o hype em torno da IA a torna o assunto mais baixável, investível e clicável da Internet. Ele fornece a cobertura perfeita para golpistas.
É importante manter-se atualizado com os golpes mais recentes que estão circulando e, com a IA tornando-os muito mais difíceis de detectar, isso é ainda mais importante. A FTC, o FBI e outras agências federais publicam avisos regularmente, portanto, é altamente recomendável segui-los nas mídias sociais para obter as atualizações mais recentes.
No entanto, também recomendamos a compra de uma VPN com detecção de malware, como NordVPN ou Surfshark . Ambos ocultam seu endereço IP como uma VPN padrão, mas também o alertam sobre sites suspeitos ocultos nas páginas de resultados da Pesquisa Google. Equipar-se com tecnologia como essa é uma parte importante para se manter seguro online.