Sua voz pode ser clonada por qualquer pessoa com conexão à internet
Publicados: 2023-04-05Você acabou de voltar para casa depois de um longo dia de trabalho e está prestes a se sentar para jantar quando de repente seu telefone começa a tocar.
Do outro lado está um ente querido, talvez um pai, um filho ou um amigo de infância, implorando para que você envie dinheiro imediatamente.
Você faz perguntas a eles, tentando entender. Há algo estranho em suas respostas, que são vagas ou fora do personagem, e às vezes há um atraso peculiar, quase como se estivessem pensando um pouco devagar demais.
No entanto, você tem certeza de que é definitivamente o seu ente querido falando: é a voz dele que você ouve e o identificador de chamadas está mostrando o número dele. Atribuindo a estranheza ao pânico deles, você obedientemente envia o dinheiro para a conta bancária que eles fornecem a você.
No dia seguinte, você liga de volta para saber se está tudo bem. Seu ente querido não tem ideia do que você está falando.
Isso porque nunca ligaram para você – você foi enganado pela tecnologia: uma voz deepfake. Milhares de pessoas foram enganadas dessa forma em 2022.
Como pesquisadores de segurança de computadores, vemos que os avanços contínuos em algoritmos de aprendizado profundo, edição e engenharia de áudio e geração de voz sintética significam que é cada vez mais possível simular de forma convincente a voz de uma pessoa.
Pior ainda, chatbots como o ChatGPT estão começando a gerar scripts realistas com respostas adaptáveis em tempo real.
Ao combinar essas tecnologias com geração de voz, um deepfake deixa de ser uma gravação estática para um avatar ao vivo e realista que pode ter uma conversa telefônica de forma convincente.
clonando uma voz
Criar um deepfake convincente de alta qualidade, seja vídeo ou áudio, não é a coisa mais fácil de fazer. Requer uma riqueza de habilidades artísticas e técnicas, hardware poderoso e uma amostra bastante robusta da voz de destino.
Há um número crescente de serviços que oferecem para produzir clones de voz de moderada a alta qualidade por uma taxa, e algumas ferramentas deepfake de voz precisam de uma amostra de apenas um minuto, ou mesmo apenas alguns segundos, para produzir um clone de voz que poderia ser convincente o suficiente para enganar alguém.
No entanto, para convencer um ente querido – por exemplo, a usar em um golpe de representação – provavelmente seria necessária uma amostra significativamente maior.
Proteção contra golpes e desinformação
Com tudo isso dito, nós do DeFake Project do Rochester Institute of Technology, da University of Mississippi e da Michigan State University, e outros pesquisadores estamos trabalhando duro para detectar deepfakes de vídeo e áudio e limitar os danos que eles causam.
Existem também ações diretas e cotidianas que você pode realizar para se proteger.
Para começar, phishing de voz ou “vishing”, golpes como o descrito acima são os deepfakes de voz mais prováveis que você pode encontrar na vida cotidiana, tanto no trabalho quanto em casa.
Em 2019, uma empresa de energia foi roubada em US$ 243.000 quando criminosos simularam a voz do chefe de sua controladora para ordenar que um funcionário transferisse fundos para um fornecedor.
Em 2022, pessoas foram roubadas em cerca de US$ 11 milhões por vozes simuladas, incluindo conexões pessoais próximas.
O que você pode fazer?
Esteja atento a ligações inesperadas, mesmo de pessoas que você conhece bem.
Isso não quer dizer que você precise agendar todas as chamadas, mas ajuda pelo menos enviar um e-mail ou mensagem de texto com antecedência. Além disso, não confie no identificador de chamadas, pois ele também pode ser falsificado.
Por exemplo, se você receber uma ligação de alguém que afirma representar seu banco, desligue e ligue diretamente para o banco para confirmar a legitimidade da ligação. Certifique-se de usar o número que você anotou, salvou em sua lista de contatos ou que você pode encontrar no Google.
Além disso, tenha cuidado com suas informações de identificação pessoal, como número do Seguro Social, endereço residencial, data de nascimento, número de telefone, nome do meio e até mesmo os nomes de seus filhos e animais de estimação.
Os golpistas podem usar essas informações para se passar por você para bancos, corretores de imóveis e outros, enriquecendo enquanto levam você à falência ou destroem seu crédito.
Aqui está outro conselho: conheça a si mesmo. Especificamente, conheça seus preconceitos e vulnerabilidades intelectuais e emocionais. Este é um bom conselho de vida em geral, mas é fundamental para se proteger de ser manipulado.
Os golpistas geralmente procuram descobrir e depois se aproveitar de suas ansiedades financeiras, suas ligações políticas ou outras inclinações, sejam elas quais forem.
Esse estado de alerta também é uma defesa decente contra a desinformação usando deepfakes de voz. Deepfakes podem ser usados para tirar proveito de seu viés de confirmação, ou o que você está inclinado a acreditar sobre alguém.
Se você ouvir uma pessoa importante, seja de sua comunidade ou do governo, dizendo algo que parece muito incomum para ela ou confirma suas piores suspeitas sobre ela, seria prudente ser cauteloso.
Tem alguma opinião sobre isso? Deixe-nos uma mensagem abaixo nos comentários ou leve a discussão para o nosso Twitter ou Facebook.
Nota do Editor: Este artigo foi escrito por Matthew Wright, Professor de Segurança de Computação, Rochester Institute of Technology, Christopher Schwartz, Pesquisador Associado de Pós-Doutorado em Segurança de Computação, Rochester Institute of Technology, e republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.
Recomendações dos editores:
- ChatGPT é o futuro do bate-papo, apenas se você usá-lo corretamente
- Os servos-robôs domésticos ainda estão muito longe - eis o porquê
- Pesquisadores revelam como detectam áudio deepfake – veja como
- Aplicativos baixados de diferentes países representam maiores riscos de privacidade