Tu voz puede ser clonada por cualquier persona con conexión a Internet.
Publicado: 2023-04-05Acabas de regresar a casa después de un largo día de trabajo y estás a punto de sentarte a cenar cuando de repente tu teléfono comienza a vibrar.
En el otro extremo está un ser querido, tal vez un padre, un hijo o un amigo de la infancia, rogándote que le envíes dinero de inmediato.
Les haces preguntas, tratando de entender. Hay algo fuera de lugar en sus respuestas, que son vagas o fuera de lugar, ya veces hay un retraso peculiar, casi como si estuvieran pensando un poco demasiado lento.
Sin embargo, está seguro de que definitivamente es su ser querido el que habla: esa es su voz que escucha, y el identificador de llamadas muestra su número. Atribuyéndole la extrañeza a su pánico, envías obedientemente el dinero a la cuenta bancaria que te proporcionan.
Al día siguiente, les devuelves la llamada para asegurarte de que todo está bien. Su ser querido no tiene idea de lo que está hablando.
Eso es porque nunca te llamaron, has sido engañado por la tecnología: una voz falsa. Miles de personas fueron estafadas de esta manera en 2022.
Como investigadores de seguridad informática, vemos que los avances continuos en algoritmos de aprendizaje profundo, edición e ingeniería de audio y generación de voz sintética han significado que cada vez es más posible simular de manera convincente la voz de una persona.
Peor aún, los chatbots como ChatGPT están comenzando a generar guiones realistas con respuestas adaptables en tiempo real.
Al combinar estas tecnologías con la generación de voz, un deepfake pasa de ser una grabación estática a un avatar vivo y realista que puede tener una conversación telefónica de manera convincente.
Clonar una voz
Elaborar un deepfake convincente de alta calidad, ya sea video o audio, no es lo más fácil de hacer. Requiere una gran cantidad de habilidades artísticas y técnicas, un hardware potente y una muestra bastante considerable de la voz objetivo.
Hay un número creciente de servicios que ofrecen producir clones de voz de calidad moderada a alta por una tarifa, y algunas herramientas de falsificación de voz necesitan una muestra de solo un minuto, o incluso unos pocos segundos, para producir un clon de voz que podría ser lo suficientemente convincente como para engañar a alguien.
Sin embargo, para convencer a un ser querido, por ejemplo, para utilizarlo en una estafa de suplantación de identidad, probablemente se necesitaría una muestra significativamente mayor.
Protección contra estafas y desinformación
Dicho todo esto, en el Proyecto DeFake del Instituto de Tecnología de Rochester, la Universidad de Mississippi y la Universidad Estatal de Michigan, y otros investigadores, estamos trabajando arduamente para poder detectar falsificaciones profundas de video y audio y limitar el daño que causan.
También hay acciones sencillas y cotidianas que puede tomar para protegerse.
Para empezar, las estafas de phishing de voz o "vishing" como la descrita anteriormente son las falsificaciones de voz más probables que puede encontrar en la vida cotidiana, tanto en el trabajo como en el hogar.
En 2019, una empresa de energía fue estafada con US$243.000 cuando los delincuentes simularon la voz del jefe de su empresa matriz para ordenar a un empleado que transfiriera fondos a un proveedor.
En 2022, las personas fueron estafadas por un estimado de $ 11 millones por voces simuladas, incluso de conexiones personales cercanas.
¿Qué puedes hacer?
Tenga cuidado con las llamadas inesperadas, incluso de personas que conoce bien.
Esto no quiere decir que deba programar cada llamada, pero ayuda al menos enviar un correo electrónico o un mensaje de texto con anticipación. Además, no confíes en el identificador de llamadas, ya que también se puede falsificar.
Por ejemplo, si recibe una llamada de alguien que dice representar a su banco, cuelgue y llame directamente al banco para confirmar la legitimidad de la llamada. Asegúrese de utilizar el número que ha anotado, guardado en su lista de contactos o que puede encontrar en Google.
Además, tenga cuidado con su información de identificación personal, como su número de Seguro Social, domicilio, fecha de nacimiento, número de teléfono, segundo nombre e incluso los nombres de sus hijos y mascotas.
Los estafadores pueden usar esta información para hacerse pasar por usted ante bancos, agentes inmobiliarios y otros, enriqueciéndose mientras lo llevan a la bancarrota o destruyen su crédito.
He aquí otro consejo: conócete a ti mismo. Específicamente, conozca sus sesgos y vulnerabilidades intelectuales y emocionales. Este es un buen consejo de vida en general, pero es clave para protegerse de ser manipulado.
Los estafadores generalmente buscan descubrir y luego aprovecharse de sus ansiedades financieras, sus apegos políticos u otras inclinaciones, cualesquiera que sean.
Este estado de alerta también es una defensa decente contra la desinformación que utiliza deepfakes de voz. Deepfakes se puede usar para aprovechar su sesgo de confirmación, o lo que se inclina a creer sobre alguien.
Si escucha a una persona importante, ya sea de su comunidad o del gobierno, decir algo que parece muy poco característico para ellos o confirma sus peores sospechas sobre ellos, sería prudente tener cuidado.
¿Tiene alguna idea sobre esto? Envíenos una línea a continuación en los comentarios, o lleve la discusión a nuestro Twitter o Facebook.
Nota del editor: este artículo fue escrito por Matthew Wright, Profesor de Seguridad Informática, Instituto de Tecnología de Rochester, Christopher Schwartz, Investigador Postdoctoral Asociado de Seguridad Informática, Instituto de Tecnología de Rochester, y republicado de The Conversation bajo una licencia Creative Commons. Lea el artículo original.
Recomendaciones de los editores:
- ChatGPT es el futuro del chat, solo si lo usas bien
- Los sirvientes robot domésticos aún están muy lejos, he aquí por qué
- Investigadores revelan cómo detectan audio falso profundo: así es como
- Las aplicaciones descargadas de diferentes países presentan mayores riesgos de privacidad