任何有互联网连接的人都可以克隆你的声音

已发表: 2023-04-05

您结束了漫长的一天工作后刚回到家,正准备坐下来吃晚饭,突然您的手机开始嗡嗡作响。

另一端是一位亲人,可能是父母、孩子或儿时的朋友,请求您立即给他们汇款。

你问他们问题,试图理解。 他们的回答有些不对劲,要么含糊不清,要么不合时宜,有时会有一种奇怪的延迟,就好像他们的思考有点太慢了。

然而,您可以确定这绝对是您所爱的人在说话:您听到的是他们的声音,来电显示显示的是他们的号码。 将这种陌生感归咎于他们的恐慌,您尽职尽责地将钱汇入他们提供给您的银行账户。

第二天,您给他们回电话以确保一切正常。 您所爱的人不知道您在说什么。

那是因为他们从来没有给你打电话——你被技术欺骗了:一个声音深度伪造。 2022 年,成千上万的人以这种方式被骗。

作为计算机安全研究人员,我们看到深度学习算法、音频编辑和工程以及合成语音生成方面的不断进步意味着越来越有可能令人信服地模拟人的声音。

更糟糕的是,像 ChatGPT 这样的聊天机器人开始生成具有自适应实时响应的逼真脚本。

通过将这些技术与语音生成相结合,deepfake 从静态录音转变为可以令人信服地进行电话交谈的生动、逼真的化身。

克隆声音

录音的人
图片:Pexels

制作引人入胜的高质量 deepfake,无论是视频还是音频,都不是一件容易的事。 它需要丰富的艺术和技术技能、强大的硬件和相当大的目标语音样本。

越来越多的服务提供收费的中到高质量的语音克隆,一些语音深度伪造工具只需要一分钟甚至几秒钟的样本,就可以生成一个语音克隆,可以有足够的说服力来愚弄某人。

然而,要说服亲人——例如,在冒充骗局中使用——可能需要大得多的样本。

防止诈骗和虚假信息

话虽如此,我们罗切斯特理工学院的 DeFake 项目、密西西比大学和密歇根州立大学以及其他研究人员正在努力检测视频和音频 deepfakes 并限制它们造成的危害。

您还可以采取一些直接的日常行动来保护自己。

对于初学者来说,语音网络钓鱼或“网络钓鱼”诈骗,如上文所述,是您在日常生活中(无论是在工作中还是在家中)最有可能遇到的语音深度伪造。

2019 年,一家能源公司被骗走 243,000 美元,犯罪分子模拟其母公司老板的声音命令员工向供应商转账。

2022 年,人们被模拟声音骗走了大约 1100 万美元,其中包括亲密的人际关系。

你能做什么?

拿着未知来电者电话的人
图片:Ronstik / Shutterstock

请注意意外来电,即使是来自您熟悉的人。

这并不是说您需要安排每次通话,但至少提前发送电子邮件或短信会有所帮助。 另外,不要依赖来电显示,因为它也可以被伪造。

例如,如果您接到声称代表您银行的人打来的电话,请挂断电话并直接致电银行以确认电话的合法性。 请务必使用您记下、保存在您的联系人列表中或您可以在 Google 上找到的号码。

此外,请注意您的个人身份信息,例如您的社会安全号码、家庭住址、出生日期、电话号码、中间名,甚至您的孩子和宠物的名字。

诈骗者可以使用此信息冒充您到银行、房地产经纪人和其他人那里,在让您破产或破坏您的信用的同时中饱私囊。

这是另一条建议:了解你自己。 具体来说,了解你的智力和情感偏见和弱点。 总的来说,这是很好的生活建议,但它是保护自己免受操纵的关键。

诈骗者通常会设法弄清楚您的财务焦虑、政治依恋或其他倾向,然后利用这些倾向,无论这些是什么。

这种警觉性也是对使用语音深度伪造的虚假信息的有效防御。 Deepfakes 可以用来利用你的确认偏差,或者你倾向于相信某人的东西。

如果你听到一个重要人物,无论是来自你的社区还是政府,说了一些对他们来说似乎非常反常的话或者证实了你对他们最坏的怀疑的话,你最好保持警惕。

对此有什么想法吗? 在评论下方给我们留言,或将讨论转移到我们的 Twitter 或 Facebook。

编者注:本文由罗切斯特理工学院计算安全教授 Matthew Wright 和罗切斯特理工学院计算安全博士后研究员 Christopher Schwartz 撰写,并根据知识共享许可从 The Conversation 重新发布。 阅读原文。

编辑推荐:

  • ChatGPT 是聊天的未来,前提是您要正确使用它
  • 家用机器人仆人还有很长的路要走-这就是原因
  • 研究人员揭示了他们是如何检测深度伪造音频的——方法如下
  • 从不同国家下载的应用程序存在更高的隐私风险