任何有互聯網連接的人都可以克隆你的聲音
已發表: 2023-04-05您結束了漫長的一天工作後剛回到家,正準備坐下來吃晚飯,突然您的手機開始嗡嗡作響。
另一端是一位親人,可能是父母、孩子或兒時的朋友,請求您立即給他們匯款。
你問他們問題,試圖理解。 他們的回答有些不對勁,要么含糊不清,要么不合時宜,有時會有一種奇怪的延遲,就好像他們的思考有點太慢了。
然而,您可以確定這絕對是您所愛的人在說話:您聽到的是他們的聲音,來電顯示顯示的是他們的號碼。 將這種陌生感歸咎於他們的恐慌,您盡職盡責地將錢匯入他們提供給您的銀行賬戶。
第二天,您給他們回電話以確保一切正常。 您所愛的人不知道您在說什麼。
那是因為他們從來沒有給你打電話——你被技術欺騙了:一個聲音深度偽造。 2022 年,成千上萬的人以這種方式被騙。
作為計算機安全研究人員,我們看到深度學習算法、音頻編輯和工程以及合成語音生成方面的不斷進步意味著越來越有可能令人信服地模擬人的聲音。
更糟糕的是,像 ChatGPT 這樣的聊天機器人開始生成具有自適應實時響應的逼真腳本。
通過將這些技術與語音生成相結合,deepfake 從靜態錄音轉變為可以令人信服地進行電話交談的生動、逼真的化身。
克隆聲音
製作引人入勝的高質量 deepfake,無論是視頻還是音頻,都不是一件容易的事。 它需要豐富的藝術和技術技能、強大的硬件和相當大的目標語音樣本。
越來越多的服務提供收費的中到高質量的語音克隆,一些語音深度偽造工具只需要一分鐘甚至幾秒鐘的樣本,就可以生成一個語音克隆,可以有足夠的說服力來愚弄某人。
然而,要說服親人——例如,在冒充騙局中使用——可能需要大得多的樣本。
防止詐騙和虛假信息
話雖如此,我們羅切斯特理工學院的 DeFake 項目、密西西比大學和密歇根州立大學以及其他研究人員正在努力檢測視頻和音頻 deepfakes 並限制它們造成的危害。
您還可以採取一些直接的日常行動來保護自己。
對於初學者來說,語音網絡釣魚或“網絡釣魚”詐騙,如上文所述,是您在日常生活中(無論是在工作中還是在家中)最有可能遇到的語音深度偽造。
2019 年,一家能源公司被騙走 243,000 美元,犯罪分子模擬其母公司老闆的聲音命令員工向供應商轉賬。
2022 年,人們被模擬聲音騙走了大約 1100 萬美元,其中包括親密的人際關係。
你能做什麼?
請注意意外來電,即使是來自您熟悉的人。
這並不是說您需要安排每次通話,但至少提前發送電子郵件或短信會有所幫助。 另外,不要依賴來電顯示,因為它也可以被偽造。
例如,如果您接到聲稱代表您銀行的人打來的電話,請掛斷電話並直接致電銀行以確認電話的合法性。 請務必使用您記下、保存在您的聯繫人列表中或您可以在 Google 上找到的號碼。
此外,請注意您的個人身份信息,例如您的社會安全號碼、家庭住址、出生日期、電話號碼、中間名,甚至您的孩子和寵物的名字。
詐騙者可以使用此信息冒充您到銀行、房地產經紀人和其他人那裡,在讓您破產或破壞您的信用的同時中飽私囊。
這是另一條建議:了解你自己。 具體來說,了解你的智力和情感偏見和弱點。 總的來說,這是很好的生活建議,但它是保護自己免受操縱的關鍵。
詐騙者通常會設法弄清楚您的財務焦慮、政治依戀或其他傾向,然後利用這些傾向,無論這些是什麼。
這種警覺性也是對使用語音深度偽造的虛假信息的有效防禦。 Deepfakes 可以用來利用你的確認偏差,或者你傾向於相信某人的東西。
如果你聽到一個重要人物,無論是來自你的社區還是政府,說了一些對他們來說似乎非常反常的話或者證實了你對他們最壞的懷疑的話,你最好保持警惕。
對此有什麼想法嗎? 在評論下方給我們留言,或將討論轉移到我們的 Twitter 或 Facebook。
編者註:本文由羅切斯特理工學院計算安全教授 Matthew Wright 和羅切斯特理工學院計算安全博士後研究員 Christopher Schwartz 撰寫,並根據知識共享許可從 The Conversation 重新發布。 閱讀原文。
編輯推薦:
- ChatGPT 是聊天的未來,前提是您要正確使用它
- 家用機器人僕人還有很長的路要走-這就是原因
- 研究人員揭示了他們是如何檢測深度偽造音頻的——方法如下
- 從不同國家下載的應用程序存在更高的隱私風險