あなたの声は、インターネットに接続していれば誰でも複製できます
公開: 2023-04-05長い一日の仕事を終えて家に帰り、夕食の席に着こうとしたとき、突然電話が鳴り始めました。
反対側には、愛する人、おそらく親、子供、または幼なじみがいて、すぐにお金を送ってくれるように頼んでいます。
あなたは彼らに質問し、理解しようとします。 彼らの答えには、あいまいであるか、または性格から外れた何かがあり、時には、彼らが少しゆっくりと考えすぎたかのように、独特の遅れがあります.
それでも、あなたの愛する人が話していることは間違いありません。それはあなたが聞く彼らの声であり、発信者 ID は彼らの番号を示しています。 彼らのパニックの奇妙さを説明するために、あなたは彼らが提供する銀行口座に忠実にお金を送ります。
翌日、彼らに電話をかけ直して、すべてが順調であることを確認します。 あなたの愛する人は、あなたが何を話しているのか分かりません。
それは彼らがあなたに電話をかけなかったからです – あなたはテクノロジーにだまされました: 声のディープフェイク. 2022 年には、何千人もの人々がこの方法で詐欺に遭いました。
コンピューター セキュリティの研究者として、ディープ ラーニング アルゴリズム、オーディオ編集とエンジニアリング、および合成音声生成の継続的な進歩により、説得力のある人の声をシミュレートすることがますます可能になっていることがわかります。
さらに悪いことに、ChatGPT のようなチャットボットは、適応型のリアルタイム応答を備えた現実的なスクリプトを生成し始めています。
これらのテクノロジーを音声生成と組み合わせることで、ディープフェイクは静的な録音から、説得力を持って電話で会話できる生き生きとしたアバターになります。
声の複製
ビデオであろうとオーディオであろうと、説得力のある高品質のディープフェイクを作成することは、最も簡単なことではありません。 これには、豊富な芸術的および技術的スキル、強力なハードウェア、およびかなり大量のターゲット ボイスのサンプルが必要です。
中程度から高品質の音声クローンを有料で作成できるサービスの数は増え続けており、一部の音声ディープフェイク ツールでは、音声クローンを作成するために、わずか 1 分または数秒のサンプルが必要です。誰かをだますのに十分説得力があります。
ただし、たとえば、なりすまし詐欺で使用するために愛する人を説得するには、かなり大きなサンプルが必要になる可能性があります。
詐欺や偽情報からの保護
そうは言っても、私たちロチェスター工科大学、ミシシッピ大学、ミシガン州立大学の DeFake プロジェクト、および他の研究者は、ビデオとオーディオのディープフェイクを検出し、それらが引き起こす害を制限できるように懸命に取り組んでいます。
自分を守るためにできる簡単で日常的な行動もあります。
まず第一に、上記のようなボイス フィッシング (「ビッシング」) 詐欺は、職場でも家庭でも、日常生活で遭遇する可能性が最も高い音声ディープフェイクです。
2019 年には、犯罪者が親会社の上司の声を模倣して、従業員に資金をサプライヤーに送金するよう命じたときに、あるエネルギー会社が 24 万 3,000 米ドルを騙し取られました。
2022 年には、推定 1,100 万ドルが、親密な個人的なつながりを含むシミュレートされた音声によってだまされました。
あなたは何ができますか?
よく知っている人からの突然の電話にも注意してください。
これは、すべての通話をスケジュールする必要があると言っているわけではありませんが、少なくとも事前に電子メールまたはテキスト メッセージを送信すると役立ちます。 また、偽造される可能性があるため、発信者 ID に依存しないでください。
たとえば、銀行の代理人を名乗る人物から電話がかかってきた場合は、電話を切り、銀行に直接電話して、通話の正当性を確認してください。 書き留めた番号、連絡先リストに保存した番号、または Google で見つけた番号を必ず使用してください。
さらに、社会保障番号、自宅の住所、生年月日、電話番号、ミドルネーム、さらには子供やペットの名前など、個人を特定できる情報にも注意してください。
詐欺師はこの情報を使用して、銀行、不動産業者などにあなたになりすまし、自分自身を豊かにする一方で、あなたを破産させたり、信用を損ねたりする可能性があります。
もう 1 つアドバイスがあります。自分自身を知ってください。 具体的には、知的および感情的な偏見と脆弱性を知ってください。 これは一般的に良い人生のアドバイスですが、操作から身を守るための鍵です.
詐欺師は通常、あなたの経済的不安、政治的執着、またはその他の傾向が何であれ、それらを調べて食い物にしようとします.
この警戒心は、音声のディープフェイクを使用した偽情報に対する適切な防御にもなります. ディープフェイクは、あなたの確証バイアスや、誰かについて信じたいと思っていることを利用するために使用できます。
あなたのコミュニティや政府の重要な人物が、彼らにとって非常に特徴的ではないと思われることや、彼らに対するあなたの最悪の疑いを確認することを言っているのを聞いた場合は、用心するのが賢明です.
これについて何か考えはありますか? コメント欄に下の行をドロップするか、議論を Twitter または Facebook に持ち込んでください。
編集者注:この記事は、ロチェスター工科大学のコンピューティング セキュリティ教授である Matthew Wright と、ロチェスター工科大学のコンピューティング セキュリティのポスドク研究員である Christopher Schwartz によって書かれ、Creative Commons ライセンスの下で The Conversation から再発行されました。 元の記事を読んでください。
編集者の推奨事項:
- ChatGPT は、正しく使用した場合にのみ、チャットの未来です
- 家庭用ロボット使用人はまだ遠い – その理由はここにある
- 研究者は、ディープフェイク オーディオを検出する方法を明らかにします – これがその方法です
- さまざまな国からダウンロードされたアプリは、より高いプライバシー リスクをもたらします