ใครก็ตามที่มีการเชื่อมต่ออินเทอร์เน็ตสามารถโคลนเสียงของคุณได้
เผยแพร่แล้ว: 2023-04-05คุณเพิ่งกลับถึงบ้านหลังจากทำงานมาทั้งวันและกำลังจะนั่งทานอาหารเย็นอยู่ดีๆ โทรศัพท์ของคุณก็ส่งเสียงหึ่งๆ
อีกด้านหนึ่งคือคนที่คุณรัก อาจเป็นพ่อแม่ ลูก หรือเพื่อนสมัยเด็ก ขอร้องให้คุณส่งเงินให้พวกเขาทันที
คุณถามคำถามพวกเขาพยายามที่จะเข้าใจ มีบางอย่างผิดปกติเกี่ยวกับคำตอบของพวกเขา ซึ่งอาจจะคลุมเครือหรือไม่มีลักษณะเฉพาะตัว และบางครั้งก็มีความล่าช้าที่แปลกประหลาด เกือบจะเหมือนกับว่าพวกเขากำลังคิดช้าเกินไป
แต่คุณยังมั่นใจว่านั่นคือเสียงคนที่คุณรักพูด นั่นคือเสียงของพวกเขาที่คุณได้ยิน และหมายเลขผู้โทรจะแสดงหมายเลขของพวกเขา คุณส่งเงินไปยังบัญชีธนาคารที่พวกเขาให้คุณตามหน้าที่
วันรุ่งขึ้น คุณโทรกลับเพื่อให้แน่ใจว่าทุกอย่างเรียบร้อยดี คนที่คุณรักไม่รู้ว่าคุณกำลังพูดถึงอะไร
นั่นเป็นเพราะพวกเขาไม่เคยโทรหาคุณ – คุณถูกเทคโนโลยีหลอก: เสียงปลอม ผู้คนหลายพันคนถูกหลอกลวงด้วยวิธีนี้ในปี 2565
ในฐานะนักวิจัยด้านความปลอดภัยคอมพิวเตอร์ เราเห็นว่าความก้าวหน้าอย่างต่อเนื่องในอัลกอริธึมการเรียนรู้เชิงลึก การตัดต่อและวิศวกรรมเสียง และการสร้างเสียงสังเคราะห์นั้นหมายความว่ามีความเป็นไปได้มากขึ้นเรื่อยๆ ในการจำลองเสียงของบุคคลให้น่าเชื่อถือ
ยิ่งไปกว่านั้น แชทบอทเช่น ChatGPT กำลังเริ่มสร้างสคริปต์ที่เหมือนจริงพร้อมการตอบสนองตามเวลาจริงที่ปรับเปลี่ยนได้
ด้วยการรวมเทคโนโลยีเหล่านี้เข้ากับการสร้างเสียง Deepfake เปลี่ยนจากการบันทึกเสียงแบบคงที่เป็นการแสดงตัวตนเสมือนจริงที่สามารถสนทนาทางโทรศัพท์ได้อย่างน่าเชื่อถือ
โคลนเสียง
การสร้าง Deepfake คุณภาพสูงที่น่าสนใจ ไม่ว่าจะเป็นวิดีโอหรือเสียง ไม่ใช่สิ่งที่ง่ายที่สุดที่จะทำ ต้องใช้ทักษะทางศิลปะและเทคนิคมากมาย ฮาร์ดแวร์ที่ทรงพลัง และตัวอย่างเสียงเป้าหมายที่ค่อนข้างหนักแน่น
มีบริการจำนวนมากขึ้นเรื่อย ๆ ที่เสนอให้ผลิตเสียงโคลนคุณภาพปานกลางถึงสูงโดยมีค่าธรรมเนียม และเครื่องมือ Deepfake บางตัวต้องการตัวอย่างเสียงที่มีความยาวเพียงหนึ่งนาทีหรือแม้แต่ไม่กี่วินาทีเพื่อสร้างเสียงเลียนแบบที่ทำได้ น่าเชื่อถือพอที่จะหลอกใครซักคน
อย่างไรก็ตาม ในการโน้มน้าวให้คนที่คุณรัก เช่น ใช้ในการหลอกลวงเลียนแบบ อาจต้องใช้กลุ่มตัวอย่างที่ใหญ่กว่ามาก
ป้องกันการหลอกลวงและข้อมูลบิดเบือน
จากทั้งหมดที่กล่าวมา พวกเราในโครงการ DeFake ของ Rochester Institute of Technology, University of Mississippi และ Michigan State University และนักวิจัยคนอื่นๆ กำลังทำงานอย่างหนักเพื่อให้สามารถตรวจจับการปลอมแปลงวิดีโอและเสียงและจำกัดอันตรายที่เกิดขึ้นได้
นอกจากนี้ยังมีการกระทำที่ตรงไปตรงมาในชีวิตประจำวันที่คุณสามารถทำได้เพื่อป้องกันตัวเอง
สำหรับผู้เริ่มต้น ฟิชชิงด้วยเสียงหรือ "วิชชิ่ง" การหลอกลวงอย่างที่อธิบายไว้ข้างต้นเป็นการหลอกลวงทางเสียงที่มีแนวโน้มมากที่สุดที่คุณอาจพบในชีวิตประจำวัน ทั้งในที่ทำงานและที่บ้าน
ในปี 2019 บริษัทพลังงานแห่งหนึ่งถูกหลอกลวงเงิน 243,000 ดอลลาร์สหรัฐ เมื่ออาชญากรเลียนแบบเสียงของหัวหน้าบริษัทแม่เพื่อสั่งให้พนักงานโอนเงินไปให้ซัพพลายเออร์
ในปี 2565 ผู้คนถูกฉ้อฉลจากเงินประมาณ 11 ล้านดอลลาร์ด้วยเสียงจำลอง ซึ่งรวมถึงสายสัมพันธ์ส่วนตัวที่ใกล้ชิด
คุณทำอะไรได้บ้าง?
ระวังการโทรที่ไม่คาดคิด แม้กระทั่งจากคนที่คุณรู้จักดี
นี่ไม่ได้หมายความว่าคุณต้องกำหนดเวลาการโทรทุกครั้ง แต่อย่างน้อยก็ช่วยส่งอีเมลหรือส่งข้อความล่วงหน้าได้ นอกจากนี้อย่าพึ่งพาหมายเลขผู้โทรเนื่องจากสามารถปลอมแปลงได้เช่นกัน
ตัวอย่างเช่น หากคุณได้รับโทรศัพท์จากบุคคลที่อ้างว่าเป็นตัวแทนของธนาคารของคุณ ให้วางสายและโทรหาธนาคารโดยตรงเพื่อยืนยันความถูกต้องของการโทร อย่าลืมใช้หมายเลขที่คุณจดบันทึกไว้ในรายชื่อผู้ติดต่อหรือที่ค้นหาใน Google
นอกจากนี้ โปรดระวังข้อมูลระบุตัวตนของคุณ เช่น หมายเลขประกันสังคม ที่อยู่บ้าน วันเกิด หมายเลขโทรศัพท์ ชื่อกลาง และแม้แต่ชื่อลูกและสัตว์เลี้ยงของคุณ
สแกมเมอร์สามารถใช้ข้อมูลนี้เพื่อแอบอ้างเป็นคุณกับธนาคาร นายหน้า และคนอื่นๆ เพื่อเพิ่มพูนคุณค่าให้กับตัวเองในขณะที่ทำให้คุณล้มละลายหรือทำลายเครดิตของคุณ
นี่คือคำแนะนำอีกข้อ: รู้จักตัวเอง โดยเฉพาะอย่างยิ่ง รู้จักอคติและความเปราะบางทางสติปัญญาและอารมณ์ของคุณ นี่เป็นคำแนะนำที่ดีในการใช้ชีวิตโดยทั่วไป แต่ก็เป็นกุญแจสำคัญในการป้องกันตัวเองจากการถูกบงการ
โดยทั่วไปแล้วสแกมเมอร์มักจะชอบใช้ความคิดและหลอกล่อจากความวิตกกังวลทางการเงินของคุณ ความผูกพันทางการเมืองของคุณ หรือความโน้มเอียงอื่นๆ อะไรก็ตามที่อาจเป็นได้
ความตื่นตัวนี้ยังเป็นการป้องกันที่ดีต่อการบิดเบือนข้อมูลโดยใช้เสียงปลอม Deepfakes สามารถใช้เพื่อใช้ประโยชน์จากอคติการยืนยันของคุณ หรือสิ่งที่คุณมีแนวโน้มที่จะเชื่อเกี่ยวกับใครบางคน
หากคุณได้ยินคนสำคัญจากชุมชนหรือรัฐบาลพูดบางอย่างที่ดูเหมือนไม่ปกติสำหรับพวกเขาหรือยืนยันความสงสัยที่เลวร้ายที่สุดของคุณเกี่ยวกับพวกเขา คุณควรระวัง
มีความคิดเกี่ยวกับเรื่องนี้หรือไม่? วางบรรทัดด้านล่างในความคิดเห็นหรือส่งการสนทนาไปที่ Twitter หรือ Facebook ของเรา
หมายเหตุบรรณาธิการ: บทความนี้เขียนโดย Matthew Wright ศาสตราจารย์ด้าน Computing Security, Rochester Institute of Technology, Christopher Schwartz, รองศาสตราจารย์ด้านการวิจัยหลังปริญญาเอกด้าน Computing Security, Rochester Institute of Technology และเผยแพร่ซ้ำจาก The Conversation ภายใต้ใบอนุญาตครีเอทีฟคอมมอนส์ อ่านบทความต้นฉบับ
คำแนะนำของบรรณาธิการ:
- ChatGPT คืออนาคตของการแชท หากคุณใช้อย่างถูกต้องเท่านั้น
- หุ่นยนต์รับใช้ในครัวเรือนยังอีกยาวไกล นี่คือเหตุผล
- นักวิจัยเปิดเผยว่าพวกเขาตรวจจับเสียงปลอมได้อย่างไร – นี่คือวิธีการ
- แอปที่ดาวน์โหลดจากประเทศต่างๆ มีความเสี่ยงด้านความเป็นส่วนตัวสูงขึ้น