Suara Anda dapat dikloning oleh siapa saja yang memiliki koneksi internet
Diterbitkan: 2023-04-05Anda baru saja pulang ke rumah setelah seharian bekerja dan hendak duduk untuk makan malam ketika tiba-tiba telepon Anda mulai berdengung.
Di ujung lain adalah orang yang dicintai, mungkin orang tua, anak atau teman masa kecil, memohon agar Anda segera mengirimkan uang kepada mereka.
Anda mengajukan pertanyaan kepada mereka, mencoba untuk mengerti. Ada sesuatu yang aneh tentang jawaban mereka, yang entah samar atau keluar dari karakter, dan terkadang ada penundaan yang aneh, seolah-olah mereka berpikir terlalu lambat.
Namun, Anda yakin bahwa orang yang Anda cintai yang berbicara: Itu adalah suara mereka yang Anda dengar, dan ID penelepon menunjukkan nomornya. Menimbulkan keanehan pada kepanikan mereka, Anda dengan patuh mengirim uang ke rekening bank yang mereka berikan kepada Anda.
Keesokan harinya, Anda menelepon mereka kembali untuk memastikan semuanya baik-baik saja. Orang yang Anda cintai tidak tahu apa yang Anda bicarakan.
Itu karena mereka tidak pernah menelepon Anda – Anda telah ditipu oleh teknologi: voice deepfake. Ribuan orang ditipu dengan cara ini pada tahun 2022.
Sebagai peneliti keamanan komputer, kami melihat bahwa kemajuan berkelanjutan dalam algoritme pembelajaran mendalam, pengeditan dan rekayasa audio, dan pembuatan suara sintetik berarti semakin mungkin untuk mensimulasikan suara seseorang secara meyakinkan.
Lebih buruk lagi, chatbot seperti ChatGPT mulai membuat skrip realistis dengan respons real-time adaptif.
Dengan menggabungkan teknologi ini dengan pembuatan suara, deepfake berubah dari rekaman statis menjadi avatar yang hidup dan hidup yang secara meyakinkan dapat melakukan percakapan telepon.
Mengkloning suara
Membuat deepfake berkualitas tinggi yang menarik, baik video maupun audio, bukanlah hal termudah untuk dilakukan. Ini membutuhkan banyak keterampilan artistik dan teknis, perangkat keras yang kuat, dan sampel suara target yang cukup besar.
Ada semakin banyak layanan yang menawarkan untuk menghasilkan klon suara berkualitas sedang hingga tinggi dengan biaya tertentu, dan beberapa alat deepfake suara memerlukan sampel yang hanya berdurasi satu menit, atau bahkan hanya beberapa detik, untuk menghasilkan klon suara yang dapat cukup meyakinkan untuk membodohi seseorang.
Namun, untuk meyakinkan orang yang dicintai – misalnya, untuk digunakan dalam penipuan peniruan identitas – kemungkinan akan membutuhkan sampel yang jauh lebih besar.
Melindungi dari penipuan dan disinformasi
Dengan semua itu, kami di Proyek DeFake dari Rochester Institute of Technology, University of Mississippi dan Michigan State University, dan peneliti lainnya bekerja keras untuk dapat mendeteksi video dan audio deepfake dan membatasi kerusakan yang ditimbulkannya.
Ada juga tindakan langsung dan sehari-hari yang dapat Anda lakukan untuk melindungi diri sendiri.
Sebagai permulaan, penipuan voice phishing, atau "vishing", seperti yang dijelaskan di atas adalah kemungkinan besar penipuan suara yang mungkin Anda temui dalam kehidupan sehari-hari, baik di tempat kerja maupun di rumah.
Pada tahun 2019, sebuah perusahaan energi ditipu hingga US$243.000 ketika penjahat mensimulasikan suara bos perusahaan induknya untuk memerintahkan seorang karyawan mentransfer dana ke pemasok.
Pada tahun 2022, orang-orang ditipu sekitar $11 juta dengan suara simulasi, termasuk hubungan dekat dan pribadi.
Apa yang bisa kau lakukan?
Berhati-hatilah dengan telepon tak terduga, bahkan dari orang yang Anda kenal baik.
Ini bukan untuk mengatakan bahwa Anda perlu menjadwalkan setiap panggilan, tetapi membantu setidaknya mengirim email atau pesan teks terlebih dahulu. Juga, jangan mengandalkan ID penelepon, karena itu juga bisa dipalsukan.
Misalnya, jika Anda menerima telepon dari seseorang yang mengaku mewakili bank Anda, tutup telepon dan hubungi bank secara langsung untuk mengonfirmasi keabsahan panggilan tersebut. Pastikan untuk menggunakan nomor yang telah Anda tulis, simpan di daftar kontak Anda atau yang dapat Anda temukan di Google.
Selain itu, berhati-hatilah dengan informasi pengenal pribadi Anda, seperti nomor Jaminan Sosial, alamat rumah, tanggal lahir, nomor telepon, nama tengah, dan bahkan nama anak dan hewan peliharaan Anda.
Penipu dapat menggunakan informasi ini untuk menyamar sebagai Anda di bank, agen penjual, dan lainnya, memperkaya diri sendiri sambil membuat Anda bangkrut atau menghancurkan kredit Anda.
Ini nasihat lain: kenali dirimu sendiri. Secara khusus, ketahui bias dan kerentanan intelektual dan emosional Anda. Ini adalah nasihat hidup yang baik secara umum, tetapi ini adalah kunci untuk melindungi diri Anda agar tidak dimanipulasi.
Scammers biasanya mencari untuk mencari tahu dan kemudian memangsa kecemasan finansial Anda, keterikatan politik Anda atau kecenderungan lainnya, apa pun itu.
Kewaspadaan ini juga merupakan pertahanan yang layak terhadap disinformasi yang menggunakan voice deepfake. Deepfake dapat digunakan untuk memanfaatkan bias konfirmasi Anda, atau apa yang cenderung Anda percayai tentang seseorang.
Jika Anda mendengar orang penting, baik dari komunitas Anda atau pemerintah, mengatakan sesuatu yang tampaknya sangat tidak biasa bagi mereka atau menegaskan kecurigaan terburuk Anda terhadap mereka, sebaiknya Anda berhati-hati.
Punya pemikiran tentang ini? Berikan kami satu baris di bawah ini di komentar, atau bawa diskusi ke Twitter atau Facebook kami.
Catatan Editor: Artikel ini ditulis oleh Matthew Wright, Profesor Keamanan Komputasi, Institut Teknologi Rochester, Christopher Schwartz, Asosiasi Riset Pascadoktoral Keamanan Komputasi, Institut Teknologi Rochester, dan diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.
Rekomendasi Editor:
- ChatGPT adalah masa depan obrolan, hanya jika Anda menggunakannya dengan benar
- Pelayan robot rumah tangga masih jauh – inilah alasannya
- Peneliti mengungkapkan bagaimana mereka mendeteksi audio deepfake – begini caranya
- Aplikasi yang diunduh dari berbagai negara menimbulkan risiko privasi yang lebih tinggi