Vocea ta poate fi clonată de oricine are o conexiune la internet
Publicat: 2023-04-05Tocmai v-ați întors acasă după o zi lungă de muncă și sunteți pe cale să vă așezați la cină, când deodată telefonul începe să bâzâie.
La celălalt capăt se află o persoană dragă, poate un părinte, un copil sau un prieten din copilărie, care te imploră să le trimiți bani imediat.
Le pui întrebări, încercând să înțeleagă. Există ceva neregulat în răspunsurile lor, care sunt fie vagi, fie lipsite de caracter și, uneori, există o întârziere ciudată, aproape ca și cum ar fi gândit puțin prea încet.
Cu toate acestea, sunteți sigur că este cu siguranță persoana iubită care vorbește: aceasta este vocea pe care o auzi, iar ID-ul apelantului îi arată numărul. Subliniind ciudățenia panicii lor, trimiți cu respect banii în contul bancar pe care ți-l oferă.
A doua zi, îi suni înapoi pentru a te asigura că totul este în regulă. Cel drag nu are idee despre ce vorbești.
Asta pentru că nu te-au sunat niciodată – ai fost păcălit de tehnologie: o voce deepfake. Mii de oameni au fost înșelați în acest fel în 2022.
În calitate de cercetători în domeniul securității computerelor, vedem că progresele continue în algoritmii de învățare profundă, editarea și inginerie audio și generarea de voce sintetică au însemnat că este din ce în ce mai posibil să simuleze în mod convingător vocea unei persoane.
Și mai rău, chatboții precum ChatGPT încep să genereze scripturi realiste cu răspunsuri adaptive în timp real.
Prin combinarea acestor tehnologii cu generarea vocii, un deepfake trece de la a fi o înregistrare statică la un avatar live, realist, care poate avea o conversație telefonică convingătoare.
Clonarea unei voci
Crearea unui deepfake convingător de înaltă calitate, fie video sau audio, nu este cel mai ușor lucru de făcut. Este nevoie de o mulțime de abilități artistice și tehnice, hardware puternic și un eșantion destul de important de voce țintă.
Există un număr tot mai mare de servicii care oferă pentru a produce clone de voce de calitate moderată până la înaltă contra cost, iar unele instrumente de deepfake vocal au nevoie de un eșantion de doar un minut, sau chiar de doar câteva secunde, pentru a produce o clonă de voce care ar putea fi suficient de convingător pentru a păcăli pe cineva.
Cu toate acestea, pentru a convinge o persoană iubită – de exemplu, pentru a o folosi într-o escrocherie de uzurpare a identității – ar fi probabil nevoie de un eșantion semnificativ mai mare.
Protejarea împotriva înșelătoriilor și a dezinformarii
Cu toate acestea spuse, noi, cei de la Proiectul DeFake al Institutului de Tehnologie Rochester, Universitatea din Mississippi și Universitatea de Stat din Michigan și alți cercetători lucrăm din greu pentru a putea detecta deepfake-urile video și audio și pentru a limita daunele pe care le provoacă.
Există, de asemenea, acțiuni directe și de zi cu zi pe care le puteți lua pentru a vă proteja.
Pentru început, phishingul vocal sau „vishing”, escrocherii precum cea descrisă mai sus sunt cele mai probabile falsuri vocale pe care le puteți întâlni în viața de zi cu zi, atât la serviciu, cât și acasă.
În 2019, o firmă de energie a fost înșelată cu 243.000 de dolari atunci când infractorii au simulat vocea șefului companiei-mamă pentru a ordona unui angajat să transfere fonduri către un furnizor.
În 2022, oamenii au fost escroși de la aproximativ 11 milioane de dolari de voci simulate, inclusiv de conexiuni personale apropiate.
Ce poti face?
Fii atent la apelurile neașteptate, chiar și de la oameni pe care îi cunoști bine.
Acest lucru nu înseamnă că trebuie să programați fiecare apel, dar vă ajută să trimiteți cel puțin un e-mail sau un mesaj text înainte. De asemenea, nu vă bazați pe ID-ul apelantului, deoarece acesta poate fi și fals.
De exemplu, dacă primiți un apel de la cineva care pretinde că vă reprezintă banca, închideți și sunați direct banca pentru a confirma legitimitatea apelului. Asigurați-vă că utilizați numărul pe care l-ați notat, salvat în lista de contacte sau pe care îl puteți găsi pe Google.
În plus, fiți atenți la informațiile personale de identificare, cum ar fi numărul dvs. de securitate socială, adresa de acasă, data nașterii, numărul de telefon, al doilea nume și chiar numele copiilor și animalelor dvs. de companie.
Escrocii pot folosi aceste informații pentru a vă uzurpa identitatea băncilor, agenților imobiliari și altora, îmbogățindu-se în timp ce vă falimentează sau vă distrug creditul.
Iată un alt sfat: cunoaște-te pe tine însuți. Mai exact, cunoaște-ți părtinirile și vulnerabilitățile intelectuale și emoționale. Acesta este un sfat bun de viață în general, dar este esențial să vă protejați de manipulare.
Escrocii caută în mod obișnuit să scape și apoi să pradă anxietățile tale financiare, atașamentele tale politice sau alte înclinații, oricare ar fi acestea.
Această vigilență este, de asemenea, o apărare decentă împotriva dezinformarii folosind deepfake vocale. Deepfake-urile pot fi folosite pentru a profita de părtinirea dvs. de confirmare sau de ceea ce sunteți înclinați să credeți despre cineva.
Dacă auziți o persoană importantă, fie din comunitatea dvs. sau din guvern, spunând ceva care fie pare foarte neobișnuit pentru ei, fie confirmă cele mai grave suspiciuni ale dvs., ați fi înțelept să fiți atenți.
Ai vreo părere despre asta? Trimiteți-ne un rând mai jos în comentarii sau transmiteți discuția pe Twitter sau Facebook.
Nota editorului: Acest articol a fost scris de Matthew Wright, profesor de securitate informatică, Rochester Institute of Technology, Christopher Schwartz, postdoctoral Research Associate of Computing Security, Rochester Institute of Technology și republicat din The Conversation sub o licență Creative Commons. Citiți articolul original.
Recomandările editorilor:
- ChatGPT este viitorul chat-ului, doar dacă îl folosești corect
- Servitorii roboți de uz casnic sunt încă departe – iată de ce
- Cercetătorii dezvăluie cum detectează sunetul deepfake – iată cum
- Aplicațiile descărcate din diferite țări prezintă riscuri mai mari de confidențialitate