Twój głos może sklonować każdy, kto ma połączenie z Internetem
Opublikowany: 2023-04-05Właśnie wróciłeś do domu po długim dniu w pracy i masz zamiar usiąść do kolacji, gdy nagle zaczyna dzwonić Twój telefon.
Po drugiej stronie jest ukochana osoba, być może rodzic, dziecko lub przyjaciel z dzieciństwa, błagający o natychmiastowe przesłanie pieniędzy.
Zadajesz im pytania, starając się zrozumieć. Jest coś nie tak z ich odpowiedziami, które są albo niejasne, albo niepasujące do charakteru, a czasami pojawia się osobliwe opóźnienie, prawie tak, jakby myśleli trochę za wolno.
Jednak masz pewność, że to na pewno mówi twoja ukochana osoba: to jest jej głos, który słyszysz, a identyfikator dzwoniącego pokazuje jej numer. Tłumacząc dziwność ich paniki, posłusznie wysyłasz pieniądze na podane przez nich konto bankowe.
Następnego dnia dzwonisz do nich ponownie, aby upewnić się, że wszystko w porządku. Twój ukochany nie ma pojęcia, o czym mówisz.
To dlatego, że nigdy do ciebie nie zadzwonili – zostałeś oszukany przez technologię: głęboki fałszerstwo głosu. Tysiące ludzi zostało w ten sposób oszukanych w 2022 roku.
Jako badacze bezpieczeństwa komputerowego widzimy, że ciągły postęp w algorytmach głębokiego uczenia się, edycji i inżynierii dźwięku oraz generowaniu syntetycznego głosu oznacza, że coraz bardziej przekonująco można symulować głos osoby.
Co gorsza, chatboty, takie jak ChatGPT, zaczynają generować realistyczne skrypty z adaptacyjnymi odpowiedziami w czasie rzeczywistym.
Łącząc te technologie z generowaniem głosu, deepfake zmienia się ze statycznego nagrania w żywego, realistycznego awatara, który może przekonująco prowadzić rozmowę telefoniczną.
Klonowanie głosu
Stworzenie atrakcyjnego, wysokiej jakości deepfake'u, czy to wideo, czy audio, nie jest najłatwiejszą rzeczą do zrobienia. Wymaga bogactwa umiejętności artystycznych i technicznych, potężnego sprzętu i dość sporej próbki docelowego głosu.
Istnieje coraz więcej usług oferujących tworzenie klonów głosu o średniej lub wysokiej jakości za opłatą, a niektóre narzędzia do głębokiego fałszowania głosu potrzebują próbki o długości zaledwie minuty, a nawet kilku sekund, aby stworzyć klon głosu, który mógłby być wystarczająco przekonującym, aby kogoś oszukać
Jednak przekonanie ukochanej osoby – na przykład do wykorzystania jej w oszustwie polegającym na podszywaniu się pod inne osoby – prawdopodobnie wymagałoby znacznie większej próby.
Ochrona przed oszustwami i dezinformacją
Biorąc to wszystko pod uwagę, my w DeFake Project z Rochester Institute of Technology, University of Mississippi i Michigan State University oraz inni badacze ciężko pracujemy, aby móc wykrywać fałszywe podróbki wideo i audio oraz ograniczać szkody, jakie wyrządzają.
Istnieją również proste i codzienne działania, które możesz podjąć, aby się chronić.
Na początek phishing głosowy lub „vishing”, oszustwa, takie jak opisane powyżej, to najbardziej prawdopodobne fałszywe fałszywe głosy, z którymi możesz się spotkać w życiu codziennym, zarówno w pracy, jak iw domu.
W 2019 roku firma energetyczna została oszukana na 243 000 USD, kiedy przestępcy symulowali głos szefa jej firmy macierzystej, aby nakazać pracownikowi przekazanie środków dostawcy.
W 2022 roku ludzie zostali oszukani na około 11 milionów dolarów za pomocą symulowanych głosów, w tym bliskich, osobistych powiązań.
Co możesz zrobić?
Uważaj na nieoczekiwane telefony, nawet od osób, które dobrze znasz.
Nie oznacza to, że musisz planować każdą rozmowę, ale pomaga przynajmniej wysłać wiadomość e-mail lub SMS z wyprzedzeniem. Nie polegaj też na identyfikatorze dzwoniącego, ponieważ to również może zostać sfałszowane.
Na przykład, jeśli otrzymasz telefon od kogoś, kto twierdzi, że reprezentuje Twój bank, rozłącz się i zadzwoń bezpośrednio do banku, aby potwierdzić autentyczność połączenia. Pamiętaj, aby użyć numeru, który zapisałeś, zapisałeś na liście kontaktów lub który możesz znaleźć w Google.
Ponadto uważaj na swoje dane osobowe, takie jak numer ubezpieczenia społecznego, adres domowy, data urodzenia, numer telefonu, drugie imię, a nawet imiona dzieci i zwierząt domowych.
Oszuści mogą wykorzystać te informacje, aby podszywać się pod Ciebie przed bankami, pośrednikami w handlu nieruchomościami i innymi osobami, wzbogacając się, doprowadzając Cię do bankructwa lub niszcząc Twój kredyt.
Oto kolejna rada: poznaj siebie. W szczególności poznaj swoje intelektualne i emocjonalne uprzedzenia i słabości. Ogólnie rzecz biorąc, jest to dobra rada życiowa, ale kluczem jest ochrona przed manipulacją.
Oszuści zazwyczaj starają się wydobyć, a następnie żerują na twoich obawach finansowych, twoich przywiązaniach politycznych lub innych skłonnościach, jakiekolwiek by one nie były.
Ta czujność jest również przyzwoitą obroną przed dezinformacją za pomocą deepfake'ów głosowych. Deepfake'ów można użyć, aby wykorzystać efekt potwierdzenia lub to, w co jesteś skłonny wierzyć o kimś.
Jeśli słyszysz, jak ważna osoba, czy to z twojej społeczności, czy z rządu, mówi coś, co albo wydaje się dla niej bardzo nietypowe, albo potwierdza twoje najgorsze podejrzenia co do niej, mądrze byłoby zachować ostrożność.
Masz jakieś przemyślenia na ten temat? Napisz do nas poniżej w komentarzach lub przenieś dyskusję na naszego Twittera lub Facebooka.
Uwaga edytora: Ten artykuł został napisany przez Matthew Wrighta, profesora bezpieczeństwa komputerowego, Rochester Institute of Technology, Christophera Schwartza, pracownika naukowo-badawczego podoktoranckiego w dziedzinie bezpieczeństwa komputerowego, Rochester Institute of Technology, i ponownie opublikowany z The Conversation na licencji Creative Commons. Przeczytaj oryginalny artykuł.
Zalecenia redaktorów:
- ChatGPT to przyszłość czatowania, tylko jeśli używasz jej właściwie
- Słudzy robotów domowych są jeszcze daleko – oto dlaczego
- Badacze ujawniają, w jaki sposób wykrywają fałszywe dźwięki — oto jak to zrobić
- Aplikacje pobrane z różnych krajów stanowią większe zagrożenie dla prywatności