ChatGPT Używany przez hakerów z Korei Północnej do oszukiwania użytkowników LinkedIn
Opublikowany: 2024-02-19Microsoft potwierdził, że północnokoreańskie grupy hakerskie używają narzędzi sztucznej inteligencji, takich jak ChatGPT , do wyłudzania od ludzi poufnych informacji na platformach takich jak LinkedIn, gdy kraj ten próbuje pozyskać więcej środków na swój program broni nuklearnej.
Z najnowszych raportów wynika , że Korea Północna, która zabrania swoim zwykłym obywatelom korzystania z Internetu, może również wykorzystywać duże modele językowe ( LLM ) do opracowywania nowych, wyrafinowanych rodzajów złośliwego oprogramowania .
Jednak oszustwa związane z sztuczną inteligencją w Pjongjangu nie zawsze są przekonujące. Czytaj dalej, aby dowiedzieć się więcej o najnowszych cyberatakach tego pariasa i uzyskać praktyczne porady, jak je przechytrzyć.
Hakerzy z Korei Północnej podają się za rekruterów LinkedIn
Choć Koreańska Republika Ludowo-Demokratyczna (KRLD) nie może być kojarzona z wysokim poziomem znajomości technologii, Microsoft potwierdził niedawno FT, że grupy hakerskie w tym kraju dokonują coraz bardziej wyrafinowanych cyberprzestępstw wobec amerykańskich pracowników umysłowych z wykorzystaniem ChatGPT.
W raporcie opublikowanym niedawno przez firmę Microsoft – obecnie współpracującą z twórcą ChaGPT OpenAI – ujawniono, że północnokoreańscy hakerzy używają dużych modeli językowych (LLM) do generowania treści, „które prawdopodobnie można by wykorzystać w kampaniach typu spear-phishing”, podczas gdy podobne oskarżenia padły pod adresem takich krajów jak Iran, Rosja i Chiny.
Chcesz przeglądać internet prywatnie? Lub sprawiać wrażenie, jakbyś był w innym kraju?
Skorzystaj z ogromnej zniżki 86% na Surfshark dzięki tej specjalnej ofercie tech.co.
Chociaż Korea Północna słynie z niejasności w kwestii swoich wewnętrznych operacji, przyjmuje się, że według panelu ekspertów ONZ pieniądze zebrane w wyniku jej działalności przestępczej są wykorzystywane do finansowania programów dotyczących rakiet balistycznych i nuklearnych.
Ataki te, które wydają się być wymierzone głównie w pracowników globalnych firm zajmujących się bezpieczeństwem cybernetycznym, globalną obronnością i kryptowalutami, mają miejsce na wielu platformach mediów społecznościowych, takich jak Facebook, WhatsApp, Discord i Telegram. Wydaje się jednak, że większość oszustw typu phishing jest ukierunkowana na użytkowników profesjonalnego serwisu sieciowego LinkedIn.
Według Erin Plante, wiceprezes firmy Chainalytic zajmującej się bezpieczeństwem cybernetycznym, północnokoreańskie grupy hakerskie wykorzystują narzędzie AI do tworzenia dopracowanych i wiarygodnie wyglądających profili rekruterów na LinkedIn. Generatywna sztuczna inteligencja pomaga w prowadzeniu rozmów na czacie, wysyłaniu wiadomości, tworzeniu obrazów i nowej tożsamości – we wszystkim, czego potrzebujesz, aby zbudować bliską relację z celem” – wyjaśnił Plante.
„Ataki stają się bardzo wyrafinowane — nie mówimy o źle sformułowanej wiadomości e-mail z informacją „kliknij ten link”” – Erin Plante, wiceprezes firmy Chainalytic zajmującej się bezpieczeństwem cybernetycznym.
Północnokoreańskie kampanie phishingowe nie są niczym nowym. Lazurus – czołowy, wspierany przez państwo cybergang działający od 2009 roku – trafił w zeszłym roku na pierwsze strony gazet, udając osobę rekrutującą Meta, atakując hiszpańską firmę z branży lotniczej. Plante uważa jednak, że oszustwa stają się coraz bardziej przekonujące ze względu na szybki rozwój modeli LLM.
Plante zwrócił uwagę na jeden przypadek, w którym starszy inżynier z japońskiej giełdy kryptowalut został oszukany przez fałszywego rekrutera z LinkedIn, aby przeprowadził „ćwiczenie techniczne”, w wyniku czego system jego firmy został zainfekowany północnokoreańskim oprogramowaniem szpiegującym.
Grupy hakerskie również poświęcają dużo czasu na te kampanie, aby ich żądania wydawały się jak najbardziej uzasadnione. „Są to szczegółowe profile na LinkedIn i innych platformach mediów społecznościowych, których używają do budowania relacji przez tygodnie i miesiące” – wyjaśnia.
Korea Północna może również wykorzystywać sztuczną inteligencję do tworzenia złośliwego oprogramowania
Ale grupy z Korei Północnej nie tylko wykorzystują sztuczną inteligencję do organizowania prób phishingu.
Według Shreyasa Reddy’ego, analityka serwisu informacyjnego NK Pro z siedzibą w Seulu, podmioty wspierane przez państwo mogą również wykorzystywać narzędzia sztucznej inteligencji, takie jak ChatGPT, do opracowywania jeszcze bardziej wyrafinowanego szkodliwego oprogramowania w celu infiltrowania sieci swoich ofiar.
„Istnieją zabezpieczenia w tych usługach, które zapobiegają ich wykorzystaniu do złośliwych celów”, Reddy mówi Financial Times, dodając „ale ludziom udało się je obejść”.
Chociaż dostęp do Internetu jest surowo zabroniony dla przeciętnego obywatela Korei Północnej, wykorzystanie sztucznej inteligencji w tym kraju znacznie poprzedza powstanie znanych grup hakerskich, takich jak Lazarus. Nazywane Królestwem Pustelnikiem zaczęło intensyfikować swoje projekty cybernetyczne w latach 80. i 90. XX wieku, kiedy Kim Il Sung po raz pierwszy opracował krajowy program rakiet balistycznych i nuklearnych.
Od tego czasu północnokoreańscy wydawcy opublikowali setki artykułów naukowych na temat sztucznej inteligencji, a ostatnie badania z 2022 r. dotyczyły metody uczenia maszynowego zwanej „uczeniem się przez wzmacnianie” w pewnym sensie sytuacji w grach.
Jednak pomimo długotrwałego zaangażowania kraju w sztuczną inteligencję, jej zastosowania nie są niezawodne, a pracownicy mogą na wiele sposobów odróżnić fałszywe oszustwa rekrutacyjne od prawdziwej oferty, co omówimy w dalszej części artykułu.
Jak rozpoznać fałszywe północnokoreańskie oszustwa rekrutacyjne na LinkedIn
Korea Północna może inwestować duże środki w swoje cyberataki wspierane przez sztuczną inteligencję, ale to nie znaczy, że zawsze kończą się sukcesem. Grupy hakerskie napotykają poważne bariery językowe podczas przeprowadzania operacji socjotechnicznych i często zaskakuje ich niezdolność do zrozumienia potocznych języków obcych.
Podobne oszustwa, w których Koreańczycy z Północy podają się za wnioskodawców, zostały udaremnione przez podobne problemy. Kilka amerykańskich firm przytoczyło niezwykłe przypadki, w których aktorzy z Korei Północnej, udając amerykańskich kandydatów do pracy, sygnalizowali sygnały ostrzegawcze, odmawiając włączenia kamer, pisząc odpowiedzi i nie odpowiadając biegle po angielsku.
Ze względu na te wyzwania najważniejszymi sygnałami, na które użytkownicy LinkedIn powinni zwrócić uwagę, są słaba znajomość języka angielskiego, nieporozumienia kulturowe i wahanie przed włączeniem aparatu. Ogólnie rzecz biorąc, dobrą praktyką jest również dokładne sprawdzenie profilu rekrutera i zapoznanie się z historią firmy.