Krótki przewodnik po 4 popularnych oszustwach związanych z sztuczną inteligencją, których należy unikać w 2024 r

Opublikowany: 2024-07-16

Era sztucznej inteligencji zapoczątkowała wiele zmian w świecie online. Od treści generowanych przez sztuczną inteligencję na każdej platformie mediów społecznościowych po chatboty AI w każdym oprogramowaniu biznesowym – technologia rozwija się z zawrotną szybkością.

Jednak ta ewolucja wiąże się z poważnymi zagrożeniami. W rzeczywistości oszuści szybko wykorzystali tę technologię w swoich nikczemnych czynach, co doprowadziło do pojawienia się zupełnie nowego aspektu oszustw internetowych, na który należy zwracać uwagę.

W tym przewodniku dowiesz się o niektórych najnowszych oszustwach opartych na sztucznej inteligencji, a także o kilku wskazówkach, jak ich unikać w przyszłości.

Oszustwa AI w 2024 r

W 2024 r. liczba oszustw znacznie wzrosła, co oznacza, że ​​zrozumienie rodzaju zagrożeń, jakie czyhają na użytkownikach, będzie miało kluczowe znaczenie dla ochrony użytkownika w Internecie. Oto niektóre oszustwa związane z sztuczną inteligencją, na które należy uważać w czasach nowożytnych:

  • Deepfakes
  • Klonowanie głosu
  • Oszustwa typu phishing
  • Lista oszustw

Logo Surfsharka 🔎 Chcesz przeglądać internet prywatnie? 🌎 A może sprawiasz wrażenie, jakbyś był w innym kraju?
Skorzystaj z ogromnej zniżki 86% na Surfshark dzięki tej specjalnej ofercie tech.co. Zobacz przycisk transakcji

Oszustwa typu deepfake

Technologia Deepfake istnieje już od jakiegoś czasu. Opisuje treści wideo przedstawiające sfałszowany obraz innej osoby. Te cyfrowe manipulacje były wykorzystywane do wielu różnych celów, od oszustw po dezinformację , ale do niedawna większość z nich była dość łatwa do wykrycia.

Niestety w dobie sztucznej inteligencji tak się nie dzieje. Technologia Deepfake została drastycznie udoskonalona w wyniku ewolucji, co doprowadziło do niepokojąco dokładnych portretów osób w Internecie.

Co gorsza, te podobizny są wykorzystywane z wielu nikczemnych powodów. Od sobowtórów gwiazd sprzedających fałszywe produkty po osobistych znajomych proszących o pieniądze – sposoby, w jakie oszuści wykorzystują technologię deepfake, są niezwykle ekspansywne.

Przykłady oszustwa typu deepfake

Jednym z najbardziej znanych oszustw typu deepfake, które dotknęło w tym roku obywateli, było oszustwo z udziałem prawdopodobnie największej obecnie gwiazdy na świecie: Taylor Swift. Gwiazdę popu widziano w Internecie, jak w filmie opublikowanym w mediach społecznościowych rozdawała 3000 przyborów kuchennych Le Creuset. Problem? Właściwie nie była to Taylor Swift i nie było mowy o żadnym sprzęcie kuchennym marki Le Creuset.

Zamiast tego film był fałszywym oszustwem z udziałem Taylor Swift , mającym na celu kradzież danych osobowych i informacji finansowych poprzez wymaganie niewielkiej opłaty za wysyłkę. Oczywiście przybory kuchenne nigdy się nie pojawiają, a Twoje dane osobowe są zagrożone na zawsze.

Oszustwa polegające na klonowaniu głosu

Podobnie jak filmy typu deepfake, klonowanie głosu jest popularną i niezwykle niepokojącą metodą wyłudzania pieniędzy od ludzi. Praktyka ta polega na naśladowaniu głosu kogoś, kogo znasz, zazwyczaj ukochanej osoby, której głos natychmiast rozpoznajesz. Następnie mogą skorzystać z Twojego oczywistego zaufania, prosząc o pieniądze, dane osobowe lub prawie wszystko, co dałbyś znajomemu lub członkowi rodziny.

Największym ryzykiem związanym z tym oszustwem jest dokładność, z jaką sztuczna inteligencja zapewniła proces replikacji głosu. Osoby, które padły ofiarą oszustw polegających na klonowaniu głosu, zauważyły ​​później, że „ani przez sekundę nie wątpiły”, że rozmawiają przez telefon z ukochaną osobą. Biorąc pod uwagę, że niektóre ankiety wykazały, że bardzo niewielu potrafi rozpoznać różnicę w oszustwach polegających na klonowaniu głosu , tego rodzaju rzeczy powinny być zawsze w centrum uwagi.

Przykład oszustwa polegającego na klonowaniu głosu

Oczywiście oszustwa przypominające dźwięki gwiazd nie będą odtwarzane tak dobrze, jak filmy typu deepfake, ale oszustwa polegające na klonowaniu głosu zazwyczaj idą inną drogą.

Najbardziej powszechnym rozwiązaniem jest sytuacja rodzinna, w której członek rodziny, zazwyczaj syn lub córka, dzwoni do kogoś i mówi, że ma kłopoty. Albo wypadek samochodowy, aresztowanie, albo inny kryzys, który wymagałby jakiegoś rozwiązania finansowego. Gdy zapłacisz za rozwiązanie nieistniejącej sytuacji awaryjnej, nie będziesz mieć środków na jej odzyskanie.

Oszustwa typu phishing

Oszustwa typu phishing są od dawna powszechnym problemem w Internecie. Hakerzy i oszuści próbujący nakłonić Cię do podania danych osobowych lub danych finansowych za pomocą fałszywych wiadomości e-mail podszywających się pod renomowane firmy, to obecnie praktyka stara jak świat.

Teraz jednak sztuczna inteligencja znacznie ułatwia wykonanie pracy. W większości przypadków te e-maile i wiadomości tekstowe phishingowe są zaśmiecone błędami ortograficznymi i innymi kluczowymi wskaźnikami. Jednak tego typu oszustwa typu phishing są coraz trudniejsze do wykrycia, ponieważ sztuczna inteligencja zapewnia nieco więcej mocy do generowania bardziej legalnych treści.

Co gorsza, platformy generatywnej sztucznej inteligencji ułatwiają tworzenie coraz większej liczby e-maili phishingowych. Jasne, wiele z tych chatbotów ma zabezpieczenia zapobiegające tego typu sytuacjom, ale odkryliśmy, że kilka prostych poleceń tworzy lukę, która pozwala łatwo i skutecznie generować treści phishingowe .

Przykład oszustwa typu phishing

Jednym z najpopularniejszych obecnie oszustw typu phishing jest wiadomość tekstowa informująca, że ​​Twoja paczka od UPS została opóźniona i aby uzyskać dostęp, musisz potwierdzić swoje dane. Po kliknięciu podanego łącza zostaniesz przeniesiony do uderzająco realistycznie wyglądającej strony internetowej UPS, w której należy wypełnić formularz, aby uzyskać dostęp do swojej paczki. Oczywiście Twoja przesyłka nie przepadnie, ale Twoje dane finansowe i osobiste już tak.

Sztuczna inteligencja nie zmieniła drastycznie oszustw typu phishing, ale sprawiła, że ​​stały się one bardziej powszechne i trudniejsze do wykrycia. Generatory treści sprawiają, że są one dokładniejsze i łatwiejsze do tworzenia, więc jeśli zauważysz znaczny wzrost w nadchodzących latach, zachowaj ostrożność przy wprowadzaniu informacji.

Lista oszustw

Podobnie jak w przypadku niektórych innych oszustw, które tutaj omawialiśmy, umieszczanie w wykazie oszustw nie jest niczym nowym, ale sztuczna inteligencja umożliwiła oszustom wytwarzanie ich z szybkością i masą na skalę, jakiej nigdy wcześniej nie widzieliśmy. Podobnie jak większość oszustw, jest to gra liczbowa i wystarczy reakcja jednej osoby, aby było to opłacalne.

Oszustwa związane z wystawianiem ofert obejmują wszystko, co jest na sprzedaż, od towarów elektronicznych po samochody i domy. Generowanie fałszywych ofert jest teraz łatwe dzięki temu, jak przekonujące mogą być podsumowania tekstowe AI. Niektórzy oszuści posuną się nawet tak daleko, że wygenerują obrazy AI danych produktów, tworząc „unikalny obraz”, co oznacza, że ​​nie będzie on wyświetlany w wyszukiwarce grafiki Google jako skradziony z innego miejsca (poprzednio był to całkiem dobry sposób na identyfikację oszustwo). Gdy oszust zdobędzie Twoje pieniądze, nigdy nie zobaczysz produktu, a nawet możesz narazić się na dalsze oszustwa ze strony „sprzedawcy”.

Nie tylko towary są podatne na oszustwa związane z wystawianiem ofert. W ubiegłym roku nastąpił ogromny wzrost liczby oszustw związanych z ofertami pracy, a za ich częstsze występowanie obwinia się sztuczną inteligencję. Oszustwa te obiecują pracę, która jest zbyt piękna, aby mogła być prawdziwa, zanim zażądają przesłania pieniędzy w celu zabezpieczenia stanowiska lub w celach szkoleniowych. Sztuczna inteligencja pomaga tworzyć realistyczne strony internetowe firm, zdjęcia pracowników, a nawet może być wykorzystywana do fałszywych wywiadów. Przeczytaj nasz przewodnik, jak unikać oszustw WFH .

Przykłady oszustw związanych z listą

Jednym z najczęstszych oszustw związanych z wyświetlaniem ofert AI jest sprzedaż lub wynajem nieruchomości. Oszuści tworzą realistyczne reklamy nieruchomości, zwykle w pożądanych obszarach, po konkurencyjnych cenach. Następnie poproszą o pieniądze z góry, na przykład kaucję lub kilkumiesięczny czynsz. Jest to dochodowe oszustwo, ponieważ często rozmawiają z kilkoma ofiarami jednocześnie.

Szczególnie nikczemne w tym oszustwie jest to, że sztuczna inteligencja umożliwia oszustowi wygenerowanie w miarę realistycznych dokumentów dotyczących majątku, które mogą przekonać ofiarę, że transakcja jest legalna. Mogą również poprosić o dane osobowe i pieniądze, narażając Twoje dane na ryzyko.

Jak uniknąć oszustw AI

Zrobiłeś już pierwszy krok w kierunku unikania oszustw związanych ze sztuczną inteligencją , a to oznacza zrozumienie, jakie rodzaje oszustw faktycznie istnieją. Zgadza się, po prostu otwierając i czytając ten artykuł, jesteś na dobrej drodze do bezpieczniejszej egzystencji w Internecie. Oto kilka innych wskazówek, jak unikać oszustw związanych z sztuczną inteligencją:

  • Zawsze potwierdzaj — niezależnie od tego, czy jest to oszustwo typu deepfake, czy klonowanie głosu, znajdź sposób na potwierdzenie źródła informacji. Proste wyszukiwanie w Google lub telefon do ukochanej osoby może zaoszczędzić wielu kłopotów.
  • Uważaj, co publikujesz – wielu oszustów wykorzystuje dane z mediów społecznościowych, aby atakować osoby bezbronne lub szkolić modele na podstawie Twojego głosu.
  • Zgłoś oszustwo – może to nie pomoże Ci go uniknąć, ale zgłaszając oszustwo odpowiednim władzom, możesz mieć pewność, że przyszłe próby nie powiodą się, niezależnie od tego, ile sztucznej inteligencji użyją.

Poza tym ważne jest, aby zachować pewien sceptycyzm, jeśli chodzi o podawanie informacji finansowych lub danych osobowych w Internecie lub przez telefon. Sztuczna inteligencja sprawia, że ​​te oszustwa są nieskończenie bardziej przekonujące, więc noszenie odrobiny zdrowego sceptycyzmu przy podejściu do takich transakcji może znacznie pomóc w zapewnieniu bezpieczeństwa.