Spam generowany przez sztuczną inteligencję może wkrótce zalać Twoją skrzynkę odbiorczą oszustwami

Opublikowany: 2023-05-14

Każdego dnia wiadomości od nigeryjskich książąt, handlarzy cudownymi lekami i promotorów inwestycji, których nie można przegapić, zatykają skrzynki pocztowe.

Ulepszenia filtrów antyspamowych tylko wydają się inspirować nowe techniki przełamywania zabezpieczeń.

Teraz wyścig zbrojeń między blokerami spamu a nadawcami spamu ma się nasilić wraz z pojawieniem się nowej broni: generatywnej sztucznej inteligencji.

Odkryj wydarzenie sprzedażowe firmy Samsung

Świętuj lato z jednymi z najgorętszych ofert, dostarczanych wyłącznie przez firmę Samsung. Nie przegap ich największego wydarzenia sprzedażowego w roku. Odkryj powrót Samsunga 15 maja. Nie przegap!

Ucz się więcej

Dzięki niedawnym postępom w sztucznej inteligencji rozsławionym przez ChatGPT, spamerzy mogą mieć nowe narzędzia do omijania filtrów, przyciągania uwagi ludzi i przekonywania ich do klikania, kupowania lub rezygnacji z danych osobowych.

Jako dyrektor laboratorium Advancing Human and Machine Reasoning na University of South Florida badam skrzyżowanie sztucznej inteligencji, przetwarzania języka naturalnego i ludzkiego rozumowania.

Badałem, w jaki sposób sztuczna inteligencja może uczyć się indywidualnych preferencji, przekonań i dziwactw ludzi.

Można to wykorzystać, aby lepiej zrozumieć, jak wchodzić w interakcje z ludźmi, pomagać im w nauce lub udzielać pomocnych sugestii.

Ale oznacza to również, że powinieneś przygotować się na inteligentniejszy spam, który zna twoje słabe punkty – i może wykorzystać je przeciwko tobie.

Spamy, spamujemy, spamujemy

nowy spam w Gmailu
Obraz: Unsplash

Czym więc jest spam? Spam jest definiowany jako niezamówione komercyjne wiadomości e-mail wysyłane przez nieznany podmiot. Termin ten jest czasami rozszerzany na wiadomości tekstowe, bezpośrednie wiadomości w mediach społecznościowych i fałszywe recenzje produktów.

Spamerzy chcą skłonić Cię do działania: kupienia czegoś, kliknięcia linków phishingowych, zainstalowania złośliwego oprogramowania lub zmiany poglądów.

Spam jest opłacalny. Jedna wiadomość e-mail może przynieść 1000 USD w ciągu zaledwie kilku godzin, co kosztuje spamerów tylko kilka dolarów – z wyłączeniem wstępnej konfiguracji. Internetowa kampania spamu farmaceutycznego może generować około 7 000 USD dziennie.

Wiarygodni reklamodawcy również chcą skłonić Cię do działania – kupowania ich produktów, wypełniania ankiet i zapisywania się do newsletterów.

Mimo to, podczas gdy e-mail od marketera może zawierać link do uznanej strony internetowej firmy i zawierać opcję rezygnacji z subskrypcji zgodnie z przepisami federalnymi, e-mail będący spamem może nie.

Spamerzy nie mają również dostępu do list mailingowych, do których zapisywali się użytkownicy. Zamiast tego spamerzy stosują sprzeczne z intuicją strategie, takie jak oszustwo „nigeryjskiego księcia”.

Nigeryjski książę twierdzi, że potrzebuje twojej pomocy, aby odblokować absurdalną sumę pieniędzy, obiecując sowitą nagrodę.

Doświadczeni tubylcy cyfrowi natychmiast odrzucają takie zarzuty, ale absurdalność prośby może w rzeczywistości wybrać naiwność lub zaawansowany wiek, filtrując osoby, które najprawdopodobniej dadzą się nabrać na oszustwa.

Jednak postępy w sztucznej inteligencji oznaczają, że spamerzy mogą nie być zmuszeni do polegania na takich podejściach typu trafienie lub chybienie.

Sztuczna inteligencja mogłaby pozwolić im kierować reklamy do poszczególnych osób i sprawić, by ich komunikaty były bardziej przekonujące w oparciu o łatwo dostępne informacje, takie jak posty w mediach społecznościowych.

Przyszłość spamu

ChatGPT na laptopie
Zdjęcie: Pexels

Prawdopodobnie słyszałeś o postępach w generatywnych dużych modelach językowych, takich jak ChatGPT.

Zadanie, które wykonują te generatywne LLM, jest zwodniczo proste: biorąc pod uwagę sekwencję tekstu, przewiduj, który token – pomyśl o tym jako o części słowa – będzie następny.

Następnie przewiduj, który żeton pojawi się po tym. I tak dalej, w kółko.

W jakiś sposób samo szkolenie w zakresie tego zadania, gdy jest wykonane z wystarczającą ilością tekstu na wystarczająco dużym LLM, wydaje się wystarczające, aby nasycić te modele zdolnością do zaskakująco dobrego wykonywania wielu innych zadań.

Pojawiło się już wiele sposobów korzystania z tej technologii, pokazując zdolność technologii do szybkiego dostosowywania się i uczenia się o jednostkach.

Na przykład LLM mogą pisać pełne e-maile w Twoim stylu pisania, podając tylko kilka przykładów tego, jak piszesz. Jest też klasyczny przykład – mający już ponad dekadę – Target, który zorientował się, że klientka jest w ciąży, zanim dowiedział się o tym jej ojciec.

Zarówno spamerzy, jak i marketerzy skorzystaliby na możliwości przewidywania większej liczby osób przy mniejszej ilości danych.

Biorąc pod uwagę Twoją stronę na LinkedIn, kilka postów i zdjęcie profilowe lub dwa, spamerzy uzbrojeni w LLM mogą dość trafnie zgadywać Twoje poglądy polityczne, stan cywilny lub priorytety życiowe.

Nasze badania wykazały, że LLM można wykorzystać do przewidywania, które słowo wypowie dana osoba, z dokładnością znacznie przewyższającą inne podejścia AI w zadaniu generowania słów zwanym zadaniem płynności semantycznej.

Pokazaliśmy również, że LLM mogą wziąć pewne rodzaje pytań z testów zdolności rozumowania i przewidzieć, jak ludzie odpowiedzą na to pytanie.

Sugeruje to, że LLM mają już pewną wiedzę na temat tego, jak wygląda typowa ludzka zdolność rozumowania.

Jeśli spamerzy przejdą przez wstępne filtry i zachęcą Cię do przeczytania wiadomości e-mail, kliknięcia łącza lub nawet do nawiązania rozmowy, ich zdolność do stosowania dostosowanej perswazji dramatycznie wzrasta.

Tutaj znowu LLM mogą zmienić grę. Wczesne wyniki sugerują, że LLM można wykorzystać do przekonujących argumentów na różne tematy, od polityki po politykę zdrowia publicznego.

Dobre dla gąsiora

mężczyzna patrząc na telefon przed swoim komputerem
Obraz: Unsplash

Sztuczna inteligencja nie faworyzuje jednak ani jednej, ani drugiej strony. Filtry antyspamowe powinny również korzystać z postępów w zakresie spamu AI, umożliwiając im wznoszenie nowych barier dla niechcianych wiadomości e-mail.

Spamerzy często próbują oszukać filtry za pomocą znaków specjalnych, błędnie napisanych słów lub ukrytego tekstu, opierając się na ludzkiej skłonności do wybaczania drobnych anomalii tekstowych – na przykład „c1ick here n0w”.

Ale ponieważ sztuczna inteligencja lepiej rozumie wiadomości spamowe, filtry mogą lepiej identyfikować i blokować niechciany spam. A może nawet przepuszczać pożądany spam, taki jak e-mail marketingowy, na który wyraźnie się zapisałeś.

Wyobraź sobie filtr, który przewiduje, czy chcesz przeczytać wiadomość e-mail, zanim jeszcze ją przeczytasz.

Pomimo rosnących obaw związanych ze sztuczną inteligencją – czego dowodzą prezes Tesli, SpaceX i Twittera, Elon Musk, założyciel Apple Steve Wozniak i inni liderzy technologiczni wzywający do wstrzymania rozwoju sztucznej inteligencji – postęp w technologii może przynieść wiele dobrego.

Sztuczna inteligencja może pomóc nam zrozumieć, w jaki sposób słabe strony ludzkiego rozumowania mogą być wykorzystywane przez złych aktorów i opracować sposoby przeciwdziałania złowrogim działaniom.

Wszystkie nowe technologie mogą powodować zarówno cuda, jak i niebezpieczeństwa. Różnica polega na tym, kto tworzy i kontroluje narzędzia oraz w jaki sposób jest używany.

Ten artykuł został zaktualizowany, aby wskazać, że był to ojciec nastolatka .

Masz jakieś przemyślenia na ten temat? Napisz do nas poniżej w komentarzach lub przenieś dyskusję na naszego Twittera lub Facebooka.

Zalecenia redaktorów:

  • Jak zmienić ustawienia spamu Gmaila i dostosować filtr
  • Jak identyfikować i zapobiegać spamowi WhatsApp
  • Zweryfikowane strony na Facebooku zostały zhakowane i rozprzestrzeniły złośliwe oprogramowanie
  • Liderzy techniczni chcą nacisnąć przycisk pauzy podczas szkolenia AI

Uwaga edytora: Ten artykuł został napisany przez Johna Licato , adiunkta informatyki i dyrektora AMHR Lab, University of South Florida i ponownie opublikowany z The Conversation na licencji Creative Commons. Przeczytaj oryginalny artykuł.

Śledź nas na Flipboard, Google News lub Apple News