Un ghid rapid pentru 4 înșelătorii de AI care trebuie evitate în 2024

Publicat: 2024-07-16

Era AI a dus la o mulțime de schimbări în lumea online. De la conținut generat de inteligență artificială pe fiecare platformă de socializare până la chatbot AI din fiecare software de afaceri, tehnologia evoluează cu o viteză vertiginoasă.

Cu această evoluție, totuși, vin și unele riscuri serioase. De fapt, escrocii s-au grăbit să adopte tehnologia în faptele lor nefaste, ceea ce a condus la un aspect cu totul nou al fraudei pe internet de care să țină cont.

În acest ghid, veți afla despre unele dintre cele mai noi escrocherii care sunt alimentate de AI, precum și câteva sfaturi despre cum să le evitați în viitor.

Escrocherii AI în 2024

Înșelătoriile au crescut în special în 2024, ceea ce înseamnă că înțelegerea tipului de amenințări care există va fi vitală pentru a vă proteja online. Iată câteva dintre înșelătoriile cu inteligență artificială la care ar trebui să fii atent în epoca modernă:

  • Deepfakes
  • Clonarea vocii
  • Escrocherii prin phishing
  • Listare de escrocherii

Sigla Surfshark 🔎 Doriți să navigați pe web în mod privat? 🌎 Sau arăți ca și cum ai fi în altă țară?
Obțineți o reducere uriașă de 86% la Surfshark cu această ofertă specială tech.co. Vedeți butonul de ofertă

Escrocherii deepfake

Tehnologia deepfake există de ceva vreme. Descrie conținut video care arată o imagine falsificată a unei alte persoane. Aceste manipulări digitale au fost folosite pentru o gamă largă de scopuri, de la escrocherii la dezinformare , dar până de curând, cele mai multe dintre ele erau destul de ușor de detectat.

Din păcate, acesta nu este cazul în era AI. Tehnologia Deepfake a fost îmbunătățită drastic de evoluția tehnologiei, ceea ce a condus la niște portrete îngrijorător de precise ale persoanelor online.

Și mai rău, aceste asemănări sunt folosite dintr-o gamă largă de motive nefaste. De la asemeni celebrități care vând produse false până la prietenii personali care cer bani, modurile în care escrocii folosesc tehnologia deepfake nu sunt deloc expansive.

Exemple de escrocherie deepfake

Una dintre cele mai proeminente escrocherii deepfake care au lovit indivizi în acest an a fost una care a implicat probabil cea mai mare vedetă din lume în prezent: Taylor Swift. Vedeta pop a fost văzută online că dăruiește 3.000 de produse de bucătărie Le Creuset într-un videoclip postat pe rețelele de socializare. Problema? Nu era de fapt Taylor Swift și nu existau produse de bucătărie Le Creuset de care să vorbim.

În schimb, videoclipul a fost o înșelătorie falsă cu Taylor Swift , concepută pentru a fura detalii personale și informații financiare, solicitând o taxă mică pentru transport. Desigur, ustensilele de bucătărie nu apar niciodată, iar datele tale personale sunt compromise pentru totdeauna.

Escrocherii cu clonarea vocii

La fel ca videoclipurile deepfake, clonarea vocii este un mijloc popular și teribil de neliniștitor de a înșela oamenii din banii lor. Practica implică reproducerea vocii cuiva pe care îl cunoști, de obicei a unei persoane dragi a cărei voce ai recunoaște-o imediat. Apoi, ei pot profita de încrederea ta evidentă cerând bani, informații personale sau aproape orice i-ai oferi prietenului sau membrului familiei.

Cel mai mare risc al acestei înșelătorii este cât de precis a făcut AI procesul de replicare a vocii. Persoanele care au fost victimele înșelătoriilor cu clonarea vocii au remarcat ulterior că „nu s-au îndoit nicio secundă” că vorbesc cu persoana iubită la telefon. Și având în vedere că unele sondaje au constatat că foarte puțini pot recunoaște diferența în escrocherii cu clonarea vocii , acest tip de lucru ar trebui să fie pe radar în orice moment.

Exemplu de înșelătorie pentru clonarea vocii

Evident, înșelătoriile cu sunet asemănător celebrităților nu ar fi redate la fel de bine ca videoclipurile deepfake, dar înșelătoriile cu clonarea vocii merg de obicei pe o altă cale.

Cel mai comun este unghiul de urgență familială, în care un membru al familiei, de obicei un fiu sau o fiică, va suna pe cineva și va spune că are probleme. Fie un accident de mașină, arestare sau altă criză care ar necesita un fel de soluție financiară. Odată ce ați plătit pentru a rezolva situația de urgență inexistentă, nu veți mai avea nicio resursă pentru a o recupera.

Escrocherii prin phishing

Înșelătoriile de tip phishing sunt o problemă comună pe internet de mult timp. Hackerii și escrocii care încearcă să vă determine să furnizați informații personale sau date financiare cu e-mailuri false care uzurpă identitatea unor companii de renume este o practică la fel de veche în acest moment.

Acum, totuși, AI face mult mai ușor să duci la bun sfârșit treaba. În cele mai multe cazuri, aceste e-mailuri și mesaje text de tip phishing sunt pline de erori de ortografie și alți indicatori cheie. Cu toate acestea, aceste escrocherii de tip phishing devin din ce în ce mai greu de detectat, datorită faptului că AI oferă puțin mai multă putere pentru a genera conținut mai legitim.

Și mai rău, platformele AI generative facilitează crearea din ce în ce mai multe e-mailuri de phishing. Sigur, mulți dintre acești roboti de chat au măsuri de protecție pentru a preveni astfel de lucruri, dar am descoperit că câteva comenzi simple creează o lacună care vă permite să generați conținut de phishing ușor și eficient.

Exemplu de înșelătorie de tip phishing

Una dintre cele mai frecvente înșelătorii de tip phishing în circulație în acest moment este un mesaj text care spune că pachetul dvs. de la UPS a fost întârziat și că trebuie să vă confirmați detaliile pentru a obține acces. Când faceți clic pe linkul furnizat, sunteți direcționat către un site web UPS cu aspect uimitor de realist, care vă obligă să completați un formular pentru a obține acces la pachetul dvs. Desigur, pachetul dvs. nu este pierdut, dar datele dvs. financiare și informațiile personale sunt.

AI nu a schimbat drastic înșelătoriile de tip phishing, dar le-a făcut mai răspândite și mai greu de detectat. Generatoarele de conținut le fac mai precise și mai ușor de creat, așa că dacă observați o creștere semnificativă în următorii ani, aveți grijă unde introduceți informațiile.

Listare de escrocherii

La fel ca unele dintre celelalte escrocherii pe care le-am acoperit aici, listarea înșelătoriilor nu este nimic nou, dar AI le-a oferit escrocilor posibilitatea de a le produce la viteză și volum la o scară pe care nu am mai văzut-o până acum. La fel ca majoritatea înșelătoriilor, este un joc de numere și este nevoie de o singură persoană să răspundă pentru a merita.

Înșelătoriile de listare acoperă totul de vânzare, de la bunuri electronice la mașini la case. Generarea de listări false este ușoară acum, datorită cât de convingătoare pot fi rezumatele text AI. Unii escroci vor merge chiar atât de departe încât să genereze imagini AI ale produselor în cauză, creând o „imagine unică”, ceea ce înseamnă că nu va apărea într-o căutare de imagini Google ca fiind furată din altă parte (anterior, o modalitate destul de bună de a identifica o escrocherie). Odată ce escrocul are banii dvs., nu veți vedea niciodată produsul și vă puteți deschide chiar și la alte escrocherii de la „vânzător”.

Nu doar bunurile sunt deschise pentru escrocherii de listări. Anul trecut s-a înregistrat o creștere uriașă a numărului de escrocherii cu lista de locuri de muncă, prevalența crescută a acestora fiind pusă pe seama inteligenței artificiale. Aceste escrocherii promit locuri de muncă prea bune pentru a fi adevărate, înainte de a cere ca bani să fie trimiși pentru a-și asigura postul sau în scopuri de instruire. AI ajută la crearea de site-uri web realiste ale companiei, fotografii ale personalului și poate fi folosită chiar și pentru interviuri false. Citiți ghidul nostru pentru a evita înșelătoriile WFH .

Exemple de înșelătorie de listări

Una dintre cele mai frecvente escrocherii de listări AI este vânzarea sau închirierea proprietății. Escrocii creează reclame realiste pentru proprietăți, de obicei în zone de dorit, la prețuri competitive. Apoi, vor cere bani în avans, cum ar fi un depozit sau o chirie de câteva luni. Este o înșelătorie profitabilă, deoarece vor vorbi adesea cu mai multe victime simultan.

Ceea ce este deosebit de nefast la această înșelătorie este că AI îi permite escrocului să genereze documente de proprietate rezonabil de realiste, care ar putea convinge victima că tranzacția este legitimă. De asemenea, ar putea cere informații personale, precum și bani, lăsând datele tale compromise.

Cum să evitați înșelătoriile AI

Ați făcut deja primul pas către evitarea înșelătoriilor cu inteligență artificială și asta înseamnă a înțelege ce fel de escrocherii există de fapt. Așa e, doar prin deschiderea și citirea acestui articol, ești pe drumul către o existență online mai sigură. Iată câteva alte sfaturi pentru a evita înșelătoriile AI:

  • Confirmați întotdeauna – Indiferent dacă este vorba de o înșelătorie de deepfake sau de o înșelătorie de clonare a vocii, găsiți o modalitate de a confirma sursa informațiilor. O simplă căutare pe Google sau un apel către o persoană dragă vă poate scuti de multe certuri.
  • Fiți atenți la ce postați – Mulți escroci folosesc datele din rețelele sociale fie pentru a viza persoane vulnerabile, fie pentru a antrena modele pe vocea dvs.
  • Raportați înșelătoria – S-ar putea să nu vă ajute să o evitați, dar raportând înșelătoria autorităților competente, puteți fi sigur că încercările viitoare se prăbușesc, indiferent de cât de multă IA folosesc.

Dincolo de asta, este important să fii puțin sceptic atunci când vine vorba de a oferi informații financiare sau date personale online sau la telefon. Inteligența artificială face aceste escrocherii infinit mai convingătoare, așa că purtarea unui pic de scepticism sănătos atunci când abordați aceste tranzacții vă poate menține în siguranță.