Eine Kurzanleitung zu 4 angesagten KI-Betrügereien, die Sie im Jahr 2024 vermeiden sollten

Veröffentlicht: 2024-07-16

Das Zeitalter der KI hat viele Veränderungen in der Online-Welt mit sich gebracht. Von KI-generierten Inhalten auf allen Social-Media-Plattformen bis hin zu KI-Chatbots in jeder Unternehmenssoftware – die Technologie entwickelt sich rasant weiter.

Diese Entwicklung birgt jedoch einige ernsthafte Risiken. Tatsächlich haben Betrüger die Technologie schnell für ihre schändlichen Taten übernommen, was zu einem völlig neuen Aspekt des Internetbetrugs geführt hat, nach dem man Ausschau halten sollte.

In diesem Leitfaden erfahren Sie mehr über einige der neuesten Betrügereien, die auf KI basieren, sowie ein paar Tipps, wie Sie sie in Zukunft vermeiden können.

KI-Betrug im Jahr 2024

Betrug hat im Jahr 2024 deutlich zugenommen, was bedeutet, dass es für den Online-Schutz von entscheidender Bedeutung sein wird, zu verstehen, welche Art von Bedrohungen es gibt. Hier sind einige der KI-Betrügereien, vor denen Sie in der modernen Zeit auf der Hut sein sollten:

  • Deepfakes
  • Klonen von Stimmen
  • Phishing-Betrug
  • Betrug auflisten

Surfshark-Logo 🔎 Möchten Sie privat im Internet surfen? 🌎 Oder so wirken, als wären Sie in einem anderen Land?
Sichern Sie sich mit diesem Sonderangebot von tech.co satte 86 % Rabatt auf Surfshark. Siehe Deal-Button

Deepfake-Betrug

Deepfake-Technologie gibt es schon seit einiger Zeit. Dabei handelt es sich um Videoinhalte, die ein gefälschtes Bild einer anderen Person zeigen. Diese digitalen Manipulationen wurden für eine Vielzahl von Zwecken genutzt, von Betrug bis hin zu Fehlinformationen , aber bis vor Kurzem waren die meisten davon ziemlich leicht zu erkennen.

Leider ist das im Zeitalter der KI so gut wie nicht der Fall. Die Deepfake-Technologie wurde durch die Weiterentwicklung der Technologie drastisch verbessert, was zu einigen beunruhigend genauen Darstellungen von Personen im Internet geführt hat.

Schlimmer noch: Diese Ähnlichkeiten werden aus einer Vielzahl schändlicher Gründe verwendet. Von Promi-Doppelgängern, die gefälschte Produkte verkaufen, bis hin zu persönlichen Freunden, die um Geld bitten – die Art und Weise, wie Betrüger Deepfake-Technologie nutzen, ist geradezu umfangreich.

Beispiele für einen Deepfake-Betrug

Einer der bekanntesten Deepfake-Betrügereien, die in diesem Jahr Einzelpersonen trafen, betraf den derzeit wohl größten Star der Welt: Taylor Swift. In einem in den sozialen Medien geposteten Video war der Popstar online dabei zu sehen, wie er 3.000 Le Creuset-Küchenartikel verschenkte. Das Problem? Es war nicht wirklich Taylor Swift und es gab keine nennenswerten Küchenutensilien von Le Creuset.

Stattdessen handelte es sich bei dem Video um einen Deepfake-Betrug mit Taylor Swift , der darauf abzielte, persönliche Daten und Finanzinformationen zu stehlen, indem eine geringe Gebühr für den Versand erhoben wurde. Natürlich werden die Küchenutensilien nie angezeigt und Ihre persönlichen Daten bleiben für immer gefährdet.

Betrug beim Klonen von Stimmen

Ähnlich wie Deepfake-Videos ist das Klonen von Stimmen ein beliebtes und furchtbar beunruhigendes Mittel, um Menschen um ihr Geld zu betrügen. Bei dieser Übung wird die Stimme einer Ihnen bekannten Person nachgeahmt, typischerweise einer geliebten Person, deren Stimme Sie sofort wiedererkennen würden. Dann können sie Ihr offensichtliches Vertrauen ausnutzen, indem sie um Geld, persönliche Informationen oder so ziemlich alles bitten, was Sie diesem Freund oder Familienmitglied geben würden.

Das größte Risiko dieses Betrugs besteht darin, wie genau die KI den Sprachreplikationsprozess durchgeführt hat. Personen, die Opfer von Voice-Cloning-Betrügereien wurden, gaben anschließend an, dass sie „keine Sekunde daran gezweifelt hätten“, dass sie mit ihrem geliebten Menschen telefonierten. Und wenn man bedenkt, dass einige Umfragen ergeben haben, dass nur sehr wenige den Unterschied zwischen Voice-Cloning-Betrügereien erkennen können , sollten Sie solche Dinge immer auf dem Schirm haben.

Beispiel für einen Voice-Cloning-Betrug

Offensichtlich würden Betrügereien, bei denen es um Promi-Sound-a-like geht, nicht so gut abgespielt wie Deepfake-Videos, aber Betrügereien durch das Klonen von Stimmen gehen normalerweise einen anderen Weg.

Am häufigsten kommt es zu einem Familiennotfall, bei dem ein Familienmitglied, in der Regel ein Sohn oder eine Tochter, jemanden anruft und ihm mitteilt, dass er in Schwierigkeiten sei. Entweder ein Autounfall, eine Festnahme oder eine andere Krise, die eine finanzielle Lösung erfordern würde. Sobald Sie für die Lösung des nicht vorhandenen Notfalls bezahlt haben, haben Sie keine Mittel mehr, ihn zurückzubekommen.

Phishing-Betrug

Phishing-Betrug ist seit langem ein häufiges Problem im Internet. Hacker und Betrüger versuchen mit gefälschten E-Mails, die sich als seriöse Unternehmen ausgeben, Sie dazu zu bringen, persönliche Informationen oder Finanzdaten preiszugeben, eine Praxis, die bis heute uralt ist.

Mittlerweile ist es dank KI jedoch viel einfacher, die Arbeit zu erledigen. In den meisten Fällen sind diese Phishing-E-Mails und Textnachrichten mit Rechtschreibfehlern und anderen Schlüsselindikatoren übersät. Allerdings werden diese Phishing-Betrügereien immer schwieriger zu erkennen, da die KI etwas mehr Möglichkeiten bietet, legitimer erscheinende Inhalte zu generieren.

Schlimmer noch: Generative KI-Plattformen machen es einfacher, immer mehr Phishing-E-Mails zu erstellen. Sicher, viele dieser Chatbots verfügen über Schutzmaßnahmen, um solche Dinge zu verhindern, aber wir haben festgestellt, dass ein paar einfache Befehle eine Lücke schaffen, die es Ihnen ermöglicht, Phishing-Inhalte einfach und effektiv zu generieren .

Beispiel für einen Phishing-Betrug

Einer der derzeit am häufigsten verbreiteten Phishing-Betrügereien ist eine Textnachricht, die besagt, dass Ihr Paket von UPS verspätet ist und Sie Ihre Daten bestätigen müssen, um Zugriff zu erhalten. Wenn Sie auf den bereitgestellten Link klicken, werden Sie zu einer verblüffend realistisch aussehenden UPS-Website weitergeleitet, auf der Sie ein Formular ausfüllen müssen, um Zugriff auf Ihr Paket zu erhalten. Natürlich ist Ihr Paket nicht verloren, wohl aber Ihre Finanzdaten und persönlichen Daten.

KI hat Phishing-Betrügereien nicht grundlegend verändert, aber sie hat sie häufiger und schwerer zu erkennen gemacht. Inhaltsgeneratoren machen sie genauer und einfacher zu erstellen. Wenn Sie also in den kommenden Jahren einen deutlichen Anstieg feststellen, sollten Sie vorsichtig sein, wo Sie Ihre Informationen eingeben.

Betrugsmaschen auflisten

Wie einige der anderen Betrügereien, die wir hier behandelt haben, sind Listing-Betrügereien nichts Neues, aber die KI hat Betrügern die Möglichkeit gegeben, sie mit einer Geschwindigkeit und einem Umfang zu produzieren, die wir noch nie zuvor gesehen haben. Wie bei den meisten Betrügereien handelt es sich um ein Zahlenspiel, bei dem nur eine einzige Person antworten muss, damit es sich lohnt.

Beim Angebotsbetrug geht es um alles, was zum Verkauf steht, von Elektronikartikeln über Autos bis hin zu Eigenheimen. Dank der überzeugenden KI-Textzusammenfassungen ist es jetzt ganz einfach, gefälschte Einträge zu erstellen. Einige Betrüger gehen sogar so weit, KI-Bilder der fraglichen Produkte zu erstellen und so ein „einzigartiges Bild“ zu erstellen, was bedeutet, dass es in einer Google-Bildersuche nicht als von woanders gestohlen angezeigt wird (bisher war dies eine ziemlich gute Möglichkeit, es zu identifizieren). ein Betrug). Sobald der Betrüger Ihr Geld hat, werden Sie das Produkt nie mehr sehen und könnten sich sogar weiteren Betrügereien durch den „Verkäufer“ aussetzen.

Es sind nicht nur Waren, die anfällig für Listungsbetrug sind. Im vergangenen Jahr kam es zu einem enormen Anstieg der Betrugsfälle bei Stellenanzeigen, wobei die zunehmende Verbreitung auf KI zurückzuführen ist. Diese Betrügereien versprechen Jobs, die zu schön sind, um wahr zu sein, und verlangen dann die Überweisung von Geld zur Sicherung der Stelle oder für Ausbildungszwecke. KI hilft bei der Erstellung realistischer Unternehmenswebsites und Mitarbeiterporträts und kann sogar für gefälschte Interviews verwendet werden. Lesen Sie unseren Leitfaden zur Vermeidung von WFH-Betrug .

Beispiele für einen Listing-Betrug

Einer der häufigsten KI-Betrügereien mit Listings ist der Verkauf oder die Vermietung von Immobilien. Betrüger erstellen realistische Anzeigen für Immobilien, meist in begehrten Gegenden zu wettbewerbsfähigen Preisen. Dann verlangen sie im Voraus Geld, beispielsweise eine Kaution oder mehrere Monatsmieten. Es handelt sich um einen lukrativen Betrug, da oft mit mehreren Opfern gleichzeitig gesprochen wird.

Das Besondere an diesem Betrug ist, dass die KI es dem Betrüger ermöglicht, einigermaßen realistische Eigentumsdokumente zu erstellen, die das Opfer davon überzeugen könnten, dass die Transaktion legitim ist. Möglicherweise verlangen sie auch persönliche Daten und Geld, sodass Ihre Daten gefährdet sind.

So vermeiden Sie KI-Betrug

Sie haben bereits den ersten Schritt zur Vermeidung von KI-Betrügereien getan, und zwar zu verstehen, welche Arten von Betrügereien es tatsächlich gibt. Das ist richtig, allein wenn Sie diesen Artikel öffnen und lesen, sind Sie auf dem Weg zu einem sichereren Online-Leben. Hier sind einige weitere Tipps zur Vermeidung von KI-Betrug:

  • Immer bestätigen – Egal, ob es sich um einen Deepfake oder einen Voice-Cloning-Betrug handelt, finden Sie eine Möglichkeit, die Informationsquelle zu bestätigen. Eine einfache Google-Suche oder ein Anruf bei einem geliebten Menschen kann Ihnen viel Ärger ersparen.
  • Seien Sie vorsichtig, was Sie posten – Viele Betrüger nutzen Daten aus sozialen Medien, um entweder gefährdete Personen ins Visier zu nehmen oder Models auf Ihre Stimme zu trainieren.
  • Melden Sie den Betrug – Es hilft Ihnen vielleicht nicht, ihn zu vermeiden, aber indem Sie den Betrug den zuständigen Behörden melden, können Sie sicher sein, dass zukünftige Versuche scheitern, egal wie viel KI sie verwenden.

Darüber hinaus ist es wichtig, etwas skeptisch zu sein, wenn es um die Bereitstellung von Finanzinformationen oder persönlichen Daten online oder am Telefon geht. KI macht diese Betrügereien um ein Vielfaches überzeugender, daher kann ein wenig gesunde Skepsis bei der Herangehensweise an diese Transaktionen einen großen Beitrag zu Ihrer Sicherheit leisten.