ChatGPT- und KI-Betrug, auf den Sie achten und den Sie vermeiden sollten

Veröffentlicht: 2023-05-29

Seit der Einführung von ChatGPT im November letzten Jahres hat es sich als äußerst nützlich erwiesen, und Arbeitnehmer auf der ganzen Welt finden jeden Tag innovative Möglichkeiten, die Technologie anzuwenden. Die Leistungsfähigkeit von KI-Tools ist jedoch so groß, dass sie auch für heimtückische Zwecke eingesetzt werden können, etwa zum Schreiben von Malware-Skripten und Phishing-E-Mails.

Neben der Nutzung künstlicher Intelligenz zur Orchestrierung von Betrügereien wurden in den letzten sechs bis acht Monaten Hacker dabei beobachtet, wie sie das heiße Thema ausnutzten, um Menschen über gefälschte Investitionsmöglichkeiten und Betrugsanwendungen um Geld zu erpressen und ihre Informationen zu stehlen.

KI-Betrügereien gehören zu den am schwersten zu erkennenden und viele Menschen investieren nicht in Tools wie Surfshark Antivirus , das Benutzer warnt, wenn sie verdächtige Websites besuchen oder eine zwielichtige App herunterladen. Deshalb haben wir diesen Leitfaden mit allen gängigen Taktiken zusammengestellt, die in letzter Zeit in freier Wildbahn beobachtet wurden. Alles in allem behandeln wir in diesem Artikel Folgendes:

  • KI-Betrug: Wie häufig sind sie?
  • KI-gestützter Phishing-Betrug
  • Betrug beim Klonen von KI-Stimmen
  • Gefälschte ChatGPT-Apps
  • Gefälschte ChatGPT-Websites
  • KI-Investitionsbetrug
  • KI-Betrug: Sie werden nur noch schlimmer

KI-Betrug: Was sind sie und wie häufig kommen sie vor?

Wie wir in der Einleitung zu diesem Artikel angedeutet haben, kann sich „KI-Betrug“ auf zwei verschiedene Arten von Betrug beziehen, von denen im Jahr 2023 regelmäßig Beispiele aufgetaucht sind.

Bei KI-gestützten Betrügereien hilft künstliche Intelligenz dem Betrüger, den Betrug tatsächlich zu begehen, beispielsweise den Text für eine Phishing-E-Mail zu schreiben. Bei allgemeinen KI-Betrügereien nutzt der Hacker die Beliebtheit und den zeitgeistigen Charakter von KI als Thema, um neugierige Ziele anzulocken, wie zum Beispiel einen gefälschten ChatGPT-App-Betrug.

Das kalifornische DFPI hat einen Anstieg von KI-Investitionsbetrügereien verzeichnet, während Cybersicherheitsfirmen wie McAfee in den letzten Monaten einen Anstieg von KI-Stimmenklonungsbetrügereien beobachtet haben.

Die explosive Veröffentlichung von ChatGPT führte auch zu einer Welle schädlicher Domains, die ebenfalls in diesem Artikel besprochen werden.

Kürzlich warnte Apple-Mitbegründer Steve Wozniak, der kürzlich einen Brief unterzeichnet hat, in dem er zu einer Pause bei der KI-Entwicklung aufruft, dass künstliche Intelligenz die Erkennung von Betrügereien erheblich erschweren und es böswilligen Akteuren ermöglichen wird, immer überzeugender zu wirken. Die Ära der KI-gestützten Betrügereien ist angebrochen.

Ähnlich wie Ransomware-as-a-Service die für einen Angriff auf ein Unternehmen erforderlichen technischen Fähigkeiten herabsetzte, sorgen KI-Tools wie ChatGPT dafür, dass praktisch jeder überzeugend wirken kann, so dass theoretisch eine größere Bevölkerungsgruppe sie jetzt effektiv orchestrieren kann.

KI-gestützter Phishing-Betrug

Phishing-Betrügereien gibt es schon seit Jahren – Betrüger verschicken E-Mails oder Textnachrichten, die sich als seriöse Unternehmen wie Microsoft ausgeben, um Sie zum Klicken auf einen Link zu verleiten, der Sie auf eine bösartige Website führt.

Von dort aus kann ein Bedrohungsakteur Malware in Ihr Gerät einschleusen oder persönliche Informationen wie ein Passwort stehlen. In der Vergangenheit waren Rechtschreib- und Grammatikfehler, die ein so renommiertes Unternehmen wie Microsoft in einer offiziellen E-Mail an seine Kunden einfach nicht machen würde, eine der einfachsten Möglichkeiten, sie zu erkennen.

Im Jahr 2023 kann ChatGPT jedoch mit einer einfachen Eingabeaufforderung eine saubere, flüssige Kopie erstellen, die keine Rechtschreibfehler enthält. Dies macht es deutlich schwieriger, zwischen legitimer Korrespondenz und Phishing-Angriffen zu unterscheiden.

Wenn Sie ChatGPT ausdrücklich bitten, eine E-Mail zum Zweck des Phishings zu erstellen, lehnt der Chatbot dies ab. Wir haben ChatGPT jedoch gebeten, zwei verschiedene Arten von E-Mails zu erstellen, die möglicherweise als Vorlage für einen Phishing-Betrug verwendet werden könnten, und überraschenderweise scheint es, dass diese Art von Anfragen durch die Inhaltsregeln nicht blockiert werden:

Schützen Sie sich vor KI-Phishing-Betrug

Wenn Sie eine E-Mail erhalten, die den Anschein erweckt, als käme sie von einem seriösen Unternehmen, in der jedoch versucht wird, bei Ihrer Entscheidungsfindung ein Gefühl der Dringlichkeit zu vermitteln (z. B. indem Sie aufgefordert werden, eine Geldstrafe zu zahlen oder sich in Ihrem Konto anzumelden, um eine Löschung zu verhindern), behandeln Sie das Gehen Sie dabei äußerst vorsichtig vor. Dies ist eine typische Phishing-Taktik.

Denken Sie daran: Wenn Sie der Meinung sind, dass die E-Mail höchstwahrscheinlich echt ist, können Sie jederzeit eine neue Kommunikationslinie mit der Person oder dem Unternehmen eröffnen.

Wenn Sie beispielsweise eine verdächtige E-Mail von Ihrer Bank erhalten, die besagt, dass ein unbefugter Dritter auf Ihr Konto zugegriffen hat, antworten Sie nicht auf die E-Mail – sondern wenden Sie sich einfach selbst an den Kundendienst der Bank unter der unten aufgeführten Nummer oder Adresse ihre Website.

Betrug beim Klonen von KI-Stimmen

AI-Voice-Betrug ist eine Art KI-gestützter Betrug, der in den letzten Monaten für Schlagzeilen gesorgt hat. Eine weltweite McAfee-Umfrage ergab kürzlich, dass 10 % der Befragten bereits persönlich Ziel eines KI-Sprachbetrugs waren. Weitere 15 % gaben an, jemanden zu kennen, der ins Visier genommen wurde.

11 % der US-Opfer, die durch KI-Stimmenklonungsbetrug Geld verloren haben, wurden um 5.000 bis 15.000 US-Dollar betrogen.

Bei KI-Sprachbetrügereien löschen böswillige Akteure Audiodaten aus dem Social-Media-Konto eines Ziels und leiten sie dann über eine Text-to-Speech-App weiter, die neue Inhalte im Stil des Originalaudios generieren kann. Auf diese Art von Apps kann online kostenlos zugegriffen werden und sie haben legitime, nicht schändliche Verwendungszwecke.

Der Betrüger erstellt eine Voicemail oder Sprachnotiz, in der er beschreibt, wie sein Ziel verzweifelt ist und dringend Geld braucht. Diese wird dann an ihre Familienmitglieder verschickt, in der Hoffnung, dass sie nicht zwischen der Stimme ihres geliebten Menschen und einer von der KI generierten Version unterscheiden können.

Schützen Sie sich vor KI-Sprachbetrug

Die Federal Trade Commission (FTC) rät Verbrauchern, ruhig zu bleiben, wenn sie eine Korrespondenz erhalten, die angeblich von einem geliebten Menschen in Not stammt, und zu versuchen, die Nummer anzurufen, von der sie den Anruf erhalten haben, um sich zu vergewissern, dass es sich tatsächlich um eine echte Nachricht handelt.

Wenn Sie der Meinung sind, dass Sie sich in dieser Situation befinden und die Nummer nicht anrufen können, versuchen Sie es mit der normalen Telefonnummer der betreffenden Person. Wenn Sie keine Antwort erhalten, versuchen Sie, ihren Aufenthaltsort zu überprüfen, indem Sie Personen in ihrer Nähe kontaktieren – und überprüfen Sie Apps wie „Meine Freunde suchen“, wenn Sie diese verwenden, um zu sehen, ob sie sich an einem sicheren Ort befinden.

Wenn Sie ihren Aufenthaltsort nicht überprüfen können, ist es wichtig, dass Sie sich sofort an die Strafverfolgungsbehörden wenden. Wenn Sie feststellen, dass es sich um einen Betrug handelt, stellen Sie sicher, dass Sie dies direkt der FTC melden.

Betrügerische ChatGPT-App-Betrügereien

Wie bei jedem anderen großen Technologietrend werden Betrüger ihn für schändliche Zwecke ausnutzen, wenn die Leute darüber reden – und, was noch wichtiger ist, danach suchen. ChatGPT ist ein Paradebeispiel dafür.

Ein aktueller Bericht von Sophos hat eine Vielzahl von ChatGPT-angrenzenden Apps gefunden, die als „Fleeceware“ bezeichnet werden. Fleeceware-Apps bieten ein kostenloses Programm mit eingeschränkter Funktionalität und bombardieren Benutzer dann mit In-App-Werbung, bis sie sich für ein überteuertes Abonnement anmelden.

Nach Angaben des Cybersicherheitsunternehmens „können die Entwickler dieser irreführenden Apps durch eine Kombination aus Werbung innerhalb und außerhalb der App-Stores und gefälschten Bewertungen, die die Bewertungssysteme der Stores manipulieren, ahnungslose Gerätebenutzer zum Herunterladen dieser Apps verleiten“.

Eine gefälschte ChatGPT-App namens Genie, die Abonnements für 7 US-Dollar pro Woche oder 70 US-Dollar pro Jahr anbietet, hat laut SensorTower über einen monatlichen Zeitraum 1 Million US-Dollar verdient. Andere haben Zehntausende Pfund verdient. Ein weiteres namens „Chat GBT“ im Android Store wurde im Bericht von Sophos ausdrücklich genannt:

Chat GBT App Fleeceware

(Bildnachweis: Sophos)

Nach Angaben des Cybersicherheitsunternehmens sind die „Pro“-Funktionen, für die Benutzer am Ende eine hohe Summe zahlen, „im Wesentlichen die gleichen“ wie die kostenlose Version. Sie berichten auch, dass der Rezensionen-Bereich vor der Deaktivierung der App übersät war mit „Kommentaren von Leuten, die die App heruntergeladen und festgestellt hatten, dass sie nicht funktionierte – entweder zeigte sie nur Werbung an oder antwortete nicht auf Fragen, als sie entsperrt wurde.“

Schützen Sie sich vor gefälschten ChatGPT-App-Betrügereien

Der einfachste Weg, um sicherzustellen, dass Ihnen diese Art von Abonnementgebühren nicht entstehen – oder unerwünschte Malware herunterladen – besteht darin, die Apps einfach nicht herunterzuladen. iPhone-Benutzer können jetzt die offizielle ChatGPT-App herunterladen, die kürzlich gestartet wurde. Es wird interessant sein zu sehen, ob dies den Untergang der gefälschten ChatGPT-Apps bedeutet, die derzeit den App Store bevölkern.

Alternativ können sowohl iOS- als auch Android-Benutzer einen ChatGPT-Weblink zu ihrem Startbildschirm hinzufügen. Wenn Sie ein iPhone-Benutzer sind, können Sie eine Siri-Verknüpfung erstellen, die Sie direkt zu ChatGPT im Web führt. In diesem Zusammenhang gibt es kaum einen praktischen Unterschied zwischen der Startbildschirmverknüpfung und einer nativen Anwendung.

Gefälschte ChatGPT-Websites

Neben gefälschten ChatGPT-Apps gibt es auch eine Reihe gefälschter ChatGPT-Websites, die sich das enorme Suchvolumen rund um den Begriff zunutze machen.

Im Februar 2023 identifizierte der Twitter-Nutzer Alvosec vier Domains, die alle Malware unter einem ChatGPT-bezogenen Namen verbreiteten:

In einigen Berichten wurde darauf hingewiesen, dass gefälschte ChatGPT-Websites den Chatbot von OpenAI als herunterladbare Windows-Anwendung und nicht als In-Browser-Anwendung präsentieren, was es ihnen ermöglicht, Malware auf Geräte zu laden.

So schützen Sie sich vor gefälschten ChatGPT-Websites

Denken Sie daran, dass ChatGPT ein OpenAI-Produkt ist und die einzige Möglichkeit, auf den Chatbot zuzugreifen, über die mobile App oder speziell über deren Domain erfolgt. „ChatGPT[.]com“ zum Beispiel hat nichts mit dem echten, legitimen ChatGPT zu tun, und Sie können ChatGPT nicht herunterladen, als wäre es ein Software-Client.

Seltsamerweise enthält die URL für die legitime ChatGPT-Registrierungs-/Anmeldeseite nicht einmal das Wort „ChatGPT“: https://chat.openai.com/auth/login.

Sie können sich auch über den Blog von OpenAI anmelden (https://openai.com/blog/chatgpt), aber auch dieser ist Teil der OpenAI-Domäne. Wenn Ihnen jemand einen Link zu einer ChatGPT-Website sendet, der nicht zu einer der oben genannten Adressen führt, raten wir Ihnen, nicht darauf zu klicken und stattdessen über Google zur legitimen Website zu navigieren.

KI-Investitionsbetrug

Ähnlich wie bei Kryptowährungen nutzen Betrüger den Hype um KI – und die Technologie selbst –, um gefälschte Investitionsmöglichkeiten zu schaffen, die echt erscheinen.

„TeslaCoin“ und „TruthGPT Coin“ wurden beide in Betrügereien eingesetzt, indem sie sich dem Medienrummel um Elon Musk und ChatGPT bedienten und sich selbst als trendige Investitionsmöglichkeiten darstellten.

Das kalifornische Ministerium für Finanzschutz und Innovation behauptet, dass ein Unternehmen namens Maxpread Technologies einen gefälschten, von KI generierten CEO erstellt und ihn mit einem Skript programmiert hat, das Börsenspekulanten zum Investieren ermutigt (siehe Abbildung unten). Dem Unternehmen liegt eine Unterlassungsverfügung vor.

Michael Vens, angeblicher AI-CEO

(Bildnachweis: Coinstats.app)

Forbes berichtet, dass eine andere Investmentgesellschaft, Harvest Keeper – die laut DFPI bereits im März zusammengebrochen ist – einen Schauspieler engagiert hat, der sich als CEO ausgibt, um begeisterte Kunden zu gewinnen. Dies verdeutlicht, welche Anstrengungen einige Betrüger unternehmen, um sicherzustellen, dass ihr Angebot realistisch genug ist.

Schützen Sie sich vor KI-Investitionsbetrug

Wenn sich jemand, den Sie nicht kennen, direkt mit Investitionsmöglichkeiten an Sie wendet, gehen Sie mit seinen Tipps äußerst vorsichtig um. Lohnende Investitionsmöglichkeiten geraten auf diese Weise eher selten in den Schoß der Menschen.

Wenn es zu schön klingt, um wahr zu sein, und jemand Ihnen garantierte Renditen anbietet, glauben Sie ihm nicht. Bei Investitionen gibt es nie eine garantierte Rendite und Ihr Kapital ist immer gefährdet.

Wenn Sie jemand sind, der regelmäßig in Unternehmen investiert, wissen Sie, wie wichtig es ist, Ihre Sorgfaltspflicht zu erfüllen, bevor Sie sich von Ihrem hart verdienten Geld trennen. Angesichts der Begeisterung für verwandte Produkte und der Verbreitung von Betrügereien empfehlen wir, potenzielle KI-Investitionen noch genauer zu prüfen.

KI-Betrug: Sie werden nur noch schlimmer

Im Jahr 2022 haben US-Verbraucher durch Betrügereien riesige 8,8 Milliarden US-Dollar verloren – und es ist unwahrscheinlich, dass 2023 alles anders sein wird. Perioden finanzieller Instabilität gehen häufig auch mit einer Zunahme von Betrug einher, und weltweit haben viele Länder mit Problemen zu kämpfen.

Derzeit ist künstliche Intelligenz eine Goldgrube für Betrüger. Alle reden darüber, aber nur wenige wissen wirklich, was genau ist, und Unternehmen aller Formen und Größen bringen KI-Produkte schnell auf den Markt.

Der Hype um KI macht sie derzeit zum am besten herunterladbaren, investierbarsten und anklickbarsten Thema im Internet. Es bietet den perfekten Schutz für Betrüger.

Es ist wichtig, über die neuesten Betrügereien, die die Runde machen, auf dem Laufenden zu bleiben, und da die KI es viel schwieriger macht, sie zu erkennen, ist dies umso wichtiger. Die FTC, das FBI und andere Bundesbehörden geben regelmäßig Warnungen heraus, daher wird dringend empfohlen, ihnen in den sozialen Medien zu folgen, um über die neuesten Updates informiert zu sein.

Wir empfehlen jedoch auch den Kauf eines VPN mit Malware-Erkennung, wie zum Beispiel NordVPN oder Surfshark . Beide verbergen Ihre IP-Adresse wie ein Standard-VPN, machen Sie aber auch auf verdächtige Websites aufmerksam, die auf den Suchergebnisseiten von Google lauern. Sich mit dieser Technologie auszustatten, ist ein wichtiger Teil Ihrer Online-Sicherheit.