Ihre Stimme kann von jedem geklont werden, der über eine Internetverbindung verfügt
Veröffentlicht: 2023-04-05Sie sind gerade nach einem langen Arbeitstag nach Hause gekommen und wollen sich gerade zum Abendessen hinsetzen, als plötzlich Ihr Telefon zu summen beginnt.
Am anderen Ende ist ein geliebter Mensch, vielleicht ein Elternteil, ein Kind oder ein Freund aus der Kindheit, der Sie bittet, ihm sofort Geld zu schicken.
Du stellst ihnen Fragen und versuchst zu verstehen. Irgendetwas stimmt nicht mit ihren Antworten, die entweder vage oder untypisch sind, und manchmal gibt es eine merkwürdige Verzögerung, fast so, als würden sie ein wenig zu langsam denken.
Sie sind sich jedoch sicher, dass definitiv Ihr Liebster spricht: Das ist seine Stimme, die Sie hören, und die Anrufer-ID zeigt seine Nummer. Unter Hinweis auf die Seltsamkeit ihrer Panik schickst du das Geld pflichtbewusst auf das Bankkonto, das sie dir zur Verfügung stellen.
Am nächsten Tag rufst du sie zurück, um sicherzustellen, dass alles in Ordnung ist. Ihr Angehöriger hat keine Ahnung, wovon Sie sprechen.
Das liegt daran, dass sie Sie nie angerufen haben – Sie wurden von der Technologie ausgetrickst: eine Deepfake-Stimme. Tausende von Menschen wurden im Jahr 2022 auf diese Weise betrogen.
Als Computersicherheitsforscher sehen wir, dass kontinuierliche Fortschritte bei Deep-Learning-Algorithmen, Audiobearbeitung und -technik sowie synthetischer Spracherzeugung dazu geführt haben, dass es zunehmend möglich ist, die Stimme einer Person überzeugend zu simulieren.
Schlimmer noch, Chatbots wie ChatGPT beginnen, realistische Skripte mit adaptiven Echtzeitantworten zu generieren.
Durch die Kombination dieser Technologien mit der Spracherzeugung wird ein Deepfake von einer statischen Aufzeichnung zu einem lebensechten Live-Avatar, der überzeugend telefonieren kann.
Eine Stimme klonen
Einen überzeugenden Deepfake in hoher Qualität zu erstellen, egal ob Video oder Audio, ist nicht die einfachste Sache. Es erfordert eine Fülle künstlerischer und technischer Fähigkeiten, leistungsstarke Hardware und ein ziemlich kräftiges Sample der Zielstimme.
Es gibt eine wachsende Zahl von Diensten, die anbieten, gegen eine Gebühr Sprachklone in mittlerer bis hoher Qualität zu erstellen, und einige Sprach-Deepfake-Tools benötigen ein Sample von nur einer Minute oder sogar nur wenigen Sekunden, um einen Sprachklon zu erstellen, der dies könnte überzeugend genug sein, um jemanden zu täuschen.
Um jedoch einen geliebten Menschen zu überzeugen – zum Beispiel, um ihn in einem Identitätsbetrug zu verwenden – wäre wahrscheinlich eine wesentlich größere Stichprobe erforderlich.
Schutz vor Betrug und Desinformation
Vor diesem Hintergrund arbeiten wir vom DeFake-Projekt des Rochester Institute of Technology, der University of Mississippi und der Michigan State University sowie andere Forscher hart daran, Video- und Audio-Deepfakes zu erkennen und den von ihnen verursachten Schaden zu begrenzen.
Es gibt auch einfache und alltägliche Maßnahmen, die Sie ergreifen können, um sich zu schützen.
Für den Anfang sind Voice-Phishing oder „Vishing“-Betrug wie der oben beschriebene die wahrscheinlichsten Voice-Deepfakes, denen Sie im täglichen Leben begegnen könnten, sowohl bei der Arbeit als auch zu Hause.
Im Jahr 2019 wurde ein Energieunternehmen um 243.000 US-Dollar betrogen, als Kriminelle die Stimme des Chefs seiner Muttergesellschaft simulierten, um einen Mitarbeiter anzuweisen, Geld an einen Lieferanten zu überweisen.
Im Jahr 2022 wurden Menschen durch simulierte Stimmen, einschließlich enger, persönlicher Verbindungen, um geschätzte 11 Millionen US-Dollar betrogen.
Was kannst du tun?
Achten Sie auf unerwartete Anrufe, auch von Personen, die Sie gut kennen.
Das heißt nicht, dass Sie jeden Anruf planen müssen, aber es hilft, zumindest eine E-Mail oder eine SMS im Voraus zu senden. Verlassen Sie sich auch nicht auf die Anrufer-ID, da auch diese gefälscht werden kann.
Wenn Sie beispielsweise einen Anruf von jemandem erhalten, der behauptet, Ihre Bank zu vertreten, legen Sie auf und rufen Sie die Bank direkt an, um die Legitimität des Anrufs zu bestätigen. Achten Sie darauf, die Nummer zu verwenden, die Sie sich notiert, in Ihrer Kontaktliste gespeichert oder bei Google gefunden haben.
Seien Sie außerdem vorsichtig mit Ihren persönlichen Identifikationsdaten wie Ihrer Sozialversicherungsnummer, Wohnadresse, Geburtsdatum, Telefonnummer, zweitem Vornamen und sogar den Namen Ihrer Kinder und Haustiere.
Betrüger können diese Informationen verwenden, um sich bei Banken, Immobilienmaklern und anderen als Sie auszugeben, sich selbst bereichernd, während sie Sie in den Bankrott treiben oder Ihren Kredit zerstören.
Hier ist noch ein Ratschlag: Erkenne dich selbst. Kennen Sie insbesondere Ihre intellektuellen und emotionalen Vorurteile und Schwachstellen. Dies ist im Allgemeinen ein guter Lebensratschlag, aber es ist der Schlüssel, um sich vor Manipulationen zu schützen.
Betrüger versuchen normalerweise, Ihre finanziellen Ängste, Ihre politischen Bindungen oder andere Neigungen, was auch immer diese sein mögen, herauszufinden und dann auszunutzen.
Diese Wachsamkeit ist auch eine gute Verteidigung gegen Desinformation durch Sprach-Deepfakes. Deepfakes können verwendet werden, um Ihre Bestätigungsverzerrung auszunutzen oder was Sie über jemanden zu glauben neigen.
Wenn Sie hören, dass eine wichtige Person, sei es aus Ihrer Gemeinde oder der Regierung, etwas sagt, das für sie entweder sehr untypisch erscheint oder Ihre schlimmsten Verdächtigungen bestätigt, sollten Sie vorsichtig sein.
Haben Sie irgendwelche Gedanken dazu? Schreiben Sie uns unten in die Kommentare oder tragen Sie die Diskussion auf Twitter oder Facebook weiter.
Anmerkung des Herausgebers: Dieser Artikel wurde von Matthew Wright, Professor für Computersicherheit, Rochester Institute of Technology, und Christopher Schwartz, Postdoctoral Research Associate of Computing Security, Rochester Institute of Technology, verfasst und von The Conversation unter einer Creative Commons-Lizenz neu veröffentlicht. Lesen Sie den Originalartikel.
Empfehlungen der Redaktion:
- ChatGPT ist die Zukunft des Chattens, nur wenn Sie es richtig verwenden
- Haushaltsroboter sind noch in weiter Ferne – hier ist der Grund
- Forscher verraten, wie sie Deepfake-Audio erkennen – so geht's
- Apps, die aus verschiedenen Ländern heruntergeladen werden, bergen höhere Datenschutzrisiken