La tua voce può essere clonata da chiunque disponga di una connessione Internet
Pubblicato: 2023-04-05Sei appena tornato a casa dopo una lunga giornata di lavoro e stai per sederti a cena quando improvvisamente il tuo telefono inizia a suonare.
Dall'altra parte c'è una persona cara, forse un genitore, un figlio o un amico d'infanzia, che ti prega di inviargli denaro immediatamente.
Fai loro domande, cercando di capire. C'è qualcosa di strano nelle loro risposte, che sono o vaghe o fuori dal carattere, ea volte c'è uno strano ritardo, quasi come se stessero pensando un po' troppo lentamente.
Tuttavia, sei certo che sia sicuramente la persona amata a parlare: questa è la sua voce che senti e l'ID del chiamante mostra il suo numero. Considerando la stranezza del loro panico, invii diligentemente i soldi sul conto bancario che ti forniscono.
Il giorno dopo, li richiami per assicurarti che sia tutto a posto. La persona amata non ha idea di cosa stai parlando.
Questo perché non ti hanno mai chiamato: sei stato ingannato dalla tecnologia: una voce deepfake. Migliaia di persone sono state truffate in questo modo nel 2022.
In qualità di ricercatori di sicurezza informatica, vediamo che i continui progressi negli algoritmi di apprendimento profondo, nell'editing e nell'ingegneria audio e nella generazione di voci sintetiche hanno reso sempre più possibile simulare in modo convincente la voce di una persona.
Ancora peggio, i chatbot come ChatGPT stanno iniziando a generare script realistici con risposte adattive in tempo reale.
Combinando queste tecnologie con la generazione della voce, un deepfake passa dall'essere una registrazione statica a un avatar dal vivo e realistico che può avere una conversazione telefonica in modo convincente.
Clonazione di una voce
Creare un deepfake avvincente di alta qualità, sia esso video o audio, non è la cosa più semplice da fare. Richiede una vasta gamma di capacità artistiche e tecniche, hardware potente e un campione abbastanza consistente della voce target.
Esiste un numero crescente di servizi che offrono la produzione di cloni vocali di qualità da moderata ad alta a pagamento e alcuni strumenti di deepfake vocale richiedono un campione di solo un minuto, o anche solo pochi secondi, per produrre un clone vocale che potrebbe essere abbastanza convincente da ingannare qualcuno.
Tuttavia, per convincere una persona cara, ad esempio da utilizzare in una truffa per furto d'identità, sarebbe probabilmente necessario un campione significativamente più ampio.
Protezione da truffe e disinformazione
Detto questo, noi del DeFake Project del Rochester Institute of Technology, dell'Università del Mississippi e della Michigan State University, e altri ricercatori stiamo lavorando duramente per essere in grado di rilevare i deepfake video e audio e limitare i danni che causano.
Ci sono anche azioni semplici e quotidiane che puoi intraprendere per proteggerti.
Per cominciare, il phishing vocale o "vishing", le truffe come quella sopra descritta sono i deepfake vocali più probabili che potresti incontrare nella vita di tutti i giorni, sia al lavoro che a casa.
Nel 2019, un'azienda energetica è stata truffata per 243.000 dollari USA quando i criminali hanno simulato la voce del capo della società madre per ordinare a un dipendente di trasferire fondi a un fornitore.
Nel 2022, le persone sono state truffate per un valore stimato di 11 milioni di dollari da voci simulate, comprese connessioni personali e strette.
Cosa sai fare?
Fai attenzione alle chiamate inaspettate, anche da persone che conosci bene.
Questo non vuol dire che devi programmare ogni chiamata, ma aiuta almeno a inviare e-mail o messaggi di testo in anticipo. Inoltre, non fare affidamento sull'ID chiamante, poiché anche quello può essere falsificato.
Ad esempio, se ricevi una chiamata da qualcuno che afferma di rappresentare la tua banca, riaggancia e chiama direttamente la banca per confermare la legittimità della chiamata. Assicurati di utilizzare il numero che hai annotato, salvato nella tua rubrica o che puoi trovare su Google.
Inoltre, fai attenzione alle tue informazioni di identificazione personale, come il numero di previdenza sociale, l'indirizzo di casa, la data di nascita, il numero di telefono, il secondo nome e persino i nomi dei tuoi figli e animali domestici.
I truffatori possono utilizzare queste informazioni per impersonarti davanti a banche, agenti immobiliari e altri, arricchendosi mentre ti mandano in bancarotta o distruggono il tuo credito.
Ecco un altro consiglio: conosci te stesso. In particolare, conosci i tuoi pregiudizi e le tue vulnerabilità intellettuali ed emotive. Questo è un buon consiglio di vita in generale, ma è la chiave per proteggersi dall'essere manipolati.
I truffatori in genere cercano di scoprire e poi depredare le tue ansie finanziarie, i tuoi attaccamenti politici o altre inclinazioni, qualunque esse siano.
Questa vigilanza è anche una difesa decente contro la disinformazione che utilizza i deepfake vocali. I deepfake possono essere utilizzati per sfruttare il tuo pregiudizio di conferma o ciò che sei incline a credere su qualcuno.
Se senti una persona importante, sia della tua comunità che del governo, dire qualcosa che sembra molto insolito per loro o conferma i tuoi peggiori sospetti su di loro, sarebbe saggio essere prudenti.
Hai qualche idea su questo? Scrivici una riga qui sotto nei commenti o trasferisci la discussione sul nostro Twitter o Facebook.
Nota del redattore: questo articolo è stato scritto da Matthew Wright, Professore di sicurezza informatica, Rochester Institute of Technology, Christopher Schwartz, Postdoctoral Research Associate of Computing Security, Rochester Institute of Technology, e ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.
Raccomandazioni della redazione:
- ChatGPT è il futuro della chat, solo se lo usi bene
- I servitori robot domestici sono ancora molto lontani, ecco perché
- I ricercatori rivelano come rilevano l'audio deepfake: ecco come
- Le app scaricate da paesi diversi comportano maggiori rischi per la privacy