Senti la voce di un familiare al telefono, ma ti sembra strano? È una nuova truffa pericolosa

Una nuova truffa si sta rivelando non solo altamente pericolosa, ma sta impressionando tutti coloro che sono stati coinvolti anche dal punto di vista emotivo.

Le tecnologie sono un grande bene per l’umanità, di sostegno, elemento per lo sviluppo in tanti campi, straordinarie ma talvolta anche pericolose quando gestite in modo improprio.

Truffa voce
Truffa con voce di un conoscente (Empireonline)

Spesso proprio gli avanzamenti tecnologici sono il punto di svolta per malviventi e truffatori che li impiegano per poter ledere le vittime e sfruttare anche le loro debolezze.

Voce di un familiare al telefono: è una truffa

Con ChatGPT e AutoGPT ma anche tutte le altre tipologie di intelligenza artificiale ha preso piede un nuovo tipo di truffa che si sta rivelando sconvolgente. Con questa tecnologia è possibile simulare totalmente la voce di una persona a piacere, quindi di un conoscente oppure di analizzare le persone in contatto con la vittima e duplicarne la voce per poterle trarre in inganno.

Truffa
Truffa chiamata, attenzione (Empireonline)

Questo è ciò che sta accadendo, ad esempio telefonate di una figlia disperata alla mamma. Sono frasi brevi come “Mamma ho fatto un casino, aiutami” poi si sentono altre voci e non si capisce se si tratta di un crimine, se di un incidente o altro e quindi la persona dall’altra parte perde ogni lucidità e cade nella trappola. 

La clonazione della voce è solo una delle cose che l’AI è in grado di fare, basta un piccolo input per creare una copia sintetica della voce con il Deep Learning. Questo è utile da un lato ma dall’altro invece è solo un’attività più facile per tutti i criminali. Con la voce clonata si può non solo indurre la persona a credere di parlare con qualcuno e rivelare informazioni private oppure dati di accesso a conti bancari o altro ma anche mettere a punto delle vere e proprie soluzioni ben più gravose anche dal punto di vista emotivo.

L’AI per clonare la voce ha bisogno di un modello anche minimo della base per catturare le caratteristiche linguistiche e acustiche come timbro, intonazione, ritmo, ma si può riprodurre anche perfettamente con dei modelli matematici. Il punto è che il sistema ha bisogno di un certo addestramento per essere perfetto quindi questo vuol dire che sono truffe studiate nel tempo, non sono improvvisate. 

Con i metodi di apprendimento l’AI migliora e quindi può dare risultati sempre perfetti e funzionali ma ovviamente bisogna capire da dove si parte e come fanno a pescare la voce da utilizzare. In questo senso molto pericolosi sono i messaggi vocali che sono fonti a cui attingere e che circolano facilmente sul web, usati su app di messaggistica ma anche social network. Quindi è importante fare molta attenzione, sia quando si ricevono delle chiamate dove la voce sembra anche minimamente diversa dal solito e sia quando si inviano messaggi vocali. 

Impostazioni privacy