Attualità

“Ciao mamma, ho bisogno di soldi”: l’Intelligenza Artificiale dietro la truffa del ‘voice cloning’. Ecco di che cosa si tratta

Queste pratiche non sono isolate, ma fanno parte di un trend in crescita, come dimostrato da episodi simili avvenuti negli Stati Uniti e in Canada, dove persone sono state truffate da criminali che utilizzavano voci clonate di cari in difficoltà

di F. Q.

Maria Grazia Abis, pensionata settantenne di Sardara, una tranquilla località nel cuore della Sardegna, ha recentemente vissuto un’esperienza sconvolgente. Credendo di rispondere a una telefonata della figlia residente a Monaco, Maria Grazia si è ritrovata vittima di una sofisticata truffa basata sul voice cloning, una tecnologia che permette di replicare la voce umana con precisione disarmante. La donna, ingannata da messaggi vocali che credeva inoltrati dalla figlia, ha inviato denaro agli indirizzi forniti dai truffatori, scoprendo troppo tardi l’inganno.

Il fenomeno del voice cloning, ovvero la clonazione vocale, è reso possibile grazie all’ausilio di avanzati software di intelligenza artificiale come Murf.ai, PlayHT e Vidnoz AI, capaci di emulare le caratteristiche timbriche e ritmiche di una voce umana partendo da brevi campioni audio. Questi strumenti, accessibili a tutti, aprono scenari preoccupanti per la sicurezza personale, in quanto facilitano la creazione di messaggi audio estremamente convincenti utilizzati per fini fraudolenti.

Queste pratiche non sono isolate, ma fanno parte di un trend in crescita, come dimostrato da episodi simili avvenuti negli Stati Uniti e in Canada, dove persone sono state truffate da criminali che utilizzavano voci clonate di cari in difficoltà. L’esperto di sicurezza informatica, Stefano Zanero, ha sottolineato la necessità di aumentare la consapevolezza sui rischi legati all’intelligenza artificiale e al voice cloning, invitando a prestare attenzione ai segnali di allarme e a diffidare di richieste di denaro improvvise, anche se provenienti da familiari: “L’intelligenza artificiale ci darà dei dispiaceri – ha detto, come riporta Today.it – attualmente è difficile venire ingannati da un automa che interagisce con una persona in tempo reale, vuoi per il vocabolario, vuoi per l’emotività o per la psicologia della persona. Non penso che automaticamente avremo dei costrutti che siano indistinguibili dagli esseri umani. Credo però che si raffineranno (e diffonderanno a macchia d’olio) le truffe con voci lasciate nelle caselle vocali. Questo per l’oggi. Per il lungo periodo dovremo invece vedere cosa succede”, ha spiegato il docente universitario.

In un’epoca in cui l’identità digitale e i dati personali sono sempre più esposti, il voice cloning rappresenta una nuova frontiera dell’inganno. La storia di Maria Grazia Abis è l’ennesimo campanello d’allarme a non sottovalutare la portata delle tecnologie emergenti e a proteggere con maggiore cura le proprie informazioni online.

“Ciao mamma, ho bisogno di soldi”: l’Intelligenza Artificiale dietro la truffa del ‘voice cloning’. Ecco di che cosa si tratta
Precedente
Precedente
Successivo
Successivo

I commenti a questo articolo sono attualmente chiusi.