Su TikTok sta circolando un video sponsorizzato che ha acceso più di un campanello d’allarme: protagonista è un finto Fabio Caressa che promuove un casinò online. A uno sguardo attento, però, l’intero contenuto mostra tutti i segni di un deepfake: volto statico, espressioni innaturali, voce metallica e movimenti rigidi, come se il celebre telecronista fosse stato “ricostruito” artificialmente.
Nel filmato, diviso in due sezioni, la parte superiore mostra immagini tipiche di slot machine e ambienti da gioco online, mentre nella parte inferiore appare Caressa, vestito con una maglietta dal gusto discutibile e immerso in uno sfondo che richiama loghi sportivi e riferimenti al brand del casinò. Il messaggio promozionale è chiaro: invitare gli utenti a registrarsi e accedere a offerte di gioco. Il problema non è solo la qualità del deepfake, ma la sua capacità di circolare come contenuto sponsorizzato. Il video, infatti, non appare come semplice pubblicazione organica, ma come inserzione pubblicitaria, elemento che può contribuire a rafforzarne la credibilità agli occhi di chi lo visualizza distrattamente.
Secondo quanto ricostruito da Dagospia, osservando la diffusione del contenuto, il link rimanderebbe a un sito di gioco d’azzardo dal nome “PiperSpin”, attualmente non accessibile in Italia. Sul portale comparirebbe anche un invito a utilizzare una VPN per aggirare le restrizioni geografiche, pratica che solleva ulteriori dubbi sulla trasparenza del servizio. Attorno al brand si muoverebbero inoltre diversi domini “specchio”, spesso collegati tra loro e riconducibili a reti di siti di gioco poco chiari.
Il doppio rischio dei deepfake
La vicenda evidenzia un doppio livello di criticità: da un lato la potenziale truffa ai danni degli utenti, dall’altro l’uso non autorizzato dell’identità digitale di una figura pubblica, trasformata in testimonial inconsapevole. Un fenomeno che mostra quanto i deepfake stiano diventando sempre più difficili da riconoscere e sempre più efficaci nel confondere pubblicità e disinformazione.