Il mondo FQ

Intelligenza Artificiale, “circolano notizie create ad hoc per delegittimare la transizione energetica”: parla l’esperta Padovese

Giornalista, lavora per “NewsGuard”, organizzazione fondata nel 2018 con l’obiettivo di combattere la disinformazione
Intelligenza Artificiale, “circolano notizie create ad hoc per delegittimare la transizione energetica”: parla l’esperta Padovese
Icona dei commenti Commenti

“L’IA è uno strumento potente nelle mani dei disinformatori, che può essere messo facilmente a servizio di qualsiasi narrativa falsa si voglia diffondere. Anche relativa al clima e alla transizione energetica”. Virginia Padovese si occupa di disinformazione dal 2018. Ha partecipato di recente ai “Colloqui di Dobbiaco”, quest’anno incentrati proprio su come uscire dalla trappola dell’informazione manipolata. Padovese lavora per “NewsGuard”, organizzazione fondata nel 2018 dai giornalisti statunitensi Steven Brill e Gordon Crovitz, con l’obiettivo di combattere la disinformazione, con particolare attenzione a quella generata dall’Intelligenza Artificiale. Tenendo ferma l’attenzione anche sulle distorsioni che esistono da sempre: pubblicare informazioni false, non citare le fonti, plagiare i contenuti di altri siti, pubblicare titoli ingannevoli, confondere notizie e opinioni, non essere trasparenti sulla propria agenda, non rivelare proprietà e finanziamenti, non distinguere in modo chiaro contenuti editoriali e sponsorizzati.

Partiamo dalla crisi climatica. Come si muove la disinformazione climatica?

Su filoni diversi: notizie false o fuorvianti per delegittimare la transizione energetica e chi la promuove; dati, studi, o eventi presentati fuori contesto per negare l’impatto delle attività umane sul cambiamento climatico; citazione di studi isolati in contrasto con il consenso scientifico sul tema; notizie false che prendono di mira figure pubbliche o attivisti, come Greta Thunberg; e un filone più complottista che attribuisce la responsabilità dei disastri naturali a tecnologie umane (come la statunitense “HAARP”). L’uso dell’IA può rendere queste narrative false più convincenti, amplificando il rischio di manipolazione dell’opinione pubblica.

Può farci un esempio?

Un esempio recente che coinvolge l’IA riguarda un deepfake del primo ministro canadese Mark Carney. Un video manipolato che si è diffuso a maggio mostrava Carney annunciare che, a partire dal 1° giugno 2025, tutti i veicoli prodotti prima del 2000 sarebbero stati rimossi dalle strade canadesi. In realtà, Carney non ha mai fatto queste dichiarazioni: si trattava di un deepfake basato sullo spezzone di un suo discorso del marzo 2025, che combinava movimenti labiali alterati e un audio generato con l’IA.

In generale, l’IA sta aumentando la disinformazione?

Effettivamente l’intelligenza artificiale ha portato dei nuovi rischi nell’ecosistema dell’informazione: parliamo di strumenti estremamente potenti che possono venire sfruttati dai disinformatori. Con l’IA si possono produrre contenuti in modo molto veloce a costo praticamente nullo. Inoltre, essendo queste tecnologie sempre più avanzate, anche i prodotti che riescono a creare sono sempre più raffinati, per cui è sempre più difficile per un utente comune riconoscere un contenuto creato o manipolato con l’IA.

Voi avete denunciato anche l’esistenza di interi siti web automatizzati che producono contenuti non accurati.

Sì, ci sono interi network di siti di disinformazione che funzionano in modo autonomo, ovvero producono contenuti in modo regolare diffondendo narrative di propaganda; non hanno quasi alcun lettore, hanno un engagement minimo perché il loro scopo non è raggiungere l’utente finale, ma contaminare il web in modo tale che quelle narrative vengano poi assimilate dai bot durante l’addestramento. C’è poi un altro problema.

Quale?

Sempre più spesso i chatbot vengono utilizzati come motori di ricerca, anche se motori di ricerca in realtà non sono. I bot non restituiscono pagine di link tra cui scegliere, ma una risposta unica. Peccato che i tassi di errore sono elevatissimi, secondo il nostro report di agosto, per esempio, del 35%.

La disinformazione creata con IA può orientare anche campagne elettorali ed elezioni?

Sì, può influenzare i processi elettorali e soprattutto erodere la fiducia dei cittadini nei processi democratici. Basti pensare che nelle elezioni statunitensi del 2024 il 22% delle narrative false che abbiamo individuato era generato con intelligenza artificiale.

Cosa possiamo fare?

Anzitutto è fondamentale addestrare questi strumenti in modo che possano riconoscere l’affidabilità delle fonti che vanno a controllare e che siano in grado di identificare le narrative false. Ciò vale anche per una corretta informazione sulla crisi climatica. Mostrare i dati nel contesto scientifico corretto riduce la possibilità che il pubblico cada in falsi miti o teorie complottistiche, e allo stesso tempo permette di evidenziare quali azioni individuali o collettive possono davvero fare la differenza.

I commenti a questo articolo sono attualmente chiusi.