Il mondo FQ

Covid e vaccini, gli sforzi di Facebook per bloccare le fake news? “Hanno l’effetto contrario” – Lo studio

Covid e vaccini, gli sforzi di Facebook per bloccare le fake news? “Hanno l’effetto contrario” – Lo studio
Icona dei commenti Commenti

Le discussionino vax’ su Facebook continuano a proliferare, nonostante la politica stringente adottata dalla piattaforma. A dirlo, un recente studio condotto da David A. Broniatowski e il suo team della The George Washington University. Il gruppo di lavoro ha analizzato proprio gli effetti della politica adottata da Facebook per rimuovere le fake news sulle vaccinazioni dalla sua piattaforma, durante la pandemia da Covid-19. I risultati dello studio, pubblicati sulla rivista Science Advance, hanno rivelato che queste azioni non sono state efficaci, in quanto non hanno comportato una diminuzione dell’interazione complessiva con i contenuti contrari alle vaccinazioni. Invece, sembra che l’architettura del sistema della piattaforma di social media sia stata sfruttata dagli autori e dagli utenti di tali contenuti per creare nuovi percorsi attraverso cui visualizzare materiale anti-vaccinazione. Secondo i ricercatori, dopo l’implementazione della politica di rimozione, i contenuti anti-vaccinazione sono diventati “più fuorvianti, più politicamente estremizzati e con maggiori probabilità di apparire nei feed di notizie degli utenti”.

Per condurre l’analisi, i ricercatori statunitensi hanno utilizzato lo strumento di scoperta e monitoraggio dei contenuti chiamato CrowdTangle (di proprietà di Meta, la società madre di Facebook) per scaricare dati pubblici da pagine e gruppi di Facebook. I ricercatori hanno esaminato i contenuti contrari alle vaccinazioni e quelli a favore il 15 novembre 2020, subito prima della rimozione, avvenuta l’18 novembre 2020, della pagina “Stop Mandatory Vaccination”, una delle più grandi pagine anti-vaccinazione sulla piattaforma, e prima dell’annuncio del 3 dicembre 2020 di Facebook riguardo alla rimozione delle affermazioni false sulle vaccinazioni anti-Covid-19 e degli account che pubblicavano tali fake news. Successivamente, i ricercatori hanno confrontato i dati provenienti da oltre 200.000 post pubblicati su pagine e gruppi creati tra il 15 novembre 2019 e il 15 novembre 2020 con i post pubblicati sulle stesse pagine e gruppi tra il 16 novembre 2020 e il 28 febbraio 2022.

Secondo i ricercatori, sarebbero proprio alcuni elementi dell’architettura del sistema di Facebook ad aver permesso agli utenti di aumentare la loro interazione con i contenuti contrari alle vaccinazioni e alle informazioni non verificate da fonti ufficiali. Ad esempio, le pagine e i gruppi potevano coordinarsi tra loro per promuovere contenuti o ripubblicare contenuti rimossi. Inoltre, l’algoritmo del feed di notizie di Facebook, progettato per promuovere i contenuti che generano “interazioni sociali significative” misurate attraverso reazioni come “mi piace” e “arrabbiato”, potrebbe aver aumentato l’esposizione ai contenuti di informazioni sbagliate sulle vaccinazioni.

Walter Quattrociocchi, Professore di Informatica alla Sapienza di Roma ha commentato così i risultati: “Lo studio si concentra sull’efficacia delle politiche di rimozione delle notizie false adottate da Facebook durante la pandemia di Covid-19. Si rileva che, nonostante gli sforzi di Facebook, la disinformazione legata ai vaccini non ha mostrato segni di diminuzione in termini di coinvolgimento da parte degli utenti”. “Ciò che è più preoccupante – prosegue l’esperto – è l’osservazione che anche i contenuti favorevoli ai vaccini sono stati rimossi, e i contenuti antivaccino sono diventati più ingannevoli, politicamente polarizzati e più visibili nei feed degli utenti. Questo fenomeno potrebbe essere attribuito all’architettura di Facebook che, fornendo una grande flessibilità agli utenti, permette di diffondere facilmente contenuti falsi attraverso molteplici canali. In altre parole, anche se Facebook tenta di bloccare determinate informazioni, gli utenti motivati e i produttori di contenuti possono trovare diversi modi per aggirare tali restrizioni”, aggiunge il professore della Sapienza di Roma.

“Insomma, nulla di nuovo sotto il sole, le persone tendono a selezionare e condividere informazioni che rafforzano le loro credenze preesistenti. Ha sofferto di questa distorsione anche chi dice di fare informazione scientifica, l’intrattenimento dei propri follower è il nuovo mestiere”, prosegue il professor Quattrociocchi. Infatti, lo studio sottolinea che nonostante gli sforzi di una piattaforma come Facebook per rimuovere la disinformazione, l’architettura stessa della piattaforma può contraddire o indebolire questi sforzi. Ciò rafforza l’idea che la responsabilità di combattere la disinformazione non dovrebbe ricadere esclusivamente sulle piattaforme, ma richiede una combinazione di interventi, tra cui educazione mediale, legiferazione e iniziative comunitarie.

di Lella Simone

Gentile lettore, la pubblicazione dei commenti è sospesa dalle 20 alle 9, i commenti per ogni articolo saranno chiusi dopo 72 ore, il massimo di caratteri consentito per ogni messaggio è di 1.500 e ogni utente può postare al massimo 150 commenti alla settimana. Abbiamo deciso di impostare questi limiti per migliorare la qualità del dibattito. È necessario attenersi Termini e Condizioni di utilizzo del sito (in particolare punti 3 e 5): evitare gli insulti, le accuse senza fondamento e mantenersi in tema con la discussione. I commenti saranno pubblicati dopo essere stati letti e approvati, ad eccezione di quelli pubblicati dagli utenti in white list (vedere il punto 3 della nostra policy). Infine non è consentito accedere al servizio tramite account multipli. Vi preghiamo di segnalare eventuali problemi tecnici al nostro supporto tecnico La Redazione