Le discussionino vax’ su Facebook continuano a proliferare, nonostante la politica stringente adottata dalla piattaforma. A dirlo, un recente studio condotto da David A. Broniatowski e il suo team della The George Washington University. Il gruppo di lavoro ha analizzato proprio gli effetti della politica adottata da Facebook per rimuovere le fake news sulle vaccinazioni dalla sua piattaforma, durante la pandemia da Covid-19. I risultati dello studio, pubblicati sulla rivista Science Advance, hanno rivelato che queste azioni non sono state efficaci, in quanto non hanno comportato una diminuzione dell’interazione complessiva con i contenuti contrari alle vaccinazioni. Invece, sembra che l’architettura del sistema della piattaforma di social media sia stata sfruttata dagli autori e dagli utenti di tali contenuti per creare nuovi percorsi attraverso cui visualizzare materiale anti-vaccinazione. Secondo i ricercatori, dopo l’implementazione della politica di rimozione, i contenuti anti-vaccinazione sono diventati “più fuorvianti, più politicamente estremizzati e con maggiori probabilità di apparire nei feed di notizie degli utenti”.

Per condurre l’analisi, i ricercatori statunitensi hanno utilizzato lo strumento di scoperta e monitoraggio dei contenuti chiamato CrowdTangle (di proprietà di Meta, la società madre di Facebook) per scaricare dati pubblici da pagine e gruppi di Facebook. I ricercatori hanno esaminato i contenuti contrari alle vaccinazioni e quelli a favore il 15 novembre 2020, subito prima della rimozione, avvenuta l’18 novembre 2020, della pagina “Stop Mandatory Vaccination”, una delle più grandi pagine anti-vaccinazione sulla piattaforma, e prima dell’annuncio del 3 dicembre 2020 di Facebook riguardo alla rimozione delle affermazioni false sulle vaccinazioni anti-Covid-19 e degli account che pubblicavano tali fake news. Successivamente, i ricercatori hanno confrontato i dati provenienti da oltre 200.000 post pubblicati su pagine e gruppi creati tra il 15 novembre 2019 e il 15 novembre 2020 con i post pubblicati sulle stesse pagine e gruppi tra il 16 novembre 2020 e il 28 febbraio 2022.

Secondo i ricercatori, sarebbero proprio alcuni elementi dell’architettura del sistema di Facebook ad aver permesso agli utenti di aumentare la loro interazione con i contenuti contrari alle vaccinazioni e alle informazioni non verificate da fonti ufficiali. Ad esempio, le pagine e i gruppi potevano coordinarsi tra loro per promuovere contenuti o ripubblicare contenuti rimossi. Inoltre, l’algoritmo del feed di notizie di Facebook, progettato per promuovere i contenuti che generano “interazioni sociali significative” misurate attraverso reazioni come “mi piace” e “arrabbiato”, potrebbe aver aumentato l’esposizione ai contenuti di informazioni sbagliate sulle vaccinazioni.

Walter Quattrociocchi, Professore di Informatica alla Sapienza di Roma ha commentato così i risultati: “Lo studio si concentra sull’efficacia delle politiche di rimozione delle notizie false adottate da Facebook durante la pandemia di Covid-19. Si rileva che, nonostante gli sforzi di Facebook, la disinformazione legata ai vaccini non ha mostrato segni di diminuzione in termini di coinvolgimento da parte degli utenti”. “Ciò che è più preoccupante – prosegue l’esperto – è l’osservazione che anche i contenuti favorevoli ai vaccini sono stati rimossi, e i contenuti antivaccino sono diventati più ingannevoli, politicamente polarizzati e più visibili nei feed degli utenti. Questo fenomeno potrebbe essere attribuito all’architettura di Facebook che, fornendo una grande flessibilità agli utenti, permette di diffondere facilmente contenuti falsi attraverso molteplici canali. In altre parole, anche se Facebook tenta di bloccare determinate informazioni, gli utenti motivati e i produttori di contenuti possono trovare diversi modi per aggirare tali restrizioni”, aggiunge il professore della Sapienza di Roma.

“Insomma, nulla di nuovo sotto il sole, le persone tendono a selezionare e condividere informazioni che rafforzano le loro credenze preesistenti. Ha sofferto di questa distorsione anche chi dice di fare informazione scientifica, l’intrattenimento dei propri follower è il nuovo mestiere”, prosegue il professor Quattrociocchi. Infatti, lo studio sottolinea che nonostante gli sforzi di una piattaforma come Facebook per rimuovere la disinformazione, l’architettura stessa della piattaforma può contraddire o indebolire questi sforzi. Ciò rafforza l’idea che la responsabilità di combattere la disinformazione non dovrebbe ricadere esclusivamente sulle piattaforme, ma richiede una combinazione di interventi, tra cui educazione mediale, legiferazione e iniziative comunitarie.

di Lella Simone

RIVOLUZIONE YOUTUBER

di Andrea Amato e Matteo Maffucci 14€ Acquista
Articolo Precedente

La cometa Nishimura visibile ancora per pochissimi giorni: prossima data nel 2458

next
Articolo Successivo

Il fisico Federico Capasso nella Clarivate Citation Laureates, come Giorgio Parisi che poi vinse il Nobel

next