Attualità

Come funziona davvero il Feed di Google? Uno studio svela i segreti dell’algoritmo

A indagare i meccanismi alla base delle informazioni che vengono proposte nel Feed uno studio, descritto sulla rivista Nature, condotto dagli scienziati dello Stanford Internet Observatory

di 30science per Il Fatto

C’è un motivo se le notizie che Google seleziona per noi sembrano in qualche modo associate alle ricerche effettuate in precedenza o randomicamente casuali piuttosto che ai nostri veri e propri interessi. A indagare i meccanismi alla base delle informazioni che vengono proposte nel Feed uno studio, descritto sulla rivista Nature, condotto dagli scienziati dello Stanford Internet Observatory presso l’Università di Stanford, della Rutgers School of Communication and Information, del Wellesley College e della Northeastern University.

Il gruppo di ricerca, guidato da Ronald E. Robertson, Katherine Ognyanova e Eni Mustafaraj, ha valutato i fattori che influenzano la selezione delle notizie del Google Feed. Il team ha condotto un’analisi in due ondate, considerando i dati di navigazione e l’orientamento politico di 1.021 partecipanti durante le elezioni statunitensi del 2018 e del 2020. Ai volontari è stato chiesto di installare un’estensione del browser per Chrome e Firefox che registrava le informazioni di navigazione. Il set di dati comprendeva oltre 328mila pagine di risultati di ricerca Google e oltre 46 milioni di URL provenienti da una navigazione Internet più ampia. Le fonti sono state classificate in base all’orientamento politico e alla polarizzazione dei contenuti. I ricercatori hanno quindi confrontato i modelli di condivisione e le inclinazioni politiche dichiarate dai partecipanti.

Sebbene gli algoritmi di selezione svolgano un ruolo importante nell’insieme di link proposti dal Feed di Google, pochissimi lavori si sono concentrati sui meccanismi alla base dell’assortimento di notizie. In questo lavoro, gli esperti hanno considerato diversi parametri, come l’esposizione, cioè l’insieme di news che appaiono nei risultati di ricerca, i follow, che riguardano le pagine che l’utente sceglie di visionare e il coinvolgimento, ovvero l’insieme di siti visitati da un soggetto nell’arco della navigazione. Il software utilizzato dagli studiosi era progettato per registrare gli URL mostrati dai risultati di ricerca, la cronologia di navigazione e una serie di informazioni associate ai contenuti che i partecipanti avevano visionato. I volontari sono stati inoltre sottoposti a un questionario mirato a distinguere l’orientamento politico e le credenze di base delle persone.

Da diverso tempo, la scienza ha espresso la preoccupazione che gli algoritmi digitali tendano a mostrare le notizie del Feed in base alla storia cronologica e alla selezione degli utenti piuttosto che alle preferenze stesse delle persone. In entrambe le ondate esaminate, riportano gli studiosi, i partecipanti avevano interagito con i contenuti politicamente polarizzati in misura maggiore rispetto all’esposizione a cui erano stati sottoposti dal Feed. Questo suggerisce che l’algoritmo di ricerca di Google non portava automaticamente gli utenti a rafforzare le proprie convinzioni di base. Gli autori ipotizzano pertanto che la cassa di risonanza deriva dalle scelte dell’utente piuttosto che dall’intervento dell’algoritmo.

I risultati delle ricerche, sostengono gli autori, non si discostano molto tra i vari utenti in base alle ideologie politiche di base, ma differiscono dopo che gli utenti visitano e cliccano su determinate pagine. Questo solleva preoccupazioni in merito alla crescita di bolle di filtro online che limitano l’esposizione dell’utente a opinioni specifiche, aggravando i pregiudizi esistenti. Questo lavoro, commentano gli esperti, suggerisce che a volte gli algoritmi dei motori di ricerca come Google possono portare a risultati polarizzanti e potenzialmente pericolosi.

Stando a quanto emerge dall’indagine, in effetti, l’identificazione e l’ideologia politiche non sembravano associate in modo significativo alla qualità e alla tipologia di news che comparivano nel Feed. Le notizie risultavano invece correlate alla cronologia e ai click effettuati in precedenza. I ricercatori hanno inoltre riscontrato un legame tra le ideologie politiche e la tendenza all’interazione con contenuti polarizzanti, specialmente tra i partecipanti che dichiaravano di sostenere i partiti politici di estrema destra. In altre parole, spiegano gli autori, il Feed non mostra i risultati che rispecchiano le convinzioni e le opinioni dei partecipanti, che invece si rivolgono attivamente a queste fonti per reperire informazioni mirate. “I motori di ricerca – afferma Ognyanova – tendono a mostrare alle persone contenuti inaffidabili, ma il nostro lavoro sottolinea che gli utenti stessi e le scelte compiute nel tempo possono influenzare direttamente la tipologia di link che vengono proposti nel proprio Feed”

Come funziona davvero il Feed di Google? Uno studio svela i segreti dell’algoritmo
Precedente
Precedente

I commenti a questo articolo sono attualmente chiusi.