Foto, notizie, documenti. Ma sui social media, veicolo di informazione anche per i giornalisti e chi si occupa di comunicazione, è spesso complesso verificare l’autenticità delle fonti e dei dati pubblicati. Nel 2011, ad esempio, durante i riot di Londra sono state pubblicate informazioni false via twitter e facebook. Tra queste l’immagine di una tigre divulgata sul sito di microblogging che gettò nel panico i londinesi. Il risultato: loro si chiusero in casa, ma si trattava di un fake. Per evitare il diffondersi di bufale sul web è stato creato un progetto di ricerca nel Regno Unito, coordinato da Kalina Bontcheva del dipartimento di informatica dell’Università di Sheffield. Si chiama Pheme, è finanziato dall’Unione Europea e coinvolge cinque università, nessuna italiana: Sheffield, Warvick, King’s College di Londra, Saarland in Germania e Modul di Vienna. Il progetto è stato ispirato dal lavoro del professor Rob Procter dell’Università di Warwick che esaminò il boom di messaggi su Twitter dopo i riot, esplosi a seguito dell’uccisione da parte della polizia di un giovane di colore.

Il programma, che vuole “stanare” le bugie su Twitter, classifica i ‘rumor’ online in quattro categorie: speculazione, controversia, informazione sbagliata e disinformazione. Una sorta di macchina della verità online diversa dal fact-checking, che è un’attività ‘cooperativa’ realizzata da persone che spulciando dati e informazioni possono certificare insieme una determinata notizia. Pheme mette in fila anche le fonti per valutare lo loro autorevolezza: esperti, giornalisti, testimoni oculari, cittadini comuni. Il software esamina il background della fonte e la sua storia (i post pubblicati in passato) per individuare gli account Twitter creati esclusivamente per diffondere false informazioni. Incrociando questi dati Pheme rimanda il risultato ad un programma visuale (dashboard) per capire anche l’andamento delle conversazioni su una determinata notizia.

L’ambito di ricerca è quello – spinosissimo – degli algoritmi semantici che processano le frasi, cercando di identificarne il significato. In Italia un progetto simile e chiamato Fact checking è stato creato dalla fondazione Ahref di Trento. E’ stato sperimentato durante la campagna elettorale per le elezioni politiche del 25-26 febbraio 2013. Passava in disamina tutte le dichiarazioni di rilevanza pubblica. Simile il fine ma molto diverse le modalità. L’approccio non era algoritmico, come Pheme, ma sociale: erano gli stessi utenti, attraverso dei documenti di prova, ad aumentare la reputazione di un utente e quindi a quantificare la veridicità di un fatto.

La ricerca che porterà  alla realizzazione di Pheme si svolge  nell’arco di 3 anni. 18 mesi per creare un prototipo di software, e altrettanti di sperimentazione e test svolti dalla piattaforma giornalistica svizzera swissinfo.ch e dall’ospedale psichiatrico del King’s College di Londra. Ma, ponendo il caso che possa funzionare, c’è davvero la necessità di un programma algoritmico che sia in grado di stanare la bugie? “Tutto quello che può aiutare è benvenuto – spiega Michele Kettmaier, direttore generale della Fondazione Ahref – dunque se si riesce è sicuramente un bene. Ma non siamo certi che la matematica degli algoritmi possa processare questo tipo di dati”.

di Olga Mascolo