La verità non ci interessa. Ed ecco perché con un esempio facile facile: avete presente l’ultima volta che siete usciti a cena con amici? Bene, prendete un qualsiasi argomento discusso quella sera, ricordate che a un certo punto c’era chi sosteneva una posizione e chi un’altra? Bene. Non perdete tempo a verificare da che parte sta la verità, perché questo difficilmente cambierà la vostra idea, la vostra convinzione di fondo. E’ la conseguenza di una naturale tendenza del cervello umano di dare senso e forma alla realtà per mezzo delle conoscenze già a sua disposizione.

Ora, mettiamo questo accanto al fatto che oggi cerchiamo e troviamo la maggior parte delle informazioni in internet e sui social network. Aggiungiamo che là ci scorrono sott’occhio anche informazioni che non ci andiamo a cercare, ma in cui (casualmente?) ci imbattiamo. Mettiamoci poi che ognuno dice e sostiene la sua in quella enorme mole di informazioni che è un minestrone in cui opinioni di esperti e fonti autorevoli si trovano mescolate a supposizioni e credenze di chi competenza non ne ha. Ecco, non siamo nemmeno vicini a capire la portata del problema. Perché questo non è il punto di arrivo, ma quello di partenza per un altro fenomeno, quello della manipolazione e dell’inoculazione cognitiva, che in questo carnevale dell’informazione sul web trova l’ambiente ideale.

Cerchiamo di fare chiarezza facendo un passo indietro: gli studi condotti da un gruppo di ricercatori guidati da Walter Quattrociocchi, coordinatore del Laboratorio di Computational Social Science dell’Imt di Lucca, autore di “Misinformation – Guida alla società dell’informazione e della credulità” hanno chiarito che “l’utente posto di fronte a un’idea diversa dalla sua non fa che radicalizzarsi e arroccarsi sulla propria opinione, legandosi sempre di più a chi la pensa come lui. Gli utenti tendono a cercare le informazioni che si conformano al loro sistema di pensiero già strutturato e rifiutano le contraddizioni”. E’ il cosiddetto il pregiudizio di conferma (confirmation bias), che sul web sprigiona una potenza pazzesca. La quantità mostruosa di informazioni appiattisce l’autorità della fonte e io-utente sposo, tra tutto quello che trovo, la narrazione che più si accorda alla mia visione del mondo, poi, andando a sostenere quella posizione, non faccio che amplificarla ancora, creando le echo chambers, dove trovo solo lo specchio delle mie opinioni. Questo, secondo Quattrociocchi “porta alla formazione di gruppi polarizzati dove si rinforza una determinata visione del mondo. Inoltre, il magma di informazioni ne contiene moltissime non mediate e non verificate, che io scelgo trattandole come se invece lo fossero.

E’ l’era della post-verità.” Ci si può almeno difendere dalle cosiddette bufale on-line? Il debunking (smontare le bufale) – risponde Quattrociocchi – serve a poco, anzi, per i meccanismi di cui sopra, peggiora la situazione. Prendiamo il caso dei vaccini: se io sono convinto che il vaccino provochi l’autismo, interpreterò le tesi di esperti che sostengono il contrario solo come informazione veicolata, ad esempio, da questa o quella casa farmaceutica, andando a convincermi ancora di più della mia opinione iniziale per cui i vaccini fanno male. Ma nemmeno le soluzioni “antibufala” adottate da Google e Facebook convincono perché: “taggare le notizie sul web come autentiche o meno non risolve il problema, la questione è molto più complessa, sarebbe come voler suddividere il mondo e tutto quello che vi circola tra vero e falso, è ovvio che non può funzionare”. E in effetti quello che ci hanno risposto da Google e da Facebook – che riconoscono la serietà del problema – si basa proprio su un sistema di etichette: Richard Gingras, direttore delle news e dei social per Google fa sapere che BigG ha introdotto un nuovo servizio (per adesso solo negli Stati Uniti e Regno Unito): l’etichetta “fact-check” a fianco degli articoli ne dovrebbe garantire l’autenticità. Ma come funziona? Siamo andati a vedere di che cosa si tratta. E’ un servizio a disposizione dei fornitori di contenuti che possono immettere dei “marcatori” nel testo che scrivono. Ma viene da chiedersi se non sia un cane che si morde la coda, perché allora dipenderà da chi utilizzerà quei codici.

Adam Mosseri, vicepresidente di Facebook e responsabile della gestione news feed, ci risponde spiegando che sul News Feed utilizzano vari segnali basati sui feedback della comunità. Nella sezione Trending, invece, si basano su “un’ampia varietà di segnali in modo da essere sicuri che gli argomenti che vengono visualizzati rappresentino la realtà degli eventi”. Peccato che nella selezione dei trending topics Facebook abbia sostituito gli umani con i bot (robot) e, come spiega un articolo di Caitlin Dewey sul Washington Post, i bot non hanno riconosciuto le informazioni vere da quelle false. E’ in effetti poco probabile che un robot riesca laddove un umano non riesce. Dunque sembra che ci si debba difendere da soli. “Un sano scetticismo è d’obbligo – consiglia Quattrociocchi – anche sulle informazioni verificate, ma bisogna capire che il problema va oltre quello delle bufale, perché siamo di fronte a un’informazione strumentale strutturata ad hoc, pro istituzione o in senso antagonista ad essa”.

Probabilmente le dinamiche sono inarrestabili e molto più grandi di noi. Rimane il fatto che la consapevolezza è forse l’unica arma che abbiamo. Un piccolo esempio: fino a poco tempo fa si parlava di cyber security, oggi si parla di “information war“. È la guerra delle informazioni. Un gruppo che si forma attorno a un’idea o a una posizione politica sembra essere facilmente tracciabile, basta individuare la narrativa a cui è attaccato. Altrettanto facile, lo sappiamo, è infiltrarsi, far leva su certi temi fino a spostare la credenza di quel gruppo. Si tratta di numeri e di meccanismi in cui l’inoculazione cognitiva può essere ingegnerizzata. Smettere di utilizzare i social non sembra poter essere, oggi, la scelta giusta. Conoscere le dinamiche che li regolano, invece, lo è.