“Qualcuno spari a Trump” va cancellato, un commento che dice “spero che qualcuno ti uccida” invece non è un problema. È solo uno dei paradossi emersi dalle linee guida che Facebook ha fornito ai propri moderatori per decidere cosa due miliardi di utenti possono pubblicare o meno sul social network. Centinaia di manuali di formazione interni, fogli di lavoro e diagrammi resi pubblici dal Guardian, che forniscono una visione senza precedenti di come Mark Zuckerberg decida di trattare questioni come la violenza, l’odio, il terrorismo, la pornografia, il razzismo e l’autolesionismo.

Facebook si è ritrovato negli ultimi anni a dover rispondere a pressanti critiche su due fronti. Da una parte le richieste di cercare di porre un freno ai fenomeni dei falsi profili, delle “fake news” e del crescente uso della violenza sui social, fino ai recenti esempi di “revenge porn” (quando, ad esempio, si rendono pubbliche immagini intime di altre persone senza il loro consenso). Dall’altra le perplessità di chi sostiene che Facebook stia di fatto diventando il più grande censore del mondo. In questo senso i documenti del Guardian permettono di conoscere le regole utilizzate per rimuovere i post. E allo stesso tempo evidenziano quali contraddizioni emergono da queste linee guida e dal loro utilizzo.

Contraddizioni inevitabili, secondo una fonte del quotidiano inglese, perché “Facebook non può avere il controllo dei suoi contenuti. Sono cresciuti troppo e troppo velocemente”. In più ci sono le testimonianze dei moderatori, che raccontano di come spesso abbiano appena 10 secondi per decidere, in base alle linee guida, quali post debbano essere rimossi o meno. Una decisione per nulla facile, visto che queste regole sono spesso generali e confuse.

Il Guardian ne ha riassunte alcune, diffuse nell’ultimo anno. Se per esempio una scritta “qualcuno spari a Trump” va rimossa, perché rappresenta una minaccia a una categoria protetta, è invece consentito scrivere “per rompere il collo a una prostituta, assicuratevi di fare pressione nel mezzo del suo collo”. In questo caso infatti, non rappresenta secondo le linee guida una minaccia diretta e credibile.

Video o foto di violenza non sessuale o bullismo nei confronti dei minori anche non devono essere per forza cancellati, a meno che non ci sia del “sadismo” o il gesto venga “celebrato”. Le immagini di abusi su animali non vanno rimosse, ma solo marcate come “disturbanti”. I video di morti violente, anch’essi contrassegnati, non devono essere sempre eliminati, perché potrebbero aiutare a creare consapevolezza intorno a problemi come la malattia mentale. E così via per diversi altri casi.

Se Facebook, rivela un documento pubblicato dal Guardian, riesce a contrastare sempre più efficacemente i profili falsi, facendo più di 6,5 milioni di rapporti a settimana per individuare “fake accounts”, ancora fatica a fermare la violenza verbale sul proprio social network. Lo dimostra un altro file in possesso del quotidiano inglese. “Le persone usano linguaggi violenti per esprimere la loro frustrazione” e si sentono “sicure a farlo online”, ammette in questo documento lo stesso Facebook. Ma, si legge ancora, “non tutti i contenuti sgradevoli o inquietanti violano i nostri standard“.