Big Tech sfida l’Europa: continuerà ad accedere ai messaggi privati per proteggere i minori. Ma la deroga è scaduta
Dal 3 aprile i colossi tecnologici non potrebbero più accedere alle conversazioni online degli utenti europei, per proteggere i minori da abusi e molestie digitali. Ma Big Tech ha annunciato di voler proseguire, con il pericolo di violare le leggi del Vecchio Continente. “L’Europa rischia di lasciare i bambini di tutto il mondo meno protetti dalle forme di abuso più aberranti”, si legge nel comunicato firmato Meta, Google, Snapchat e Microsoft. Dunque le quattro aziende “continueranno ad adottare misure volontarie”. L’allarme per la sicurezza dei minori, dopo lo stop per le piattaforme, era già stato lanciato da 247 organizzazioni in tutto il mondo, incluse Save the children e il Telefono azzurro. Il dito è puntato sul Vecchio Continente per una ragione: il 16 marzo è fallito il negoziato tra il Parlamento e il Consiglio europeo, per approvare la nuova deroga alla direttiva ePrivacy, consentendo ai colossi l’accesso alle conversazioni private e le segnalazioni alle forze dell’ordine. “Siamo delusi da questa irresponsabile incapacità di raggiungere un accordo per mantenere gli sforzi già intrapresi per proteggere i minori online”, si legge nel comunicato vergato dalle 4 multinazionali americane il 3 aprile. Certo, l’Europa ha fallito nelle trattative, mentre l’Europol aveva esortato a conservare il via libera per le piattaforme, “fondamentale per la protezione” dei ragazzi.
La condanna di Meta al risarcimento da 375 milioni di dollari per non aver tutelato i minori
Molti utenti sono delusi anche dalla sentenza ricevuta da Meta negli Stati Uniti, in sede civile, 11 giorni prima del comunicato che accusa l’Europa. Il 24 marzo il tribunale del New Mexico ha condannato il colosso di Mark Zuckerberg per non aver tutelato i minori, neppure dallo sfruttamento sessuale. La sanzione? 375 milioni di dollari. “I dirigenti di Meta sapevano che i loro prodotti erano dannosi per i bambini, hanno ignorato gli avvertimenti dei propri dipendenti e hanno mentito al pubblico su ciò che sapevano”, ha dichiarato il procuratore generale Raúl Torrez. Per indagare sulle piattaforme, nel 2023, il magistrato ha ordinato agli investigatori di creare falsi profili su Facebook e Instagram, fingendosi ragazzini sotto i 14 anni. Le conclusioni sono nel comunicato del Dipartimento di Giustizia del Nuovo Messico: “Le prove presentate al processo hanno dimostrato che le caratteristiche di progettazione di Meta consentivano a pedofili e predatori di abusare sessualmente dei minori sulle piattaforme di Meta”. Il colosso ha presentato appello. Mentre Il 4 maggio 2026 è prevista la seconda fase del processo, per decidere le misure strutturali da imporre alla piattaforma, a tutela dei minori.
Agli atti, la testimonianza di Vaishnavi Jayakumar, ex responsabile della sicurezza e del benessere di Instagram: “Si potevano accumulare 16 violazioni per prostituzione e adescamento sessuale e, alla 17esima violazione, l’account veniva sospeso (…) secondo qualsiasi parametro del settore, una soglia di rischio molto, molto alta”. Il documento giudiziario è stato rivelato dal Time e archiviato nel sito theoversightproject.org, un’organizzazione no-profit dedicata alla vigilanza sul settore tecnologico. Secondo Matteo Flora, interpellato da ilfattoquotidiano.it, “il paradosso per Meta è così netto che è quasi difficile da articolare senza sembrare retorici: secondo quella sentenza il difensore della vittima è l’aggressore stesso, vestito da soccorritore”. Il procuratore Torrez aveva espresso l’auspicio che la condanna fosse un monito per i “dirigenti delle grandi aziende tecnologiche: nessuna azienda è al di sopra della legge”. Ma dall’altra parte dell’oceano, non è detto che il messaggio sia ascoltato dalle piattaforme.
L’Europa litiga da 4 anni su Chat control: l’equilibrio difficile tra privacy e lotta alla pedofilia online
Alla testata Politico, il portavoce della Commissione Guillaume Mercier ha mostrato pochi dubbi: “In assenza di una base giuridica, le aziende non sono più autorizzate a individuare in modo proattivo gli abusi sessuali sui minori nelle comunicazioni private”. Al sito specializzato Recorded Future News, un altro portavoce ha aggiunto come “la tutela dei nostri figli non dovrebbe essere soggetta a decisioni aziendali autonome, ma basarsi su norme chiare e vincolanti”. Ma il tema è talmente spinoso che l’Europa si è incartata, da quattro anni, alla ricerca di un compromesso in bilico tra tutela dei minori e diritto alla riservatezza. Tecnicamente, infatti, le piattaforme non possono accedere ai messaggi degli utenti, in virtù della direttiva ePrivacy del 2002. Ma dal 2021 vigeva la deroga (il regolamento 2021/1232) per combattere la pedopornografia in vertiginoso aumento. Il provvedimento provvisorio è stato prorogato nel 2024. Così, in virtù dell’eccezione, le piattaforme digitali potevano “sbirciare” nelle conversazioni private segnalando alle forze dell’ordine presunti contenuti pedopornografici. Ma da 3 aprile 2026, scaduta la norma temporanea, resta il vuoto legislativo con i rischi per i minori. L’Europa sta cercando di colmarlo con il regolamento Csar, Child sexual abuse regulation, proposto dalla Commissione europea nel 2022: una misura definitiva, senza deroghe da rinnovare ogni volta. Ma il pericolo è di violare il diritto alla riservatezza di 450 milioni di europei: dagli attivisti per il diritto alla privacy, il regolamento è stato battezzato come Chat control.
Del resto è stato il Parlamento europeo ad evocare lo spettro della “sorveglianza di massa”, adottando a novembre 2023 il mandato negoziale. Il Consiglio europeo ha impiegato due anni in più, trovando l’intesa a novembre 2025, dopo trattative estenuanti. Ora il trilogo è in corso, avviato con la presidenza cipriota, ma la conclusione non si scorge all’orizzonte, secondo fonti qualificate del Consiglio. Le posizioni del Parlamento e dei 27 Stati appaiono distanti. La frattura è emersa il 16 marzo, con il fallimento del trilogo sulla deroga provvisoria. L’Eurocamera è preoccupata per la riservatezza, il Consiglio Ue per la sicurezza e l’efficacia delle indagini condotte dalle forze dell’ordine, con il supporto delle piattaforme. La prima istituzione vorrebbe escludere dallo “spioncino” dei colossi i servizi di messaggistica con la crittografia end-to-end, invisibili (o quasi) anche per le piattaforme. Il Parlamento ha bocciato controlli indiscriminati su tutti gli utenti, consentendoli solo verso individui “identificati dall’autorità giudiziaria competente”, sui quali si nutrano “ragionevoli” sospetti. Una posizione indigeribile per il Consiglio Ue, favorevole a controlli più stringenti. Al punto da far saltare il trilogo e la deroga per consentire la vigilanza delle piattaforme, contro gli abusi sui minori. Consiglio e Parlamento si sono esercitati nello scaricabarile delle responsabilità. Ma a colmare il vuoto legislativo ci pensano i colossi tecnologici. Ad oggi senza conseguenza alcuna.