Di tanto in tanto si riaccende una vecchia querelle: gli operatori di telecomunicazione sono “neutrali” rispetto a chi vuole accedere ad Internet? C’è chi minaccia questa neutralità adottando tecniche discriminatorie? Come deve evolvere Internet per favorire un crescente benessere economico e sociale e la libertà d’espressione per tutti?

L’antefatto. Lo scorso settembre 2013 la Commissione europea, dopo una lunga elaborazione e ampie consultazioni fra le imprese di settore, avvia una nuova normativa volta a promuovere la crescita dell’economia e la protezione del consumatore attraverso lo sviluppo dei servizi di telecomunicazione che prevede al contempo la salvaguardia della neutralità della rete e l’introduzione di un’importante innovazione – consentire agli operatori europei di introdurre, a fianco dei servizi cosiddetti “best effort”, ossia aperti a tutti in condizioni di parità di trattamento, una nuova categoria di servizi a qualità garantita.

Le polemiche. L’iter della normativa prevede un lungo esame da parte del Parlamento europeo e già si notano le differenze, anche marcate, di opinione. Queste trovano un riflesso nel recente “botta e risposta” fra Stefano Quintarelli, da una parte, e Luigi Gambardella e Gianfranco Ciccarella, dall’altra. Il dibattito è interessante e merita attenzione, non solo per i contenuti ma anche per una certa animosità che traspare evidente. Chi ha ragione?

La Neutralità della Rete è un concetto che da sempre stimola le più radicali passioni ideologiche. Tanto da ingenerare il sospetto che molti abbiano perso di vista come nasce e cosa debba effettivamente significare, senza estremizzazioni, questo importante concetto. Fra gli addetti ai lavori e non solo, si confrontano due approcci che chiamerò l’uno “neutralità in senso stretto” e l’altro “neutralità in senso lato”. I supporter della prima interpretazione sostengono che ogni forma di traffico debba essere trattata allo stesso modo e che debba essere precluso all’operatore di rete ogni intervento volto a stabilire priorità. Quanti, viceversa, aderiscono  alla seconda, ritengono che l’operatore sia tenuto a consentire l’accesso ad Internet in modo non discriminatorio a qualunque servizio, contenuto, utente finale, fornitore di servizi e fornitore di contenuti. Sembrano sfumature, ma non è così: la querelle avviata da Quintarelli ne è chiara riprova.

Uno sguardo alla storia. Cerchiamo allora di capire come nasce e perché la Net Neutrality. In un famoso articolo del 2006 sul Washington Post, intitolato No Tolls on The Internet, Lawrence Lessig e Robert W. McChesney, famosi studiosi della comunicazione e sostenitori della “Net Neutrality in senso stretto” forniscono la loro definizione. Vediamola: “Neutralità della rete significa semplicemente che tutti i tipi di contenuti Internet devono essere trattati allo stesso modo e viaggiano alla stessa velocità sulla rete. I proprietari delle connessioni di Internet non possono operare discriminazioni. Questo è il semplice ma geniale disegno ‘end-to-end’ che ha reso Internet una forza potente per il bene economico e sociale.

Lessing e McChesney richiamano correttamente il postulato “end-to-end” (E2E). È da qui, infatti, che occorre partire, perché è proprio questo concetto a fornire la giustificazione logica alla Net Neutrality, che ne è un corollario. L’E2E stabilisce che le funzioni applicative specifiche dovrebbero risiedere nei nodi terminali (gli host) di una rete piuttosto che nei nodi intermedi (i router), purché possano essere attuate completamente e correttamente negli host. Il concetto è stato formulato nei primi anni 1980 da J.H. Saltzer et al. in un articolo fondamentale dal titolo “End-to-End Arguments in System Design”. Si osservi, tuttavia, che gli autori affermavano che “meccanismi di basso livello per supportare queste funzioni sono giustificate solo come miglioramenti delle prestazioni” e, più avanti, che “talvolta una versione incompleta della funzione fornita dal sistema di comunicazione può essere utile come miglioramento delle prestazioni”. Essi lasciano quindi aperta la possibilità, purché motivata, di eseguire in rete funzioni applicative. Ci si può anche riferire, per una conferma, a D.D. Clark et al. in “Rethinking the design of the Internet: The end to end arguments vs. the brave new world” del 2000 ove il concetto viene espresso con chiarezza anche maggiore: “Naturalmente, l’argomentazione ‘end-to-end’ non rappresenta una scelta assoluta – sostengono gli autori – vi sono funzioni che possono essere attuate solo all’interno della rete, e problemi di efficienza e di prestazioni possono motivare il collocamento di funzionalità in rete.

Ma perché nasce il postulato della E2E? Lo spiegano molto bene sempre Clark e colleghi nell’articolo citato del 2000: spostare le funzioni applicative, ove possibile, al di fuori della rete può comportare chiari vantaggi, fra cui i seguenti: a) la complessità del nucleo di rete è contenuta e questo riduce i costi e facilita i futuri aggiornamenti della rete; b) l’adozione di caratteristiche generali in rete aumenta le probabilità che una nuova applicazione possa essere aggiunta senza dovere cambiare il nucleo della rete; c) le applicazioni non devono dipendere dalla corretta attuazione e dal funzionamento di servizi presenti in rete specifici per le applicazioni e questo può aumentarne l’affidabilità.

È da questo principio, dettato da considerazioni di efficienza, in modo da consentire il rapido sviluppo delle innovazioni, che scaturisce la necessità (pratica) di ricorrere in rete al “best effort” in quanto non si può garantire in assoluto l’assenza di congestioni di traffico. Dal best effort alla neutralità della rete, come parità di trattamento fra i segnali in transito, il passo è breve.

Un mondo che cambia in fretta. Ma “i padri di Internet” si sono dimostrati assai lungimiranti e, a fianco del “best effort”, hanno sempre previsto che “problemi di efficienza e di prestazioni possono motivare il collocamento di funzionalità in rete.” Alle origini, tuttavia, in presenza di soli segnali a banda stretta non si richiedevano speciali trattamenti, salvo quelli dettati da sempre presenti esigenze di gestione della rete.

Con l’avvento dei segnali video a banda sempre più larga (sono in arrivo gli schermi 4k, uno solo dei quali può richiedere oltre 30 Mbit/s) e con il passaggio dall’attuale multicast streaming (diffusione) all’unicast (invio selettivo) richiesto dal servizio di video su domanda, si pongono nuovi problemi legati a
–         crescita esponenziale della banda impegnata,
–         valori molto grandi del fattore di picco (rapporto fra banda all’ora di punta e banda media),
–         valori cospicui del prodotto banda-ritardo (più cresce la banda più piccoli diventano i ritardi accettabili e i server devono avvicinarsi al cliente finale).

Tutto questo, come è ben noto a chi si intende di architetture di rete, determina la necessità di prevedere trattamenti differenziati per assicurare ai clienti un’alta qualità dell’esperienza video (QoE).

In estrema sintesi. Se, però, si torna con attenzione alla definizione originale del principio E2E e delle sue implicazioni sulla Net Neutrality, ci si convince facilmente che la definizione che ho chiamato per comodità “neutralità in senso lato” è l’unica organica ad Internet, perché in accordo con i reali intendimenti dei “padri di Internet”, ed è anche l’unica praticamente realizzabile, in passato come al giorno d’oggi se si ha a cuore lo sviluppo della rete Internet con tutti i benefici per la Società e l’Economia che da essa ci attendiamo. Dunque la Commissione, nel definire il necessario profilo di Internet a qualità garantita non ha violato alcun principio alla base di Internet, ma sta bene operando nell’interesse dei cittadini europei. A noi consumatori non resta che sperare che la nuova normativa superi indenne e in fretta le obiezioni messe in campo.

Articolo Precedente

Crisi editoria, nuova solidarietà e prepensionamenti per il Sole 24 Ore

next
Articolo Successivo

Caso Boldrini-M5S: ‘Lady Ghigliottina’ alla prova di Internet

next