Perchè abbiamo bisogno di una rete aperta per produrre innovazione

innovaizone

Sembrerebbe una contraddizione quella che emerge accostando le due tendenze di cui si discute in questi anni a proposito della rete Internet: da un lato le preoccupazioni per una rete sempre più centralizzata e meno distribuita, dall’altro il concetto più sofisticato di frammentazione, ovvero una rete Internet che si sta sgretolando in tante parti poco connesse tra loro. E invece sono due facce dello stesso problema, e riguardano un insieme di mutazioni dell’architettura stessa della rete verso qualcosa di diverso dalla sua natura iniziale.

Credits: www.micheleangeletti.it

Il dibattito prosegue senza sosta da alcuni anni e sebbene non sia motivo sufficiente per fare allarmismo è uno dei temi più complessi e irrisolti della futura società digitale, con implicazioni etiche, geografiche e politiche.

Una vera e propria crisi di crescita che la rete Internet sta subendo all’alba dei suoi quarant’anni (trenta in Italia) e la cui via d’uscita solo la storia potrà mostrarci.

L’occasione per queste riflessioni viene da un importante contributo che è stato presentato in occasione del recente World Economic Forum e che porta la firma di William Drake, Vinton Cerf e Wolfgang Kleinwächter (sì: il secondo è proprio lui, quel signore con la barba bianca a cui dobbiamo il protocollo TCP/IP e che riconosciamo come uno dei padri della Rete). Si tratta di un prezioso documento intitolato “Internet Fragmentation: An Overview“, che contiene per la prima volta una panoramica e una sistematizzazione di tutti quei processi tecnologici e storici, diversi tra loro, che contribuiscono alla cosiddetta frammentazione della rete.

1. La centralizzazione

Facciamo un passo indietro e andiamo con ordine. Il dibattito sulle mutazioni della rete nasce circa nel 2007, quando l’avvento rivoluzionario dell’iPhone allarma molti osservatori per l’inedita natura chiusa di questo e di dispositivi simili le cui funzionalità sono volutamente limitate e decise dal produttore che si riserva di modificarle, anche in senso limitativo, persino successivamente alla vendita. E questo grazie ad un meccanismo di centralizzazione che trasforma parte del “prodotto” iPhone in un “servizio” iPhone.

Proprio in quegli anni, dal 2006 in poi, stava diventando popolare il concetto di “cloud” grazie ad Amazon EC2. Ma il 2007 è anche l’anno dell’esplosione di Facebook, che comincia a minacciare in chiave altrettanto centralizzata alcuni pilastri della Rete così come era conosciuta fino ad allora: dai forum tematici ai blog, dalla messaggistica istantanea fino alla stessa e-mail.

Tutte tecnologie nate per essere distribuite, sia tecnicamente sia geograficamente, iniziavano invece a cedere quote di utenti in favore del sistema chiuso e proprietario di una singola azienda privata, ovvero Facebook, che (ricordiamolo serenamente) detiene i dati e la facoltà di accendere e spegnere il servizio a proprio piacimento, e accentra tutto il suo traffico verso singoli nodi che diventano così molto più critici di tutti gli altri. Con tanti vantaggi di semplicità d’uso per gli utenti, beninteso.

Ma non dimentichiamo che il 2007 segnò anche l’avvento di GMail, ovvero di un unico grande server cloud che oggi ha in mano un miliardo di caselle e-mail su circa tre miliardi di utenti della rete: non esattamente un modello di distribuzione, ma ancora una volta un grande fattore di centralizzazione per quella rete che invece era nata come piattaforma di interconnessione di tanti nodi uguali tra loro, che si scambiavano traffico da punto a punto distribuendolo in pacchetti per superare meglio i colli di bottiglia e i guasti localizzati (a proposito, qualcuno ricorda gli anni, ormai culturalmente lontanissimi, in cui al contrario sembrava che tutto sarebbe diventato peer-to-peer?).

I grandi padri della rete, da Vint Cerf a Jon Postel, da Tim Berners-Lee ai mille altri, furono tali perché inventarono dei protocolli, non dei servizi: definirono cioè dei codici condivisi attraverso cui dispositivi lontani, di diversa natura, di qualsiasi marca, senza bisogno di approvazione, senza autorità o controllori, potessero comunicare tra loro (RFC1958). I “forum” di tanti anni fa si chiamavano newsgroup, e grazie ad un protocollo ogni singolo messaggio era distribuito su tanti server in modo che nessuno ne avesse il controllo centralizzato. Ma torniamo a noi.

Qualcosa stava chiaramente cambiando in quegli anni. In un famoso libro del 2008 intitolato “The Future of Internet and How to Stop It” , Jonathan Zittrain rileggeva l’evoluzione delle tecnologie secondo la chiave della “generatività“, ovvero della capacità di stimolare innovazione spontanea e distribuita (il noto slogan, un po’ svuotato, di “innovare senza chiedere il permesso”), e questo spiegava sia il successo della rete Internet rispetto alle altre reti commerciali che esistevano negli anni ’90 sia le ricadute positive della stessa Internet sulla società come motore di innovazione. Partendo proprio da iPhone e cloud e passando per le politiche di sicurezza dei governi Zittrain fu uno dei primi a ravvisare un potenziale cambiamento di direzione verso una rete più addomesticata, compartimentata, regolata, sicura, persino più facile da usare, ma meno “generativa” ovvero meno adatta ad innovare perché più rigida.

Un’altra voce importante che non ha mai smesso di puntare il dito contro le tendenze centralizzatrici è quella di Tim Berners-Lee, ovvero colui che immaginò la cosa forse più decentralizzata che si potesse pensare: il World Wide Web, la ragnatela di pagine ipertestuali che di link in link rimandano l’una all’altra. E proprio su questa decentralizzazione si sarebbero dovute basare alcune tecnologie visionarie e innovative come il Semantic Web o la stessa Internet of Things (IoT). Ma le cose andarono diversamente, e oggi IoT è sempre più distante dalla visione iniziale, forse utopica, di una rete di cose che comunicano realmente tra di loro anziché con un servizio cloud remoto.

2. La frammentazione

Sarebbe facile ridurre tutto ad una tendenza centralizzatrice dettata da interessi commerciali; in realtà i fenomeni in atto sono tanti e non necessariamente devono procurare allarmismo: la rete continua ad essere stabile ed aperta, ma rischia di rallentare i suoi effetti innovatori o di essere meno robusta di come era stata concepita in origine.

Per vari motivi l‘architettura “aperta” fatta di nodi paritetici e di libera circolazione dei dati si sta frammentando in più isole quasi indipendenti con limitate interconnessioni tra di loro. Ciò avviene a causa di diversi processi spinti dallo sviluppo tecnologico, politiche governative e pratiche commerciali, che stanno cambiando la rete nella sua infrastruttura fino alle applicazioni e ai contenuti delle comunicazioni, creando barriere, strettoie e passaggi obbligati.

Non tutte le limitazioni al traffico sono negative; ad esempio un firewall o un ad-blocker agiscono con il consenso dell’utente e nel suo interesse. Ma tra questi casi e quelli opposti, chiaramente negativi, come la censura o le intercettazioni esiste un’ampia gamma di casi intermedi che non destano in sé troppa preoccupazione ma che stanno cambiando, con effetti non virtuosi, la forma della rete, il nostro modo di usarla e la nostra stessa percezione di essa.

È per questo che la frammentazione va conosciuta e monitorata. Il documento di Drake, Cerf e Kleinwächter sopra citato individua 28 fenomeni che in un modo o nell’altro producono frammentazione, raggruppandoli in categorie.

La prima categoria racchiude fenomeni e mutazioni di natura tecnica, ovvero nati per risolvere problemi o soddisfare specifiche necessità ma che come effetto collaterale riducono l’interoperabilità dei sistemi e la libera circolazione dei dati. Tra questi ci sono tecniche come il NAT e le VPN, che creano topologie artificiali “nascondendo” interi pezzi di rete, ma anche la difficoltosa transizione a IPv6 che sta producendo di fatto una seconda Internet parallela. Vi sono poi gli errori di routing, frutto di vulnerabilità, superficialità o attacchi; ma anche gli errori e le incompatibilità seguite all’introduzione dei domini IDN (quelli con alfabeti non latini, per intenderci) e dei nuovi gTLD che in molti casi nascono apposta per facilitare i filtri.

Altra causa di frammentazione è TOR, il “dark web” che volutamente si sovrappone al WWW creando una sua topologia inafferrabile e nascosta al resto della rete. Rientrano infine in questa categoria di fenomeni di frammentazione di natura tecnica tutti i rischi connessi all’esistenza di alcuni nodi di rete critici come i root server DNS o le certification authorithy che hanno valore finché esiste una catena di trust condivisa da tutti, ma che chiunque in teoria potrebbe replicare in parallelo.

La seconda categoria di frammentazione è quella più nota, ovvero quella legata alle politiche governative che tendono sempre più a nazionalizzare le reti applicando blocchi o limitazioni allo scambio di dati con altre nazioni. Rientrano in questo ambito le politiche di censura, come ad esempio il governo cinese che blocca Google e Facebook ma anche i governi europei che bloccano l’accesso a siti pedopornografici stranieri o i siti di streaming delle partite di calcio. Vi sono poi tutti i provvedimenti legati a specifici contenuti (“questo video non è disponibile nel tuo Paese”), frutto di accordi con i grandi content provider. E infine vi sono le politiche che tendono a mantenere il traffico dei dati all’interno dei confini nazionali, forzando magari percorsi non ottimali che i robusti protocolli di rete non avrebbero scelto.

Vi è infine una terza categoria, che è quella delle scelte commerciali e strategiche dei grandi operatori. Qui rientrano anzitutto i cosiddetti “walled garden“, ovvero quelle piattaforme chiuse che mantengono i contenuti all’interno del proprio sistema: ad esempio Facebook i cui contenuti non sono indicizzabili dai motori di ricerca e anzi richiedono il login da parte degli utenti; altre piattaforme richiedono addirittura l’uso di una specifica app (esempio: Whatsapp). Nell’ambito di queste piattaforme i comportamenti degli utenti non derivano da protocolli o best practice condivise (come nel resto della rete), ma dai Terms of Service. Tra le scelte commerciali degli operatori vi sono anche le politiche di interconnessione tra reti, non sempre ispirate a principi puramente tecnici; il caso del depeering di Telecom Italia mostra come per scelte aziendali di altra natura si finisca per indebolire la rete con svantaggi per tutti. Infine rientrano in questa categoria tutte le pratiche contrarie alla cosiddetta “net neutrality”, ovvero la differenziazione e la prioritizzazione del traffico in base al tipo di contenuto veicolato.

In conclusione, il documento di Drake, Cerf e Kleinwächter è un importante contributo per il futuro perché ha il pregio di offrire una panoramica ampia e ben ordinata, istruttiva e comprensibile anche ai policy maker. La consapevolezza di questi fenomeni, solo in apparenza prettamente tecnici, è alla base di scelte di lungo periodo che aiutino Internet a rimanere quel grande motore di innovazione e progresso che è stata fino ad oggi proprio grazie alle sue caratteristiche intrinseche. Non basta una rete; serve una rete sana e aperta.

@alranel

Originariamente pubblicato su chefuturo.it

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

What do you think?

Scritto da chef

innovaizone

Ecco tre donne pioniere di Internet in Italia (ma sono di più)

innovaizone

La cybersecurity è un mercato che vale oro ; VINCENZO TIANI