ALLA CONQUISTA DEL WEB
Alessandro D'Aloia
Analogie spaziali
Nella realtà esistono differenti tipi di spazi pubblici. Una piazza è uno spazio pubblico, ma poi c’è anche la strada, o l’autostrada o la ferrovia, o il porto e così via. La piazza e l’autostrada sono entrambi spazi pubblici, ma sono diversi tra loro. La piazza è sempre accessibile a tutti a costo zero, l’autostrada non è accessibile come la piazza. Per prendere l’autostrada si paga un pedaggio e si devono seguire precise regole di fruizione. Ma l’autostrada è ancora diversa dalla ferrovia, che resta accessibile condizionatamente come l’autostrada, ma dove addirittura lo spostamento è subordinato a flussi completamente preordinati dei mezzi, che si rifanno ad una gestione totalmente centralizzata. Si potrebbe anche dire che autostrada e ferrovia sono l’esempio di due nature dello spazio pubblico condizionato, l’una tendenzialmente più “aperta”, l’altra più “chiusa”, senza con questo voler assegnare alla proprietà “aperta-chiusa” necessariamente un’accezione “positiva-negativa”.
Per parlare delle differenze tra tipi di spazio pubblico è dunque necessario capire il modo in cui questi sono gestiti e fatti funzionare, non basta cioè limitarsi alla constatazione della loro natura pubblica. La natura pubblica di uno spazio, di per sé, non dice molto sulla libertà di utilizzarlo.
Nel parlare di internet, in questo articolo, si darà per scontato che esso fondamentalmente vada interpretato come uno spazio, virtuale fino a quanto si vuole, ma in definitiva uno spazio. Si darà altrettanto per scontato, ma con riserva, che si tratti di uno spazio pubblico, perché, come visto, è proprio tale proprietà che richiede di essere approfondita. Ciò che sembra immediatamente chiaro è che tra le tipologie di spazio pubblico, internet non è, al di là delle apparenze, un modello di eccellenza. Se esso in origine è liscio, in concreto è solcato da una serie crescente di striature, al punto da smentire già oggi, a pochi anni dalla sua comparsa, posizioni che gli assegnerebbero costitutivamente un’innata indipendenza[1].
Strutture dell’immateriale
È forse il caso di soffermarsi su alcune banali considerazioni. Internet in qualità di spazio virtuale è attivato e reso possibile da elementi fisici definiti. Esso si basa su una propria infrastruttura materiale. Questa infrastruttura costituisce l’hardware di internet ed è fatta di cavi telefonici, in qualche caso da fibre ottiche, in altri casi da antenne per la trasmissione del segnale wi-fi. Questo insieme di elementi rappresenta la “infrastruttura di connessione” materiale della rete, ma non esaurisce l’hardware di internet. Internet è fatto di dati, di una quantità già enorme e tendenzialmente infinita di dati e per quanto si voglia insinuare la vaporosità del loro alloggio con nomi che evocano, a seconda dei casi, nuvole, cieli ed uccellini, in realtà si tratta di banche dati archiviate su ben gravi hard disk terrestri. Queste “unità di archiviazione di massa”, i provider, non sono per niente pubbliche.
A partire dunque dall’infrastruttura hardware di internet si può distinguere tra quella di “connessione”, la rete vera e propria, e quella di “archiviazione”. La natura “giuridica” di queste due componenti indipendenti può non essere omologa, nel senso che in teoria potrebbero darsi almeno tre combinazioni: privata-privata; pubblica-privata; pubblica-pubblica, se si ammette di non entrare in ulteriori disamine relative, ad esempio, alla gestione delle aziende di telefonia che, in genere, controllano l’infrastruttura di connessione.
Se l’infrastruttura di connessione è una componente tecnica, sostanzialmente neutra dal punto di vista contenutistico, quella di archiviazione non lo è, dal momento che il supporto di archiviazione è un tutt’uno, fisicamente, con il contenuto archiviato. Questo semplice fatto rappresenta un problema sotto una serie di profili. Già nel 1998, S. Rodotà nella sua relazione introduttiva a Il convegno “Internet e privacy - quali regole?”[2] poneva correttamente il problema delle “responsabilità dei provider” e tuttavia ammetteva che essi devono essere deresponsabilizzati rispetto ai contenuti che offrono dal momento che una politica diversa introdurrebbe, in un modo o nell’altro, un troppo forte potere di censura per un servizio che, in definitiva, è privato e non pubblico. Il discorso è del tutto corretto ma solo sul presupposto che i provider siano, appunto, privati, mentre neanche viene presa in considerazione la possibilità che essi, o una parte di essi, possa essere pubblica. È per questo che la conclusione del discorso di Rodotà sull’attualissimo problema, anche giuridico, rappresentato dalla gestione del web, è la necessità di una costituzione per la rete. È però evidente come le costituzioni, per quanto belle, giuste e condivisibili, restino in genere lontanissime dalla possibilità di determinare la natura di ciò che ordinano dal momento che le dinamiche che governano concretamente i fenomeni non sono, per lo più, normative (o giuridiche).
Anche qui come nelle cose del mondo reale, è come se si desse per scontato che lo Stato debba occuparsi delle strade, degli acquedotti, degli elettrodotti e così via, mentre l’offerta, ad esempio, abitativa debba essere affare esclusivamente privato e regolato dal mercato.
In linea teorica però non è detto che lo Stato debba curarsi solo della connessione e non anche dell’archiviazione. In effetti è proprio sul versante dei contenuti e dello spazio fisico ad essi necessario che si aprirebbero tutta una serie di interessanti terreni di dibattito sulla natura e il funzionamento di internet. Da questo punto di vista l’evoluzione della rete oggi assomiglia un po’ al mitico West dei film di genere, quando uno Stato ancora incapace di estendere la propria autorità su un territorio vastissimo lasciava che le cose andassero un po’ come capitava, determinando per difetto una situazione concreta in cui valeva la legge di un’iniziativa per così dire “spontanea”, la quale operava a proprio piacimento fino a prova contraria.
Questa concezione, che per inciso risponde perfettamente alla visione liberista del mondo, determina di fatto una situazione che, vagliata bene, risulta assai paradossale: il settore che più di tutti promette di avere un futuro vede le funzioni pubbliche degli stati relegate in una posizione del tutto marginale.
Gli stati, in effetti, non solo non controllano completamente l’infrastruttura materiale della rete, anche laddove si occupano di una sua parte, ma men che meno hanno un minimo ruolo nella vita del web. Procedendo sempre per analogie si potrebbe infatti dire che se l’infrastruttura materiale fin qui descritta è l’hardware di internet, esso prima di giungere all’utente che lo utilizza, passa attraverso una sorta di “sistema operativo”, rappresentato da ciò che permette l’utilizzo dei contenuti che costituiscono la rete. Si sta parlando dei “motori di ricerca” ma anche del mondo, sempre più affollato, e per molti versi inquietante, delle “applicazioni” chiuse.
Da questo ulteriore livello di osservazione si comprende come la non omologia giuridica delle componenti del web (infrastrutture di connessione e di archiviazione, sistema operativo) vada aumentando il numero delle possibili combinazioni. Da tre possibili combinazioni si passa a nove, con agli estremi le due possibilità opposte: privata-privata-privato; pubblica-pubblica-pubblico.
Aperture e chiusure di Internet
In un recente dibattito[3] sulle mutazioni in corso della rete, sono state apparentemente messe in opposizione due nature di internet, una orizzontale ed utopistica, l’altra verticale e cinica. Per quanto questo tipo di dibattiti possa cogliere lembi di verità, in genere il livello di analisi non permette di andare all’origine dei mutamenti che pur si osservano in superficie. Il viraggio dalla presunta “apertura” originaria alla “chiusura” attuale, per quanto rispondente a dati di fatto, è solo la manifestazione dell’avvenuta conquista attuale del web da parte di grosse multinazionali dell’informatica che al momento sono in grado di determinare monopolisticamente la qualità della navigazione in rete.
Lo “schema Bill Gates”[4] è replicato con successo da qualcuno ogni qual volta l’evolversi generale dell’era informatica, propone un nuovo campo di innovazione. Ed ogni volta l’apertura originaria è ricondotta con successo alla più redditizia chiusura attuale, funzionale ad una schiera di interessi economici molto circoscritta, ma anche sempre molto più adatta ad un utilizzo di massa rispetto alle disorientanti aperture potenziali.
Ora non è neanche il caso di ricordare che il Pubblico è completamente assente su questo versante. A costo di spendere un’ulteriore analogia, è come se nell’etere radio-televisivo, lo Stato dopo aver reso possibile le trasmissioni si astenesse dal teletrasmettere esso stesso. È, insomma, come se non esistesse la televisione e la radio pubblica, ma solo quelle private. Non è certo detto che, ad esempio, una televisione pubblica debba per forza esistere, ma è anche vero che laddove essa esista, possa rappresentare una risorsa economica e culturale per la nazione. Data però la possibilità tecnologica, ad esempio, della teletrasmissione non è neanche detto che debba per forza esistere la teletrasmissione privata.
Di certo non è detto che un’entità privata debba infine avere il ruolo che si ammette possano avere colossi come Google. Si pensi, ad esempio, al fatto che tutta una serie di applicazioni, che richiedono l’autenticazione per l’utilizzo, faccia direttamente riferimento al profilo di Google plus degli utenti. Dal punto di vista dell’utenza la cosa risulta comoda e anche sostanzialmente logica: basta avere un profilo google per poter accedere senza ulteriori password alle altre applicazioni offerte dalla rete. Dal punto di vista formale però è come se per l’utente garantisse Google, ovvero una multinazionale privata che, inavvertitamente, si erge ad “anagrafe della rete”.
Google quale principale motore di ricerca è anche l’ente privato che detiene la maggioranza del tracciamento dei dati di navigazione degli utenti. Se piattaforme come facebook sono sostanzialmente delle “applicazioni chiuse” e possono controllare il traffico e le “azioni” di chi ha un profilo dedicato, Big G (Google) può molto di più. Da un lato conosce cosa fanno gli utenti delle proprie applicazioni come Google plus appunto, dall’altro conosce come e dove navigano gli utenti senza profili, coloro che magari non utilizzano applicazioni o le utilizzano marginalmente esplorando per lo più il mare aperto del web. In sostanza Google ha una visione d’insieme del traffico di internet e per questo motivo essa è, attualmente, il vero “sistema operativo” di internet, ovvero ciò che Windows ha rappresentato e rappresenta per l’universo dei pc dagli anni ‘90 del secolo scorso ad oggi. C’è un’analogia funzionale tra Microsoft e Google anche se apparentemente si tratta di fenomeni informatici all’opposto tra loro. La prima risponde all’immagine del “genio” individuale di Bill Gates che ha fondato tutto sulla proprietà intellettuale della “sua” creatura, la seconda sul carattere meno personalistico dell’azienda (i fondatori sono due: Larry Page e Sergey Brin), che si ammanta di democraticismo tecnologico (la migliore tecnologia per tutti) “offrendo” gratuitamente tutta un pacchetto informatico che nessun altro è in grado di elargire e dichiarando ambizioni da general intellect informatico dell’epoca attuale[5].
Ere informatiche
È giusto il caso di aprire una parentesi sul fatto che la “questione internet” è un fenomeno particolare della più generale “questione informatica” e nonostante l’apparente equilibrio delle “quote di mercato”, con ognuna delle grandi corporation dell’informatica che si è ritagliata una propria rassicurante fetta di rendita permanente, corrispondente ad un determinato settore, esiste sin dall’alba dell’era informatica una critica serrata all’origine delle sue distorsioni. Per inciso le distorsioni sono normali nel senso che non sono ovviamente percepite come tali.
Ma basta fare riferimento, per esempio, alle gesta e al pensiero dell’anti-Gates per eccellenza dell’informatica, Richard Stallman[6], per capire come fosse chiara sin da subito la direzione in cui si sarebbe evoluta l’informatica dal momento che, come per tutto il resto dei fenomeni capitalistici, si fosse immolata all’assioma della proprietà privata. L’informatica sa sin dall’inizio di aver scelto un sentiero di sviluppo tra gli altri e non l’unico possibile. C’è però un problema ed esso è rappresentato dal fatto che l’informatica non è più, se lo è mai stata, un sapere tra gli altri, ma uno strumento che, reso ancora più potente da internet, attiene direttamente alla cultura umana in senso lato, costituendo ad un tempo il formarsi e il trasmettersi, se si vuole il rappresentarsi, della cultura globale. In altre parole l’informatica attiene una materia così vasta e generale, davvero un bene comune inequivocabile, da non potersi, per natura, contenere in nessun vincolo di tipo proprietario. Internet è ormai l’incubatore culturale mondiale. Il general intellect passa da internet e qui prende forma. Mettere licenze su questo o quel codice software è come voler mettere licenze sulle lingue, su espressioni e modi di comunicare. Lo schema di un’informatica proprietaria non potrà reggere davvero a lungo.
Ed infatti Google è già un esempio di software house (perché di questo si tratta) che ha introiettato il concetto secondo il quale il futuro del business informatico non è nella vendita del software.
Tuttavia l’esistenza stessa di Google dimostra come il nodo di fondo non sia tanto nella proprietà dei codici, i quali possono anche essere privati e gratuiti, ma, come sostiene Stallman, nella possibilità di modificarli. Da questo punto di vista tra Google e Microsoft non c’è molta differenza.
Anzi è facile capire come proprio l’ascesa sempre più evidente delle cosiddette “applicazioni” altro non sia che la tendenza alla liberalizzazione del software proprietario, gratuitamente scaricabile ed utilizzabile, ma per niente flessibile ed adattabile, finalizzato alla creazione di una massa di consumatori di tecnologia, secondo il comandamento: “Potrai avere tutto ciò che vuoi, ma sarò io a fornirtelo”. Si tratta già di una sorta di ritorno all’origine, quando le case produttrici di hardware regalavano il software pur di vendere le loro macchine[7], qui è soltanto un po’ diverso.
Il problema è che, a differenza dell’immagine fortemente individualista e proprietaria dei prodotti software dell’era pre-internet, con l’avvento della rete domina un’aura da “nuova era” a prescindere dalla vera natura dei prodotti che internet veicola. Le vere motivazioni sono più indirette, più difficili da svelare e regna un entusiasmo generale per qualsiasi nuova trovata dal sapore tecnologico. Molto probabilmente è per questo motivo che internet non ha ancora conosciuto un vero movimento di liberazione, almeno paragonabile alla reazione hacker che si ebbe al monopolio gatesiano sull’informatica da pc, reazione che comunque dagli anni ‘90 del secolo scorso ad oggi ha trovato una sua consolidata funzione sulla scena mondiale del software[8].
Si è dovuto attendere il 2011, con le rivolte in Maghreb e il movimento Occupy Wall Street, per sentir parlare della possibilità di un free internet e della cosiddetta freedom tower, nome, per la verità, un po’ altisonante per un palo tubolare in acciaio (tipo segnaletica stradale) a supporto di un paio di modem e una mezza dozzina di antenne radio sulla cima, messa a punto da Isaac Wilder e Charles Wyble, al fine di dotare Zuccotti Park di connessione internet durante il periodo dell’occupazione. Comunque è il concetto che interessa. I due fondatori della Free Network Foundation, propongono la creazione di una rete internet parallela, completamente indipendente, basata sul concetto di rete mesh. Le reti mesh collegano più nodi della rete a un singolo punto di accesso Internet. Bisogna pensare al sistema peer to peer usato per la condivisione di file da programmi come e-mule o BitTorrent, ma applicato alle connessioni fisiche alla rete. Si tratta di singoli computer in rete, facenti capo, singolarmente o in gruppo, ad un’antenna tipo freedom tower la quale agisce da ponte di connessione tra i diversi computer, in grado perciò di passarsi le informazioni tra loro, tra cui anche la connessione ad internet della fonte e cioè dell’unico computer connesso tradizionalmente alla rete. In questo modo, molti pc possono condividere un singolo punto di accesso.
Le reti mesh sono considerate, per il funzionamento descritto, più sicure rispetto alle connessioni tradizionali. Due computer collegati alla stessa rete mesh sono in grado di comunicare direttamente, invece di inviare i loro messaggi tramite un server remoto, dove possono teoricamente essere intercettati o bloccati. Un modo per sfuggire anche a eventuali censure o a indesiderati controlli da parte delle autorità[9].
È anche chiaro che in questo modo i costi per l’accesso ad internet sarebbero fortemente ridimensionati, anche se è necessario sottolineare come il problema del costo di connessione dovrebbe essere ritenuto secondario rispetto alla possibilità di utilizzare internet non solo attraverso applicazioni chiuse controllate dalle grosse aziende informatiche.
La questione specifica del costo di connessione andrebbe risolta in tutt’altro modo. Partendo dal presupposto che se nessuno avesse accesso ad internet nessuna Big G, nessun facebook etc. potrebbe tesaurizzare un bel niente, è chiaro che i costi materiali di connessione dovrebbero essere sostenuti da chi guadagna dall’infrastruttura e non da chi vi immette il valore. Per dirla in parole povere Telecom&C. dovrebbe farsi pagare da Google&C. e non dai singoli utenti che già sostengono la rete con un numero copioso e crescente di ore quotidiane passate a navigare, ma tutto questo non è nemmeno pensabile senza una coscienza critica di internet e senza uno straccio di politiche pubbliche sul tema. Non è che l’utente medio non abbia vantaggi dal semplice utilizzo di internet, ma questi, ammesso che esistano, sono indiretti, culturali, informativi, mai economici.
In ogni caso, per tornare al nodo del discorso, il concetto della rete mesh è interessante e già operante, in altre forme, in alcune applicazioni come e-mule, dove la connessione ad un server è funzionale a creare collegamenti diretti tra tutti i pc collegati, ognuno dei quali ha la funzione di provider dei propri contenuti per il tempo in cui resta collegato ad internet tramite l’applicazione, allo scopo di scambiare file peer to peer.
Ora immaginare però, con Isaac Wilder, un globo terrestre ricoperto di freedom tower è un po’ arduo e forse sono possibili altre soluzioni tecniche, magari anche solo software.
La questione però non è esclusivamente tecnica, ma sostanzialmente politica. Una free internet non dovrebbe configurarsi come un’isola esterna alla rete esistente, ma dovrebbe essere una modalità interna alla medesima rete, una possibilità concreta di poter fruire della rete esistente in modo diverso, fusa alla la rete e non ad essa parallela. Inoltre non è nemmeno possibile pensare di poter separare i discorsi sulla qualità di internet da quelli sulla qualità dell’informatica. Anche qui, come Stallman sostiene, la libertà in internet è condizionata dalla natura del software che si utilizza in rete.
Oscure contraddizioni attuali
Questo tipo di disquisizioni hanno in realtà la funzione di svelare il limite dei discorsi puramente tecnici su internet per cercare di fornire una dimensione politica alle possibilità offerte dalla tecnologia. È come se solo la volontà politica potesse anticipare le soluzioni tecnologiche e di conseguenza indirizzarle per il verso giusto. Di fatto la rete esiste già. Essa è un risultato dell’applicazione delle tecnologie attuali in un preciso contesto socio-politico, se si vuole “culturale”, che come visto combina in un certo modo le componenti del sistema descritto secondo una sequenza di nature giuridiche che nel migliore dei casi riescono ad essere pubbliche (connessione)-private (archiviazione)-private (informatizzazione). È in questo contesto che internet è divenuta, secondo Stallman un “luogo virtuale sostanzialmente privo di diritti civili, altrimenti esistenti nel mondo reale”[10].
Questo schema attuale comincia a risultare già stretto per alcuni Stati. La prova n’è data dalle recenti vicende sul data-gate comprese le ultime propaggini, in ordine di tempo, del cosiddetto “caso Durov”[11], che si riportano perché esemplificative della lotta in corso, e anticipatrici, dell’inevitabile e crescente conflitto tra le autorità di tipo statale e il potere privato delle multinazionali della comunicazione globale.
Un membro del Consiglio Federale Russo, tale Ruslan Gattarov, ha dichiarato nell’estate del 2013 appena scorsa: «Snowden ci ha insegnato una lezione. Abbiamo l’urgente bisogno di mettere sotto controllo nazionale grandi compagnie come Google, Microsoft e facebook». Andrei Soldatov, giornalista investigativo che ha documentato in modo esteso le mosse degli uomini dell’fsb, il corpo di intelligence figlio del kgb sovietico, spiega: «È almeno dal 1995 che i nostri servizi segreti tengono d’occhio Internet. Ma nel dicembre 2011 si sono scoperti incapaci di reprimere le proteste. Da qui il bisogno di recuperare sul piano delle competenze informatiche. È stato così che l’fsb ha iniziato ad approcciare le maggiori imprese digitali, chiedendo: “Vuoi fare affari nel più grande mercato digitale d’Europa? Bene: devi essere disponibile a passarci i tuoi dispositivi e i tuoi codici di crittografia”»[12].
La vicenda pur avendo un sapore d’altri tempi, rivela, in verità, la lenta presa di coscienza da parte di settori specifici dei poteri statali del proprio gap tecnologico in campo di comunicazione globale e in campo di politiche pubbliche su internet, rispetto agli eventi. È il sintomo di un modo completamente distorto di considerare il ruolo statale in questioni inerenti internet, ma anche la dimostrazione che, in qualche malo modo, si comincia a mettere in discussione lo strapotere dei privati in un settore che risulta, non più solo essere, ma anche considerato, strategico per le politiche future.
A ben vedere il problema della censura o del controllo su internet riguarda il livello dei contenuti. È come se il potere politico non potesse più tollerare la completa liberalizzazione dei dati. Si pone cioè una questione che investe in pieno il livello “archiviazione”, il ruolo cioè dei provider e, laddove tale livello non risulti territorialmente controllabile, anche quello operativo di gestione del flusso di dati, il quale implica accordi e transazioni con le corporation di internet.
Si diceva la rete esiste già. Prima o poi se ne accorgerà, in modo generalizzato, anche il potere politico e dai prodromi del potenziale conflitto pubblico-privato su questo terreno non sembra possa venirne granché di buono per internet in generale e i suoi utenti in particolare. Verrebbe quasi la voglia di unirsi all’auspicio rodotiano della necessità di una costituzione per internet, anche se riesce davvero difficile immaginare una internet non-pubblica che si dota di una propria costituzione capace di tutelare gli interessi dei più deboli in questo scenario.
Tuttavia molto più probabilmente una vera guerra non ci sarà e si troveranno degli accordi vantaggiosi per i contendenti ovviamente a scapito delle popolazioni-utenti.
In effetti il dato di fondo è che Google non è solo una multinazionale della comunicazione telematica ma è, in prospettiva, ciò che gli Stati nazionali e le organizzazioni sovranazionali non potranno mai essere: l’ufficio anagrafe dello Stato globale postmoderno. In effetti la metafora, se di questo si trattasse, calza a pennello. Cosa c’è di più postmoderno e neoliberista di uno Stato fondato sulla tecnologia (informatica), privo di ideologia (amico di tutti e alleato con tutti gli stati), quotato in borsa, planetario, compiutamente de-territorializzato come la sua economia e intimamente privato? La fornitrice del “sistema operativo” di internet è l’unica organizzazione aziendale sovranazionale a cui di fatto partecipa la popolazione mondiale e di cui questa si sente davvero parte. Un’organizzazione di controllo informatizzato basata sul consenso dei suoi aderenti (e proseliti). Sarebbe fin troppo semplice, a questo punto, prefigurare uno scenario in cui lo stato globale privato e post-moderno esautora gli stati territoriali pubblici ereditati dalla modernità, ma dal momento che il capitalismo procede per integrazione e non per sostituzione è più corretto prefigurarsi un sistema integrato, appunto, di controllo statale pubblico-privato, in cui l’informatica entra quale soluzione tecnica a complemento degli apparati statali locali, integrandone le funzioni extraterritoriali e sovranazionali e migliorando le funzioni statali locali. Perché dismettere gli Stati nazionali quando è possibile integrarne le funzioni ad un livello superiore, sulla base tecnica di un consenso di massa senza confini territoriali?
Infondo l’avvento di internet non ha cancellato la realtà fisica, le ha solo strappato la scena. I territori resistono ancora con le loro irriducibili singolarità. Anche internet ha una sua geografia, non fosse altro per la questione delle lingue nazionali. E anche i flussi di dati devono seguire direzioni e diramazioni imposte dalla geografia del globo e dai vincoli di prossimità dei nodi, cosa che rende intimamente interdipendenti le funzioni territoriali e quelle sovra-territoriali.
Virtuosità virtuale
Al di là però dei caratteri specifici e differenziati di una possibile dialettica tra stati e gestori di internet, variabile dalla guerra all’accordo, l’unica prospettiva sensata e del tutto praticabile, almeno teoricamente, sembra quella di un graduale, ma sistematico e cosciente, recupero da parte delle politiche pubbliche sul terreno perso nei confronti dei privati in questi primi decenni di sostanziale “anarchia” informatica. Questo recupero del gap informatico si impone agli stati se non vogliono essere completamente svantaggiati nella dialettica con i governatorati privati di internet. Già in qualche settore statale di alcuni paesi (Venezuela, Equador, Kerala in India) si è deciso, anche per una questione economica, di servirsi esclusivamente, per tutto ciò che riguardava le commesse pubbliche, di software non soggetto a copyright. Si tratta di una prima presa di coscienza in questioni di informatica, anche se ancora lontana da ciò che potrebbe intendersi una matura politica informatica statale.
Cosa può significare adottare una politica informatica pubblica? Potrebbe significare molte cose.
Si faccia, ad esempio, l’ipotesi di uno Stato illuminato che decida di investire in infrastrutture di connessione a base di fibre ottiche, o di quanto di più avanzato è disponibile in materia, e in servizi di provider pubblici a disposizione tanto delle proprie istituzioni quanto dei privati, enti o persone fisiche.
La prima conseguenza sarebbe la grande efficienza della rete internet statale. La seconda conseguenza sarebbe la possibilità del controllo pubblico dei dati archiviati. Questo non è da intendersi come possibilità di censura, ma come possibilità di stabilire quali tipi di contenuti non possano essere ospitati sui server pubblici (ad esempio quelli pornografici, razzisti e così via). La terza conseguenza sarebbe che i dati che viaggiano sulla rete pubblica non possano essere oggetto di scambi illeciti tra entità non statali e che non rispondono perciò all’utenza, intesa come cittadinanza. La quarta conseguenza sarebbe che uno stato così lungimirante capirebbe la necessità di assumersi anche la responsabilità di permettere l’utilizzo della sua rete, sia dal punto di vista del sistema operativo (motore di ricerca), sia dal punto di vista dell’offerta di servizi istituzionali, centralizzandone il controllo e normandone gli standard minimi di qualità, con questo mirando a rompere il monopolio privato del controllo di internet. A questo punto esiterebbe una porzione di rete internet controllata dallo Stato a tutti i livelli e non autoritariamente o a mezzo di compromessi con le multinazionali private (schema Putin), ma di diritto, da titolare pubblico.
In uno scenario di questo tipo non sarebbe per niente difficile immaginare internet priva di pubblicità, di spam, di pop-out, di campagne di marketing, con connessioni molto più veloci e fluide, a prezzi molto più convenienti, con circolazione sicura di dati e controllo pubblico dei contenuti, con una forte impostazione al valore d’uso. Lo Stato, o gli stati, avrebbero delle loro politiche informatiche, un ministero dedicato, dipartimenti di programmazione open source e prospettive reali di sburocratizzazione, oltre che di implementazione di pratiche partecipative ad integrazione del proprio concetto di democrazia statale[13].
Si potrebbe de-specializzare l’informatica facendone davvero una materia di insegnamento tra le fondamentali al fine, tra gli altri, della costruzione di una consapevolezza sociale adeguata ai cambiamenti, anche culturali, che internet pone e porrà con sempre maggiore impeto. Da questo punto di vista è come se internet stesse qui a ricordare all’uomo l’inadeguatezza della sua politica, della sua cultura (e ovviamente della sua economia) nei confronti della propria tecnologia.
Di tutto questo però non si avrà sentore almeno fino a quanto, ad esempio, gli attuali laureati in informatica non avranno prospettive professionali diverse dal progettare siti per aziende private nella speranza di andare a lavorare per qualche multinazionale dell’informatica e fino a quando la cultura media dell’utente internet sarà informata al download di sempre più numerose applicazioni funzionali all’upload di sempre più informazioni su se stessi.
APRILE 2014
[1] «Internet, il più grande spazio pubblico che l’umanità abbia conosciuto, la rete che avvolge l’intero pianeta, non ha sovrano». John Perry Barlow, Dichiarazione d’indipendenza del Cyberspazio, 1996.
[2] Leggibile al seguente link: http://www.interlex.it/675/rodotint.htm#top.
[3]
Chris Anderson, direttore di Wired: «Ti svegli e controlli la
posta sull’iPad, con un’applicazione. Mentre fai colazione ti
fai un giro su Facebook, su Twitter e sul New York Times, e sono
altre tre applicazioni. Mentre vai in ufficio, ascolti un
podcast dal tuo smartphone. Un’altra applicazione. Al lavoro,
leggi i feed RSS e parli con i tuoi contatti su Skype. Altre
applicazioni. Alla fine della giornata, quando sei di nuovo a
casa, ascolti musica su Pandora, giochi con
Michael Wolff, editorialista di Vanity Fair: «Se stiamo abbandonando la logica del web aperto e orizzontale, è almeno in parte per l’ascesa degli uomini d’affari, che pensano quasi esclusivamente in termini di tutto o niente: molto più simili alle logiche verticali dei media tradizionali piuttosto che a quelle utopiche e collettivistiche del web. Si tratta del risultato di un’idea ben precisa, che rigetta l’etica del web, la sua tecnologia e i suoi modelli di business».
Passaggi tratti da: Il web è morto, dice Wired, http://www.ilpost.it/2010/08/17/il-web-e-morto-dice-wired/.
[4] Vale a dire quello per cui qualcuno, imponendo un vincolo proprietario su una cultura informatica di pubblico dominio, tesaurizza il potenziale economico insito nell’innovazione tecnologica.
[5] Si pensi ai progetti, poi sospesi, come Google Books, ma anche Google Earth, Street View, e dei software free, almeno nei livelli di ingresso, che servono per creare ed utilizzare parte delle applicazioni dedicate. Google e la serie delle sue applicazioni costituiscono, al momento l’unico tentativo complessivo di “digitalizzazione del mondo”, o anche di “virtualizzazione del reale”. Non è da biasimare che ci sia questo tentativo, ma si rileva come si tratti di ambizioni che dovrebbero appartenere agli Stati piuttosto che ad un’azienda privata, oltre al fatto che tali ambizioni “culturali” velano tanto più efficacemente fini di tipo non-culturale.
[6] Informatico del mit, che sin dal 1983 ha lavorato al progetto gnu con il fine di creare un sistema operativo libero ed utilizzato effettivamente per l’implementazione del sistema operativo open source Linux. Fondatore, nel 1985, del Free Software Foundation (fsf) e ispiratore dei concetti di copyleft e della gpl (General Public License). Si oppone da sempre al software “chiuso”, che non risulta modificabile dall’utente. È il principale riferimento della cultura hacker.
[7] «Prima dell’avvento del personal computer il software si regalava in quanto le case produttrici ricavavano profitti altissimi vendendo l’hardware e non vi era un’accanita concorrenza tra le aziende produttrici di software. Sommato a tutto questo c’era anche il fatto che vi era un rapporto inscindibile tra cliente-fornitore, dati i costi era praticamente impossibile cambiare il fornitore, ed i computer erano utilizzati da esperti, essi stessi programmatori, che realizzavano da soli ciò che gli serviva. I software erano perciò considerati degli accessori delle macchine. È interessante osservare che l’ibm è l’azienda leader dei computer possedendo il 70% del mercato. La sua politica interna è orientata verso la non brevettabilità del software, tale convinzione era largamente appoggiata dagli altri costruttori di computer», S. Marangoni, Software da ieri ad oggi, leggibile al seguente link:
http://www.hackerart.org/corsi/aba02/marangoni/softwareierioggi.htm#Top.
[8] Il sistema operativo Linux rappresenta almeno il 20% del “mercato” mondiale e la presenza dei software open-source genera un certo effetto calmierante rispetto al monopolio dei software proprietari.
[9] Informazioni tratte dal seguente articolo: C. Leonardi, L’Internet alternativa degli occupanti di Wall Street, http://www.lastampa.it/2011/11/16/tecnologia/linternet-alternativa-degli-occupanti-di-wall-street-nG7kY5hOwpAROMILcVuagK/pagina.html
[10] Fonte: http://it.wikipedia.org/wiki/Richard_Stallman, in cui è sintetizzato il senso generale di un articolo di Stallman uscito su «The Guardian» del 17 dicembre 2010 e intitolato The Anonymous WikiLeaks protests are a mass demo against control , nel quale l’autore fa una puntuale disamina dei diritti civili che il cittadino lascia per strada passando dalla dimensione “reale” a quella “virtuale”.
[11] Ceo e fondatore, ora dimissionario, della «Vkontakte», il facebook russo, nonché più grande social d’Europa per numero di utenti.
[12] Informazioni tratte da: D. Belleri, Il caso Durov è solo l’inizio dell’attacco alla rete di Mosca,
http://www.wired.it/attualita/politica/2014/04/23/internet-russia-putin-mosca/.
[13] Per inciso, se uno scenario di questo tipo è considerato utopistico allora è utopistico anche parlare di “democrazia in rete”, dal momento che se i dati informatizzati non sono soggetti a controllo pubblico, non è certo conveniente trasformare il voto politico in un “dato informatizzato”.