Un luddista: «E ho trovato l’invasore» – 3/7

Un luddista si dondolava sopra un filo di ragnatela

riflessioni su opensource, creative commons e sul capitalismo della sorveglianza

di jolek78


Capitolo 2 – E ho trovato l’invasore

La mia capretta

“Il capo del gabinetto della Casa Bianca entrò nell’aula e disse a Bush ‘la nazione è stata attaccata’. Non sapendo cosa fare, non essendoci nessuno che gli suggerisse cosa fare, e visto che gli uomini dei servizi segreti non lo stavano prelevando di peso per trasferirlo in un luogo sicuro, Bush non si scompose, e continuò a leggere ‘la mia capretta’ insieme ai bambini”

Così Michael Moore, regista del film “Fahrenheit 9/11”, descrive la reazione (*1) dell’allora presidente degli Stati Uniti George W. Bush nel momento in cui, quell’11 settembre del 2001, ricevette la notizia dell’attacco alle Torri Gemelle. Per ironia della storia, i 19 attentatori appartenevano ad un movimento fondamentalista islamico conosciuto col nome di Al Quaeda (*2) che, nel 1988, era stato finanziato direttamente dal governo degli Stati Uniti per contrastare l’invasione sovietica in Afghanistan. In una intervista rilasciata al National Geographic (*3) 10 anni dopo, Bush dichiarò di non aver immediatamente lasciato la scuola per evitare reazioni di panico nei bambini e per mostrare che la nazione rimaneva forte anche in situazione di pericolo. Criticabile, giusto, ma noi al suo posto cosa avremmo fatto? Come avremmo reagito in una situazione simile?

Se la risposta rimane aperta per molti cittadini rimasti esterrefatti dagli errori compiuti in quel tragico giorno, di certo non rimane aperta quella che diedero i servizi segreti statunitensi all’indomani dell’11/9. Grazie all’introduzione di una nuova legge federale denominata Patriot Act (*4), CIA ed FBI ebbero l’autorizzazione ad intensificare i controlli di massa allo scopo di prevenire un nuovo attacco terroristico. Questa legge infatti espandeva i poteri in mano al governo degli Stati Uniti per intercettare chiamate nazionali e internazionali, traffico e comunicazioni tramite internet ed aumentare le pene verso i soggetti sospettati di collusioni col terrorismo. Le norme diventarono così assurde e restrittive che i controlli si estesero a tappeto. Uno degli esempi più celebri avvenne nei confronti del Linux Journal (*5), rivista popolare fra gli appassionati di informatica. Si scoprì che la National Security Agency infatti, secondo un leak pubblicato da Tagesschau – giornale online tedesco – tracciava tutti i suoi lettori poiché la rivista era identificata come una sorta di “forum estremista”. La sua colpa? Aver trattato in un articolo la tecnologia Tor – ne parleremo dopo – e Tails, una distribuzione linux anonima e, appunto, basata su Tor.

Di contro Osama Bin Laden, nell’immenso deserto afgano, scappava a bordo di una motocicletta (*6) insieme al suo compagno d’armi il mullah Omar. E l’esercito statunitense, impotente nell’affrontare una così avanzata tecnologia a due ruote, invece di tagliare le radici di Al Quaeda, si dirigeva verso l’Iraq (*7) dove lo aspettava il presidente iracheno Saddam Hussein, un tempo finanziato dagli stessi Stati Uniti, ora accusato di possedere armi di distruzione di massa. Lui, non l’esercito USA. Ma nella smania di estirpare alla base la minaccia terroristica, per l’intelligence statunitense il dark web, evidentemente, faceva più paura dei due leader di Al Quaeda. Nota dell’autore: si capisce l’ironia o la devo anche spiegare?

Si stava meglio quando si stava peggio

“Vieni nel mio salotto, disse la macchina allo specialista”

Questo è il modo con cui Marshall McLuhan descrive, nel celeberrimo libro “The Medium is the Massage”(#9), lo stato che avrebbe assunto la tecnologia nei confronti dell’essere umano. Uno stato non di subalternità dunque ma di superiorità che, successivamente, il potere politico avrebbe cercato di controllare. C’è un evento in particolare che descrive come le compagnie high-tech del nuovo boom della Silicon Valley si siano piegate al potere politico. Era il febbraio del 2000 e Marc Knobel, un francese di origine ebrea, si imbatteva in un sito web sotto il dominio di Yahoo.com nel quale l’azienda statunitense concedeva spazio per vendere memorabilia (*8) del periodo nazista. Secondo la legge francese vendere un qualsiasi oggetto che richiamasse l’ideologia nazista era semplicemente illegale. Ma il sito era ospitato negli Stati Uniti dove la stessa regola non si applicava. Cosa fare dunque? Marc Knobel decise di denunciare Yahoo per aver permesso di diffondere propaganda nazista in territorio francese. La questione era certamente molto delicata perché non coinvolgeva soltanto legislazioni differenti in territori differenti ma riguardava sopratutto il principio della libertà di espressione che, per l’internet di allora, era qualcosa di prezioso da tutelare. Jerry Yang, il co-founder di Yahoo, dopo esser stato condannato a filtrare i contenuti del suddetto sito, pronunciò una dichiarazione di guerra che, nei fatti, sarebbe stato costretto a ritirare:

“noi non modificheremo il contenuto dei siti negli Stati Uniti soltanto perché una corte francese ci chiede di farlo”(#12)

Arriviamo al 2005. Sulla scena era apparsa Google, Yahoo aveva cominciato a perdere quote di mercato e cominciava a guardare alla Cina come un luogo dove potersi espandere. Come noto, la Cina è lontana dall’essere una democrazia compiuta e per entrare nel suo mercato Yahoo siglò un patto col diavolo: il governo cinese avrebbe permesso al gigante della dotcom di entrare nel suo territorio solo a patto di poter ispezionare, a richiesta, la navigazione di tutti gli utenti. Fu così che il giornalista cinese Shi Tao (*9), nel tentativo di diffondere un meeting per commemorare la tragedia di Piazza Tienanmen, commise l’errore di utilizzare la sua email sotto il dominio Yahoo. Il giornalista venne trovato, indagato, processato e incarcerato per 10 anni. La coerenza, purtroppo, conserva sempre un senso del ridicolo.

Ajax. E il Web 2.0

Si era in un momento di transizione: la programmazione web stava evolvendo a tal punto che le pagine da statiche cominciano a diventare dinamiche. Con la nascita della tecnologia Ajax (*10) – acronimo che sta per “asynchronous javaScript and xml” – le pagine web stavano diventando non solo luoghi dove inserire contenuti, ma anche luoghi dove inserire applicazioni intere. Integrati in una pagina web cominciammo a vedere editor di testo, presentazioni, fogli di calcolo, chat online e così via. Era la rivoluzione del cosiddetto “web 2.0”. Internet non era più un luogo da vivere passivamente, ma – grazie alle aumentate velocità di connessione e le nuove web-app – un luogo dove si poteva partecipare ed essere protagonisti.

Molti libri hanno esplorato questa transizione: in “Wikinomics”(#10) di Don Tapscott, per esempio, si descrive la nuova figura del “prosumer”, utente capace di fruire di contenuti e contemporaneamente fornire contenuti. Col nuovo web semantico (*11) si poteva interagire con internet in un modo creativo, senza dover necessariamente avere conoscenze di programmazione: bastava un browser, una gui e una interfaccia web. Internet era diventato di tutti e per tutti.

Bloggo ergo sum

Una delle manifestazioni più evidenti di questa voglia di comunicare furono i blog, contrazione di web-log (*12), ovvero diari personali online che venivano utilizzati nei modi più disparati. C’era chi li utilizzava semplicemente per comunicare i propri pensieri, poesie, scritti personali, altri che cominciavano già ad usarli come sistema per fare un primo ed amatoriale giornalismo online. Fra le piattaforme, Livejournal forniva una interfaccia piuttosto intuitiva e presentava al suo interno, oltre che ad un editor di testo, anche la possibilità per gli utenti più smaliziati di scrivere direttamente in html. Piattaforme come WordPress invece permettevano l’integrazione di vari plugin esterni che interagivano con altri servizi sociali, mentre Blogger, una volta acquisita da Google, si integrò con tutta la suite fornita dall’azienda di Mountain View. Di certo però, in questo caotico esperimento, cominciò a generarsi molto rumore online, tanto che, a un certo punto, diventò addirittura difficile distinguere i dati dalle opinioni. Si arriverà a dire addirittura che “uno vale uno” (*13), come se internet fosse avulso dalla necessità di avere competenze.

Molto interessante è il parere sviluppato da Andrew Keen nel suo libro “The Cult of the Amateur: How Today’s Internet Is Killing Our Culture”(#11). Keen sostiene infatti che l’abitudine a condividere senza controllare, il cut & paste da Wikipedia, il crosslink, non genera talenti ma genera il culto della personalità senza controbilanciare il culto della competenza. Narcisismo 2.0 insomma. Analogo pensiero fu sviluppato un anno dopo da Nicholas Carr, autore di molti libri, ma famoso sopratutto per il suo articolo sul giornale The Atlantic intitolato “Is Google making us stupid?” (*14) in cui si sosteneva la pericolosità che un uso continuato di Internet avrebbe, a dir suo, ridotto la capacità di attenzione e di approfondimento. Senza dubbio c’era del vero in entrambe le analisi, ma oltre a questo c’era anche dell’altro: stava cominciando il profiling, ovvero quel sistema con cui i dati degli utenti venivano prima incamerati e poi gestiti dalle varie piattaforme sul web. Oro digitale insomma che, nelle mani sbagliate, avrebbe potuto ostacolare lo sviluppo della democrazia.

La privacy. Qualche anno fa.

Era il 1995 e io, in una notte di settembre, mi connettevo ad uno dei primi “bulletin board system”. Le cosiddette BBS erano computer connessi in rete (*15) che permettevano alcuni embrionali servizi come l’email, l’ftp per lo scambio di file e sopratutto, il sistema irc che consentiva di chattare online con persone di tutto il mondo. Ci si connetteva attraverso telnet, si navigava da terminale attraverso gopher e il mondo sembrava finalmente bello e pieno di risorse. A quei tempi a me sembrava davvero fantascienza. Eppure non era una tecnologia particolarmente nuova. Era fin dagli anni ‘80 che circolavano server di quel genere e io ero uno degli ultimi utenti a scoprire l’esistenza di quelle meraviglie. Mi sentivo in forte imbarazzo e quando entrai in chat per la prima volta mi presentai sperando di poter comunicare con qualcuno. Quando però scrissi:

“Salve a tutti, mi chiamo Fabio, abito a Lecce e sono appassionato di astronomia”

l’amministratore della chat mi redarguì rispondendo:

“Benvenuto. Non fornire le tue generalità in chat, è contro la policy del canale. Potresti essere bannato per questo”

Policy? Bannare? Di cosa stava parlando l’amministratore? Stava parlando banalmente di privacy o meglio ancora del minimo sindacale di privacy che si dovrebbe avere quando si accede a servizi online e si comunica con persone che non si conoscono. Imparai soltanto dopo che l’anonimato in rete, a quei tempi, era qualcosa di assolutamente fondamentale, tanto che si comunicava fornendo soltanto nickname e non nomi di battesimo. Come avrebbe poi scritto Kevin Mitnik, uno dei più famosi hacker al mondo, in “The Art of Invisibility”(#13) per andare online bisogna seguire sempre 3 importanti e basilari regole:

– Rimuovere il proprio indirizzo IP originale
– Oscurare hardware e software utilizzati durante la navigazione
– Difendere il proprio anonimato durante le comunicazioni

Qualche anno dopo il prof. Luciano Floridi, professore di filosofia ed etica presso l’università di Oxford, analizzò questa costante migrazione della vita dal offline/online al nuovo concetto del “onlife”, un termine coniato (*16) per descrivere come siano cambiati i comportamenti umani dopo l’arrivo di internet disponibile 24 ore su 24 e di come la nostra privacy si sia radicalmente ridotta. Questo apre radicalmente nuovi scenari, centrati in particolar modo su una società costruita per macchine e non per esseri umani. Ma ci arriveremo dopo, un passo alla volta.

Il Guerrilla Manifesto

Aaron Swartz (*17) è una delle figure più importanti e purtroppo meno conosciute dei nostri tempi. Morto suicida a 26 anni (*18), era uno degli sviluppatori più brillanti della sua epoca. Forte sostenitore della necessità che le informazioni fruissero liberamente e senza limiti all’interno di internet, partecipò e contribuì fortemente allo sviluppo dello standard RSS che permise al web di essere esteso e condiviso come lo possiamo vedere oggi. Fondò il sito watchdog.net per aggregare i dati e le proposte dei politici statunitensi e si impegnò nella campagna contro la “online piracy act”(*). Convinto della necessità che i dati scientifici posseduti dai giornali accademici dovessero essere distribuiti in rete per la loro fruizione gratuita, trafugò, utilizzando la rete del MIT (*20), più di 300 lavori dalla biblioteca chiusa Jstor (*19), con il chiaro intento di distribuirli in rete.

Nota(*): nell’ottobre del 2011 il deputato repubblicano Lamar Smith presentò, presso la camera dei deputati statunitense, una proposta di legge che avrebbe permesso di procedere legalmente contro la ricondivisione dei contenuti coperti da copyright. Questo, in sostanza, avrebbe obbligato agli internet service provider ad oscurare i siti incriminati operando sul filtraggio dei dns.

Per farlo utilizzò uno script che scaricava in automatico i paper dentro un hard disk esterno collegato ad un laptop. Nottetempo, appena riempito l’hard disk, tornava nel dipartimento per cambiarlo, fare un backup e ricominciare il lavoro. Arrestato nel 2011 (*21), passò gli ultimi due anni della sua vita a difendersi dalle accuse della Corte federale, la quale dichiarò pubblicamente il rischio a cui Swartz stava per andare incontro: 30 anni di prigione senza condizionale. Si spesero per lui personaggi come Lawrence Lessing, il fondatore della Creative Commons, Tim Berners Lee, il fondatore del consorzio W3C, e una intera comunità di utenti che riconosceva in lui una figura importante sopratutto per le battaglie che, sulla sua pelle, aveva portato avanti. Uno dei suoi post più importanti – presente ancora oggi online – è senza dubbio il “guerrilla open access manifesto” (*22). Scritto nel 2008 durante una breve permanenza in Italia, recita:

“L’informazione è potere. Ma come ogni tipo di potere, ci sono quelli che se ne vogliono impadronire. L’intero patrimonio scientifico e culturale, pubblicato nel corso dei secoli in libri e riviste, è sempre più digitalizzato e tenuto sotto chiave da una manciata di società private […] Non c’è giustizia nel rispettare leggi ingiuste. […] Dobbiamo acquisire le informazioni, ovunque siano archiviate, farne copie e condividerle con il mondo. Dobbiamo prendere ciò che è fuori dal diritto d’autore e caricarlo sul web. Dobbiamo acquistare banche dati segrete e metterle sul web. Dobbiamo scaricare riviste scientifiche e caricarle sul web. Dobbiamo lottare per un guerrilla open access”

Una metafora: il gioco della vita

Quando parliamo di scienza parliamo di modelli di rappresentazione del mondo. E quando parliamo di modelli di rappresentazione del mondo parliamo di strumenti matematici. Il motivo per cui oggi abbiamo la possibilità di scrivere, lavorare e interagire coi computer, ci arriva grazie ad una idea di un matematico inglese che, nel tentativo di risolvere il entscheidungsproblem (*23) – il problema della decisione – di David Hilbert, si diresse verso la teorizzazione di un processo risolutore che fosse universale. Questa, chiamata “teoria della computabilità”, venne sviluppata Alan Turing nel tentativo di creare un modello di calcolo per le funzioni ricorsive. Da qui nacque l’idea della cosiddetta “macchina di Turing” (*24), antesignana dei personal computer che oggi abbiamo sulle nostre scrivanie.

Una cosa che ci ha insegnato la scienza, da Newton in poi, è il principio di azione e reazione. Così come il raggiungimento della massa limite in una stella genera la formazione di un buco nero, così anche in informatica una differenza di condizioni iniziali genera una differenza di condizioni finali. Anche la vita in fondo è un algoritmo, di certo più complesso a causa degli innumerevoli parametri in gioco, ma pur sempre un algoritmo. Nel tentativo di rappresentare l’evoluzione temporale di un sistema, il matematico John Conway inventò un gioco del tutto particolare che chiamò “il gioco della vita” (*25). Richiedendo pochissime regole – e zero giocatori – questa semplicissima macchina di Turing poteva rappresentare l’evoluzione di un intero sistema complesso a patto di fornire un semplice stato iniziale. Il gioco si sviluppa in due assi cartesiani, dove la configurazione iniziale è banalmente un grumo di punti collegati fra loro, e la sua evoluzione invece avviene dall’alto verso il basso, lungo una matrice virtualmente infinita.

Se per pura ipotesi potessimo sostituire alle condizioni iniziali quelle fornite dall’open source, dal creative commons e dall’open access, e se per pura ipotesi potessimo sostituire alla matrice di punti il sistema nel quale esse si sono evolute, capiremmo perché sia tanto importante fornire i parametri giusti al momento giusto. Ecco il motivo per cui figure come Raymond, Stallman, Torvalds, Lessing, Lee e Swartz sono state cosi importanti per fornire e ispirare una direzione.

Più data che meta

Piccolo aneddoto personale: mio padre, all’inizio della carriera, aveva cominciato a lavorare su macchine a controllo numerico. Una delle prime innovazioni di cui si occupò fu un sistema che permetteva di identificare i veicoli in autostrada attraverso un sistema a radio frequenza, creando successivamente un report che riportasse quanti chilometri avevano percorso da casello a casello. Era una sorta di identificativo che serviva a quella neonata tecnologia per mettere un “timbro virtuale” a ogni veicolo. Si chiamava “telepass” (*26), ed ogni italiano che abbia transitato in autostrada ci ha avuto a che fare prima o poi. Se ci pensiamo non è tanto diverso da quello che succede col codice a barre, che identifica ogni informazione relativa a un prodotto. Oppure agli exif all’interno di una immagine digitale, che permettono di risalire alla camera che ha effettuato la foto, la risoluzione e, spesso, anche alla sua geolocalizzazione. In sostanza, dove esiste una macchina, un computer o un elaboratore, esistono dati scritti da qualche parte e quei dati, utilizzati in modo sapiente, permettono di effettuare analisi e previsioni per migliorare o implementare nuovi servizi.

I metadati dunque altro non sono che questo: una serie di elementi utili per classificare le informazioni di un prodotto all’interno di un archivio dati. Chiarito ciò, non sorprende che – in un mondo in cui i computer passavano da schede perforate a circuiti integrati – una delle prime a preoccuparsi di categorizzare i dati in maniera coerente sia stata la CIA – Central Intelligence Agency – la quale nel 1977 comprò, dalla neonata azienda Software Development Laboratories, un database che fece storia (*27): l’Oracle-DB. Adesso fate un salto di 30 anni e arrivate alla internet di oggi. Vi stupirebbe sapere che i dati della vostra navigazione siano inseriti in qualche database? E vi stupirebbe davvero sapere che, durante la vostra navigazione, viene registrato il vostro IP, il posto da dove navigate, le vostre preferenze, quali siti visitate più spesso e con quali persone parlate? Benvenuti dunque nell’era dei cookies, dei metadati e del loro figlio illegittimo, il dataismo.

Se una chiave non basta

Immaginate di essere davanti alla vostra porta di casa e di doverla aprire. Cosa fate? Normalmente le azioni che eseguite in successione sono: estraete il portachiavi dal vostro taschino, selezionate la chiave di casa, ed aprite la porta. Immaginate ora di essere davanti alla porta di casa di un vostro amico. Per aprire la porta vi si presentano ora due alternative. La prima: il vostro amico è con voi, prende la sua chiave di casa ed apre la porta. La seconda: il vostro amico vi ha fatto una copia della sua chiave e vi ha dato l’autorizzazione per entrare. In informatica non è molto diverso. Uno dei metodi più noti per connettersi via console ad un computer di cui non siete i possessori, è attraverso il protocollo SSH (*28). È, diciamo così, uno standard che permette, attraverso l’immissione di un IP, della porta attraverso la quale comunica il protocollo e di una password, di connettersi ad una macchina remota. C’è però un piccolo problema: noi non siamo in possesso della chiave originale. Come si è ovviato a questa mancanza?

Facciamo un passo indietro. Siamo alla fase iniziale del processo, abbiamo appena installato il nostro server e stiamo configurando SSH. Dopo l’installazione del pacchetto base, dobbiamo eseguire un’altra operazione importante per il suo funzionamento. Essa è la generazione delle chiavi. Si, ho parlato al plurale e non al singolare perché il processo genererà una coppia di chiavi e non una singola. Una privata, in possesso del proprietario del server, ed una pubblica che sarà letteralmente un pezzo generato a partire dalla vostra chiave privata. Per permettere a qualunque vostro amico di accedere alla vostra macchina, a questo punto voi avrete bisogno di condividere con lui non la vostra chiave privata, che rimane soltanto nel vostro portachiavi, ma la vostra chiave pubblica che sarà quel pezzo di fiducia di cui ha lui ha bisogno per accedere nel vostro territorio. Questo principio in informatica viene detto “crittografia asimmetrica”, e tendenzialmente funziona allo stesso modo per vari sistemi. Uno di quelli che val la pena menzionare qui è, per esempio, il gnu privacy guard, meglio noto come GPG (*29). Questo è un sistema per poter criptare un pacchetto dati, e per renderlo interpretabile soltanto da chi sia in possesso della vostra chiave pubblica.

Tutta questa sicurezza fornita dai sistemi crittografici è effettiva grazie al fatto che noi e soltanto noi siamo in possesso delle chiavi originali. Se però qualcuno è in possesso della matrice delle chiavi originali, potrà sempre generare una chiave pubblica ed accedere al nostro sistema anche in assenza di nostra autorizzazione.

Questo è un concetto importante poiché tutte le volte che sentiamo parlare di cose come crittografia end-to-end, cioè di messaggi leggibili soltanto da mittente e destinatario, tutto perde senso se la chiave originale non è in possesso del creatore della chiave pubblica. Se, per esempio, si utilizzano sistemi esterni che non risiedono a casa nostra, ci dovremo essenzialmente fidare di chi fornisce quel servizio. Nel mondo hacker si ripete spesso che la paranoia sia una virtù (*30). E voi, le dareste le vostre chiavi di casa a qualcuno che ha già dimostrato di non essere affidabile?

Nuvole in cielo e in terra

Ho sempre amato la posta elettronica. Nasceva come un sistema decentralizzato, era assolutamente immediato da utilizzare e permetteva un tipo di comunicazione lunga, pensata e senza la brevità tipica dei sistemi di messaggistica. E quando nel 2004 ricevetti l’invito per partecipare alla prima beta di Gmail (*31) ricordo che ne fui letteralmente entusiasta.

Migliorava alla base un servizio che purtroppo, con l’aumento degli utenti connessi ad internet e l’incremento esponenziale dello spam, era fortemente peggiorato. Forniva inoltre, al suo interno, un primo e rudimentale sistema di chat attraverso il protocollo XMPP che rispettava tutti gli open standard del web. Paul Buchheit, il suo creatore, fece partire il servizio come un progetto pilota che provvedesse a gestire le comunicazioni interne dell’azienda. Pochi anni dopo, Google decise di rilasciare una beta pubblica, e fu immediatamente un successo straordinario. In termini informatici, Gmail, e tutta la piattaforma delle Google-Apps – Drive, Docs, Hangouts, Calendar… – si definisce come Saas, ovvero Software As A Service. Una intera piattaforma sotto il cappello di Google che permetteva, tramite un semplice browser, di avere un centro di controllo unico da cui far partire tutte le varie applicazioni. È il famoso cloud di cui sentiamo parlare ogni giorno: ci semplifica la vita, rende i nostri dati accessibili da ogni parte del mondo, permette alle aziende di ridurre drasticamente i costi.

Ma la centralizzazione ha un costo in termini di sicurezza informatica ed indipendenza dei dati. Lo stesso Buchheit nel 2006, una volta lasciata Google, ebbe a dichiarare (*32)

“Son molto scettico per quanto riguarda la produzione di sistemi centralizzati, o di sistemi che, per esempio, provvedano a fornire un ecosistema unico e universale per tutti. Penso invece che la risposta debba venire dalla comunità”

Google ovviamente non è l’unico. Amazon per esempio ha un ruolo fondamentale nel mercato del cloud. Col suo Aws – Amazon Web Services – fornisce una piattaforma ideata per la creazione e la gestione di numerose macchine virtuali, database, storage, load balancer e non solo. È quello che per gli amministratori di sistema funziona come una Iaas – Interface as a service – e per gli sviluppatori come Paas – Platform as a service. È importante però chiarire una cosa: cloud non è soltanto sinonimo di Google, Amazon, o Apple. Il cloud può – e dovrebbe sempre essere – un private cloud, ovvero un sistema costruito internamente, magari attraverso un software open source, che permetta di avere un sistema dove io e solo io sono il padrone dei miei dati. Esistono alternative software come nextcloud per gestire un cloud interno, openstack per gestire le macchine virtuali, oppure come docker e kubernetes per i containers. Tutto open source ovviamente. Ma ci torneremo nell’ultimo capitolo.

Internet fatto a strati

Era il 1967 e Leonard Kleinrock, allora dottorando presso il Massachusset Institute of Technology, capì che la formulazione matematica con cui i dati potevano fluire da una macchina all’altra non era adeguata a trasferire pacchetti in maniera discreta. Ne sviluppò un’altra (*33) che riuscisse a superare, a livello teorico, quell’impasse. Fu così, quasi per caso, che si gettarono le basi per quella struttura che sotto il dipartimento militare statunitense divenne ARPAnet e che, una volta demilitarizzata nel 1989, produsse la internet che conosciamo oggi. Nella sua prima formulazione, quella rete non includeva una indicizzazione. Essendo una rete sperimentale, in cui i pacchetti scambiati erano pochi e viaggiavano molto spesso in maniera lineare da un computer all’altro, strutture come i motori di ricerca non erano né previste né richieste.

Quando Tim Berners Lee diede vita al Word Wide Web (*34), si cominciarono però a distinguere alcuni livelli. Il primo, quello più evidente, era il “surface web”, quello che si poteva navigare in superficie, quello con cui potevamo interagire a un livello base. C’era però una parte più ingente che non veniva indicizzata dai motori di ricerca e che includeva le nostre email, le chat private, i nostri scambi dati, i nostri accessi con user e password, i nostri profili sui social e via discorrendo. Questa venne definita “deep web”, ovvero quel web inaccessibile ai motori di ricerca che generava però la maggior parte di tutto il traffico.

Era un po’ come avere un enorme iceberg. La parte esterna più ridotta, che potevano vedere tutti in superficie, corrispondeva al “surface web”, mentre la parte più ingente, quella sotto il livello dell’acqua e nascosta alla nostra vista, corrispondeva al “deep web”. Due strati e due facce della stessa medaglia. Da qui, qualche tempo dopo, ne nascerà una terza. Una talmente nascosta che verrà definita oscura: il cosidetto “dark web”. E il sistema Tor, in questo terzo universo parallelo, la farà da padrone.


Riferimenti
(*1) https://www.washingtonpost.com/entertainment/books/bushs-911-school-visit-pushed-pet-goat-into-spotlight/2011/09/08/gIQAYpXtFK_story.html
(*2) https://www.history.com/topics/21st-century/al-qaeda
(*3) https://www.npr.org/sections/thetwo-way/2011/07/29/138814060/in-interview-president-bush-explains-his-initial-sept-11-reaction?t=1615549442537
(*4) https://www.aclu.org/issues/national-security/privacy-and-surveillance/surveillance-under-patriot-act
(*5) https://www.linuxjournal.com/content/nsa-linux-journal-extremist-forum-and-its-readers-get-flagged-extra-surveillance
(*6) https://www.theguardian.com/world/2002/jan/06/afghanistan.rorycarroll
(*7) https://www.e-ir.info/2013/06/06/iraq-invasion-a-just-war-or-just-a-war/
(*8) https://www.nytimes.com/2000/04/12/technology/antiracism-group-sues-yahoo-for-hosting-auctions-of-nazirelated.html
(*9) https://www.nytimes.com/2005/09/08/business/worldbusiness/yahoo-helped-chinese-to-prosecute-journalist.html
(*10) https://techtracer.com/2007/03/12/the-birth-of-ajax-an-amazing-story/
(*11) https://www.w3.org/RDF/Metalog/docs/sw-easy
(*12) https://blog.hubspot.com/marketing/history-of-blogging
(*13) https://link.springer.com/article/10.1007/s12290-016-0412-8
(*14) https://www.theatlantic.com/magazine/archive/2008/07/is-google-making-us-stupid/306868/
(*15) https://www.theatlantic.com/technology/archive/2016/11/the-lost-civilization-of-dial-up-bulletin-board-systems/506465/
(*16) https://library.oapen.org/handle/20.500.12657/28025
(*17) https://www.internethalloffame.org/inductees/aaron-swartz
(*18) https://www.rollingstone.com/culture/culture-news/the-brilliant-life-and-tragic-death-of-aaron-swartz-177191/
(*19) https://docs.jstor.org/summary.html
(*20) https://news.mit.edu/2013/mit-releases-swartz-report-0730
(*21) https://www.theatlantic.com/national/archive/2013/12/mit-undercover-video-caught-aaron-swartz-act/355793/
(*22) https://gist.githubusercontent.com/ksinkar/4552726/raw/74458d1932510e2b93d8ebde9ac387f842afbc0f/Aaron%2520Swartz:%2520Guerilla%2520Open%2520Access%2520Manifesto
(*23) https://www.cambridge.org/core/journals/journal-of-symbolic-logic/article/abs/note-on-the-entscheidungsproblem/9461BEAD94BB16D56EC78933D7D67DEF
(*24) https://www.cl.cam.ac.uk/projects/raspberrypi/tutorials/turing-machine/one.html
(*25) https://web.stanford.edu/class/sts145/Library/life.pdf
(*26) https://worddisk.com/wiki/Electronic_toll_collection/
(*27) https://paleofuture.gizmodo.com/larry-ellisons-oracle-started-as-a-cia-project-1636592238
(*28) https://www.openssh.com/history.html
(*29) https://gnupg.org/download/release_notes.html
(*30) https://theconversation.com/internet-of-things-between-panacea-and-paranoia-80286
(*31) https://time.com/43263/gmail-10th-anniversary/
(*32) http://paulbuchheit.blogspot.com/2010/10/serendipity-finds-you.html
(*33) https://theconversation.com/how-the-internet-was-born-a-stuttered-hello-67903
(*34) https://www.dw.com/en/hyperlink-when-tim-berners-lee-invented-the-world-wide-web-not-the-internet/a-19448729



https://archive.org/details/un-luddista-si-dondolava



CREDITS

Contatti
mail: jolek78@tutanota.com || xmmp: jolek78@conversejs.org
mastodon: https://fosstodon.org/@jolek78

Strumenti utilizzati
libreoffice https://www.libreoffice.org/
calibre https://calibre-ebook.com/
gimp https://www.gimp.org/

Musica ascoltata
https://cryochamber.bandcamp.com

Copertina
immagine: https://www.deviantart.com/mclelun
font: https://github.com/googlefonts/Inconsolata

Licenza
This work is licensed under a
Attribution-NonCommercial-NoDerivatives 4.0 International (CC BY-NC-ND 4.0)

Avvertenza
Ogni lavoro ha dei refusi e/o errori. E questo non è differente. Nessun imbarazzo quindi: se trovate anomalie, sentitevi liberi di segnalarle all’indirizzo jolek78@tutanota.com. Le correzioni verranno inserite nella prossima versione. Grazie!



Licenza: CC BY-NC-ND 4.0
Prima bozza completata: 13/02/2021
Seconda bozza completata: 25/04/21
Terza bozza completata: 13/01/2022


La vignetta è di Benigno Moi



>> Indice <<
Episodio 2 << >> Episodio 4

jolek78
Un tizio che pensava di essere uno scienziato. Si ritrovò divulgatore scientifico. Poi si addormentò e si svegliò informatico. Ma era sempre lui.

2 commenti

  • Giorgio Chelidonio

    Da “a-matematico di lungo corso” (sono ormai regredito alle “4 operazioni”) nutro una timorosa ammirazione per chi sa navigare fra equazioni, funzioni e, ancor più, algoritmi (ho però ritmo, anche se ho smesso fare il batterista nel 1968).
    L’insieme di questi fattori di solito mi spinge ad evitare letture che trattano della dimensione tecno-digitale.
    Stavolta, catturato dalla gustosa introduzione, mi sono azzardato a misurarmi con questa riflessione “quasi immensa”: dopo una rapida, disordinata incursione ho deciso di metterla da parte per poterla centellinare come una grappa invecchiata. Però che che la scienza “dipinga mondi” (non lo si citare ma così l’ho percepito) è una sintesi affascinante.
    Grazie

  • Io ci ho messo quasi tre mesi per scrivere e trovare le fonti ed infiniti mesi per rivedere/modificare/correggere il tutto. Ed e’ ancora un processo che faccio giornalmente. Ergo: centellinare la lettura mi sembra la cosa piu’ ragionevole da fare 🙂 Per quanto riguarda la matematica… e’ un pezzo che ho dimenticato come si risolvevano gli integrali, o a cosa serviva trovare la diagonale principale di una matrice. Siamo purtroppo nello stesso club 🙂

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.