Un luddista: «Mi diranno che bel fior» – 7/7

Un luddista si dondolava sopra un filo di ragnatela

riflessioni su opensource, creative commons e sul capitalismo della sorveglianza

di jolek78


Capitolo 6 – Mi diranno che bel fior

Il concetto di responsabilità individuale
Piero Calamandrei fu una figura straordinaria per l’Italia. Giurista, professore universitario e antifascista, nel 1945 dopo la caduta del regime partecipò ai lavori della Costituente come rappresentante del Partito d’Azione. In un famoso discorso (*1) pronunciato nel salone degli Affreschi della Società Umanitaria a Milano disse:

“Però, vedete, la Costituzione non è una macchina che una volta messa in moto va avanti da sé. […] perché si muova bisogna ogni giorno rimetterci dentro il combustibile; bisogna metterci dentro l’impegno, lo spirito, […] la propria responsabilità.”

Facciamo ora un esercizio di stile. Proviamo a sostituire la parola Costituzione con qualcos’altro e vediamo come suona:

“Però, vedete, la Democrazia Informatica non è una macchina che una volta messa in moto va avanti da sé. […] perché si muova bisogna ogni giorno rimetterci dentro il combustibile; bisogna metterci dentro l’impegno, lo spirito, […] la propria responsabilità.”

Uno dei princìpi filosofici che nel corso del tempo mi ha permesso di vivere nella maniera più equilibrata possibile – con i miei tanti ma tanti limiti – è lo stoicismo (#26). Lo incontrai di straforo quando ero alle scuole, ma fu soltanto intervistando Massimo Pigliucci e seguendo il podcast di cui era conduttore – “Rationally Speaking” – che mi ci appassionai. Da quando Bertrand Russell, infatti, mi traviò sulla via dell’ateismo (*2) e Carl Sagan sulla via della scienza (#27) fu molto semplice per questa filosofia entrare a far parte della mia “famiglia di personalità multiple”.

Lo stoicismo si fa risalire al 300 Avanti Cristo quando Zenone di Cizio, nella vecchia Atene, lo insegnava ai suoi discepoli nell’agorà. Immaginate di avere un bel giardino (*3) ricco di piante ed alberi. Per avere buoni frutti dovrete concimare il suolo e, contemporaneamente, recintare il giardino per metterlo al riparo da contaminazioni esterne. Nella metafora precedentemente descritta, fornita da Crisippo da Soli, i frutti rappresentano l’etica, il suolo la fisica e le recinzioni la logica. Ergo: le regole della natura forniscono il concime alle piante da cui nascono le regole etiche, ma per far sì che il nostro giardino cresca incontaminato e rigoglioso, dobbiamo proteggerlo con le regole della logica.

Restando centrati sul pragmatismo delle idee e sulla produttività delle nostre azioni, ne consegue che, nella nostra vita, risulti più utile concentrarci soltanto sugli aspetti che possiamo controllare direttamente. Credere, dunque, che il mondo sia una cloaca maxima – fatta di gente cattiva che trama alle nostre spalle – potrebbe essere anche vero, ma occupare la propria vita a parlarne senza far nulla di concreto per cambiare lo stato delle cose risulta tecnicamente una perdita di tempo. L’unico impatto che possiamo avere sul mondo che ci circonda è attraverso la nostra vita, il nostro esempio, le nostre azioni.

Ribaltiamo dunque il punto di vista: se i grandi big del mondo IT hanno preso il controllo, la responsabilità non è “loro” ma “nostra”. Non è impossibile però operare un cambiamento: bisogna riprendere in mano i princìpi dei padri fondatori di internet e rimettere in moto un movimento dal basso.

Leggero come un Container
Avete in mente quelle immagini delle “server farm” con lunghi corridoi stipati da destra a sinistra, con tante lucine che si accendono e spengono come fossero alberi di natale? Bene, se pensate che a ogni “hard disk” corrisponda un solo server vi sbagliate. L’informatica nel corso del tempo è diventata talmente leggera che a ogni pezzo di metallo attaccato a una scheda madre possono corrispondere decine o centinaia di sistemi che lavorano insieme. Si chiamano “macchine virtuali” (*4) e servono tecnicamente per ottimizzare le risorse. Tutto si basa sul principio dell’overbooking. Facciamo un esempio: per ogni volo, ogni compagnia aerea mette normalmente in vendita più biglietti di quanta sia la sua capienza totale. Questo si basa sull’assunto che, statisticamente, non tutti i passeggeri saliranno a bordo: alcuni cancelleranno il biglietto, altri arriveranno in ritardo o magari avranno contrattempi. Se trasliamo lo stesso principio nel campo informatico, non sempre si utilizzeranno tutte macchine virtuali alla massima potenza. Conseguentemente, avremo un enorme risparmio di risorse e, cosa non di poco conto, un enorme risparmio economico.

Negli ultimi tempi inoltre sono nati sistemi trasportabili, diversi ma molto simili alle macchine virtuali, chiamati “container” (*5). Questi oggetti nascono per interagire con il cuore del sistema operativo in maniera completamente diversa. Mentre la macchina virtuale utilizza un oggetto chiamato “hypervisor” per essere eseguita, il container ha un funzionamento innovativo. Viene eseguito infatti come una sorta di “applicazione” a sé stante che simula una macchina virtuale ma che è, nella sua essenza, molto ma molto più leggera. Per spiegarlo con un esempio più semplice, se io volessi eseguire l’applicazione “caffè”, con il modello macchina virtuale dovrei caricare dalle mura della casa ai fornelli della cucina, mentre con il modello container basterebbe caricare la moka, l’acqua e il caffè in polvere.

Domanda: come mai un end-user dovrebbe interessarsi a tutto questo? Il concetto è semplice: se è vero che tutto è diventato leggero e parzialmente facile da realizzare, se un computer può far lavorare più sistemi operativi al suo interno, se si possono utilizzare le risorse in maniera intelligente, cosa mi vieta di costruirmi un sistema in casa (*6)? La pigrizia? Oppure il fatto che, secondo la vulgata popolare, il computer deve essere una sorta di giocattolino scintillante adatto a eseguire operazioni? La risposta, come al solito, è nella conoscenza.

Raspberry oh my Raspberry
Da adolescente, una delle cose che mi divertiva di più era andare in discarica, recuperare pezzi di computer rotti, ripararli, ri-assemblarli e montarci su Linux. Vedere come era composto un computer al suo interno, lavorare sulle schede con il saldatore mi ha insegnato molto, sopratutto sull’importanza di quello che stavo maneggiando. Ogni singolo pezzo aveva il suo ruolo come una sorta di orchestra, ed era bellissimo vedere qualcosa che prima non funzionava rimessa in sesto e pronta per tornare al lavoro. Quando arrivarono i portatili, ricordo la mia diffidenza. Mi dissi “i computer cominceranno a diventare come giocattoli, e più i device si rimpiccioliranno più sarà difficile ripararli”. Avevo ragione. La riduzione delle dimensioni, unita all’obsolescenza programmata, ha trasformato, nel corso del tempo, gli oggetti tecnologici in costosi strumenti di cui si comprende sempre meno il funzionamento e che bisogna inoltre cambiare spesso.

Avendo fatto per anni didattica scientifica a bambini di elementari e medie, questo lo avevo identificato come un “problema di percezione”. E quando qualche anno fa mi trovai davanti alla mia prima Raspberry-Pi (*7) ne fui talmente entusiasta che, da ambasciatore Stem quale ero, decisi di portarla nelle scuole associata al modulo “Astro-Pi”.

La Raspberry-Pi altro non è che un computer a scheda singola, piccola come una tessera del bancomat, leggera ed espandibile a piacere con vari moduli. È una piattaforma straordinaria per giocare e sperimentare, da rendere, se fosse mai possibile, obbligatoria nelle scuole, troppo indirizzate al “fare” piuttosto che al “comprendere”. Ho visto bracci robotici strutturati attorno ad una Raspberry-Pi, sistemi per il telecontrollo, emulatori di Spectrum e Commodore64 (*8), sistemi per la domotica, progetti inviati sulla Stazione Spaziale Internazionale. Il momento storico pertanto è propizio: imparare non è mai stato così divertente e così alla portata di tutti.

Un Pinguino per amico
In questo libro ho parlato molto, forse troppo, di Linux. Ma Linux non è “42” (*9), ovvero la risposta alla vita, l’universo e tutto quanto. Se escludiamo il fatto che, oggi come oggi, trovare un tutorial (*10) diventa semplice e immediato attraverso una semplice ricerca sul web, il principio base che mi spinge a consigliarlo come sistema principale per le operazioni quotidiane è, diciamo così, la “condivisione delle idee”. Tutto il movimento open source – vale la pena reiterarlo –  è prima di tutto una comunità di persone, e successivamente, una modalità di pensiero dove le idee vengono scambiate, condivise, migliorate.

Per quanto riguarda le performance, la leadership di Linux è tutt’ora indiscussa. Più del 90% dei super-computer infatti gira su kernel Linux (*11), quasi la totalità dei servizi web e cloud girano su Linux. E allora come mai nel campo dei personal computer non è così popolare? Le ragioni sono tante, ma due sono quelle principali. La prima: i programmi più popolari sono spesso programmi proprietari e girano su piattaforma Mac e Windows. La seconda: quando un consumatore acquista un computer, di norma trova Windows o Mac preinstallato, in barba a ogni principio logico. L’essere umano è un “algoritmo biologico” e in quanto tale è restio ai cambiamenti. Una esperienza però che viene in aiuto a chi si avvicina a questo mondo sono i cosiddetti “Linux day”, iniziative di dibattito pubblico organizzate ogni anno dai Lug (*12) – linux user group – in cui la comunità si attiva per fare condivisione e divulgazione informatica.

Spesso si sente dire che uno dei difetti di questo sistema operativo, in campo desktop, sia la cosiddetta “frammentazione”. Troppe distribuzioni simili fra loro, troppi desktop environment (*13). Cioè tradotto: troppa possibilità di scelta. Ma è davvero un difetto o piuttosto un vantaggio? Poter scegliere, da quel che mi ricordo io, non è mai stato un simbolo di imperfezione. Anche se Ubuntu sembra essere su Distrowatch (*14) quasi sempre ai primi posti fra i download, non è di certo l’unico Linux disponibile. Ci sono distribuzioni dedicate al media editing, distribuzioni dedicate al gaming, distribuzioni dedicate ai dev-ops, distribuzioni come Arch basate sul principio del KISS – keep it simple, stupid! -, distribuzioni come Kali dedicate al penetration-testing (*15). In sostanza, ognuno può creare una sua distribuzione. Basta perderci un po’ di tempo sopra, e provare. Tanto.

In un hackmeeting (*16) che si tenne a Bologna nel lontano 2002, in una delle tante conferenze, sentii menzionare – non ricordo più da chi – una cosa chiamata “democrazia del codice”. Si diceva “se io ho una moneta, tu hai una moneta, e ce la scambiamo, entrambi avremo una moneta. Se tu hai una idea, io ho un’idea e ce le scambiamo, entrambi avremo due idee. Se tu hai una linea di codice, io ho una linea di codice, e le condividiamo, entrambi avremo due linee di codice”. Condividere risorse e condividere conoscenze è esattamente quello che serve in una comunità dove gli “individui” – e non il “codice” – si fidano l’uno dell’altro.

Inoltre, se questo non bastasse, c’è da ricordare che distribuzioni come Tails (*17) o Qubes sono probabilmente la scelta “de facto” per tutti i “whistleblowers”, cioè gli individui che, come Chelsea Manning o Edward Snowden, vogliono poter condividere informazioni riservate proteggendo certosinamente il loro anonimato. In campo proprietario non esiste nulla di simile. E forse non è esattamente un caso.

Paranoid Android
Si, anche Android è open source, ma Google non è esattamente amante della privacy. Il progetto nacque, se ricordate, come qualcosa di sperimentale di cui fu fornita una SDK per cominciare a sviluppare applicazioni. Se comprare un telefono Android non vuol dire avere un sistema completamente open source, il progetto Android AOSP (*18) rimane ancora un progetto open source e questo va messo in conto.

Su un telefono che monta Android troviamo anche qualcos’altro. Si chiamano Google Play Services (*19) e lavorano come librerie per le applicazioni che avete sul vostro telefono. Tutto è centralizzato da Google e questo, nella vulgata popolare, sembrerebbe essere una certificazione di sicurezza. Ma è davvero così? La quantità di applicazioni disponibili sullo store prodotta specificatamente per infettare gli smartphone è ancora incredibilmente alta e non sembra diminuire nel corso degli anni. C’è un metodo ben testato per verificare l’affidabilità di un programma: avere a disposizione il codice sorgente, poterlo leggere, poter analizzare esattamente cosa fa. E soltanto poche applicazioni sul Play Store sono open source (*20).

Da Android “stock” sono derivate diverse versioni, un po’ come è accaduto su Linux con Debian e RedHat. I differenti flavour si chiamano “custom ROM”, sono open source, e si possono liberamente scaricare e installare sul vostro telefono. Il più popolare fra questi è certamente LineageOs (*21), secondo forse solo a Paranoid Android, ma evidentemente non sono gli unici: la maggior parte sono disponibili per quasi tutti i device in circolazione e sono inoltre estremamente stabili.

Una delle cose interessanti – forse la più interessante in assoluto – è che, flashando attraverso ADB (*22) il sistema operativo, potrete evitare di aggiungere i Play Services. Ciò vuol dire che, in pochi passaggi, con qualche trick, potrete essenzialmente “de-googlare” il vostro telefono. Una volta fatto questo, basterà scaricare F-droid (*23) , alternativa libera al più noto Play Store, e migrerete anche dal vostro smartphone ad una scelta libera, etica e completamente open source.

Gli Open Standard
In origine era Google Talk e si basava sul noto protocollo aperto XMPP. Poteva comunicare con le altre piattaforme, essere utilizzato da programmi esterni come Pidgin, utilizzare OTR per criptare le comunicazioni e via discorrendo. Un bel giorno però Google decise di migrare la piattaforma a Google Hangouts dove il sistema di comunicazione non era più basato su un open standard ma era diventato proprietario, codice chiuso, e chi s’è visto s’è visto. Vai a fidarti di Google (*24).

Gli open standard, cercando di essere più chiari possibile, sono “formati” liberamente utilizzabili da tutti senza alcuna licenza e sviluppati da gruppi di esperti riconosciuti dall’intera comunità attraverso un processo pubblico. Se leggiamo attentamente la definizione data dalla Free Software Foundation e dalla Open Source Initiative, potremo notare come siano, in alcuni dettagli, leggermente differenti, ma entrambe concordano sui due punti chiave: universalità e inter-operabilità. In un sistema globale come internet, utilizzare gli open standard dovrebbe essere sempre una scelta di default. Dovrebbe.

Andiamo su un esempio concreto. Quando la Sun Mycrosystem acquistò la Star Division dal suo creatore, sviluppò un nuovo software il quale cercava di essere l’alternativa libera a Microsoft Office. Dopo qualche tempo, la Sun rilasciò parte di quel codice sorgente, rendendo così possibile la nascita di una comunità che sviluppò un fork chiamato LibreOffice (*25). Fu in quel periodo che gli sviluppatori si posero il problema di quali formati fossero conformi alla filosofia open source. Da quella riflessione pubblica nacque un formato, un “open standard” chiamato ODT, che oggi è l’unico universalmente accettato da tutti gli office editor.

Il mio discorso però – ormai ne avrete la nausea – non vuole porre l’attenzione soltanto sulle aziende high tech, che di certo hanno la loro grossa fetta di responsabilità. La scelta di scrivere un documento in un formato proprietario e non in un formato aperto, o di utilizzare un sistema chiuso in luogo di un sistema che rispetta gli open standard, è tutta nostra. Per uscire dall’empasse nella quale ci troviamo, bisogna insomma includere anche il parametro “responsabilità personale”. È la comunità che accetta, non il sistema che impone.

C’è un Mammut che gira nella stanza
Nel 2018, quando scoppiò lo scandalo Cambridge Analytica, ci fu una fuga generale da Facebook. L’azienda di Mark Zuckerberg fu accusata di non prestare attenzione alla privacy, di profilare gli utenti e di basare essenzialmente il suo business sui metadata. La vulgata popolare dice che essere online vuol dire essere necessariamente esposti al profiling. Ma questo non è vero: le alternative esistono. Nello stesso anno in cui ciò accadeva, nasceva un piccolo gioiello: si chiamava ActivityPub (*26) , era un protocollo aperto, decentralizzato e strutturato per connettere fra loro piattaforme sociali. L’idea fu talmente rivoluzionaria che il consorzio W3C lo inserì fra gli standard consigliati del web.

Due anni prima, Eugen Rochko, un programmatore tedesco di 26 anni, stufatosi della supremazia di Twitter e di Facebook, aveva deciso di lavorare sul codice sorgente di GNU-Social, il social network sviluppato dalla Free Software Foundation. Lo rese molto più user-friendly, ne pubblicò il codice su Github (*27) e diede vita ad un nuovo software chiamato “Mastodon”. Questo fu, storicamente, il primo social network ad adottare il protocollo ActivityPub. Attorno a esso si sviluppò qualcosa chiamato il “fediverso” (*28), cioè una rete di social alternativa che permetteva, praticamente in maniera completa, di rimpiazzare tutti i social network più popolari. Mastodon infatti si presentava come una alternativa a Twitter e Facebook, Peertube a Youtube, Funkwhale a Spotify, Pixelfed ad Instagram, Writefreely a Blogger, Lemmy a Reddit e così via. Tutti connessi fra loro, tutti interoperabili.

Per capire meglio di cosa si parla, c’è bisogno di spiegare qualcosa di importante: quelli elencati sono tutti software open source, e ogni “nodo” è una “istanza decentralizzata” che può comunicare con tutte le altre. Non esiste dunque un solo Mastodon, ma centinaia di istanze Mastodon che comunicano fra loro. Questo ha permesso, nel corso del tempo, la creazione di luoghi con un’attenzione ai diritti lgbt, altri all’open source, altri ai manga, all’attivismo politico, alla poesia e via discorrendo. In una rarissima intervista al podcast “Nothing but the Toot” (*29), Eugen Rochko dichiarò:

“Penso che il punto centrale di Mastodon sia quello di essere un attrezzo utile soltanto al vostro scopo. Non venite utilizzati da lui. […] Non si viene interrotti dal miglior contenuto. Si vede soltanto ciò che si vuole vedere”

Ecco dunque come aveva risposto la comunità open source al capitalismo della sorveglianza: lavorando, giocando, divertendosi e partecipando allo sviluppo di qualcosa di innovativo.

Macchine che analizzano macchine
Nei moderni sistemi di automazione esiste un programma chiamato “agente” che agisce come un “demone” e che analizza, ad intervalli temporali molto brevi, le macchine per verificare se ci siano degli errori nel sistema. Da un banale errore di mancanza spazio su disco o di alta utilizzazione della cpu, ad errori magari più importanti come il malfunzionamento di un database, ogni errore viene registrato e inviato ai cosiddetti “monitoring tools”, in modo tale che un amministratore di sistema possa fare una analisi accurata e se possibile trovare una soluzione. Il miglioramento di questi oggetti è stato così repentino che, nel corso del tempo, l’approccio degli amministratori di sistema è completamente cambiato. Mentre anni fa la reazione a una allerta in severità primaria era generalmente:

“Tze. Che cosa ne vorrà mai sapere quel coso più di me che ho configurato il sistema?”

oggi invece la reazione è diventata più o meno così:

“Bisogna controllare! Chiamate i pompieri!”

Se è certamente vero che una macchina può realizzare operazioni in molto meno tempo che un essere umano, è anche vero però che questo crea un piccolo circolo vizioso. Umani che creano macchine per analizzare macchine, e umani che si fidano di macchine che analizzano macchine. E se la perdita di empatia nella nostra società fosse proprio dovuta al fatto che tendiamo ad analizzare e valutare gli esseri umani sulla base delle performance invece che sulla base della loro umanità? Ho un vaghissimo sospetto: temo che la risposta sia affermativa.

Online oppure Onlife
Cosa significa essere vivi all’interno di un mondo dove la iper-connessione la fa da padrone? È questo che si è domandato il professor Luciano Floridi e il suo team di ricerca presso l’Unione Europea con lo studio “The Onlife Manifesto” (*30). In un documento – liberamente scaricabile in licenza creative commons (*31) –  i 13 membri del panel analizzano vari aspetti della società digitale, domandandosi se fosse possibile ripensare il concetto di umanità e democrazia, che significato abbia assunto il concetto di spazio pubblico, quali siano i cambiamenti necessari per affrontare il cambio dall’analogico al digitale, e sopratutto cosa significhi oggi la parola online quando, in realtà, siamo tutti connessi 24 ore su 24 senza disconnessione fra il reale e il virtuale. Chi come me ha più di 30 anni, ricorderà di certo il suono inconfondibile che separava l’essere online dall’essere offline: era quello del modem (*32) che convertiva il segnale telefonico in un segnale digitale. Veniva chiamato il “suono della balena”, ed era così significativo perché segnalava, metaforicamente, l’accesso ad un mondo dove tutto poteva accadere.

Floridi nella sua analisi prova a dividere la storia in tre fasi. La prima: la “preistoria” dove non esisteva la tecnologia. La seconda: la “storia” dove cominciava ad esserci la tecnologia e la società dipendeva esclusivamente dall’approvvigionamento delle risorse primarie come cibo, acqua e fonti energetiche. Nella “iperstoria” invece –  la terza fase – la tecnologia diventava la sorgente fondamentale a cui la società si approvvigionava per ottenere e processare dati ed informazioni, e da cui era diventata al tempo stesso dipendente. Questo è un passaggio fondamentale poiché vuol dire anche che, in altre parole, non si può fuggire da essa e bisogna cominciare a farci i conti non soltanto da un punto di vista umano, ma anche da un punto di vista politico e filosofico. Citando sempre Floridi:

“Fra 50 anni, i nostri profigli potrebbero guardare a noi  non tanto differentemente da come oggi noi guardiamo le tribù dell’Amazzonia. Ci vorrà ancora un po’ per cominciare a capire le trasformazioni che stiamo attraversando, ma forse è arrivato il momento di cominciare a lavorarci sopra”

Le nostre società, le nostre democrazie, son diventate sempre più simili ad una griglia di computer interconnessi che a una serie di linee tracciate sulla cartina geografica. Popoli e identità non sono più divisi come nel passato. Ecco perché oggi è importante più che mai stabilire nuove regole sociali. Attraverso le macchine e l’interconnessione, siamo diventati non più esseri umani ma post-umani. E i nuovi algoritmi che verranno dovranno riflettere la nostra vecchia e forse ancora analogica umanità.

Etica ed Open source
Era ancora il 2018, e durante l’amministrazione Trump, presso il confine fra gli Stati Uniti e il Messico si era appena innescata una tragedia umanitaria. La ICE – Immigration and Customs Enforcement – un reparto di polizia statunitense addetto al controllo del territorio, bloccava e separava dalle loro famiglie più di 3000 minorenni messicani (*33) che, illegalmente, avevano tentato di attraversare il confine fra il Messico e gli Stati Uniti. I soggetti fermati venivano posti in centri di detenzione dove, secondo i rapporti di Amnesty International, avvenivano maltrattamenti e abusi di ogni tipo. Le proteste furono enormi e vennero anche, inaspettatamente, anche dalla comunità open source. Chef, una sorta di piattaforma creata per amministrare e gestire più macchine all’interno di uno stesso sistema, fece un accordo commerciale con la ICE.

Fra i vari tool più popolari che gli sviluppatori utilizzavano per aumentare le potenzialità di Chef, ce n’era uno chiamato Chef Sugar (*34) creato dall’ingegnere Seth Vargo, e disponibile in licenza Apache. Quando si seppe che la compagnia Chef aveva preso accordi direttamente con la ICE, Seth rimosse il suo codice sorgente da github, affermando di non voler prendere più parte ad una violazione dei diritti umani così evidente come stava trapelando dagli organi di stampa.

Si era appena aggiunto un tassello importante: la responsabilità e l’etica del software. Sull’onda di quella protesta nacque prima il movimento NoTechForICE (*35) e successivamente qualcosa di completamente nuovo: la “Hippocratic License” (*36). Basandosi sul ben noto principio di Ippocrate “primum non nocere”, la licenza ippocratica altro non era che un tentativo – ancora molto ma molto imperfetto – di riscrivere le regole della licenza open source MIT includendo al suo interno il principio etico. Si legge infatti:

“Il software non può essere utilizzato da individui, corporazioni, governi che sono attivamente noti per mettere in pericolo, danneggiare individui o gruppi meno privilegiati mentalmente, socialmente o politicamente”

Questo però, invece che risolvere il problema, ne aggiungeva altri. Era la Hippocratic una licenza open source? Certamente no (*37) perché non rispettava gli standard della definizione di open source. Era una licenza equa? Certamente no perché poneva paletti di utilizzo soltanto se si potevano mettere in pericolo gruppi o individui non privilegiati. Cosa accadeva se invece si mettevano a repentaglio le vite degli individui privilegiati? I diritti e l’etica del software valevano solo per alcuni e non per altri? E sopratutto come si potevano introdurre all’interno di una licenza d’uso concetti così volatili come il bene e il male? Insomma i dubbi e le incertezze erano tante, ma la discussione era finalmente aperta: open source, da solo, non bastava più.

Come è potuto accadere
È da tempo che mi pongo questa domanda. Ormai faccio parte di questa community da più di vent’anni e, guardando indietro, ricordo molto bene di esserci entrato non per la bellezza del codice sorgente ma per la bellezza delle idee proposte. Tutta la comunità che si sviluppò attorno a Linux, e il movimento open source da cui proveniva, davano un senso a quello si faceva. I “lug” erano un posti accoglienti dove incontrare persone, imparare, scambiarsi idee, sognare un futuro migliore. La mia anima è ancora a Genova in quel lontano 2001 e a quegli hackmeeting che riunivano i migliori disadattati – già, oggi si chiamano nerd – che ho conosciuto in vita mia. Quando Redhat diventò commerciale (*38), quando Microsoft comprò Github (*39), quando la Linux Foundation mostrò il suo annual report da un Mac (*40), mi domandai cosa fosse andato storto. Forse l’open source era stato abbracciato da tutti – corporation e non – semplicemente perché era un modello più efficiente per fare business? In fondo Google, Facebook e Amazon, tanto per fare tre nomi a caso, hanno abbracciato il modello open source fin dall’inizio e non se la passano poi tanto male. Cosa c’è di male nel far business? Nulla, se soltanto la ricchezza fosse redistribuita. Cosa c’è di male a incamerare metadati? Nulla, se soltanto fossero usati per uno scopo decente.

A questo punto sento la voce dei miei amici coder e sysadmin dietro le mie spalle: “io sono soltanto un programmatore, faccio codice, mi occupo di algoritmi, aggiusto cose, a ognuno il suo”. Ecco, forse oggi questo non basta più. Se il concetto di responsabilità personale ricade di certo sull’utente – che scegliendo o non scegliendo un prodotto può fare la sua fortuna – lo stesso concetto dovrebbe ricadere anche su chi produce codice. In una conferenza del settembre 2020, Tobie Langel, attualmente consulente per la OSI Foundation, dichiarò (*41):

“Nessuno si sente a suo agio in questo tipo di conversazioni. La maggior parte dei professionisti dell’open source arriva da un tipo di cultura in cui l’unica cosa che davvero conta è essere capaci di modificare brillantemente il codice che essi sviluppano”

In fondo sarebbe come chiedere a Enrico Fermi di non partecipare al progetto Manhattan perché quelle sue conoscenze sull’energia nucleare avrebbero potuto aiutare a distruggere migliaia di vite. Ma lui faceva fisica mica politica. O forse le due cose son meno scollegate di quel che si possa pensare?

E ora?
Ricordo tempo fa di aver letto alcune riflessioni che Aaron Swartz aveva pubblicato sul suo blog. Erano una serie di articoli che descrivevano la necessità di avere nel web più sistemi come Wikipedia (*42). Non una sola quindi ma tante che replicassero la sua esperienza online. Ai tempi non avevo capito esattamente cosa volesse dire. Pensavo: non ne basta una se funziona bene? Siccome son lento di comprendonio, ci sono arrivato soltanto 15 anni dopo. Swartz parlava di due cose fondamentali: di comunità e di sopravvivenza. Se Wikipedia era un brillante esempio di come costruire una comunità attorno a un progetto, non lo era invece di come costruire un progetto partendo da una comunità. Stava, in altre parole, parlando di un sistema verticistico che, senza dubbio alcuno aveva sempre funzionato nella storia dell’umanità, ma che il web aveva anche – nel suo statuto non scritto – l’imperativo di superare. Wikipedia inoltre rappresentava un sistema unico nel suo genere: cosa fare se fosse crollata? Da dove ripartire? Da qui la necessità, diceva Swartz, di avere più comunità, più Wiki e più progetti.

Ed è esattamente sulla responsabilità che vorrei centrare questi ultimi stralci di scrittura. Nel corso degli ultimi anni, dopo gli scandali di Cambridge Analytica, le rivelazioni di Snowden, i dati rilasciati pubblicamente da Wikileaks, si è sviluppato un importante dibattito che ha portato gli argomenti della privacy online finalmente alla ribalta. Il libro della Zuboff ha inoltre contribuito a delineare il quadro all’interno del quale si sono sviluppati questi cambiamenti. Anche l’Unione Europea ha dato un aiuto alla comprensione del fenomeno attraverso lo studio multidisciplinare di cui abbiamo parlato in precedenza. Poi l’etica è entrata a gambe tese all’interno dell’ambiente open source con una discussione che, prima di allora, era considerata un’eresia. Cosa sta succedendo? Sta davvero cambiando qualcosa?

Quando circa 3 anni fa aprii il mio account su Mastodon (*43), in fuga a gambe levate da Facebook, cominciai a incontrare tanta bella gente che avevo letto e da cui avevo tratto ispirazione nel passato. Aaral Balkan (*44) per esempio, – come lui stesso si definisce un “cyborg activist” – sono anni che batte sullo stesso punto: bisogna che la comunità lavori e incentivi lo sviluppo dello “small web” in contrapposizione a quello realizzato dai giganti dell’informatica. Lo small web, in quanto piccolo e personale, può essere gestito da individui e non da aziende, e in quanto tale può permettersi il “lusso” di rispettare alti standard di privacy, sicurezza ed etica. Ma ricavarsi una nicchia serena dove tutto funziona è una alternativa già vista nel passato. Bisogna anche agire sulla politica, sui regolatori, altrimenti è solo un gioco sterile a costruirsi una nuova bolla graziosa e colorata di arcobaleno.

Cory Doctorow invece – scrittore di fantascienza, attivista, blogger e podcaster –  spinge il cuore oltre l’ostacolo.

Nel suo ultimo libro “How to Destroy Surveillance Capitalism (#28)” propone di rompere i monopoli delle bigtech per ristabilire un equilibrio fra coloro che creano la rete – programmatori, amministratori, sviluppatori e, in generale, aziende IT – e fra coloro che utilizzano la rete. In questo modo, dal suo punto di vista, si impedirebbe ai vari Google, Amazon, Facebook e via discorrendo, di avere un controllo monopolistico dei metadati, attualmente centralizzati e in mano a pochi hub. Ma per fare questo basterebbe un attivismo militante di utenti consapevoli, che “sanno scegliere” e che non “si fanno scegliere”, che collaborano alla formazione di una internet nuova e libera, che non subiscono passivamente il fascino della nuova applicazione del momento. È qui che i sistemi decentralizzati vincono su quelli centralizzati: ogni singolo fa le sue scelte personali, le integra, collabora, migliora e arricchisce l’intero sistema.

Bisogna insomma percorrere una strada che ha però due biforcazioni. La prima: la comunità deve sviluppare e proporre nuove alternative basate sull’open source, la privacy, gli open standard, la decentralizzazione e il creative commons. La seconda: la politica deve recepire questa richiesta dalla base militante e attuare un cambio a livello legislativo. Abbiamo oggi circa 50 milioni di oggetti connessi su internet che comunicano fra loro, 4 miliardi di utenti registrati (*45) e circa 42 terabyte di dati scambiati. Questa nuova rivoluzione digitale oggi non è più rimandabile.



Manifesto

Internet è come la democrazia: perché rimanga libero bisogna lottare ogni giorno.

Serve promuovere protocolli di sicurezza che tutelino la privacy degli utenti finali.
Serve che la comunità open source si apra al mondo dei non addetti ai lavori.
Serve promuovere gli open standard e il creative commons.
Serve responsabilità personale e conoscenza.
Serve divulgazione informatica.
Serve incoscienza.

Serve politica.



Riferimenti
(*1) https://www.filodiritto.com/piero-calamandrei-discorso-sulla-costituzione
(*2) https://www.theatlantic.com/personal/archive/2009/01/the-teapot-analogy/55930/
(*3) https://medium.com/the-sophist/toward-stoicism-3-0-694f2fbf6e41#:~:text=Chrysippus%2C%20one%20of%20the%20f oundational,must%20be%20rich%20and%20fertile.
(*4) https://www.networkworld.com/article/3583508/what-is-a-virtual-machine-and-why-are-they-so-useful.html
(*5) https://www.docker.com/resources/what-container
(*6) https://docs.nextcloud.com/server/latest/admin_manual/installation/source_installation.html
(*7) https://www.zdnet.com/article/what-is-the-raspberry-pi-4-everything-you-need-to-know-about-the-tiny-low-cost-computer/
(*8) https://www.thegeekpub.com/13651/raspberry-pi-commodore-64/
(*9) https://invidious.tube/watch?v=5ZLtcTZP2js
(*10) https://ryanstutorials.net/linuxtutorial/
(*11) https://www.top500.org/statistics/sublist/
(*12) http://www.linfo.org/lug.html
(*13) https://www.xfce.org/about/tour416
(*14) https://distrowatch.com/index.php
(*15) https://www.kali.org/docs/introduction/what-is-kali-linux/
(*16) https://www.hackmeeting.org/hackit02/programme.html
(*17) https://www.techrepublic.com/article/getting-started-with-tails-the-encrypted-leave-no-trace-operating-system/
(*18) https://source.android.com/
(*19) https://support.google.com/googleplay/answer/9037938?hl=en
(*20) https://ethical.net/technology/what-is-open-source-software-a-definition-history-of-oss/
(*21) https://download.lineageos.org/
(*22) https://developer.android.com/studio/command-line/adb
(*23) https://f-droid.org/en/docs/
(*24) https://www.disruptivetelephony.com/2015/02/google-finally-kills-off-googletalk-and-XMPP-jabber-integration.html
(*25) https://www.libreoffice.org/about-us/libreoffice-timeline/
(*26) https://www.w3.org/wiki/ActivityPub
(*27) https://github.com/tootsuite/mastodon
(*28) https://fediverse.party/
(*29) https://soundcloud.com/jackdaw-ruiz/nothing-but-the-toot-eugen-interview
(*30) https://ec.europa.eu/digital-single-market/sites/digital-agenda/files/Manifesto.pdf
(*31) https://library.oapen.org/handle/20.500.12657/28025
(*32) https://invidious.tube/watch?v=ckc6XSSh52w
(*33) https://www.bbc.co.uk/news/world-us-canada-44503514
(*34) https://web.archive.org/web/20180922082549/https://github.com/sethvargo/chef-sugar
(*35) https://scienceforthepeople.org/no-tech-for-ice/
(*36) https://firstdonoharm.dev/
(*37) https://opensource.org/docs/osd
(*38) https://www.redhat.com/en/blog/rhelvolution-brief-history-red-hat-enterprise-linux-releases-early-days-rhel-5
(*39) https://news.microsoft.com/announcement/microsoft-acquires-github/
(*40) https://www.fudzilla.com/news/44524-linux-foundation-president-uses-apple-os
(*41) https://www.mind.be/fosdem20/2020-02-02-ethics.html
(*42) https://web.archive.org/web/20130119170037/www.aaronsw.com/weblog/morewikipedias
(*43) https://fosstodon.org/@jolek78
(*44) https://small-tech.org/about/
(*45) https://www.statista.com/statistics/273018/number-of-internet-users-worldwide/



https://archive.org/details/un-luddista-si-dondolava



CREDITS

Contatti
mail: jolek78@tutanota.com || xmmp: jolek78@conversejs.org
mastodon: https://fosstodon.org/@jolek78

Strumenti utilizzati
libreoffice https://www.libreoffice.org/
calibre https://calibre-ebook.com/
gimp https://www.gimp.org/

Musica ascoltata
https://cryochamber.bandcamp.com

Copertina
immagine: https://www.deviantart.com/mclelun
font: https://github.com/googlefonts/Inconsolata

Licenza
This work is licensed under a
Attribution-NonCommercial-NoDerivatives 4.0 International (CC BY-NC-ND 4.0)

Avvertenza
Ogni lavoro ha dei refusi e/o errori. E questo non è differente. Nessun imbarazzo quindi: se trovate anomalie, sentitevi liberi di segnalarle all’indirizzo jolek78@tutanota.com. Le correzioni verranno inserite nella prossima versione. Grazie!



Licenza: CC BY-NC-ND 4.0
Prima bozza completata: 13/02/2021
Seconda bozza completata: 25/04/21
Ultima versione: 13/01/2022



>> Indice <<
Episodio 6 << >>

 

jolek78
Un tizio che pensava di essere uno scienziato. Si ritrovò divulgatore scientifico. Poi si addormentò e si svegliò informatico. Ma era sempre lui.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *