Un luddista: «Partigiano portami via» – 4/7

Un luddista si dondolava sopra un filo di ragnatela

Riflessioni su opensource, creative commons e sul capitalismo della sorveglianza

di jolek78


Capitolo 3 – Partigiano portami via

Lyle e le sue biciclette
Nel 2037 Lyle vive nei sobborghi di Chattanooga, una piccola città degli Stati Uniti. In un futuro distopico pieno di intelligenze artificiali, corpi modificati artificialmente e droghe sintetiche, Lyle decide di rimanere ai confini della città. Vivendo in modo anarchico e utilizzando ormoni inibitori per placare la sua libido, campa di espedienti. Ripara biciclette e affitta un piccolo bilocale nel grattacielo diroccato proprio sopra al suo laboratorio. Un giorno però la sua quiete viene interrotta dalla visita di una ragazza, Kitty Casadey, che si rivelerà essere un inviato del NAFTA, l’organizzazione che serbava in sé un tremendo segreto. A quel punto Lyle dovrà scegliere: scoprire “quanto fosse profonda la tana del bianconiglio” (*1), oppure tornare alla sua vita di sempre.

Questo piccolo racconto, presente nell’antologia “A good old fashioned future” (#14) di Bruce Sterling presenta il bivio in cui a volte ci troviamo nella nostra vita. Rispetto al dark web per me fu lo stesso: mi dissero che era meglio tenersi alla larga. Ma perché?

Cipolle e Dark-web (1)
Il terzo livello della rete è più un concetto che una tecnologia. È, in parole semplici, quella minuscola parte del deep web che ha bisogno di un software specifico per essere visitata. Una rete nella rete, anonima, sicura, che si presenta come un terreno fertile dove far crescere quella originale idea di “anarchia cyberpunk” propria delle origini di internet. Il primo tentativo di crearne una, completa e funzionante, avvenne nel 1999, prima addirittura degli attacchi dell’11 settembre. Quella tecnologia, attiva e in sviluppo ancora oggi, fu denominata Freenet e venne ideata grazie ad un lavoro dell’allora studente di informatica Ian Clarke presso l’università di Edimburgo. Clarke scriveva: (*2)

“È curioso notare come molte invenzioni realizzate dall’essere umano seguano uno schema alieno allo sviluppo dei processi biologici. Nonostante l’evoluzione abbia mostrato come i sistemi decentralizzati siano gli unici con un evidente vantaggio evolutivo, i sistemi creati dall’uomo tendono invece verso architetture fortemente centralizzate”

Freenet(*3) è una rete P2P strutturalmente anonima, in cui sono gli utenti stessi a fare da nodi della rete. Questa è una caratteristica non di poca importanza, poiché rende la rete completamente decentralizzata e non dipendente da nessun nodo specifico. Inoltre, al suo interno le comunicazioni e le connessioni – sia in tcp che in udp – sono completamente criptate di modo che dall’esterno nessuno possa intercettare uno scambio di qualsivoglia pacchetto fra due utenti. Queste caratteristiche la rendono sicura e solida, anche se, nel corso del tempo, sono state riscontrate alcune piccole vulnerabilità dovute al motore java sul quale gira tutta la piattaforma. Un tentativo di migliorare Freenet fu fatto nel 2003 con la creazione di I2P (*4), una dark net molto simile, con molti più livelli di sicurezza ma con molte meno funzionalità.

Nel 2003 successe però anche qualcos’altro. Venne pubblicato un lavoro elaborato da due crittografi del Massachusetts Institute of Technology che lavoravano per il progetto FreeHeaven (*5) e da un ricercatore che lavorava per il Naval Research Lab.

Cipolle e Dark-web (2)
Il lavoro si chiamava “The Second-Generation Onion Router” (*6) ed era letteralmente un modo nuovo di vedere la dark net. Modificando sostanzialmente la prima versione dell’onion routing – in italiano suonerebbe “connessione a cipolla” – proposta dal DARPA (*7) statunitense, i tre ricercatori crearono quella struttura teorica per ciò che sarebbe diventato noto al grande pubblico col nome di Tor (*8).

Lavoriamo di astrazione. Immaginate di essere sulla surface web e di dover inviare un pacchetto dati da un punto A a un punto B. Nell’immaginario collettivo c’è l’idea che quel pacchetto viaggerà senza interruzioni di sorta, quasi come stesse seguendo una linea continua senza mai fermarsi. Ma la realtà è un po’ diversa. Quello che avviene è che il pacchetto passa da parte a parte per poi, non linearmente, approdare a destinazione. Questo viaggio è fatto seguendo alcuni criteri, attraverso determinati protocolli, e utilizzando particolari metodi di trasmissione dati. Alla partenza, durante il tragitto o alla destinazione, noi lasciamo traccia delle nostre azioni, e questo ormai non dovrebbe essere un segreto per nessuno. Spesso si sente dire che, per mettere un filtro fra noi e il server che vogliamo raggiungere, un buon metodo sia utilizzare una cosiddetta VPN – virtual private network – ma si sa, la sicurezza, specialmente quando siamo in situazioni particolari, non è mai abbastanza.

Immaginate ora un sistema a più strati, a cipolla appunto, dove invece che avere un solo strato protettivo ne abbiamo vari. Questi strati intermedi sono capaci di prendere il pacchetto in arrivo, criptarlo, e inviarlo al livello successivo. Abbiamo, nello specifico, un punto d’ingresso, tre punti di transizione e uno di uscita. In un sistema come questo, l’amministratore del server che vogliamo visitare non riceverà la richiesta dal punto iniziale, bensì da un punto intermedio, rendendo virtualmente difficile – se non spesso impossibile – risalire a quale sia davvero il punto di partenza. Questo è in poche parole tor: un sistema di sicurezza a più livelli creato per tutelare la privacy (*9) nel cyberspazio. C’è però anche qualcos’altro da dire. Questi livelli intermedi, chiamati relay node, forniscono non solo gli strati anonimi della cipolla, ma anche e potenzialmente dei luoghi dove poter attivare un server web accessibile solo e soltanto sulla dark net. Questi nodi sono tecnicamente macchine mantenute da volontari e, ad oggi, ce ne sono più di seimila attive (*10) in tutto il mondo.

Se pensate che quelli descritti precedentemente siano solo tecnicismi da hacker che mai potrebbero avere un impatto nella vita reale, siete in errore. La Wikileaks di Julian Assange, o il rilascio dei dati da parte di Edward Snowden, sono eventi avvenuti solo e soltanto grazie all’esistenza della rete Tor. E se non sapete di cosa stiamo parlando, non vi preoccupate: ci arriveremo fra qualche capitolo.

Il migliore dei web possibili
Col termine semantico si intende, prendendo direttamente la definizione che ne fa l’enciclopedia Treccani, qualcosa che “concorre a determinare il significato del discorso” (*11). Se trasliamo questo concetto in informatica, associandolo alla parola web, assume il significato di una internet prodotta attraverso sistemi, standard e protocolli che rendono semplice ed immediata l’estrazione e l’analisi dei suoi contenuti. Se torniamo per un attimo a più di 20 anni fa, Tim Berners Lee in “Weaving the Web” (#15) descriveva così i suoi sogni di futuro:

“Ho un sogno che si sviluppa in due parti. La prima parte è che il web diventi un strumento ancora più importante per la collaborazione fra persone. Ho sempre immaginato il web come un qualcosa non solo da esplorare, ma anche dove ognuno sia capace di creare contenuti. Nella seconda parte, la collaborazione si estende ai computer, dove le macchine stesse siano capaci di analizzare il contenuto dei link e aiutare l’interazione fra gli esseri umani. Questo sogno si chiama web semantico”

Il web, a quei tempi, era in pieno sviluppo. Wikipedia cominciava a imporsi come un nuovo modello collaborativo – in pochi anni diventò più affidabile della storica Enciclopedia Britannica (*12) – e il termine “wikipediano” diventò simbolo di “mi interesso”, un nuovo modo di fare attivismo culturale ed essere utili alla comunità. I forum e le mailing list erano nella loro fase calante e cominciavano ad affacciarsi sul web i primi blog. Ma fu la rivoluzione degli RSS che cambiò tutto. Nel 1997 Netscape, allora leader indiscusso fra i browser web, produsse un nuovo standard (*13) all’interno del quale si potevano inserire i metadati principali per ogni sito. Questo strumento era un semplice file di testo chiamato RDF, acronimo che stava per “resource description framework”. Fu un importante passaggio nella storia del web tanto che, nel 1999, il consorzio W3C lo inserì tra gli standard consigliati.

Figlio illegittimo del RDF fu l’RSS (*14), un formato nato quasi per caso che fece però transitare rapidamente il web ad un nuovo livello evolutivo. Esso permetteva, ad ogni creatore di contenuti, di distribuire gli aggiornamenti provenienti dal proprio sito attraverso un file unico e coerente a cui il lettore si poteva iscrivere. In sostanza, per il fruitore di contenuti, diventava possibile sapere in tempo reale se il proprio blogger di fiducia aveva prodotto un nuovo articolo senza dover, necessariamente, visitare il sito da cui proveniva la notifica. Nacquero così programmi chiamati “aggregatori” che permettevano di unire, come in una sorta di cartella bookmark, tutti gli RSS dei siti e dei propri podcast preferiti. Lasciando da parte le incompatibilità fra le varie versioni – la migliore è sempre risultata la 1.0 (*15) a cui lavorò Aaron Swartz – per ovvi motivi questo formato cominciò a essere utilizzato estensivamente da tutta quella nuova famiglia del web 2.0 che stava cominciando a popolare la “blogosfera”. Da quel punto in poi arrivò letteralmente l’esplosione del web decentralizzato. Milioni e milioni di blogger cominciarono a pubblicare contenuti sulle varie piattaforme, differenti CMS cominciarono a diffondersi on-line – Drupal Joomla e Worpress i più famosi – e quel sogno di Tim Berners Lee cominciò lentamente a realizzarsi. Internet era diventato uno strumento per persone fatto da persone (*16), come Linux era diventato un sistema per hacker fatto da hacker.

A new dream on the block
Fra gli anni ‘80 ed oggi abbiamo avuto una transizione tecnologica straordinaria. Alcuni intellettuali e filosofi della nuova era hanno definito questa fase storica come l’età della “post-informazione” dove i bit e le persone si sono incontrati in un corpo unico per creare nuovi stili e modelli di vita. Siamo passati, per dirla con parole semplici, da una età dove macchine ed umani erano concetti separati ad un modello di società senza tempo e spazio che tende ad integrare le due entità su uno stesso piano. Con il piccolo problema che, in una economia a sviluppo infinito dove i pochi parametri che contano sono l’efficienza e l’aggiornamento permanente, le macchine vincono a mani basse senza neanche avere la necessità di chiedere il permesso. Nicholas Negroponte, nel corso degli anni ‘80, è stata una figura chiave nello sviluppo della rete che conosciamo oggi. Fondatore del Media Lab presso il Massachusetts Institute of Technology, è stato uno dei teorizzatori della tecno-utopia odierna dove, usando le parole del filosofo Umberto Galimberti, il passato è male, il presente è redenzione e il futuro è salvezza. In “Being Digital” Negroponte scriveva:

“L’informatica non è più soltanto relativa ai computer. L’informatica è relativa al modo in cui viviamo le nostre vite ogni giorno. La sfida per la prossima decade sarà non soltanto fornire le persone di migliori devices, ma sopratutto di oggetti che comprendano comportamenti verbali e non verbali”

e ancora:

“I computer non possiedono attributi morali, non possono risolvere problemi complessi come il diritto di vita o di morte, ma l’epoca digitale non può essere per questo né rallentata né interrotta”

Nel corso di queste pagine stiamo vedendo come molti visionari abbiano previsto e auspicato il futuro che viviamo oggi. Devices interconnessi, intelligenze artificiali, internet come frontiera per un mondo nuovo, libero e aperto. La domanda è: che prezzo stiamo pagando per questo? È il mondo davvero un posto migliore oggi di quanto lo fosse un tempo? E se non lo è, cosa è andato storto?

Umano, troppo umano
La risoluzione 1441 (*17) fu una iniziativa richiesta dal consiglio di sicurezza delle Nazioni Unite nel novembre 2002 per imporre all’Iraq la rimozione completa dei suoi armamenti militari. La posizione strategica del Iraq nel medio oriente, vicino all’Arabia Saudita, al Pakistan e all’Afghanistan dove si pensava fosse la sede del comando centrale di Al Quaeda, lo rendeva drammaticamente pericoloso. In più, l’allora presidente Saddam Hussein, aveva dimostrato nel corso degli ultimi anni una certa ritrosia nell’avallare le indagini degli osservatori delle Nazioni Unite, e questo lo aveva reso una minaccia aggiuntiva all’interno del quadro generale innescatosi nel dopo 11 settembre. L’Iraq però, e l’intero partito Baatista che lo guidava, non aveva mai dimostrato né di avallare né di supportare il terrorismo religioso intrapreso da Osama Bin Laden e dai suoi pari.

Nel lontano 5 Febbraio del 2003, Colin Powell, segretario di Stato degli Stati Uniti d’America, si presentò presso il consiglio di sicurezza delle Nazioni Unite (*18) affermando:

“Attraverso le informazioni arrivate dalle immagini satellitari e dai nostri servizi segreti, siamo a conoscenza che Saddam Hussein possiede armi di distruzione di massa ed è determinato a fabbricarne altre. […] Non possiamo dirvi tutto ciò di cui siamo a conoscenza […] Conosciamo le sue manie di grandezza, la sua storia di aggressioni militari, i suoi legami con le organizzazioni terroristiche. È questo consiglio pronto ad accettare il rischio di rimandare una azione militare? […] Lasciare Saddam in possesso delle armi di distruzione di massa non è una opzione accettabile, non all’indomani dell’11 settembre”

Si diceva fosse in ballo una sorta di guerra di civiltà, il mondo libero contro il terrorismo islamico, ma era diventato chiaro quasi da subito che lo scopo principale fosse un altro: il controllo del “vicino oriente” – i francesi, a giusta ragione, lo chiamano così – e delle sue risorse petrolifere. L’Iraq, da questo punto di vista, rappresentava una occasione ghiotta che non ci si poteva lasciar sfuggire essendo, già nel 2003, in possesso di ben 112 miliardi di barili di petrolio (*19). Da quella consapevolezza, nacque un movimento pacifista che attraversò tutte le nazioni. In Italia, l’European Social Forum, coordinatosi a Firenze nel 2002 presso Fortezza da Basso (*20), ebbe un ruolo fondamentale nella protesta che avvenne pochi mesi dopo. Un intero movimento globale, coordinatosi ancora attraverso Indymedia, scese in piazza nel febbraio 2003 (*21). La guerra contro l’Iraq sarebbe scoppiata un mese dopo, ma il web avrebbe dimostrato una capacità di aggregazione piuttosto potente. Quella guerra fu definita come un “secondo Vietnam” per l’impatto che ebbe sui media, e dai balconi di tutto il mondo spuntarono bandiere arcobaleno che mostrarono la contrarietà da parte di molti ad una azione militare realizzata per motivi di controllo e dominio.

Nel mondo quasi dieci milioni di persone scesero in piazza fra il 15 e il 16 febbraio 2003, e quel movimento, formatosi a partire dal web e dal Social Forum di Porto Alegre, cominciava a dimostrare di esser capace di far massa critica. Sembrava che i sogni dei pionieri stessero cominciando a realizzarsi: internet avrebbe permesso di sviluppare i confini di un mondo migliore. Ma stava per arrivare sulla scena qualcosa di inatteso. Erano i social network centralizzati – o meglio controllati – che avrebbero dissolto, lentamente, la decentralizzazione che aveva rappresentato il web 2.0 fino ad allora. Purtroppo, ci saremmo accorti degli innumerevoli danni soltanto in seguito.

A cosa stai pensando?
Quando nel 1999 il CEO della Sun Microsystem dichiarò alla stampa che la privacy era morta scoppiò uno scandalo (*22). Scott McNealy – questo il suo nome – stava presentando al pubblico una nuova piattaforma in Java denominata Jini – Jini Is Not Initials (*23). L’affermazione era grave per due motivi. Il primo: il sistema, nella costruzione di un network scalabile e distribuito, richiedeva agli utenti di condividere le loro risorse. E sapere che la privacy per Sun non era importante non era certo un buon inizio. Il secondo: Scott McNealy era membro della Online Privacy Alliance, e come si può immaginare, quel pensiero espresso non era esattamente in linea con l’operato dell’organizzazione. A cinque anni di distanza fu però un ragazzo 25enne a dire più o meno le stesse cose (*24). Era Mark Zuckerberg, CEO di Facebook, social network appena uscito dalla sua fase sperimentale:

“La privacy non è più una norma sociale, e la maggior parte degli utenti che usano i social media non si attendono alcuna norma che tuteli il loro anonimato […]”

Facebook dava la possibilità a ogni utente di crearsi un profilo personale che includesse un avatar, le proprie preferenze artistiche, musicali, politiche e sessuali, le proprie foto, aveva un messenger interno, e permetteva di aggiornare il proprio “stato” rispondendo alla famosa domanda “a cosa stai pensando?”(*25). In quel modo il network forniva una internet dentro internet, esclusiva e personale – nel primo periodo infatti fu accessibile solo per invito – per potersi connettere con i propri amici e per estendere la propria rete di relazioni. Fu letteralmente un successo.

Il social network blu non fu il primo tentativo di creare qualcosa di simile. Prima di Facebook, MySpace aveva letteralmente spopolato sul web (*26). Ma era un social disomogeneo, poco pulito, e soprattutto, come il Yahoo di quei tempi, pieno zeppo di pubblicità. Arrivò successivamente Twitter: social per il microblogging; Instagram: social per condividere foto; Youtube: social per condividere video; Anobii: social per condividere passioni letterarie; Last.fm: social per condividere gusti musicali; Foursquare: social per la geo-localizzazione, e molti molti altri. In sostanza, fra il 2004 e il 2006, internet fu letteralmente invaso dalle piattaforme social al grido di “condividi se vuoi rimanere connesso”. Il mondo del web stava passando rapidamente dalla decentralizzazione alla centralizzazione. Anche i feed RSS, simbolo della selezione personale delle informazioni, cominciarono ad essere aggregati da molti utenti sulla piattaforma Google Reader. In questo modo, anche le fonti provenienti da blog personali, entravano nel grande file delle nostre preferenze. Era arrivata, col nostro silenzio/assenso, l’era del profiling.

C’è un dataismo di troppo
Con l’avanzare delle politiche dei metadati e del personal profiling, siamo entrati direttamente nell’epoca del dataismo, termine presentato per la prima volta dal giornalista David Brooks sul New York Times (*27) all’indomani dell’elezione di Barak Obama. Brooks lo definisce come una sorta di filosofia religiosa, nata con l’assunto di poter predire, con un certo grado di accuratezza, i nostri pensieri e le nostre azioni. Ma cosa ne è dei nostri sentimenti e delle nostre intuizioni? Un insegnante, per esempio, sa riconoscere se un alunno abbia o meno una mente razionale, o se sia portato per una determinata materia. E non certo facendo una media statistica dei suoi risultati scolastici, ma estrapolando piccoli dettagli che la sua professione e la sua esperienza hanno permesso di cogliere. Dov’è dunque, nella religione dataista, l’interazione fra cervello destro e cervello sinistro? Dov’è l’immedesimazione con l’altro? Dove sono tutte le emozioni che derivano dalla disposizione dei neuroni specchio? Di una cosa possiamo essere certi: dai metadati non si può ancora estrarre il campo “empatia”. Come ben descrive Noah Arari nel suo monumentale “Homo Deus” (#17):

“Il lavoro di processamento dei dati deve essere affidato agli algoritmi informatici che superano di gran lunga la capacità di processare informazione […] ma il dataismo è scettico nei riguardi della conoscenza umana, e preferisce trasformare tutto in dati da analizzare”

L’economia dei dati, nell’epoca del libero mercato, è così fiorente che sono addirittura nate aziende chiamate data broker (*28) che acquistano, conservano e rivendono metadati al miglior offerente: Acxiom, Epsilon e Experian, per esempio, sono soltanto alcune di esse. Ed in questa economia, le potenze di calcolo per processare questi dati devono essere strutturalmente infinite. In un bellissimo libro del 1970 chiamato “Future Shock” (#18), il futurologo Alvin Toffler predisse, con una trentina di anni di anticipo, il periodo che saremmo arrivati ad affrontare. Diceva:

“Se la sovrastimolazione dei livelli sensoriali continuerà ad aumentare, arriverà un momento in cui tutto ciò interferirà con la nostra capacità di prendere decisioni. Ognuno di noi sarà costretto a processare l’immensa mole di informazioni con difficoltà per attuare scelte razionali”

La chiamò “information overload” (*29), un processo che nel corso del tempo avrebbe potuto portare, come argomentava lo psichiatra James Miller, a problemi psicopatologici mai affrontati prima. E allora forse, siccome il nostro cervello è così complesso e nella sua complessità cosi imperfetto, qualcuno avrà pensato: perché non delegare tutto alle macchine, che sono performanti, programmabili e per giunta senza empatia? Lascio al lettore trovare la fallacia logica in questo pensiero.

Evviva l’illuminismo
Il Cubo di Rubik fu inventato nel 1974 dal professore di architettura ungherese Ernő Rubik con l’intento di spiegare ai suoi studenti gli spazi in tre dimensioni. L’originale cubo, il 3x3x3, è sostenuto da un blocco centrale che lo regge internamente mentre ogni lato è rappresentato da sei piccoli cubi capaci di permutare fra loro. Quando, nel 1977, il cubo fece il debutto sul mercato fu un successo straordinario (*30). Diventò quasi subito uno dei simboli degli anni ‘80 e generò una interessante gara fra matematici per studiarne struttura e proprietà. Risolvere il cubo voleva dire, banalmente, riportarlo in uno stato di ordine, con un solo colore per lato, con meno mosse possibili. Nacquero allora molti metodi di risoluzione. Il primo e il più famoso fu il metodo a strati che aveva una risoluzione media, calcolandola in una curva gaussiana, fra le 85 e le 205 mosse. Non male certo, ma non era abbastanza. Fu soltanto col metodo CFOP (*31), scoperto nel 1997 dalla professoressa di elettronica Jessica Fridrich, che la curva a campana si restrinse drasticamente (*32) e si arrivò ad una media statistica che andava fra le 40 e le 70 mosse. Questo permise ad una attività fino ad ad allora amatoriale chiamata “speedcubing” – l’arte di risolvere rapidamente il cubo di rubik – di diventare una disciplina professionale che raggiunge oggi migliaia di partecipanti in tutto il mondo. La scienza funziona esattamente cosi: fornisce uno schema di rappresentazione (*33) e cerca di risolvere i problemi in maniera sempre più efficiente.

Proviamo ora a descrivere la nostra società. Leggendo i dati e le statistiche, dovremmo essere estremamente positivi. Numeri alla mano infatti, sappiamo che, lentamente ma inesorabilmente, la fame nel mondo sta diminuendo, le guerre nel mondo si stanno riducendo (*34) e che l’aspettativa di vita sta aumentando. Ma nonostante questo, abbiamo la percezione – me incluso – che non sia così. Steven Pinker, uno dei pochi intellettuali che si è preso la briga di analizzare i dati, ha definito questa paura nel progresso con un termine: progresso-fobia. Nel suo libro “Enlightenment Now” (#19) scrive:

“Ho scoperto che gli intellettuali che amano definirsi “progressisti” odiano il progresso. Non che odino davvero i frutti del progresso: molti di loro preferiscono avere un intervento chirurgico con anestesia piuttosto che senza. È l’idea stessa di progresso che li irrita, o meglio l’idea che l’illuminismo possa portare verso un miglioramento delle condizioni di vita”

Questo però non ci può rendere ciechi di fronte ai difetti del mondo che ci circonda. Se fosse così, negheremmo il principio stesso del progresso scientifico, che ha come suo obbiettivo il miglioramento dell’intero, non di una sua parte. Tornando per un attimo al nostro cubo, cosa sarebbe successo se la dottoressa Fridrich non si fosse posta l’obiettivo di creare un algoritmo più efficiente degli altri? Saremmo arrivati, oggi, a risoluzioni al di sotto dei cinque secondi?

Come vedete, tutto si tiene insomma, anche parlando di cose apparentemente frivole.

Dal tavolo del ricercatore
La scienza non esiste. Quello che esiste davvero è la comunità scientifica. Ma come funziona esattamente la fase di pubblicazione?

Immaginate di essere in un laboratorio di ricerca e dopo aver letto più di un centinaio di lavori scientifici, vi rendete conto che c’è un aspetto non ancora investigato dai vostri colleghi e, potenzialmente, rivoluzionario. Vi presentate quindi timidi e insicuri davanti al vostro PI – “principal investigator” – per chiedergli se il gruppo col quale lavorate ha le risorse professionali ed economiche per portare avanti la vostra idea. Dopo alcuni – noiosissimi – passaggi burocratici, la vostra idea viene accettata e cominciate, voi da soli o insieme al vostro team, a raccogliere i dati che confermino o smentiscano quello che avete in mente. Immaginiamo ora che la ricerca vada a buon fine, e che siate arrivati al risultato sperato. La soddisfazione è grande ed ora, con pazienza, vi mettete a scrivere quello che in gergo tecnico si chiama “paper scientifico”. Questo paper è diviso in quattro parti. La prima si chiama “abstract”, cioè un insieme di parole che descrivano, tramite forma più descrittiva possibile, i risultati ai quali siete arrivati. Poi ne abbiamo un’altra introduttiva che analizza lo stato della ricerca fino a quella data. E poi una successiva, la più importante, che descrive la ricerca vera e propria con calcoli, grafici, citazioni e riferimenti. La parte conclusiva fa soltanto da corollario finale e serve a fornire al lettore nuovi spunti per ricerche successive. Bene, se questo vi sembra un processo lungo e pedante, non avete idea di cosa venga dopo.

Una volta scritto questo paper, voi o il vostro dipartimento vi occupate di scegliere alcune riviste scientifiche a cui inviarlo. Se il vostro lavoro tratta un argomento astronomico lo si invierà al “astrophysical journal”, se è inerente ad un argomento medico lo si invierà al “british medical journal” e così via. Ogni giornale si classifica attraverso un parametro chiamato “impact factor”. Più è elevato questo parametro, più il giornale acquista credibilità all’interno della comunità scientifica.

Dopo decine e decine di rimpalli fra voi e i “peer reviewer” – revisori fra pari, anonimi e chiamati in causa dal giornale stesso per fare le pulci al vostro paper – ammettiamo che il vostro lavoro venga accettato. C’è a questo punto un piccolo problema: i costi. Così come è dispendioso realizzare una ricerca scientifica, così è anche dispendioso pubblicarla, stamparla e diffonderla. Come è stato risolto questo problema nel modello tradizionale? Banalmente facendo ricadere i costi delle pubblicazioni sui lettori. I centri accademici quindi, per poter accedere al vostro lavoro, devono fornirsi di una sottoscrizione, a volte piuttosto costosa, che permetta di accedere alla banca dati del giornale. Ciò non è sorprendente, ma ha un terribile risvolto della medaglia: le ricerche possono essere lette soltanto da chi ha la possibilità economica di pagare un abbonamento. Questo, per esempio, impedisce a centri di ricerca situati nel terzo mondo di accedere a quei risultati. Ergo, il dibattito scientifico, che da lì in poi si innescherà, sarà un dibattito elitario, realizzato soltanto da chi può permetterselo. Ma è l’economia bellezza, nulla è gratis. O forse in questo caso dovremmo avere altre prerogative?

Fino alla scienza in Open Access
Ora immaginate un modello diverso, in cui i costi non ricadano sui lettori ma direttamente sul centro scientifico che ha portato avanti la ricerca. Immaginate ora che in questo modello tutti i lavori pubblicati, dopo aver passato una fase di “peer review”, esattamente come nel modello tradizionale, siano disponibili gratuitamente sul web, liberamente accessibili e addirittura commentabili dai colleghi come fossero articoli di un blog. Voi, come ricercatori, quale modello scegliereste? Quale modello pensate sia migliore per diffondere rapidamente la vostra ricerca?

Se ricordate, abbiamo cominciato dicendo che la scienza non esiste ma che, al contrario, esiste la comunità scientifica. Ed è infatti attraverso l’analisi del vostro lavoro che quei risultati acquisteranno credibilità. Più il lavoro è citato – in gergo tecnico si chiama cross-refence – più il lavoro acquisterà valore. Più i vostri risultati sono validati e confermati dai vostri colleghi, più quei risultati acquisteranno autorevolezza. Questo modello esiste e si chiama “open access” – ad accesso aperto.

PlosOne (*35) nel 2006 – e tutte le riviste open access in generale – hanno completamente cambiato le carte in tavola della pubblicazione scientifica in due aspetti. Il primo: un giornale online ha decisamente più spazio, e potendo pubblicare più materiale, si riserva di analizzare l’accuratezza scientifica e non l’impatto politico, sociale o economico che potrebbe avere la vostra ricerca per la rivista in questione. Il secondo: i costi non ricadono più sui lettori, che hanno la possibilità di leggere e valutare gratuitamente, ma sui ricercatori, che possono a questo punto espandere l’audience della propria ricerca diffondendola attraverso un modello aperto.

In epoca di Covid-19 per esempio la stessa biblioteca Jstor (*36) ha rilasciato parte delle sue risorse in open access in modo da facilitare pubblico, studenti e istituzioni accademiche nella migliore comprensione della pandemia generata dal Sars-Cov-2 (*37). Questo vuol dire semplicemente una cosa: diffondere l’informazione liberamente è un modello vincente. Non ci soffermeremo qui sui problemi interni – come il “publish or perish” o il “predatory publishing” – ma di certo l’open access scientifico è uno degli esempi più evidenti di come non fermarsi allo status quo, sollevare critiche, innovare, creare una alternativa e guardare oltre.


Riferimenti
(*1) https://www.cs.cmu.edu/~rgs/alice-I.html
(*2) https://freenetproject.org/assets/papers/ddisrs.pdf
(*3) https://freenetproject.org/
(*4) https://geti2p.net/
(*5) https://geti2p.net/en/faq
(*6) https://www.onion-router.net/Publications/tor-design.pdf
(*7) https://www.darpa.mil/about-us/about-darpa
(*8) https://www.torproject.org/about/history/
(*9) https://www.freehaven.net/anonbib/
(*10) https://metrics.torproject.org/relays-ipv6.html
(*11) https://www.treccani.it/vocabolario/semantico/
(*12) https://www.cnet.com/news/study-wikipedia-as-accurate-as-britannica/
(*13) https://www-archive.mozilla.org/rdf/doc/
(*14) https://www.rssboard.org/rss-0-9-1-netscape
(*15) https://edition.cnn.com/2013/01/15/tech/web/aaron-swartz-internet/index.html
(*16) https://cs.stanford.edu/people/eroberts/cs181/projects/personal-lives/debate.html
(*17) https://www.un.org/Depts/unmovic/documents/1441.pdf
(*18) https://www.americanrhetoric.com/speeches/wariniraq/colinpowellunsecuritycouncil.htm
(*19) https://www.worldometers.info/oil/oil-reserves-by-country/
(*20) https://www.opendemocracy.net/en/article_736jsp/
(*21) https://www.huckmag.com/perspectives/activism-2/italy-iraq-unlike-britain-u-s-stop-war-movement-succeeded/
(*22) https://www.wired.com/1999/01/sun-on-privacy-get-over-it/
(*23) http://sunsite.uakom.sk/sunworldonline/swol-08-1998/swol-08-jini.html
(*24) https://www.crn.com/news/security/222300279/facebooks-zuckerberg-face-it-no-one-wants-online-privacy-anymore.htm
(*25) https://www.history.com/this-day-in-history/facebook-launches-mark-zuckerberg
(*26) https://www.theatlantic.com/technology/archive/2011/01/the-rise-and-fall-of-myspace/69444/
(*27) https://www.nytimes.com/2013/02/05/opinion/brooks-the-philosophy-of-data.html
(*28) https://yourdigitalrights.org/data-brokers
(*29) https://www.bbc.com/future/article/20120306-information-overload-fears
(*30) https://ruwix.com/the-rubiks-cube/history-rubiks-cube/important-dates-timeline/
(*31) https://www.nytimes.com/2008/12/16/science/16prof.html?_r=1&em
(*32) http://www.diva-portal.org/smash/get/diva2:812006/FULLTEXT01.pdf
(*33) https://plato.stanford.edu/entries/scientific-method/
(*34) https://ourworldindata.org/war-and-peace
(*35) https://undsci.berkeley.edu/article/howscienceworks_16
(*36) https://www.sciencemag.org/news/2014/06/output-drops-worlds-largest-open-access-journal
(*37) https://about.jstor.org/covid19/



https://archive.org/details/un-luddista-si-dondolava



CREDITS

Contatti
mail: jolek78@tutanota.com || xmmp: jolek78@conversejs.org
mastodon: https://fosstodon.org/@jolek78

Strumenti utilizzati
libreoffice https://www.libreoffice.org/
calibre https://calibre-ebook.com/
gimp https://www.gimp.org/

Musica ascoltata
https://cryochamber.bandcamp.com

Copertina
immagine: https://www.deviantart.com/mclelun
font: https://github.com/googlefonts/Inconsolata

Licenza
This work is licensed under a
Attribution-NonCommercial-NoDerivatives 4.0 International (CC BY-NC-ND 4.0)

Avvertenza
Ogni lavoro ha dei refusi e/o errori. E questo non è differente. Nessun imbarazzo quindi: se trovate anomalie, sentitevi liberi di segnalarle all’indirizzo jolek78@tutanota.com. Le correzioni verranno inserite nella prossima versione. Grazie!



Licenza: CC BY-NC-ND 4.0
Prima bozza completata: 13/02/2021
Seconda bozza completata: 25/04/21
Terza bozza completata: 13/01/2022



>> Indice <<
Episodio 3 << >> Episodio 5

jolek78
Un tizio che pensava di essere uno scienziato. Si ritrovò divulgatore scientifico. Poi si addormentò e si svegliò informatico. Ma era sempre lui.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.