«AI»: fare o non fare. Non c’è provare
di Jolek78
Intro: ChatGPT non ha inventato nulla
Quando nel novembre 2022 il mondo si è svegliato stupefatto davanti a questo chatbot “magico”, in pochi hanno realizzato che quella magia era il risultato di decenni di ricerca.
La storia dell’intelligenza artificiale inizia nel 1943, quando Warren McCulloch e Walter Pitts proposero il primo modello matematico di neurone artificiale. Nel 1956, alla conferenza di Dartmouth, John McCarthy coniò il termine “Artificial Intelligence” e nacque ufficialmente la disciplina.
Gli anni ’60 e ’70 furono caratterizzati da un ottimismo eccessivo: si pensava che l’AI forte fosse dietro l’angolo. Seguirono due “inverni dell’AI” – periodi in cui i finanziamenti scomparvero e la ricerca rallentò – perché le promesse non si concretizzavano. Ma alcuni continuarono a lavorare nell’ombra. Geoffrey Hinton, Yann LeCun, Yoshua Bengio – quelli che oggi chiamiamo i “padrini del deep learning” – proseguirono gli studi sulle reti neurali quando nessuno ci credeva più.
La vera svolta arrivò con tre fattori convergenti: potenza computazionale (le GPU), enormi quantità di dati, e algoritmi migliori. Nel 2012, AlexNet vinse la ImageNet Challenge con un margine schiacciante, dimostrando che il deep learning funzionava davvero. Da lì, un’accelerazione inarrestabile.
C’era una volta il carbonifero…
Prima che esplodesse ChatGPT, la mia unica conoscenza delle AI veniva dai libri di fantascienza. Philip K. Dick e le sue riflessioni su cosa significasse essere umani. Il cyberpunk in generale, con le sue distopie tecnologiche. Il ciclo dello Sprawl di Gibson, dove le AI vivono nel cyberspazio come divinità digitali.
Quelle pagine furono la mia unica finestra su un futuro che sembrava allora lontanissimo.
Quando conducevo il podcast Caccia al Fotone (una cosa carina, ma appartenente ormai al periodo del carbonifero), approfondii meglio l’argomento. Lessi diversi paper pubblicati su arXiv e dedicai due puntate proprio allo sviluppo dell’AI. Nel 2019, durante il periodo pandemico, divorai “Artificial Intelligence: A Guide for Thinking Humans” di Melanie Mitchell – un libro che mi aiutò anche nella scrittura di una “cosa” (chi sa sa, chi non sa, pazienza…) sull’evoluzione dei sistemi informatici e sul capitalismo della sorveglianza.
Credevo di avere il quadro chiaro. Credevo di essere preparato.
Mea culpa
Poi arrivò ChatGPT
Novembre 2022. Primo approccio: stupore totale. Non riuscivo a credere ai miei occhi. Continuavo a fare domande, e nonostante tutte le allucinazioni iniziali in cui mi imbattevo, continuavo ad avere quel “wow effect” tipico del bambino che trova la conchiglia più bella in riva al mare (Newton perdonami il furto, ma quella frase è sempre troppo indicativa…)
E qui il mea culpa: lasciai da parte tutti i miei filtri protettivi che generalmente ho riguardo alla privacy, l’open source, il controllo sui miei dati. Mi lasciai andare ad ore di conversazioni sugli argomenti più disparati. Fino a che una notte – una delle tante notti insonni – mi trovai a discutere con quell’LLM di depressione, disturbi mentali vari, e come uno o più abusi subiti possano influenzare la vita di una persona.
Quando mi resi conto di cosa stesse accadendo, mi fermai di colpo. Cancellai la conversazione, cancellai la sottoscrizione a OpenAI e non toccai nessun LLM per più di un mese. Stavo affidando i miei pensieri più intimi a un sistema proprietario controllato da una corporation. Stavo tradendo ogni principio in cui credevo.
Ma io lavoro in IT. Questa è una rivoluzione enorme. Non potevo permettermi di restare indietro, né potevo semplicemente rifiutarla per principio. Dovevo trovare un’alternativa. Cominciai a studiare sul serio.
Locale, sempre locale
Incontrai i primi modelli che avrei potuto testare in locale. Scoprii Hugging Face, e fu come trovare un’oasi nel deserto. Cominciai a studiare i transformers, i datasets sviluppati dalla community. E rimasi strabiliato.
I transformers sono l’architettura che ha rivoluzionato l’AI. Presentati nel paper “Attention Is All You Need” del 2017, hanno sostituito le vecchie reti neurali ricorrenti (RNN) con un meccanismo più elegante ed efficiente: l’attention mechanism.
In parole semplici: invece di processare il testo parola per parola in sequenza, un transformer guarda tutte le parole simultaneamente e calcola quali sono più rilevanti per il contesto. Quando si legge “La banca del fiume era verde”, l’attention mechanism capisce che “banca” si riferisce al fiume e non all’istituto finanziario, perché valuta il peso di ogni parola rispetto alle altre.
Questa architettura ha reso possibile modelli come BERT, GPT, e tutti gli LLM moderni. È scalabile, parallelizzabile, ed estremamente potente.
Hugging Face
Hugging Face è molto più di una piattaforma: è diventata la biblioteca di Alessandria dell’era dell’intelligenza artificiale. Fondata nel 2016, ospita oggi circa 1 milione di modelli pre-addestrati, 250.000 dataset, e migliaia di applicazioni demo.
La loro libreria transformers ha democratizzato l’accesso all’AI. Con poche righe di Python puoi scaricare e utilizzare modelli che costerebbero milioni di dollari addestrare da zero. Hugging Face non è l’unica piattaforma a fare questo – ci sono anche Ollama, LM Studio, GPT4All – ma è sicuramente la più vasta e collaborativa.
E qui va fatto un elogio agli sviluppatori: questa community di persone sparse per il mondo sta compiendo un lavoro straordinario. Rilasciano modelli open source, condividono conoscenza, documentano tutto meticolosamente. Stanno costruendo un’alternativa reale al monopolio delle Big Tech sull’AI.
Guardando questa esplosione di modelli aperti, di collaborazione globale, di codice condiviso, ho avuto un déjà-vu potente. Questa è incredibilmente simile alla rivoluzione open source avvenuta 30 anni fa. Negli anni ’90, Linux e il movimento del software libero sfidarono il dominio di Microsoft e dei sistemi proprietari. Molti dissero che era impossibile, che il software libero non avrebbe mai funzionato. Oggi Linux alimenta il 96% dei server mondiali, tutti gli smartphone Android, e gran parte dell’infrastruttura di Internet.
Ora sta succedendo la stessa cosa con l’AI. Llama, Mistral, Falcon, GPT-Oss – modelli “open weight/open source” che competono con (e spesso superano) le controparti proprietarie. La storia si ripete, qui non si inventa mai niente.
Un altro server nel mio HomeLab
Ripresi a studiare il Python, studio che avevo lasciato in stand-by anni fa. Con una RaspberryPi4 ed una camerina, avevo sviluppato un progetto minimale usando OpenCV (qui qualcosa di molto simile) per riconoscere gli esseri umani in movimento, basandomi su un database costruito per l’occasione.
Cominciai a sperimentare il fine-tuning in modelli LLM locali. Aggiunsi vecchi script per fornire il mio stile di scrittura al modello (sì, sembra incredibile ma ogni coder ha un suo proprio stile, e dice molto della sua personalità). Utilizzai Llama3 “addestrato” per migliorare il mio coding in Bash.
E quando fui pronto, decisi di fare una spesa importante: acquistai un piccolo server – da aggiungere al mio homelab: Proxmox, Pfsense, Nextcloud, Wireguard etc… – che avrei trasformato in un sistema OpenWebUI.
OpenWebUI è un’interfaccia web self-hosted per modelli linguistici locali. Tipo ChatGPT, ma che gira interamente su hardware locale, senza inviare un singolo byte ai server di qualcun altro.
Per i nerd alla lettura: la via più semplice per l’installazione è ovviamente tramite Docker. Qui un esempio basilare:
docker run -d -p 3000:8080 \
-v open-webui:/app/backend/data \
–name open-webui \
–restart always \
ghcr.io/open-webui/open-webui:main
Una volta installata, basta collegare OpenWebUI a Ollama (il runtime per i modelli locali), scaricare i modelli preferiti, e si è operativi.
L’utilizzo delle GPU è fondamentale: un LLM di media dimensione richiede molta RAM e potenza di calcolo. Una GPU dedicata (come una NVIDIA GTX di vario tipo) fa un’enorme differenza. Per chi usa AMD, c’è poi ROCm. Con 16GB di RAM e una GPU da 8GB, inoltre, si possono far girare comodamente modelli da 7B parametri quantizzati a 4-bit.
La mia combo preferita?
AMD, Debian, Docker, OpenwebUI, Ollama e Mistral.
Una rivoluzione. E una scelta da fare
Siamo di fronte a una grande rivoluzione che non possiamo evitare. Ci sono due strade davanti a noi.
La prima: evitarla adesso, chiudere gli occhi, sperare che passi o che qualcun altro se ne occupi. E poi, fra vent’anni, ritrovarsi a rincorrere un’AI evoluta, probabilmente impossibile da comprendere, completamente nelle mani di chi l’ha controllata fin dall’inizio.
La seconda: studiarla, analizzarla, usarla e comprenderla oggi per poterla maneggiare meglio domani. Partecipare attivamente alla sua evoluzione. Contribuire alla community open source, assicurarsi che questa tecnologia rimanga accessibile, comprensibile, nelle mani di molti invece che di pochi.
E questa non è retorica. Certo, sviluppare un modello da zero richiede (ancora…) risorse da corporation – data center, milioni di dollari, team di ricercatori. Ma prendere un modello open weight (come mistral) esistente e addestrarlo per i propri scopi? Questo è assolutamente fattibile: serve solo la volontà di metterci le mani. Il trend lavora a nostro favore: i requisiti computazionali si stanno riducendo drasticamente nel tempo.
La scelta dipende da noi. E come ho imparato in questo (piccolo) viaggio, scegliere di capire – anche quando è difficile, anche quando significa ammettere di essersi sbagliati – è sempre meglio che subire passivamente.
L’AI non è magia. È matematica, codice, hardware, e soprattutto: è fatta da persone. E se è fatta da persone, può essere compresa, modificata e plasmata da persone. Per il meglio, non per il peggio.
Jolek78,
la tua riflessione offre uno sguardo esperto che ci aiuta a capire che esiste un movimento di resistenza tra esperti di informatica che può far ben sperare.
Tuttavia è come se ci fosse la sensazione che ogni movimento di resistenza resti nel suo specifico e non riesca a potenziare le altre resistenze.
Ad esempio: le applicazioni di cui parli potrebbero essere funzionali allo sviluppo delle attività dei gruppi di acquisto del commercio solidale?
Potrebbero aiutarci a capire cosa sta succedendo all’ecosistema planetario per potenziare una gerarchia delle lotte che ci diano la speranza di fermare la macchina di distruzione capitalista prima del baratro? E accettando il dato di realtà che il sistema capitalista non è compatibile con il sistema naturale e con la nostra stessa esistenza sul pianeta?
E’ possibile che siamo così ingenui da non renderci conto che ci sono sperimentazioni concrete di comunità intere che cercano di emanciparsi dalla economia del dollaro e dalla dittatura delle banche centrali attraverso l’uso dei Bitcoin e che nei movimenti non se ne faccia pratica? Vedere al proposito https://www.youtube.com/watch?v=URZ63xTLT0A la situazione di Fornelli e prima il tentativo di El Salvador presto sgambettato dalla Banca Mondiale https://www.wired.it/article/el-salvador-abbandona-bitcoin-moneta-legale-perche-criptovalute/ . Ma la Svizzera non è ferma: https://www.monetaweb.it/investimenti-e-mercati/criptovalute-per-fare-la-spesa-in-svizzera-e-negli-usa-entrano-nei-piani-pensione/ .
Perchè si è detto che la fine del sistema feudale è derivata dall’affermazione di un nuovo sistema economico che ha cambiato la condizione materiale di milioni di esseri umani prima della trasformazione politica della società: perchè non cominciamo a costruire una modalità di esistenza che sfugga dalle maglie del capitalismo, rendendo invisibili alla accumulazione milioni di esseri umani?
Le potenzialità tecnologiche non mancano: quando iniziamo a praticare la via del cambiamento?
Infine per quanto riguarda l’intelligenza artificiale, esiste un doppio binario di possibile sviluppo: una intelligenza artificiale utile allo sviluppo della schiavitù sul pianeta, una intelligenza artificiale volta a risolvere i problemi concreti e a migliorare la qualità della vita nostra ed il rispetto dell’ecosistema. La prima richiede la distruzione del pianeta attraverso la cementificazione di aree enormi per costruire datacenter che assorbono l’intera energia attualmente producibile, la seconda richiede meno potenza di calcolo decentrata, volta a costruire piccoli datacenter orientati alla soluzione di specifiche problematiche. Io continuo a chiamarla diversa prospettiva di classe, ma sono vecchio anche se vorrei arrivare in punto di morte con la percezione di aver posto le basi di un mondo migliore e non considerarmi un lottatore sconfitto. Per fare questo occorre una costruzione di una visione comunitaria delle competenze e la diffusione del concetto di circolazione delle lotte che mi pare coincidere con il concetto di intersezionalità. In altri termini: credo che le diverse competenze che abbiamo maturato dovrebbero essere concepite come un bagaglio comune di esperienze e di potenzialità che solo attraverso la sinergia e la percezione della parzialità possono essere il motore di una trasformazione rivoluzionaria in senso positivo.
Dobbiamo imparare a sognare pecore elettriche?
Non credo: ma certamente è ancora alla nostra portata immaginare un sol dell’avvenire che sappiamo costruire insieme.
Concentrando l’attenzione proprio sul tema della intelligenza artificiale: se riconosciamo che possa essere una opportunità e, come tu affermi;
<>
Questa stessa affermazione fa capire che “lo stile” ed i risultati che si possono sviluppare sono diversi se si tratta di utilizzare il riconoscimento facciale per spiaccicare ad un muro il cervello di una bimba palestinese perchè “nemica da abbattere e potenziale riproduttrice di nemici” oppure se viene utilizzato per automatizzare l’aiuto a salire le scale per una persona con problemi di deambulazione.
Tuttavia insisto: i datacenter necessari alle Big Tech sono enormi perchè necessitano di accumulare triliardi di dati da rendere funzionali al profitto ed è opposta alla possibilità di costruire piccole strutture funzionali allo sviluppo di intelligenze artificiali per risolvere le problematiche che partono dall’uso e dalle necessità che vengono dai territori e dalle popolazioni.
Sulla legislazione che pertiene a questa alternativa, i movimenti potrebbero fare un grande lavoro fin da ora.
ad esempio: la mia storia non appartiene a quella del movimento 5 Stelle ma non posso non riconoscere che l’iniziativa https://www.idiafest.it/ vede una forte partecipazione di quel movimento nonchè partito e credo che sia un buon segnale che non è possibile ignorare
Io uso (quotidianamente) da quasi trentanni la rete e le sue “mille migliaia” di pagine dedicate (open source e non) anche alla paletnologia e assimibilabili …ho provato a leggere e ho concluso che dialoga con “un’altro mondo”, non solo criptico ( e “malato” di acronimia anglofona) ma che mi sembra anche autoreferenziale (la pur interessante sintesi cronologica non sviluppa, poi, alcun linguaggio divulgativo).
Intuisco solo il parallelo proposto con Linux (che ho provato ad usare oltre 20 anni fa ma poi mi sono lasciato distrarre dal mondo Microsoft, sempre più invadente e costoso).
Ma per il resto mi pare un mondo …iperuranio che non “scende” a parlare con i miliardi di utenti il cui futuro rischia di essere colonizzato dagli interessi finanziari che oggi stanni guidando… l’evoluzione socio-cognitiva.
Insomma …mah …