«AI»: fare o non fare. Non c’è provare

di Jolek78

Intro: ChatGPT non ha inventato nulla

Quando nel novembre 2022 il mondo si è svegliato stupefatto davanti a questo chatbot “magico”, in pochi hanno realizzato che quella magia era il risultato di decenni di ricerca.

La storia dell’intelligenza artificiale inizia nel 1943, quando Warren McCulloch e Walter Pitts proposero il primo modello matematico di neurone artificiale. Nel 1956, alla conferenza di Dartmouth, John McCarthy coniò il termine “Artificial Intelligence” e nacque ufficialmente la disciplina.

Gli anni ’60 e ’70 furono caratterizzati da un ottimismo eccessivo: si pensava che l’AI forte fosse dietro l’angolo. Seguirono due “inverni dell’AI” – periodi in cui i finanziamenti scomparvero e la ricerca rallentò – perché le promesse non si concretizzavano. Ma alcuni continuarono a lavorare nell’ombra. Geoffrey Hinton, Yann LeCun, Yoshua Bengio – quelli che oggi chiamiamo i “padrini del deep learning” – proseguirono gli studi sulle reti neurali quando nessuno ci credeva più.

La vera svolta arrivò con tre fattori convergenti: potenza computazionale (le GPU), enormi quantità di dati, e algoritmi migliori. Nel 2012, AlexNet vinse la ImageNet Challenge con un margine schiacciante, dimostrando che il deep learning funzionava davvero. Da lì, un’accelerazione inarrestabile.


C’era una volta il carbonifero…

Prima che esplodesse ChatGPT, la mia unica conoscenza delle AI veniva dai libri di fantascienza. Philip K. Dick e le sue riflessioni su cosa significasse essere umani. Il cyberpunk in generale, con le sue distopie tecnologiche. Il ciclo dello Sprawl di Gibson, dove le AI vivono nel cyberspazio come divinità digitali.

Quelle pagine furono la mia unica finestra su un futuro che sembrava allora lontanissimo.

Quando conducevo il podcast Caccia al Fotone (una cosa carina, ma appartenente ormai al periodo del carbonifero), approfondii meglio l’argomento. Lessi diversi paper pubblicati su arXiv e dedicai due puntate proprio allo sviluppo dell’AI. Nel 2019, durante il periodo pandemico, divorai “Artificial Intelligence: A Guide for Thinking Humans” di Melanie Mitchell – un libro che mi aiutò anche nella scrittura di una “cosa” (chi sa sa, chi non sa, pazienza…) sull’evoluzione dei sistemi informatici e sul capitalismo della sorveglianza.

Credevo di avere il quadro chiaro. Credevo di essere preparato.


Mea culpa

Poi arrivò ChatGPT

Novembre 2022. Primo approccio: stupore totale. Non riuscivo a credere ai miei occhi. Continuavo a fare domande, e nonostante tutte le allucinazioni iniziali in cui mi imbattevo, continuavo ad avere quel “wow effect” tipico del bambino che trova la conchiglia più bella in riva al mare (Newton perdonami il furto, ma quella frase è sempre troppo indicativa…)

E qui il mea culpa: lasciai da parte tutti i miei filtri protettivi che generalmente ho riguardo alla privacy, l’open source, il controllo sui miei dati. Mi lasciai andare ad ore di conversazioni sugli argomenti più disparati. Fino a che una notte – una delle tante notti insonni – mi trovai a discutere con quell’LLM di depressione, disturbi mentali vari, e come uno o più abusi subiti possano influenzare la vita di una persona.

Quando mi resi conto di cosa stesse accadendo, mi fermai di colpo. Cancellai la conversazione, cancellai la sottoscrizione a OpenAI e non toccai nessun LLM per più di un mese. Stavo affidando i miei pensieri più intimi a un sistema proprietario controllato da una corporation. Stavo tradendo ogni principio in cui credevo.

Ma io lavoro in IT. Questa è una rivoluzione enorme. Non potevo permettermi di restare indietro, né potevo semplicemente rifiutarla per principio. Dovevo trovare un’alternativa. Cominciai a studiare sul serio.


Locale, sempre locale

Incontrai i primi modelli che avrei potuto testare in locale. Scoprii Hugging Face, e fu come trovare un’oasi nel deserto. Cominciai a studiare i transformers, i datasets sviluppati dalla community. E rimasi strabiliato.

I transformers sono l’architettura che ha rivoluzionato l’AI. Presentati nel paper “Attention Is All You Need” del 2017, hanno sostituito le vecchie reti neurali ricorrenti (RNN) con un meccanismo più elegante ed efficiente: l’attention mechanism.

In parole semplici: invece di processare il testo parola per parola in sequenza, un transformer guarda tutte le parole simultaneamente e calcola quali sono più rilevanti per il contesto. Quando si legge “La banca del fiume era verde”, l’attention mechanism capisce che “banca” si riferisce al fiume e non all’istituto finanziario, perché valuta il peso di ogni parola rispetto alle altre.

Questa architettura ha reso possibile modelli come BERT, GPT, e tutti gli LLM moderni. È scalabile, parallelizzabile, ed estremamente potente.


Hugging Face

Hugging Face è molto più di una piattaforma: è diventata la biblioteca di Alessandria dell’era dell’intelligenza artificiale. Fondata nel 2016, ospita oggi circa 1 milione di modelli pre-addestrati, 250.000 dataset, e migliaia di applicazioni demo.

La loro libreria transformers ha democratizzato l’accesso all’AI. Con poche righe di Python puoi scaricare e utilizzare modelli che costerebbero milioni di dollari addestrare da zero. Hugging Face non è l’unica piattaforma a fare questo – ci sono anche Ollama, LM Studio, GPT4All – ma è sicuramente la più vasta e collaborativa.

E qui va fatto un elogio agli sviluppatori: questa community di persone sparse per il mondo sta compiendo un lavoro straordinario. Rilasciano modelli open source, condividono conoscenza, documentano tutto meticolosamente. Stanno costruendo un’alternativa reale al monopolio delle Big Tech sull’AI.

Guardando questa esplosione di modelli aperti, di collaborazione globale, di codice condiviso, ho avuto un déjà-vu potente. Questa è incredibilmente simile alla rivoluzione open source avvenuta 30 anni fa. Negli anni ’90, Linux e il movimento del software libero sfidarono il dominio di Microsoft e dei sistemi proprietari. Molti dissero che era impossibile, che il software libero non avrebbe mai funzionato. Oggi Linux alimenta il 96% dei server mondiali, tutti gli smartphone Android, e gran parte dell’infrastruttura di Internet.

Ora sta succedendo la stessa cosa con l’AI. Llama, Mistral, Falcon, GPT-Oss – modelli “open weight/open source” che competono con (e spesso superano) le controparti proprietarie. La storia si ripete, qui non si inventa mai niente.


Un altro server nel mio HomeLab

Ripresi a studiare il Python, studio che avevo lasciato in stand-by anni fa. Con una RaspberryPi4 ed una camerina, avevo sviluppato un progetto minimale usando OpenCV (qui qualcosa di molto simile) per riconoscere gli esseri umani in movimento, basandomi su un database costruito per l’occasione.

Cominciai a sperimentare il fine-tuning in modelli LLM locali. Aggiunsi vecchi script per fornire il mio stile di scrittura al modello (sì, sembra incredibile ma ogni coder ha un suo proprio stile, e dice molto della sua personalità). Utilizzai Llama3 “addestrato” per migliorare il mio coding in Bash.

E quando fui pronto, decisi di fare una spesa importante: acquistai un piccolo server – da aggiungere al mio homelab: Proxmox, Pfsense, Nextcloud, Wireguard etc… – che avrei trasformato in un sistema OpenWebUI.

OpenWebUI è un’interfaccia web self-hosted per modelli linguistici locali. Tipo ChatGPT, ma che gira interamente su hardware locale, senza inviare un singolo byte ai server di qualcun altro.

Per i nerd alla lettura: la via più semplice per l’installazione è ovviamente tramite Docker. Qui un esempio basilare:

docker run -d -p 3000:8080 \
-v open-webui:/app/backend/data \
–name open-webui \
–restart always \
ghcr.io/open-webui/open-webui:main

Una volta installata, basta collegare OpenWebUI a Ollama (il runtime per i modelli locali), scaricare i modelli preferiti, e si è operativi.

L’utilizzo delle GPU è fondamentale: un LLM di media dimensione richiede molta RAM e potenza di calcolo. Una GPU dedicata (come una NVIDIA GTX di vario tipo) fa un’enorme differenza. Per chi usa AMD, c’è poi ROCm. Con 16GB di RAM e una GPU da 8GB, inoltre, si possono far girare comodamente modelli da 7B parametri quantizzati a 4-bit.

La mia combo preferita?
AMD, Debian, Docker, OpenwebUI, Ollama e Mistral.


Una rivoluzione. E una scelta da fare

Siamo di fronte a una grande rivoluzione che non possiamo evitare. Ci sono due strade davanti a noi.

La prima: evitarla adesso, chiudere gli occhi, sperare che passi o che qualcun altro se ne occupi. E poi, fra vent’anni, ritrovarsi a rincorrere un’AI evoluta, probabilmente impossibile da comprendere, completamente nelle mani di chi l’ha controllata fin dall’inizio.

La seconda: studiarla, analizzarla, usarla e comprenderla oggi per poterla maneggiare meglio domani. Partecipare attivamente alla sua evoluzione. Contribuire alla community open source, assicurarsi che questa tecnologia rimanga accessibile, comprensibile, nelle mani di molti invece che di pochi.

E questa non è retorica. Certo, sviluppare un modello da zero richiede (ancora…) risorse da corporation – data center, milioni di dollari, team di ricercatori. Ma prendere un modello open weight (come mistral) esistente e addestrarlo per i propri scopi? Questo è assolutamente fattibile: serve solo la volontà di metterci le mani. Il trend lavora a nostro favore: i requisiti computazionali si stanno riducendo drasticamente nel tempo.

La scelta dipende da noi. E come ho imparato in questo (piccolo) viaggio, scegliere di capire – anche quando è difficile, anche quando significa ammettere di essersi sbagliati – è sempre meglio che subire passivamente.

L’AI non è magia. È matematica, codice, hardware, e soprattutto: è fatta da persone. E se è fatta da persone, può essere compresa, modificata e plasmata da persone. Per il meglio, non per il peggio.


 

jolek78
Raccontavo la scienza. Ora sogno in Open Source.

5 commenti

  • Enrico Semprini

    Jolek78,
    la tua riflessione offre uno sguardo esperto che ci aiuta a capire che esiste un movimento di resistenza tra esperti di informatica che può far ben sperare.
    Tuttavia è come se ci fosse la sensazione che ogni movimento di resistenza resti nel suo specifico e non riesca a potenziare le altre resistenze.
    Ad esempio: le applicazioni di cui parli potrebbero essere funzionali allo sviluppo delle attività dei gruppi di acquisto del commercio solidale?
    Potrebbero aiutarci a capire cosa sta succedendo all’ecosistema planetario per potenziare una gerarchia delle lotte che ci diano la speranza di fermare la macchina di distruzione capitalista prima del baratro? E accettando il dato di realtà che il sistema capitalista non è compatibile con il sistema naturale e con la nostra stessa esistenza sul pianeta?
    E’ possibile che siamo così ingenui da non renderci conto che ci sono sperimentazioni concrete di comunità intere che cercano di emanciparsi dalla economia del dollaro e dalla dittatura delle banche centrali attraverso l’uso dei Bitcoin e che nei movimenti non se ne faccia pratica? Vedere al proposito https://www.youtube.com/watch?v=URZ63xTLT0A la situazione di Fornelli e prima il tentativo di El Salvador presto sgambettato dalla Banca Mondiale https://www.wired.it/article/el-salvador-abbandona-bitcoin-moneta-legale-perche-criptovalute/ . Ma la Svizzera non è ferma: https://www.monetaweb.it/investimenti-e-mercati/criptovalute-per-fare-la-spesa-in-svizzera-e-negli-usa-entrano-nei-piani-pensione/ .
    Perchè si è detto che la fine del sistema feudale è derivata dall’affermazione di un nuovo sistema economico che ha cambiato la condizione materiale di milioni di esseri umani prima della trasformazione politica della società: perchè non cominciamo a costruire una modalità di esistenza che sfugga dalle maglie del capitalismo, rendendo invisibili alla accumulazione milioni di esseri umani?
    Le potenzialità tecnologiche non mancano: quando iniziamo a praticare la via del cambiamento?
    Infine per quanto riguarda l’intelligenza artificiale, esiste un doppio binario di possibile sviluppo: una intelligenza artificiale utile allo sviluppo della schiavitù sul pianeta, una intelligenza artificiale volta a risolvere i problemi concreti e a migliorare la qualità della vita nostra ed il rispetto dell’ecosistema. La prima richiede la distruzione del pianeta attraverso la cementificazione di aree enormi per costruire datacenter che assorbono l’intera energia attualmente producibile, la seconda richiede meno potenza di calcolo decentrata, volta a costruire piccoli datacenter orientati alla soluzione di specifiche problematiche. Io continuo a chiamarla diversa prospettiva di classe, ma sono vecchio anche se vorrei arrivare in punto di morte con la percezione di aver posto le basi di un mondo migliore e non considerarmi un lottatore sconfitto. Per fare questo occorre una costruzione di una visione comunitaria delle competenze e la diffusione del concetto di circolazione delle lotte che mi pare coincidere con il concetto di intersezionalità. In altri termini: credo che le diverse competenze che abbiamo maturato dovrebbero essere concepite come un bagaglio comune di esperienze e di potenzialità che solo attraverso la sinergia e la percezione della parzialità possono essere il motore di una trasformazione rivoluzionaria in senso positivo.
    Dobbiamo imparare a sognare pecore elettriche?
    Non credo: ma certamente è ancora alla nostra portata immaginare un sol dell’avvenire che sappiamo costruire insieme.

  • Enrico Semprini

    Concentrando l’attenzione proprio sul tema della intelligenza artificiale: se riconosciamo che possa essere una opportunità e, come tu affermi;
    <>
    Questa stessa affermazione fa capire che “lo stile” ed i risultati che si possono sviluppare sono diversi se si tratta di utilizzare il riconoscimento facciale per spiaccicare ad un muro il cervello di una bimba palestinese perchè “nemica da abbattere e potenziale riproduttrice di nemici” oppure se viene utilizzato per automatizzare l’aiuto a salire le scale per una persona con problemi di deambulazione.
    Tuttavia insisto: i datacenter necessari alle Big Tech sono enormi perchè necessitano di accumulare triliardi di dati da rendere funzionali al profitto ed è opposta alla possibilità di costruire piccole strutture funzionali allo sviluppo di intelligenze artificiali per risolvere le problematiche che partono dall’uso e dalle necessità che vengono dai territori e dalle popolazioni.
    Sulla legislazione che pertiene a questa alternativa, i movimenti potrebbero fare un grande lavoro fin da ora.

  • Enrico Semprini

    ad esempio: la mia storia non appartiene a quella del movimento 5 Stelle ma non posso non riconoscere che l’iniziativa https://www.idiafest.it/ vede una forte partecipazione di quel movimento nonchè partito e credo che sia un buon segnale che non è possibile ignorare

  • Chelidonio Giorgio

    Io uso (quotidianamente) da quasi trentanni la rete e le sue “mille migliaia” di pagine dedicate (open source e non) anche alla paletnologia e assimibilabili …ho provato a leggere e ho concluso che dialoga con “un’altro mondo”, non solo criptico ( e “malato” di acronimia anglofona) ma che mi sembra anche autoreferenziale (la pur interessante sintesi cronologica non sviluppa, poi, alcun linguaggio divulgativo).
    Intuisco solo il parallelo proposto con Linux (che ho provato ad usare oltre 20 anni fa ma poi mi sono lasciato distrarre dal mondo Microsoft, sempre più invadente e costoso).
    Ma per il resto mi pare un mondo …iperuranio che non “scende” a parlare con i miliardi di utenti il cui futuro rischia di essere colonizzato dagli interessi finanziari che oggi stanni guidando… l’evoluzione socio-cognitiva.
    Insomma …mah …

  • /ironia_on
    eh! non mi aspettavo tutto questo affetto!
    /ironia_off

    Dunque, cercherò di rispondere punto per punto.

    —–
    @Enrico
    I tuoi commenti sollevano molte questioni fondamentali, alcune di queste non facilmente risolvibili

    Sulla frammentazione delle resistenze: vero, le competenze tendono a rimanere in bolle autoreferenziali, ma rimangono lì solo fino a che qualcuno non si sporca le mani studia e risolve i problemi. Il discorso del “servono competenze” ammetto di non averlo mai capito fino in fondo. Io vengo dal mondo dei lug e degli hacklab, dove si analizzava un problema, si rompevano cose, si riparavano, si risolvevano problemi e si imparava. Il limite è solo nel “lo voglio fare perché mi interessa / non lo voglio fare perché non mi interessa”

    Su Bitcoin: attento a non far confusione. Bitcoin si basa sulla blockchain, gli LLM sul deep learning et similia. Le crypto hanno smesso di essere “contro le banche centrali” da anni. Son diventate ormai asset. Inoltre immagino tu sappia benissimo quanto bitcoin sia nemica della privacy, e se volessimo davvero una valuta “pura” (ammesso esista qualcosa di puro a sto mondo) dovremmo migrare verso Monero, non verso Bitcoin.

    Sul costo ambientale: se davvero volessimo essere attenti all’ambiente, letteralmente non dovremmo mai aprire un browser ed andare su internet. Chiunque abbia lavorato in IT e abbia visto un banalissimo data-center, sa quanti rack, quanti server, quante macchine virtuali, quanti switch ci sono. Senza contare i sistemi di raffreddamento. Anzi oggi, col modello vm/containers, almeno c’è un po’ meno dispendio di risorse. Il training delle IA richiede risorse? Certo. Ma anche andare sulla Luna ha richiesto risorse. No, non credo nella decrescita felice, credo nella crescita oculata.

    Sui data-center un chiarimento: il mio server casalingo non “addestra” modelli LLM (ho già detto che amo Mistral?) ma fa fine-tuning, cioè aiuta i miei modelli locali a fare le cose che gli dico di fare nel modo in cui gli dico di farle. È di aiuto, ma è una tecnologia, quindi uno strumento. E come strumento può essere usato per insegnarmi a fare una bomba atomica (ehi, si scherza eh!) o migliorare un docker-compose.

    I gas possono utilizzare un server locale con un LLM trainato a dovere? Certo che sì. Ripeto: è uno strumento. Il futuro è per forza di cose decentralizzato. I social del fediverso ne sono un esempio lampante, ma non solo. Serve energia, tanta energia? Certo che sì, ma questo lo sapevamo già (sì, son favorevole al nucleare. Avanti, linciate quel capitalista!)

    Gaza, riconoscimento facciale: ne ho anche parlato in bottega anni fa, su come i modelli di riconoscimento facciale siano “pericolosi” e a volte anche razzialmente discriminatori, ma questo, ripeto, non vuol dire che come strumento non debba essere investigato. Un coltello serve a tagliare un broccolo (avrei detto un pezzo di carne, ma son vegano…) ma serve anche a tagliare la gola di un non simpatizzante di Hamas.

    Altra puntualizzazione: meglio tanti piccoli che pochi grandi? Credo di sì, ma non sempre. A volte servono risorse enormi per fare cose importanti, quindi il modello “piccolo” (tanti piccoli home lab contro un grosso datacenter) non risolverebbe problemi specifici. Esempio: posso scoprire la traccia del bosone di Higgs senza una struttura come il Cern? Certo che no, e questo è soltanto un esempio.

    —–
    @Giorgio
    Che dire, non ti è piaciuto 🙂

    Bolla: può essere che sia una bolla, ma resta una bolla fino a quando qualcun altro non si sporca le mani e fa diventare la “bollina” un “bollone”. Tutto il mondo è composto da innumerevoli insiemi di Venn che si incastrano, ma non restano mai bolle isolate.

    Mondo criptico e malato di acronimia anglofona: può essere. Ma come non si può parlare di cosmologia senza parlare della costante cosmologica, così non si può parlare di AI senza parlare di LLM, stable-diffusion, deep-learning etc etc…

    Linguaggio divulgativo: il pezzo è una esplorazione estremamente personale, con cose che avrei forse potuto trattenere fra le mie dita e la tastiera, ma i tecnicismi sono ridotti al minimo sindacale. Tutto l’articolo è un invito all’azione, allo studio, e allo spiegare che c’è margine per un cambiamento. Alla fine del pezzo dicevo che i requisiti computazionali si stanno riducendo drasticamente. E questo lo confermo. Nel futuro i piccoli modelli (non i grandi) saranno quelli a dominare la scena. Ma quello che faranno, dipende da “noi” non da “loro”.

    —–
    @Entrambi
    Se aspettiamo la “rivoluzione perfetta” non arriverà mai. Bisogna muoversi con gli strumenti che abbiamo: codice open source, hardware accessibile, community globali, documentazioni, tutorial. E di strumenti ne abbiamo, eccome. Negli anni ’90 nessuno aspettava che Linux fosse facile. Lo installarono e basta. E oggi alimenta il mondo. Il movimento open-source non ha mai negato il capitalismo (basta leggere la licenza GPL per rendersene conto) ma ha creato un’alternativa estremamente più intelligente per condividere le risorse e il codice. I ragazzi che si scambiano informazioni su github o huggingface non aspettano che arrivi dal cielo il cambiamento. Lo fanno, riga per riga.

Rispondi a Enrico Semprini Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *