«AI»: fare o non fare. Non c’è provare
di Jolek78
Intro: ChatGPT non ha inventato nulla
Quando nel novembre 2022 il mondo si è svegliato stupefatto davanti a questo chatbot “magico”, in pochi hanno realizzato che quella magia era il risultato di decenni di ricerca.
La storia dell’intelligenza artificiale inizia nel 1943, quando Warren McCulloch e Walter Pitts proposero il primo modello matematico di neurone artificiale. Nel 1956, alla conferenza di Dartmouth, John McCarthy coniò il termine “Artificial Intelligence” e nacque ufficialmente la disciplina.
Gli anni ’60 e ’70 furono caratterizzati da un ottimismo eccessivo: si pensava che l’AI forte fosse dietro l’angolo. Seguirono due “inverni dell’AI” – periodi in cui i finanziamenti scomparvero e la ricerca rallentò – perché le promesse non si concretizzavano. Ma alcuni continuarono a lavorare nell’ombra. Geoffrey Hinton, Yann LeCun, Yoshua Bengio – quelli che oggi chiamiamo i “padrini del deep learning” – proseguirono gli studi sulle reti neurali quando nessuno ci credeva più.
La vera svolta arrivò con tre fattori convergenti: potenza computazionale (le GPU), enormi quantità di dati, e algoritmi migliori. Nel 2012, AlexNet vinse la ImageNet Challenge con un margine schiacciante, dimostrando che il deep learning funzionava davvero. Da lì, un’accelerazione inarrestabile.
C’era una volta il carbonifero…
Prima che esplodesse ChatGPT, la mia unica conoscenza delle AI veniva dai libri di fantascienza. Philip K. Dick e le sue riflessioni su cosa significasse essere umani. Il cyberpunk in generale, con le sue distopie tecnologiche. Il ciclo dello Sprawl di Gibson, dove le AI vivono nel cyberspazio come divinità digitali.
Quelle pagine furono la mia unica finestra su un futuro che sembrava allora lontanissimo.
Quando conducevo il podcast Caccia al Fotone (una cosa carina, ma appartenente ormai al periodo del carbonifero), approfondii meglio l’argomento. Lessi diversi paper pubblicati su arXiv e dedicai due puntate proprio allo sviluppo dell’AI. Nel 2019, durante il periodo pandemico, divorai “Artificial Intelligence: A Guide for Thinking Humans” di Melanie Mitchell – un libro che mi aiutò anche nella scrittura di una “cosa” (chi sa sa, chi non sa, pazienza…) sull’evoluzione dei sistemi informatici e sul capitalismo della sorveglianza.
Credevo di avere il quadro chiaro. Credevo di essere preparato.
Mea culpa
Poi arrivò ChatGPT
Novembre 2022. Primo approccio: stupore totale. Non riuscivo a credere ai miei occhi. Continuavo a fare domande, e nonostante tutte le allucinazioni iniziali in cui mi imbattevo, continuavo ad avere quel “wow effect” tipico del bambino che trova la conchiglia più bella in riva al mare (Newton perdonami il furto, ma quella frase è sempre troppo indicativa…)
E qui il mea culpa: lasciai da parte tutti i miei filtri protettivi che generalmente ho riguardo alla privacy, l’open source, il controllo sui miei dati. Mi lasciai andare ad ore di conversazioni sugli argomenti più disparati. Fino a che una notte – una delle tante notti insonni – mi trovai a discutere con quell’LLM di depressione, disturbi mentali vari, e come uno o più abusi subiti possano influenzare la vita di una persona.
Quando mi resi conto di cosa stesse accadendo, mi fermai di colpo. Cancellai la conversazione, cancellai la sottoscrizione a OpenAI e non toccai nessun LLM per più di un mese. Stavo affidando i miei pensieri più intimi a un sistema proprietario controllato da una corporation. Stavo tradendo ogni principio in cui credevo.
Ma io lavoro in IT. Questa è una rivoluzione enorme. Non potevo permettermi di restare indietro, né potevo semplicemente rifiutarla per principio. Dovevo trovare un’alternativa. Cominciai a studiare sul serio.
Locale, sempre locale
Incontrai i primi modelli che avrei potuto testare in locale. Scoprii Hugging Face, e fu come trovare un’oasi nel deserto. Cominciai a studiare i transformers, i datasets sviluppati dalla community. E rimasi strabiliato.
I transformers sono l’architettura che ha rivoluzionato l’AI. Presentati nel paper “Attention Is All You Need” del 2017, hanno sostituito le vecchie reti neurali ricorrenti (RNN) con un meccanismo più elegante ed efficiente: l’attention mechanism.
In parole semplici: invece di processare il testo parola per parola in sequenza, un transformer guarda tutte le parole simultaneamente e calcola quali sono più rilevanti per il contesto. Quando si legge “La banca del fiume era verde”, l’attention mechanism capisce che “banca” si riferisce al fiume e non all’istituto finanziario, perché valuta il peso di ogni parola rispetto alle altre.
Questa architettura ha reso possibile modelli come BERT, GPT, e tutti gli LLM moderni. È scalabile, parallelizzabile, ed estremamente potente.
Hugging Face
Hugging Face è molto più di una piattaforma: è diventata la biblioteca di Alessandria dell’era dell’intelligenza artificiale. Fondata nel 2016, ospita oggi circa 1 milione di modelli pre-addestrati, 250.000 dataset, e migliaia di applicazioni demo.
La loro libreria transformers ha democratizzato l’accesso all’AI. Con poche righe di Python puoi scaricare e utilizzare modelli che costerebbero milioni di dollari addestrare da zero. Hugging Face non è l’unica piattaforma a fare questo – ci sono anche Ollama, LM Studio, GPT4All – ma è sicuramente la più vasta e collaborativa.
E qui va fatto un elogio agli sviluppatori: questa community di persone sparse per il mondo sta compiendo un lavoro straordinario. Rilasciano modelli open source, condividono conoscenza, documentano tutto meticolosamente. Stanno costruendo un’alternativa reale al monopolio delle Big Tech sull’AI.
Guardando questa esplosione di modelli aperti, di collaborazione globale, di codice condiviso, ho avuto un déjà-vu potente. Questa è incredibilmente simile alla rivoluzione open source avvenuta 30 anni fa. Negli anni ’90, Linux e il movimento del software libero sfidarono il dominio di Microsoft e dei sistemi proprietari. Molti dissero che era impossibile, che il software libero non avrebbe mai funzionato. Oggi Linux alimenta il 96% dei server mondiali, tutti gli smartphone Android, e gran parte dell’infrastruttura di Internet.
Ora sta succedendo la stessa cosa con l’AI. Llama, Mistral, Falcon, GPT-Oss – modelli “open weight/open source” che competono con (e spesso superano) le controparti proprietarie. La storia si ripete, qui non si inventa mai niente.
Un altro server nel mio HomeLab
Ripresi a studiare il Python, studio che avevo lasciato in stand-by anni fa. Con una RaspberryPi4 ed una camerina, avevo sviluppato un progetto minimale usando OpenCV (qui qualcosa di molto simile) per riconoscere gli esseri umani in movimento, basandomi su un database costruito per l’occasione.
Cominciai a sperimentare il fine-tuning in modelli LLM locali. Aggiunsi vecchi script per fornire il mio stile di scrittura al modello (sì, sembra incredibile ma ogni coder ha un suo proprio stile, e dice molto della sua personalità). Utilizzai Llama3 “addestrato” per migliorare il mio coding in Bash.
E quando fui pronto, decisi di fare una spesa importante: acquistai un piccolo server – da aggiungere al mio homelab: Proxmox, Pfsense, Nextcloud, Wireguard etc… – che avrei trasformato in un sistema OpenWebUI.
OpenWebUI è un’interfaccia web self-hosted per modelli linguistici locali. Tipo ChatGPT, ma che gira interamente su hardware locale, senza inviare un singolo byte ai server di qualcun altro.
Per i nerd alla lettura: la via più semplice per l’installazione è ovviamente tramite Docker. Qui un esempio basilare:
docker run -d -p 3000:8080 \
-v open-webui:/app/backend/data \
–name open-webui \
–restart always \
ghcr.io/open-webui/open-webui:main
Una volta installata, basta collegare OpenWebUI a Ollama (il runtime per i modelli locali), scaricare i modelli preferiti, e si è operativi.
L’utilizzo delle GPU è fondamentale: un LLM di media dimensione richiede molta RAM e potenza di calcolo. Una GPU dedicata (come una NVIDIA GTX di vario tipo) fa un’enorme differenza. Per chi usa AMD, c’è poi ROCm. Con 16GB di RAM e una GPU da 8GB, inoltre, si possono far girare comodamente modelli da 7B parametri quantizzati a 4-bit.
La mia combo preferita?
AMD, Debian, Docker, OpenwebUI, Ollama e Mistral.
Una rivoluzione. E una scelta da fare
Siamo di fronte a una grande rivoluzione che non possiamo evitare. Ci sono due strade davanti a noi.
La prima: evitarla adesso, chiudere gli occhi, sperare che passi o che qualcun altro se ne occupi. E poi, fra vent’anni, ritrovarsi a rincorrere un’AI evoluta, probabilmente impossibile da comprendere, completamente nelle mani di chi l’ha controllata fin dall’inizio.
La seconda: studiarla, analizzarla, usarla e comprenderla oggi per poterla maneggiare meglio domani. Partecipare attivamente alla sua evoluzione. Contribuire alla community open source, assicurarsi che questa tecnologia rimanga accessibile, comprensibile, nelle mani di molti invece che di pochi.
E questa non è retorica. Certo, sviluppare un modello da zero richiede (ancora…) risorse da corporation – data center, milioni di dollari, team di ricercatori. Ma prendere un modello open weight (come mistral) esistente e addestrarlo per i propri scopi? Questo è assolutamente fattibile: serve solo la volontà di metterci le mani. Il trend lavora a nostro favore: i requisiti computazionali si stanno riducendo drasticamente nel tempo.
La scelta dipende da noi. E come ho imparato in questo (piccolo) viaggio, scegliere di capire – anche quando è difficile, anche quando significa ammettere di essersi sbagliati – è sempre meglio che subire passivamente.
L’AI non è magia. È matematica, codice, hardware, e soprattutto: è fatta da persone. E se è fatta da persone, può essere compresa, modificata e plasmata da persone. Per il meglio, non per il peggio.