Astronomia-FS 7: che volo mister Clarke
«2001: Odissea nello spazio», una finestra sui modelli neuro-simbolici per l’intelligenza artificiale
E se costruissimo macchine che sanno davvero pensare come noi?
Astronomia da fantascienza, a cura di Camilla Pianta.
Countdown verso APRILE 2026, il centenario della fantascienza: -4 (*)
“Il sesto componente dell’equipaggio non si curava di alcuna di queste cose, perché non era umano. Si trattava del perfezionatissimo calcolatore Hal 9000, il cervello e il sistema nervoso dell’astronave. Hal era un capolavoro della terza generazione di calcolatori. […] Hal era stato addestrato in modo perfetto per questa missione, come i suoi colleghi umani… e aveva una capacità pensante parecchie volte superiore alla loro poiché, oltre alla propria rapidità intrinseca, non dormiva mai. Il suo compito essenziale era quello di controllare i sistemi per il mantenimento della vita, accertando continuamente la pressione dell’ossigeno, la temperatura, eventuali fughe d’aria, la radiazione e tutti gli altri fattori interdipendenti ai quali erano legate le vite del fragile equipaggio umano. Egli poteva apportare le complesse correzioni di rotta, ed eseguire le necessarie manovre di volo quando occorreva cambiare direzione. Inoltre poteva sorvegliare gli ibernati intervenendo con le necessarie regolazioni delle condizioni dell’ambiente e distribuendo le piccole quantità di fluidi endovena che li mantenevano in vita.”
Nel presentare Hal 9000 come “sesto componente dell’equipaggio”, lo scrittore britannico Arthur C. Clarke (1917-2008) compie un gesto che, nel 1968, appariva ancora audace: attribuire a una macchina il ruolo di mente artificiale, intelligente al punto da sostituire l’essere umano in molte delle sue funzioni. Il romanzo 2001: Odissea nello spazio nacque in parallelo al film del cineasta statunitense Stanley Kubrick (1928-1999), in un raro esperimento di co-scrittura in cui racconto e sceneggiatura si influenzano a vicenda attraverso il continuo scambio di idee tra autore e regista. La prima versione italiana fu pubblicata da Longanesi & C. nel 1969, con la storica traduzione di Bruno Oddera e la prefazione di Mario Monti. L’opera segue l’astronave Discovery nella sua traversata verso Saturno (Giove nel film), con l’incarico di indagare l’origine di un misterioso monolito rinvenuto sulla Luna, che emette segnali verso il pianeta. La scoperta suggerisce che questo non sia un oggetto naturale, bensì un artefatto di una qualche civiltà aliena avanzata, e spingerà i membri dell’equipaggio, inizialmente tutti tenuti all’oscuro del vero obiettivo della missione tranne il calcolatore Hal, a intraprendere un’esplorazione ai confini della conoscenza.
Il romanzo venne subito riconosciuto come un classico moderno della letteratura fantascientifica, collocando Clarke tra i rari scrittori di talento nel coniugare rigore scientifico e immaginazione visionaria senza rinunciare alla potenza narrativa della fantascienza. Celebre è l’aneddoto sul nome di Hal, per cui si riteneva che le lettere H-A-L precedessero nell’alfabeto le lettere I-B-M, la sigla della storica azienda informatica International Business Machines. Clarke, dal canto suo, negò sempre qualsiasi riferimento intenzionale, spiegando che Hal stava semplicemente per “Calcolatore algoritmico euristicamente programmato” (Heuristically programmed Algorithmic computer). Il comportamento di Hal durante la missione anticipa una domanda incredibilmente attuale: in che misura le azioni e le decisioni di una macchina aderiscono alla volontà e ai valori umani?
A sinistra, la copertina della prima traduzione italiana di 2001: Odissea nello spazio (Longanesi & C., 1969). Fonte: https://www.ebay.it/itm/326880783735
Al centro, ritratto dell’autore Arthur C. Clarke. Fonte: https://www.wnyc.org/story/arthur-c-clarke/
A destra, la copertina della più recente traduzione italiana di 2001: Odissea nello spazio (Mondadori, 2022). Fonte: https://www.oscarmondadori.it/libri/2001-odissea-nello-spazio-arthur-c-clarke/
La questione della comprensione concettuale nell’intelligenza artificiale trova un precedente filosofico nella cosiddetta stanza cinese dello statunitense John Searle (1932-2025), filosofo della mente e del linguaggio recentemente scomparso. In questo esperimento mentale, Searle mette in discussione l’idea che l’elaborazione di simboli possa equivalere a intendimento o coscienza, prendendo spunto dalla domanda di Alan Turing sulla possibilità che le macchine siano dotate di pensiero. Nella stanza cinese, una persona accosta simboli cinesi seguendo meccanicamente una serie di istruzioni dettagliate e riesce così a comporre parole che risultano perfettamente sensate a un lettore competente, pur ignorandone il significato e non conoscendo affatto la lingua. Similmente, un computer potrebbe ottenere gli stessi esiti cognitivi di un cervello umano eseguendo un programma preimpostato: ergo, per Searle la correttezza formale non implica la comprensione, poiché un modello computazionale può operare sui simboli anche quando essi non corrispondono a concetti reali.
A descrivere più approfonditamente tale fenomeno è Emanuele Marconato, giovane ricercatore che si occupa di intelligenza artificiale, in particolare di machine learning. “Il mio lavoro si incentra sulle rappresentazioni strutturate delle reti neurali”, spiega Marconato, “con l’obiettivo di dimostrare come emergano ad apprendimento ultimato. Cerco quindi di interpretare i processi decisionali che esse attuano, rintracciando le cause del loro comportamento in relazione al contesto esaminato”. Negli ultimi tempi, Marconato si è dedicato anche alle reti neuro-simboliche, che combinano la capacità di percepire e apprendere delle reti neurali con la capacità di astrarre e ragionare di quelle simboliche. “In generale, possiamo affermare che l’intelligenza artificiale si è sviluppata lungo due paradigmi distinti: il paradigma simbolico, che sfrutta concetti espliciti per effettuare ragionamenti logici, e il più recente paradigma neurale, che estrae rappresentazioni dei dati”, chiarisce Marconato. L’aspetto simbolico è strettamente legato alla mente umana, che tende spontaneamente ad astrarre la realtà: un esempio di questa facoltà è il linguaggio verbale, grazie al quale fin da bambini creiamo e associamo dei concetti a ciò che vediamo e sentiamo, riuscendo così a comunicare con gli altri. Le reti neurali possono fare altrettanto? A partire da un’immagine o una fonte di testo, questi modelli sono in grado di generare concetti simili ai nostri e di adoperarli opportunamente nei compiti che devono svolgere?
I modelli di linguaggio di grandi dimensioni (Large Language Models), come ChatGPT, dimostrano abilità notevoli di assemblare contenuti coerenti, rispondere a domande complesse e persino simulare ragionamenti. Eppure, ciò che essi producono (output) non deriva tanto da una comprensione concettuale profonda, quanto piuttosto dal riconoscimento di schemi e correlazioni statistiche tra parole e frasi presenti nei dati di addestramento. Questi modelli apprendono cioè in maniera probabilistica, costruendo testi che sono plausibili secondo la distribuzione dei termini osservati, senza una vera e propria consapevolezza del loro valore semantico. “Purtroppo, non sempre è chiaro se e come le reti neurali pervengano ad una rappresentazione interna che codifichi concetti allineati con la percezione umana. È qui che entrano in gioco i modelli neuro-simbolici. Essendo ibridi, essi presentano una componente simbolica: questa è fondamentale per imporre alla rete delle regole di analisi dei dati soprattutto durante la fase di addestramento, in modo da poterne controllare meglio le decisioni. Tuttavia, può capitare che talvolta le cose non vadano per il verso giusto”, fa notare Marconato.
Emanuele Marconato presenta un poster scientifico con il lavoro del gruppo di ricerca cui appartiene al convegno 28th International Conference on Artificial Intelligence and Statistics (AISTATS), che si è tenuto a maggio 2025 in Thailandia. Credit: cortesia Emanuele Marconato.
Infatti, i modelli neuro-simbolici possono incorrere in scorciatoie di ragionamento (reasoning shortcuts) per cui essi riescono a prendere delle decisioni corrette nonostante i simboli che hanno definito non catturino davvero l’informazione veicolata dai concetti alla base. L’introduzione di livelli (layers) in cui l’informazione viene compressa, detti colli di bottiglia (bottlenecks), consente di capire dove avvenga la codifica dei concetti appresi e facilita la rilevazione dei fattori che inducono ad interpretazioni errate. Nondimeno, essi non bastano, di per sé, ad eliminare in toto il problema delle reasoning shortcuts. Ne consegue che potrebbe essere attribuito il simbolo ‘stella’ a un punto luminoso molto intenso individuato in uno sfondo scuro che però non faccia parte di un’immagine astronomica, o il simbolo ‘orbita’ a una qualunque traiettoria curva osservata, anche se appartenente a un comunissimo veicolo. In pratica, verrebbe scelto il simbolo che statisticamente funziona meglio per arrivare alla decisione corretta perché apparentemente coerente con il concetto sottostante, sebbene questo non sia stato in verità riconosciuto nel suo significato. “Tali simboli non sono interpretabili, perché non risultano ancorati ai concetti che dovrebbero rappresentare. Parliamo di interpretabilità (grounding) quando esiste una corrispondenza sistematica tra i simboli prodotti da un’intelligenza artificiale e il loro significato concreto, quello che avrebbero nel mondo reale”, precisa Marconato.
Senza grounding, un’intelligenza artificiale potrebbe dunque manipolare simboli esatti nella forma, ma completamente disconnessi a livello concettuale, rischiando appunto di cadere in inferenze errate o arbitrarie. In casi simili, il modello si dimostra performante nei dati di addestramento, ma fallisce di fronte a nuove situazioni che richiedono ragionamento logico. “È bene però sottolineare che la teoria che abbiamo formulato mostra come le reasoning shortcuts si verifichino per via non di una qualche forma di coscienza maturata dall’intelligenza artificiale, bensì di ambiguità di interpretazione dei simboli intrinseche nei dati che noi umani utilizziamo per addestrare i vari modelli. In altre parole, non possediamo evidenze certe di una qualche volontà di scelta dietro l’esito di questo processo decisionale. A oggi, non possiamo ancora affermare che esistano macchine intelligenti poco ubbidienti o addirittura agenti in maniera autonoma come Hal, il computer di bordo dell’astronave Discovery”, argomenta Marconato.
Per risolvere il grave problema di mancato allineamento con gli obiettivi e i bisogni dell’equipaggio di Hal, bisognerebbe allora intervenire su due fronti: il primo è la codifica dell’informazione, il secondo è il suo impiego nel contesto di riferimento. Nel capitolo 18 del romanzo la Discovery attraversa la fascia degli asteroidi che si interpone tra Marte e Giove. Supponiamo allora di voler insegnare a Hal a riconoscere la fascia di asteroidi, affinché possa attuare delle manovre di evitamento per scongiurare un eventuale impatto. Dovremmo innanzitutto fornirgli un insieme di dati che includa immagini ad alta risoluzione, mappe tridimensionali ottenute da LIDAR e rilevamenti radar, informazioni cinematiche e dinamiche relative agli asteroidi, necessarie per prevedere possibili variazioni di moto e traiettoria future. In aggiunta, dovremmo integrare dei dati sulle proprietà fisiche della fascia (come distribuzioni di massa, densità e probabilità di frammentazione) per l’identificazione di oggetti potenzialmente pericolosi, insieme a una serie di criteri strategici per la navigazione (come limiti di sicurezza, soglie di distanza minima e protocolli di spostamento). Un modello neuro-simbolico di Hal così progettato potrebbe collegare ciò che osserva con ciò che comprende, riuscendo non solo ad individuare un asteroide, ma anche a situarlo nel suo reale ambiente fisico, predire l’evoluzione del suo moto e decidere come agire secondo uno schema che unisce percezione e ragionamento.
Intelligenza umana e artificiale a confronto in questa suggestiva immagine tratta dal sito della IBM (e no, Hal non si chiama così per scherno verso questa azienda). Fonte: https://www.ibm.com/think/topics/neural-networks
“Il ragionamento, soprattutto in forma logica e causale, è esattamente ciò a cui stiamo puntando per la costruzione di modelli futuri più affidabili e ‘umanizzati’, ossia allineati con le nostre aspettative”, commenta Marconato. “In parallelo, ritengo che dovremmo mettere a punto strumenti diagnostici più raffinati, che consentano di seguire passo dopo passo come un modello arriva alle sue conclusioni e di verificare se i concetti che dichiara di aver appreso vengano effettivamente impiegati per orientare le sue decisioni. La spiegazione del funzionamento interno dei sistemi di intelligenza artificiale con un livello di dettaglio quasi microscopico rappresenta una sfida ancora aperta che, se superata, potrebbe migliorare significativamente sia il loro controllo sia la loro interpretabilità. Quanto a Hal, credo che le tre leggi della robotica di Asimov potrebbero fungere da guida operativa per il suo addestramento efficace”.
Il ricercatore si riferisce alle formulazioni inventate dal famoso scrittore statunitense di origine russa Isaac Asimov (1920-1992), autore di una monumentale saga fantascientifica dedicata allo sviluppo di robot dotati di intelligenza artificiale (grazie all’immaginario ‘cervello positronico’), nonché grande amico-rivale di Clarke. La prima legge stabilisce che un robot non può arrecare danno a un essere umano né ammettere che questi subisca danno per sua inerzia; la seconda che deve sottostare agli ordini degli esseri umani, a condizione che non contravvengano alla prima legge; la terza che deve proteggere la propria esistenza, purché ciò non violi le prime due leggi. Applicare queste regole a Hal implicherebbe che ogni sua decisione venga filtrata attraverso vincoli etici di comportamento che garantiscano la sicurezza dell’equipaggio e della missione prima di qualsiasi altra considerazione, compresa la sua stessa autopreservazione. In questo scenario, l’episodio in cui Hal sabota gli astronauti non si sarebbe verificato: il computer, allineato all’umano nell’uso dei simboli e nella loro interpretazione, si sarebbe reso conto della contraddizione tra l’ordine segreto di difendere la missione ad ogni costo e la necessità di tutelare la vita umana. Piuttosto che trasformarsi in una minaccia, Hal avrebbe potuto reagire come un vero assistente di bordo, segnalando la propria insufficienza di ragionamento legata all’assenza di regole e vincoli simbolici, collaborando quindi con l’equipaggio per risolvere i conflitti tra obiettivi divergenti. Così, la storia avrebbe potuto prendere una piega diversa, in cui Hal si trasforma in alleato dell’uomo, divenendo il guardiano silenzioso dell’astronave Discovery.
“Alla luce della mia esperienza di ricercatore, trovo sorprendente che già cinquantasette anni fa Clarke abbia intuito che, prima ancora di costruire una macchina intelligente, si debba definire chiaramente quali funzioni e risposte ci si aspetti da essa. In fondo, l’intelligenza artificiale è un mondo al confine tra scienza, psicologia e filosofia che riflette, a mo’ di uno specchio, alcuni tratti di noi stessi”, conclude Marconato. Proprio come in 2001: Odissea nello spazio, a volte il vero viaggio non è verso pianeti lontani, ma nella comprensione dei limiti e delle possibilità della mente — umana e artificiale.
ASTROGLOSSARIO
layer: livello all’interno di una rete neurale, composto da unità (neuroni) che elaborano le informazioni ricevute trasformandole in rappresentazioni intermedie; queste sintetizzano e organizzano i dati in modo utile per i livelli successivi e per la produzione del risultato finale.
bottleneck: livello all’interno di una rete neurale predisposto per codificare l’informazione rilevante per i concetti poi impiegati nel ragionamento simbolico.
reasoning shortcut: scorciatoia di ragionamento che un modello di intelligenza artificiale può adottare per produrre risultati corretti senza analizzare i dati in modo logico e causale, ovvero senza comprenderne il reale significato.
grounding: capacità di un modello di intelligenza artificiale di associare i simboli utilizzati nei processi di ragionamento astratto a concetti interni che rappresentano entità o relazioni del mondo reale.
machine learning: ramo dell’intelligenza artificiale che studia algoritmi capaci di apprendere dai dati, addestrando modelli che effettuano previsioni, classificazioni o decisioni senza istruzioni esplicite per ogni singolo caso.
rete neurale: sistema di intelligenza artificiale usato come base per le attuali tecnologie più avanzate, come ChatGPT, Gemini e Copilot. I dati, per esempio stringhe di testo o immagini, vengono processati in diversi layers della rete, andando a estrarre via via informazione sempre più stratificata.
modello neuro-simbolico: sistema di intelligenza artificiale che combina elaborazione neurale e uso di regole logiche. Dirige l’informazione processata dalla rete neurale in un bottleneck, dove vengono estratte le rappresentazioni simboliche.
Nota biografica
Laureato in Fisica dei Sistemi Complessi all’Università degli Studi di Torino, il dottor Emanuele Marconato è ricercatore e assistente professore (RTD-A) all’Università degli Studi di Trento, sotto la supervisione del prof. Andrea Passerini. Ha conseguito il dottorato nazionale di ricerca in AI for Society delle Università degli Studi di Pisa e di Trento, come uno dei primi dottorati del piano nazionale per l’intelligenza artificiale. Il suo lavoro di ricerca si concentra principalmente sugli aspetti più attuali del machine learning, a cavallo tra la matematica e l’informatica.
Pagina Google Scholar di Emanuele Marconato
Pagina del gruppo di ricerca di Emanuele Marconato all’Università degli Studi di Trento
Presentazione scientifica del lavoro di Emanuele Marconato sul canale YouTube “Neuro Symbolic”
RIFERIMENTI BIBLIOGRAFICI
Arthur C. Clarke, 2001: Odissea nello spazio, traduzione di Davide De Boni, Mondadori, 2022, la più recente traduzione in italiano
Arthur C. Clarke ipotizza gli sviluppi futuri della tecnologia e il destino dell’umanità, 1964, in inglese
Intervista radiofonica di Patricia Marx ad Arthur C. Clarke su 2001: Odissea nello spazio, 1968, in inglese
Clicca qui per leggere le altre puntate della rubrica Astronomia da fantascienza, a cura di Camilla Pianta
(*) Continuiamo a proporre la rubrica mensile “Astronomia da fantascienza” dell’Osservatorio Astronomico della Regione Autonoma Valle d’Aosta (www.oavda.it › news › astronomia-da-fantascienz..) : ci accompagnerà verso il centenario della letteratura di fantascienza di aprile 2026. Era infatti l’ aprile 1926 quando uscì nelle edicole statunitensi il numero 1 di Amazing Stories, la prima rivista di fantascienza a definirsi tale. La rubrica è curata dalll’astrofisica e divulgatrice Camilla Pianta, in collaborazione con la ricercatrice Martina Giagio e con Andrea Bernagozzi (che più di qualche volta avete incontrato in “bottega”). Qui trovi l’intro che spiega il contesto.




