Articoli

Dal Neuro-Symbolic Concept Learner alla logica epistemica

L’OltreGPT Ricomincio da Socrate: se ChatGPT sa di non sapere

Per anni, quella che chiamiamo intelligenza artificiale si è concentrata sull’individuazione di pattern come sequenze ricorrenti in immagini, oggetti e testi. Più che una mente artificiale, questo è un muscolo che spacca i dati ma che non ci avvicina di una virgola a «possedere conoscenza». Come fummo ammoniti duemila seicento anni fa da Socrate, la vera sapienza risiede nel riconoscimento dei propri limiti: cioè nel «sapere di non sapere» (Platone Apologia di Socrate, Einaudi, 2016). Senza saper scoprire se «non si possede» la conoscenza, non si potrà mai «possederla».

Lo scrittore francese George Perec in Pensare/classificare (1989) evidenziava come l’atto di catalogare elementi non si traduca automaticamente in pensiero critico capace di domandarsi il senso profondo di ciò che osserva mentre lo stesso anno Russell L. Ackoff in “From Data to Wisdom”, creava un framework decisionale passando dai dati grezzi, attraverso informazione e conoscenza, arrivando alla saggezza applicata soltanto come ultimo gradino di una scala progressiva di arricchimento del senso.

Al contrario di quanto oggi si ripete come un mantra, Gaston Bachelard ne La formation de l’esprit scientifique chiariva che, non conoscere ma «saper descrivere» è la base del potere: è nell’accuratezza della descrizione che si costruisce un’autentica comprensione della realtà. Ma descrivere significa innanzitutto stagliare una figura dal vuoto.

1. Dal pattern recognition puro al ragionamento simbolico

Quando prevedono la parola successiva in una frase o assegnando un’etichetta a un’immagine, i modelli di deep learning, come le reti neurali profonde o i grandi modelli di linguaggio, scelgono l’opzione con la probabilità più alta (vedi Goodfellow, Bengio & Courville, Deep Learning, MIT Press, 2016).

Milioni o addirittura miliardi di parametri e capacità di retropropagare il gradiente dei pesi calcolati caratterizzano le reti feedforward multilayer, i convolutional network, e soprattutto i transformer oggi adottati dagli LLM, ovvero i principale sistemi di deep learning.

Invece, i metodi classici di machine learning, come le macchine a vettori di supporto e gli alberi decisionali, operano su rappresentazioni di features predefinite e non sfruttano architetture neurali profonde: le loro prestazioni dipendono in larga misura dalla scelta delle funzioni kernel e dalla selezione manuale delle variabili.

Tutte queste macchine di classificazione sono estremamente efficaci nel riconoscimento di pattern però non dispongono di sistemi per la validazione di proposizioni logiche: cioè non possono affermare che una relazione scoperta sia “vera” o “falsa” ma solo che esista e, al più, valutare indici di coerenza statistica con i dati osservati. Come sottolinea Pedro Domingos, quello che oggi, con una certa sovraestensione della metafora, viene chiamato apprendimento automatico si basa sulla scoperta di strutture e correlazioni nei dati, ma non sulla prova di teoremi o sulla manipolazione di simboli secondo regole logiche fisse, insomma non ha a che fare con la verità di ciò di cui tratta (vedi Domingos, A Few Useful Things to Know About Machine Learning, CACM 2012).

Per colmare questo divario tra pattern recognition e ragionamento simbolico (e quindi verità), è nato tutto un filone di ricerca denominato Neural-Symbolic AI che integra reti neurali con rappresentazioni simboliche e logiche i cui sviluppi chiave seguono una traiettoria storica ben definita.

I primi tentativi di integrare conoscenza simbolica e reti neurali risalgono agli anni Novanta in ambienti connessionisti. Già nel 1990 all’AAAI, Towell, Shavlik e Noordewier introdussero un algoritmo (successivamente chiamato KBANN Knowledge-Based Artificial Neural Networks) e anticiparono l’idea di mappare regole proposizionali in architetture neurali multilayer (Towell et al., AAAI ’90). Con un articolo su Artificial Intelligence nel 1994 Towell e Shavlik formalizzarono KBANN come sistema ibrido capace di incorporare teorie di dominio in reti feedforward (KBANN, AI 70(1-2) 119-165, 1994).

Qualche anno dopo, nel 1999, Garcez e Zaverucha proposero il sistema CILP (Connectionist Inductive Learning and Logic Programming System), che traduceva programmi logici in reti neurali e supportava apprendimento deduttivo da una base collaterale di conoscenza, pur senza supportare le logiche del primo ordine (C-IL²P, Applied Intelligence 11(1) 59–77, 1999).

All’inizio del nuovo millennio d’Avila Garcez, Broda e Gabbay approfondirono l’estrazione simbolica da reti addestrate, proponendo una prima procedura che trasformasse i pesi di una rete neurale feedforward in un insieme di regole proposizionali logicamente coerenti, in modo da garantire che ciascuna regola riproduca esattamente il comportamento del modello addestrato, ottenendo così la proprietà di “soundness” (fondatezza, solidità formale) e completezza del modello (Symbolic knowledge extraction, AI 125(1) 155–207, 2001).

Nel 2002 fu poi pubblicato il volume Neural-Symbolic Learning Systems. curato da d’Avila Garcez, Broda e Gabbay, che offriva finalmente un quadro organico di tecniche per la gestione di estrazione, simulazione e propagazione dei vincoli pur non definendo un modello unificato di gestione di incoerenza e incompletezza. Sempre Bader, d’Avila Garcez e Hitzler presentarono nel 2005 una fondamentale rassegna che classificava le modalità di integrazione tra reti neurali e rappresentazioni simboliche che impiegavano tecniche di fusione logica e propagazione dei vincoli nella logica del primo ordine (Dimensions of Neural-symbolic Integration, arXiv 2005).

Infine, nel 2009, Lamb, d’Avila Garcez e Gabbay proposero il prototipo Neural-Symbolic Cognitive Reasoning come approccio unificato, estendendo i lavori precedenti con logiche modali e temporali integrate in reti neurali (NS-CR, Springer 2009). Questo lavoro proponeva modelli capaci di incorporare logiche modali e temporali, aprendo la strada a sistemi ibridi in grado di apprendere da esempi e ragionare su regole esplicite.

2. Il MIT e Neuro-Symbolic Concept Learner (NS-CL)

Anche se in quadro concettuale poteva essere considerato completo, ci vollero oltre 10 anni per arrivare ad un prototipo chiamato Neuro-Symbolic Concept Learner sviluppato al MIT da Jiayuan Mao, Gan, Kohli, Tenenbaum e Wu nel 2019 per rendere operativo quest’approccio ibrido che combina apprendimento profondo e ragionamento simbolico.

Questo approccio ibrido richiama SHRDLU di Winograd (1972), che già nel “mondo dei blocchi” combinava parsing sintattico-semantico e dominio simbolico per rispondere a comandi in linguaggio naturale, ma lo estende radicalmente rendendo data-driven sia l’analisi visiva sia la traduzione di query in programmi eseguibili. (Winograd, Understanding Natural Language, Cognitive Psychology, 1972)

L’NS-CL interpreta scene visive (ma non immagini reali) e risponde a interrogativi formulati in linguaggio naturale. Il modello apprende concetti visivi, simboli linguistici e parsing semantico senza supervisione esplicita, utilizzando per l’addestramento solo coppie immagine e domanda-risposta.

La componente di visione computazionale impiega una rete neurale per estrarre da ogni scena rappresentazioni basate su oggetti, e segmenta automaticamente gli elementi geometrici presenti. Il risultato è un array della scena costituita da nodi (oggetti) e archi (relazioni spaziali).

A quel punto, il sistema traduce la domanda in un programma simbolico costituito da operazioni logiche (filter, relate, query) che descrivono vincoli come “A sopra B” o “colore = rosso”. Questo parsing è costruito insieme alla percezione, grazie a tecniche di apprendimento che è come se creassero un vero e proprio curriculum di progressi che guida la composizione graduale di concetti sempre più complessi.

Una volta generato il programma, un modulo neuro-simbolico esegue le operazioni sul grafo della scena latente per verificare relazioni e proprietà in base a vincoli di verità interni piuttosto che a semplice coerenza statistica (vedi MIT-IBM Watson AI Lab).

Il punto importante è che se l’entità richiesta non è presente nella scena, il programma restituisce un insieme vuoto e viene segnalato in output “nessun oggetto”. Forse sembra poco, ma la novità del sistema è proprio in questa capacità di riconoscere l’assenza di un oggetto che introduce una forma controllata di ignoranza, cioè la capacità di riflettere su un vincolo di verità esplicito anziché avere un punteggio di probabilità.

3. Hintikka e la logica epistemica

Basandosi sui lavori seminali di von Wright che risalgono al 1951, all’inizio degli anni Sessanta Jaakko Hintikka gettò le basi di una logica formale della conoscenza. Con la pubblicazione nel 1962 di Knowledge and Belief: An Introduction to the Logic of the Two Notions introdusse per la prima volta l’operatore modale Kₐ p per rappresentare l’enunciato «A sa che p» e lo distinse dalle modalità aletiche come necessità (□) e possibilità (◇).

Nello sviluppo successivo, Hintikka dimostrò come la mera negazione ¬Kₐ p («A non sa che p») non basti a catturare la consapevolezza dei propri limiti. In Epistemic Logic and the Methods of Philosophical Analysis (1968) egli formalizzò l’idea che «A sa di non sapere q» sia rappresentabile con la formula Kₐ¬Kₐ q, evidenziando la natura stratificata della non-conoscenza come relazione modale tra diversi livelli di conoscenza.

Per realizzare un sistema capace di valutare proposizioni come vere o false e anche di modellare l’ignoranza controllata, è dunque necessario integrare un livello logico in grado di manipolare questi operatori epistemici. Solo in questo modo un agente artificiale può gestire relazioni di conoscenza e non-conoscenza con la precisione formale richiesta, superando l’approccio statistico dei modelli puramente neurali.

4. Estendere il paradigma neuro-simbolico ai modelli linguistici

Il Neuro-Symbolic Concept Learner del MIT ha dimostrato come sia possibile integrare una rete neurale di riconoscimento della visione con un motore simbolico per interpretare scene geometriche e rispondere a query logiche.

I normali modelli di linguaggio generativo predicono token sulla base della probabilità più alta ottenuta dalla fase di costruzione della rete dei pesi, senza distinguere zone di affidabilità, zone cioé i cui i collegamenti hanno un senso, da zone di puro “riempimento” statistico. Per colmare questo gap, diverse ricerche propongono tecniche di calibrazione e stima dell’incertezza, come la temperature scaling e il bayesian dropout.

Ad esempio Guo et al. in On Calibration of Modern Neural Networks (2017) analizzano come le reti neurali moderne – nonostante la loro elevata accuratezza – spesso sopravvalutino la propria confidenza nelle predizioni. Gli autori introducono tecniche di temperature scaling cioè un semplice meccanismo post-training che ricalibra la distribuzione delle probabilità in uscita, migliorando significativamente la corrispondenza tra confidenza e correttezza senza alterare le prestazioni complessive.

Nel lavoro di Gal & Ghahramani, Dropout as a Bayesian Approximation (2016) invece si dimostra che continuare a disattivare in modo casuale alcune connessioni interne della rete anche durante le previsioni produce non un singolo grado di confidenza, ma una serie di risposte differenti. Analizzando la variazione di queste risposte tra loro, si ricava una stima più realistica del livello di incertezza del modello. In questo modo la misura di fiducia non si basa più su un unico valore statistico, ma riflette le fluttuazioni del ragionamento della rete, avvicinandosi a un’autentica rappresentazione di ciò che si “sa” e di ciò che “non si sa”.

Temperature scaling e Dropout, sviluppate su compiti di classificazione di immagini, sono stati successivamente adattati alla calibrazione dei modelli linguistici.

Infine, pur essendo solo un sistema di prompt engineering, Wei et al. in Chain-of-Thought Prompting Elicits Reasoning in Large Language Models (2022) hanno dimostrato che, fornendo ai grandi modelli di linguaggio esempi di ragionamento articolato passo dopo passo — le cosiddette “catene di pensiero” — questi imparano a suddividere problemi complessi in una sequenza di passaggi intermedi. Inserendo nel prompt non soltanto la domanda finale, ma anche i ragionamenti che vi conducono, il modello migliora in modo sostanziale la precisione nel risolvere quesiti di matematica, logica e comprensione testuale, rispetto all’approccio tradizionale basato su semplici istruzioni di domanda e risposta.

Estendere a un LLM la capacità di ammettere “non so” significherebbe dotarlo di un vero operatore epistemico K capace di riconoscere e segnalare le proprie lacune. Questo salto rappresenterebbe non solo un avanzamento tecnico, ma una pietra miliare verso agenti artificiali con metacognizione: un’indicazione di maturità logica paragonabile al celebre «so di non sapere» socratico.

Ma la proposta di integrare un operatore epistemico K in un modello di linguaggio di grande dimensione resta oggi puramente teorica, poiché non esistono implementazioni concrete di operatori di consapevolezza nei principali sistemi attuali. Un’alternativa pratica è offerta dagli approcci di generazione potenziata da recupero di informazioni esterne, che connettendo modelli parametrici a un indice documentale consentono di ancorare le risposte a fonti verificabili.

Un’altro approccio usa le Logic Tensor Networks in cui le formule della logica del primo ordine vengono mappate in vincoli differenziabili associando a ogni predicato una funzione continua che, data una tupla di vettori, restituisce un grado di verità compreso tra zero e uno. La semantica dei quantificatori universali ed esistenziali è semplificata rappresentandola attraverso operatori di aggregazione differenziabili, per cui ogni clausola logica genera un termine di perdita. Facendo un’operazione di ottimizzazione di questo termine insieme all’errore sui dati si spinge il modello a rispettare le regole simboliche, pur senza aver fatto operazioni simboliche. In questo modo la rete non solo riconosce pattern estratti dai dati, ma soddisfa vincoli formali espressi in una sintassi logica e garantisce una coerenza semantica nelle deduzioni.

5. Simulazione o comprensione?

Il Neuro-Symbolic Concept Learner (NS-CL) del MIT è servito come prova di principio: integrava percezione visiva, parsing simbolico e ragionamento logico per rispondere a query su scene geometriche, ma era pur sempre un sistema molto limitato.

Le vere sfide emergono quando si tenta di riprodurre quest’approccio sugli LLM, poiché il testo richiede non solo coerenza statistica ma anche verifica esplicita delle proposizioni.

Nei modelli di linguaggio generativo, ogni parola successiva è scelta in base alla probabilità predeterminata, ma mancano meccanismi intrinseci per distinguere tra risposte fondate e segmenti di “riempimento” puramente plausibile. La ricalibrazione post-training, detta temperature scaling, può correggere la tendenza delle reti a sovrastimare la propria confidenza mentre mantenere attivo il dropout in inferenza produce una stima bayesiana dell’incertezza, trasformando ogni forward pass in un’indagine sul grado di incertezza epistemica del modello.

L’idea di abbinare agli LLM un motore simbolico si è tradotta in sperimentazioni con chain-of-thought prompting (come i modelli oN di ChatGPT), dove il modello impara a articolare ragionamenti intermedi prima di fornire la risposta finale. Esporre gli LLM a esempi di ragionamenti passo-passo migliora sensibilmente la correttezza in compiti di logica e comprensione e questo risultato suggerisce che l’integrazione di moduli simbolici di verifica, simili a quelli del NS-CL, potrebbe fornire un controllo ancora più rigoroso sui vincoli di verità nel dominio linguistico.

Per dotare un modello linguistico della capacità di ammettere esplicitamente la propria ignoranza, è necessario sviluppare componenti metacognitivi in grado di valutare quando le conoscenze apprese non bastano a garantire una risposta affidabile. Solo così, invece di limitarsi a generare sequenze testuali fluide e persuasive anche in mancanza di una specifica conoscenza, bluffando sul risultato, il sistema potrebbe segnalare semplicemente con un “non so” quando la stima di confidenza scende al di sotto di una soglia predefinita. Riprendendo l’“operatore =K=” hintikkiano — che distingue ciò che un agente sa da ciò che sa di non sapere — si tratterebbe di implementare un’istanza formale di metacognizione, un segno imprescindibile di maturità logica anche per le macchine.

6. Conclusione

L’ampiezza dei dati e il numero di parametri degli LLM continuano a crescere. Questa espansione attrae capitali di rischio e spreca molta energia, ma non aggiunge alcuna forma di verifica logica: senza regole formali e vincoli epistemici, un sistema può soltanto generare coerenza apparente, e peggio discorsi perfettamente persuasivi ma senza alcun impegno verso la verità. Senza riuscire a validare proposizioni come vere o false gli LLM non potranno andare molto oltre la generazione di frasi in libertà, a dispetto di chi, con un buon esercizio di pensiero magico, immagina una qualche forma di «pensiero emergente» che possa venir fuori da reti molto grandi.

È necessaria integrare forme di rappresentazione simbolica per modellare il significato oltre i dati grezzi come è, ad esempio, ampiamente discusso in Knowledge Representation and Reasoning di Brachman e Levesque (Morgan Kaufmann, 2004).

La logica formale, illustrata in Reasoning About Knowledge di Fagin, Halpern, Moses e Vardi (MIT Press, 1995), mostra come la manipolazione di operatori epistemici — ad esempio distinguere ciò che un agente sa (Kₐ p) da ciò che riconosce di non sapere (Kₐ¬Kₐ q) — richieda strutture simboliche capaci di gestire relazioni di conoscenza e ignoranza. Senza un motore logico in grado di applicare regole e verificare vincoli, un’intelligenza artificiale rimane imprigionata in un’inferenza puramente statistica le cui produzioni sono eventualmente surrettiziamente truccate per apparire più persuasive.

Una brutta notizia però ci giunge dalla congettura, proposta da Luciano Floridi (2025), per cui esisterebbe un vincolo fondamentale tra la certezza formale e la capacità di gestire dati ad alta dimensionalità. Mentre le architetture simboliche tradizionali garantiscono correttezza, ma su domini ristretti, i modelli generativi estesi rinunciano a certezze assolute per coprire spazi semantici più ampi.

« […] se corretta, la congettura contribuirebbe a rimodellare gli standard di valutazione, i quadri di governance e la progettazione di sistemi ibridi. La conclusione sottolinea l’importanza di dimostrare o confutare la disuguaglianza per il futuro di un’IA affidabile. » (Floridi, 2025)

L’umiltà intellettuale del «So di non sapere» socratico ha segnato la vastità della saggezza umana.

Al contrario, nel dominio dell’informatica si è spesso coltivata la pretesa di controllare e dominare la complessità della conoscenza a suon di parametri e algoritmi, ignorando l’incertezza insita nei dati e nei modelli.

Oggi è chiaro: l’informatica deve imparare a «sapere di non sapere», una sfida che potrebbe essere insormontabile se affrontata con la solita presunzione.

Emmanuele F. Somma

Letture consigliate