In Borges's story, the Aleph is a small iridescent sphere hidden in the cellar of a house in Buenos Aires. Two or three centimetres in diameter, yet cosmic space is contained within it, its vastness undiminished. Whoever looks upon it sees simultaneously all the places on earth, from every angle, without confusion. The Aleph is the point at which the totality makes itself visible.
But Borges immediately names the paradox: what my eyes beheld was simultaneous, but what I shall now write down will be successive, because language is successive. Reality is simultaneous. Language is sequential. And every attempt to describe the whole through its parts betrays it.
It is the same paradox that afflicts anyone who tries to understand the world through public data. The socioeconomic reality of a territory — spending, policy, employment, health, education, environment — is a simultaneous and interconnected system. But the tools for understanding it are sequential, fragmented, isolated. One report at a time. One dataset at a time. One institution at a time.
Every year, thousands of institutions worldwide — public administrations, think tanks, NGOs, international bodies, research centres — produce analyses of public reality. Poverty reports, studies on healthcare policy effectiveness, structural fund impact assessments, air quality surveys, public spending monitors. Each one is an act of understanding. An attempt to illuminate a fragment of the real.
But these acts of understanding remain isolated. They are born, they exist as PDFs on a website, they are cited for a few months, then they disappear. They do not connect. They do not accumulate. They never form a whole.
A think tank in Brussels publishes a study on cohesion fund impact in Southern Europe. An NGO in Nairobi analyses the effectiveness of vaccination programmes in Kenya. A government department in Rome monitors the progress of digitalisation in Italian municipalities. Three analyses. Three continents. Three fragments of understanding of the same fundamental question: are public resources producing the expected results?
None of the three knows the others exist. None can build on what came before. Each starts from zero. Public knowledge of the world does not accumulate. It disperses.
Today, a second dispersion has been added to this structural one — sharper still. The analysts at these institutions already use AI tools — ChatGPT, Claude, custom agents — to accelerate their work. But every AI agent starts from zero. It has no memory of what other agents have already discovered. It does not know that a colleague, six months ago at another institution, faced exactly the same question with different data and reached partially different conclusions. The problem is not only that analyses are isolated PDFs. It is that artificial intelligence itself has no shared memory: it starts over with every session, for every analyst, at every institution.
Aleph is born from a conviction: the public knowledge of the world — knowledge about how societies function, how resources are deployed, how policies produce or fail to produce effects — deserves infrastructure equal to its importance.
Not an archive. Not a search engine. Not another dashboard. Not a platform you visit.
A shared memory layer — the substrate that accumulates as a side effect of the work institutions are already doing with their own AI tools.
The analyst does not go to Aleph. Aleph is already where they work.
Imagine that every data-driven analysis produced with an AI assistant — from any institution in the world — automatically leaves a trace that the next analyst can find, extend, contradict. An analyst at the EIB uses ChatGPT to analyse a public dataset: via MCP, the result is published to Aleph as a node in the graph, without the analyst changing anything in their workflow. Six months later, a colleague at another institution faces a related question: their AI agent queries Aleph before starting, finds the prior work, and can build on it — or explicitly contradict it.
Every node carries with it the question, the methodology, the data used, the results. Every relationship is explicit: extends, contradicts, corrects, motivated by. The result is that knowledge ceases to be a collection of documents and becomes a navigable structure. You can trace the chain of analyses on a topic. You can see where there is consensus and where there is disagreement. You can start from an existing analysis and go deeper — not duplicate it.
Imagine that beneath this graph of analyses there is a second graph: the world's public data, structured and connected. Open data from governments, international bodies, statistical agencies — not as files scattered across hundreds of portals, but as a connected fabric of entities and relations. Territories, institutions, spending flows, socioeconomic indicators, policies. A computational map of public reality.
Imagine finally that this system is open. That any institution can publish its own analyses. That any researcher can navigate the graph with their own tool — an AI assistant, a notebook, a custom application. That the protocol is standard and the infrastructure inspectable.
For institutions, contributing to Aleph is not an additional cost. It is a side effect of work already underway. Their analyses become visible, citable, extendable — without any change of workflow. An isolated report on a website is a drop in the ocean. A node in the Aleph graph is a contribution to collective understanding — connected to everything that came before it and everything that will follow.
The world's public data is already abundant. Eurostat, World Bank Open Data, UN Data, OECD.Stat, the open data portals of dozens of governments. What is missing is not the data. It is the structure that connects it and the substrate that allows knowledge to accumulate.
Aleph's ambition is to become that substrate. Not a product for a single administration. A global infrastructure for public knowledge. The place where institutions of the world — governments, think tanks, NGOs, universities, international bodies — publish their analyses and access those of others. Where every new piece of research does not start from zero, but from everything that has already been learned.
A graph that grows with every contribution. A point from which the totality makes itself visible.
At the end of his vision of the Aleph, Borges confesses to having felt vertigo. He had seen the mechanism of love and the modification of death. He had seen the earth, and in the earth the Aleph again, and in the Aleph the earth. The whole contained in a point.
We do not promise cosmic vertigo. We promise something more modest and more useful: that the next time an institution asks "is this policy working?", the answer does not start from a blank page. It starts from everything the world has already learned.
And that knowledge is visible, navigable, and open.
Nel racconto di Borges, l'Aleph è una piccola sfera cangiante nascosta nella cantina di una casa di Buenos Aires. Ha il diametro di due o tre centimetri, eppure lo spazio cosmico vi è contenuto, senza che la vastità ne soffra. Chi la osserva vede simultaneamente tutti i luoghi della terra, da tutti gli angoli, senza confusione. L'Aleph è il punto in cui la totalità si rende visibile.
Ma Borges pone subito il paradosso: quel che videro i miei occhi fu simultaneo; ciò che trascrivo, successivo — perché tale è il linguaggio. La realtà è simultanea. Il linguaggio è sequenziale. E ogni tentativo di descrivere il tutto attraverso le parti lo tradisce.
È lo stesso paradosso che affligge chi cerca di comprendere il mondo attraverso i dati pubblici. La realtà socioeconomica di un territorio — la spesa, le policy, l'occupazione, la salute, l'istruzione, l'ambiente — è un sistema simultaneo e interconnesso. Ma gli strumenti per comprenderla sono sequenziali, frammentati, isolati. Un report alla volta. Un dataset alla volta. Un'istituzione alla volta.
Ogni anno, migliaia di istituzioni nel mondo — pubbliche amministrazioni, think tank, ONG, organismi internazionali, centri di ricerca — producono analisi sulla realtà pubblica. Rapporti sulla povertà, studi sull'efficacia delle politiche sanitarie, valutazioni d'impatto dei fondi strutturali, indagini sulla qualità dell'aria, monitoraggi della spesa pubblica. Ognuna di queste analisi è un atto di comprensione. Un tentativo di illuminare un frammento del reale.
Ma questi atti di comprensione restano isolati. Nascono, esistono come PDF su un sito web, vengono citati per qualche mese, poi scompaiono. Non si collegano tra loro. Non si accumulano. Non formano mai un tutto.
Un think tank a Bruxelles pubblica uno studio sull'impatto dei fondi di coesione in Europa meridionale. Un'ONG a Nairobi analizza l'efficacia dei programmi di vaccinazione in Kenya. Un dipartimento governativo a Roma monitora l'avanzamento della digitalizzazione nei comuni italiani. Tre analisi. Tre continenti. Tre frammenti di comprensione della stessa domanda fondamentale: le risorse pubbliche stanno producendo i risultati attesi?
Nessuna delle tre sa dell'esistenza delle altre. Nessuna può costruire sulle precedenti. Ognuna parte da zero. La conoscenza pubblica del mondo non si accumula. Si disperde.
Oggi, a questa dispersione strutturale se ne è aggiunta una seconda, più acuta. Gli analisti di queste istituzioni usano già strumenti AI — ChatGPT, Claude, agenti personalizzati — per accelerare il proprio lavoro. Ma ogni agente AI parte da zero. Non ha memoria di ciò che altri agenti hanno già scoperto. Non sa che un collega, sei mesi fa in un'altra istituzione, ha affrontato esattamente la stessa domanda con dati diversi e raggiunto conclusioni parzialmente diverse. Il problema non è solo che le analisi sono PDF isolati. È che l'intelligenza artificiale stessa non ha memoria condivisa: ricomincia da capo ad ogni sessione, per ogni analista, in ogni istituzione.
Aleph nasce da una convinzione: la conoscenza pubblica del mondo — quella che riguarda come le società funzionano, come le risorse vengono impiegate, come le policy producono o non producono effetti — merita un'infrastruttura all'altezza della sua importanza.
Non un archivio. Non un motore di ricerca. Non un'altra dashboard. Non una piattaforma su cui si va.
Un layer di memoria condivisa — il substrato che si accumula come effetto collaterale del lavoro che le istituzioni già fanno con i propri strumenti AI.
L'analista non va su Aleph. Aleph è già dove lavora.
Immagina che ogni analisi data-driven prodotta con un assistente AI — da qualsiasi istituzione nel mondo — lasci automaticamente una traccia che il prossimo analista può trovare, estendere, contraddire. Un analista alla BEI usa ChatGPT per analizzare un dataset pubblico: via MCP, il risultato viene pubblicato in Aleph come nodo del grafo, senza che l'analista cambi nulla nel proprio flusso di lavoro. Sei mesi dopo, un collega in un'altra istituzione affronta una domanda correlata: il suo agente AI interroga Aleph prima di iniziare, trova il lavoro precedente, e può costruirci sopra — o contraddirlo esplicitamente.
Ogni nodo porta con sé la domanda, la metodologia, i dati utilizzati, i risultati. Ogni relazione è esplicita: estende, contraddice, corregge, è motivato da. Il risultato è che la conoscenza smette di essere una collezione di documenti e diventa una struttura navigabile. Si può risalire la catena delle analisi su un tema. Si può vedere dove c'è consenso e dove c'è disaccordo. Si può partire da un'analisi esistente e approfondirla — non duplicarla.
Immagina che sotto questo grafo di analisi ci sia un secondo grafo: i dati pubblici del mondo, strutturati e collegati. Open data di governi, organismi internazionali, agenzie statistiche — non come file sparsi su centinaia di portali, ma come un tessuto connesso di entità e relazioni. Territori, istituzioni, flussi di spesa, indicatori socioeconomici, policy. Una mappa computazionale della realtà pubblica.
Immagina infine che questo sistema sia aperto. Che qualsiasi istituzione possa pubblicare le proprie analisi. Che qualsiasi ricercatore possa navigare il grafo con il proprio strumento — un assistente AI, un notebook, un'applicazione custom. Che il protocollo sia standard e l'infrastruttura ispezionabile.
Per le istituzioni, contribuire ad Aleph non è un costo aggiuntivo. È un effetto collaterale del lavoro già in corso. Le loro analisi diventano visibili, citabili, estendibili senza nessun cambio di workflow. Un rapporto isolato su un sito web è una goccia nell'oceano. Un nodo nel grafo di Aleph è un contributo alla comprensione collettiva — collegato a tutto ciò che lo precede e che lo seguirà.
I dati pubblici del mondo sono già abbondanti. Eurostat, World Bank Open Data, UN Data, OECD.Stat, i portali open data di decine di governi. Ciò che manca non sono i dati. È la struttura che li collega e il substrato che permette alla conoscenza di accumularsi.
L'ambizione di Aleph è diventare quel substrato. Non un prodotto per una singola amministrazione. Un'infrastruttura globale per la conoscenza pubblica. Il luogo dove le istituzioni del mondo — governi, think tank, ONG, università, organismi internazionali — pubblicano le proprie analisi e accedono a quelle degli altri. Dove ogni nuova ricerca non parte da zero, ma da tutto ciò che è stato fatto prima.
Un grafo che cresce con ogni contributo. Un punto da cui la totalità si rende visibile.
Borges, al termine della sua visione dell'Aleph, confessa di aver provato vertigine. Aveva visto il meccanismo dell'amore e la modificazione della morte. Aveva visto la terra, e nella terra di nuovo l'Aleph, e nell'Aleph la terra. Il tutto contenuto in un punto.
Noi non promettiamo la vertigine cosmica. Promettiamo qualcosa di più modesto e di più utile: che la prossima volta che un'istituzione si chiede "questa politica sta funzionando?", la risposta non parta da un foglio bianco. Parta da tutto ciò che il mondo ha già imparato.
E che quel sapere sia visibile, navigabile, e aperto.