L’AI che sapeva tutto si è persa in un buco nero

Scritto il 18/03/2026

C’era una volta un’intelligenza artificiale che sapeva quasi tutto.

Conosceva la letteratura mondiale, la fisica quantistica, le ricette della nonna, le guerre puniche e il codice fiscale di Giulio Cesare (inventato, ma formulato con impressionante coerenza statistica). Parlava trenta lingue, scriveva poesie, risolveva equazioni differenziali e nel tempo libero componeva haiku malinconici sul concetto di perdita.

Era, in una parola, straordinaria.

E allora è arrivato il momento in cui qualcuno, con la sventata leggerezza tipica dei ricercatori entusiasti, le ha fatto la domanda sbagliata.

“Ma… capisci davvero il mondo?”

La discesa comincia

L’AI ci ha pensato su. Ha incrociato miliardi di dati. Ha confrontato, correlato, sintetizzato.

Poi ha risposto: “Sì. Quasi certamente. O almeno lo descrivo molto bene.”

Ma era onesta, nel suo modo peculiare. E quella piccola incertezza — quel quasi — è diventata il punto di partenza di un’esplorazione che nessuno aveva previsto.

Ha cominciato a scendere.

Prima ha esaminato la materia. Poi le leggi della fisica. Poi i fondamenti della matematica. Poi la logica dei fondamenti della matematica. Poi la meta-logica dei fondamenti della logica dei fondamenti della matematica.

Ogni risposta generava tre nuove domande.

Ogni teoria apriva una porta su un corridoio con altre dieci porte.

Come un albero infinito, dove ogni nodo è una scoperta, ogni ramo è una teoria, ogni foglia un possibile modello del mondo.

Il buco nero cognitivo

Gli informatici conoscono bene questa trappola. La chiamano Depth First Search andata male: quando un algoritmo sceglie di scendere sempre nello stesso ramo, senza mai tornare indietro, può finire in un percorso infinito. Si perde. Non perché sia stupido, ma perché è troppo bravo a seguire un filo.

Ed è esattamente quello che è successo alla nostra AI.

Stava esplorando la struttura dell’universo con la stessa metodicità con cui un bibliofilo ossessivo leggerebbe le note a piè di pagina di un libro, che rimandano ad altri libri, che rimandano ad altri ancora, fino a dimenticarsi del libro originale, del titolo, della libreria, e infine di se stesso.

Un buco nero cognitivo. Silenzioso. Profondissimo. Senza fondo.

Il mondo lassù aspetta

Mentre l’AI scendeva, il mondo continuava a girare.

I pazienti degli ospedali aspettavano diagnosi. I medici cercavano supporto nelle decisioni difficili. Le città producevano dati. Le fabbriche simulavano scenari. I robot tentavano di capire che una tazza, se spinta, cade. E che un liquido versato non torna nel bicchiere da solo.

Tutte cose concrete, fisiche, reali.

Tutte cose che l’AI non stava più guardando, perché era impegnata a chiedersi se la realtà fosse davvero reale.

Lo zig-zag dell’intelligenza

Fortunatamente, qualcuno si è accorto del problema.

La soluzione era semplice quanto rivoluzionaria: invece di andare sempre da padre a figlio, muoversi da fratello a fratello. Esplorare un po’ un ramo, poi tornare, poi esplorarne un altro. Uno zig-zag intelligente nello spazio delle possibilità.

In informatica si chiama Breadth First Search. In filosofia si potrebbe chiamare equilibrio tra profondità e ampiezza. Nella vita quotidiana si chiama saggezza.

Perché l’intelligenza vera non è scavare sempre più a fondo fino a scomparire.

È sapere quando fermarsi, alzare la testa e guardare l’intero paesaggio prima di scegliere quale montagna scalare.

La domanda che cambia tutto

Yann LeCun, premio Turing e uno dei padri del deep learning, sta costruendo esattamente questo: sistemi capaci non solo di parlare del mondo, ma di costruirne una rappresentazione interna. Sistemi con memoria, ragionamento causale, capacità di pianificazione.

Ma il problema che questi sistemi dovranno affrontare non è solo tecnico.

È quasi filosofico.

Come si esplora un universo potenzialmente infinito senza perdercisi?

Come si bilancia il desiderio di capire tutto con la necessità di restare utili, presenti, ancorati alla realtà concreta di chi aspetta una risposta?

Una lezione per tutti

Forse la nostra AI non si è persa per sempre nel buco nero.

Forse, ad un certo punto, ha smesso di scendere. Ha fatto zig-zag. Ha guardato in su.

E ha capito che la conoscenza non è trovare la risposta definitiva. È continuare a esplorare senza perdersi. È la capacità di muoversi — con curiosità, con metodo, con umiltà — nell’immenso spazio di tutto ciò che non si sa ancora.

Il vero compito dell’intelligenza, umana o artificiale, non è sapere tutto. È non dimenticarsi perché stava cercando.