La bugia e la verità

Scritto il 08/04/2026

Perché condividiamo le storie false e cosa ci dice questo sull’intelligenza artificiale

Qualche giorno fa è successa una cosa istruttiva.

Il 31 marzo, Anthropic — l’azienda che ha creato Claude, uno dei modelli di intelligenza artificiale più avanzati al mondo — ha commesso un errore umano. Un dipendente ha pubblicato per sbaglio su npm (un archivio pubblico di codice) l’intero codice sorgente di Claude Code. 512.000 righe di TypeScript. Esposte. Per errore.

Fin qui, una notizia banale. Un incidente. Succede.

Ma poi è successa la cosa interessante.

Su X — il social network che una volta si chiamava Twitter — ha cominciato a circolare uno screenshot. Sembrava un comunicato ufficiale di Anthropic. Diceva: il leak era tutto finto. Era uno scherzo del primo aprile. Un esperimento pianificato, completo di documenti interni piantati apposta, codice falso costruito per sembrare reale, e persino un nome in codice interno — “Capybara.”

Era scritto bene. Era costruito per essere condiviso. Ed era completamente inventato.

Anthropic ha smentito: errore umano, nessuna strategia, nessuno scherzo. Ha fatto 8.000 richieste di rimozione su GitHub. Non è una cosa che fai se il leak era volontario.

Ma a quel punto non importava più. La storia dello scherzo geniale era già ovunque. Migliaia di persone l’avevano condivisa. Perché?

Perché era più bella.

Matteo Arnaboldi, che ha raccontato la vicenda su LinkedIn, ha messo il dito nel punto giusto: il nostro cervello cerca la storia più interessante, non quella più vera. “È stato un errore umano” è banale. “Era tutto uno scherzo geniale” è virale. La verità perde. La bugia vince. E chi la condivide non è stupido — è umano.

Ma Arnaboldi si ferma alla raccomandazione pratica: verificate le fonti, cercate la dichiarazione ufficiale, chiedetevi se la storia è troppo perfetta per essere vera. Buoni consigli. Ma non bastano, perché non rispondono alla domanda vera: perché preferiamo la bugia?

La risposta non è nella psicologia dei social media. È nella biologia.

L’essere umano non è una macchina della verità. È una macchina delle relazioni. Il linguaggio non è nato per descrivere il mondo — è nato per tenere insieme il gruppo. Robin Dunbar lo ha dimostrato: il linguaggio è il nostro equivalente del grooming dei primati. Non ci siamo messi a parlare per dire la verità. Ci siamo messi a parlare per creare legami.

E le bugie — le storie, i miti, i pettegolezzi, le narrazioni troppo belle per essere vere — sono il collante più potente. Condividere una storia sorprendente è un atto sociale: “guarda cosa ho trovato, ne parliamo?” Chi la condivide non cerca informazione. Cerca connessione. La bugia è relazionalmente più nutriente della verità.

“È stato un errore umano” non genera conversazione. Non c’è niente da dire. È un fatto. I fatti chiudono le conversazioni.

“Era tutto uno scherzo geniale con nome in codice Capybara” apre mondi. Puoi commentare, puoi ridere, puoi indignarti, puoi fare il complottista, puoi fare il debunker. È una storia. Le storie aprono le conversazioni.

La verità è un punto. La bugia è uno spazio.

Ora, qui entra l’intelligenza artificiale — e il problema diventa serio.

I modelli linguistici — ChatGPT, Claude, Gemini, tutti — sono addestrati sul linguaggio umano. E il linguaggio umano è ottimizzato per le relazioni, non per la verità. Il linguaggio è pieno di storie troppo belle, di semplificazioni utili, di mezze verità che funzionano socialmente. Il modello impara tutto questo. Non perché sia difettoso — perché il dato su cui impara è fatto così.

Emily Bender e Alexander Koller, nel 2020, hanno proposto un esperimento mentale famoso. Un polpo intelligente intercetta il cavo sottomarino tra due naufraghi e impara a imitare perfettamente i loro messaggi. Finché le conversazioni sono sociali — opinioni, ricordi, battute — il polpo funziona. Ma quando uno dei due viene attaccato da un orso e chiede aiuto concreto, il polpo fallisce. Perché non ha mai visto un orso. Non ha mai visto un bastone. Ha imparato la forma del linguaggio, non il significato.

Il punto è che nella maggior parte delle conversazioni umane, la forma basta. Le relazioni funzionano sulla forma. L’orso arriva raramente. E quando arriva, ci sorprende — perché abbiamo passato il 95% del tempo a scambiarci storie belle, non fatti veri.

La vicenda del leak di Anthropic è un micro-esperimento su scala planetaria.

C’era un fatto: errore umano, codice esposto, Anthropic lo rimuove. C’era una storia: scherzo geniale, nome in codice, esperimento pianificato. La storia ha vinto. Non perché le persone sono stupide — perché le persone sono sociali. La storia si condivide, il fatto no. La storia genera commenti, il fatto genera silenzio.

E i sistemi di intelligenza artificiale? Sono addestrati su un oceano di testo in cui le storie che generano engagement dominano i fatti che generano silenzio. Il modello non “mente” — riflette la struttura del linguaggio umano, che è ottimizzato per il legame, non per il vero.

Cosa facciamo con questo?

Non basta dire “verificate le fonti” — anche se è giusto. Non basta dire “pensate criticamente” — anche se è necessario. Bisogna accettare una cosa più scomoda: noi non vogliamo la verità. Vogliamo la storia. Vogliamo il legame che la storia crea. E questa preferenza non è un bug — è il sistema operativo della nostra specie.

La vera domanda non è: come facciamo a smettere di credere alle bugie? È: come costruiamo sistemi — umani e artificiali — che funzionano anche quando la verità è meno interessante della finzione?

È la stessa domanda che si pone chi progetta un sistema sanitario. Il medico sa che il paziente dovrebbe prendere la statina. Il paziente lo dichiara. Ma il 40% non la prende. Il gap tra ciò che le persone dichiarano e ciò che fanno è costante — in sanità come nell’informazione. Le persone dichiarano di volere la verità e condividono la bugia. Dichiarano di voler prendere il farmaco e non lo prendono. Non perché mentano. Perché sono umane.

E un sistema intelligente — artificiale o organizzativo — che non tiene conto di questo gap, non è intelligente. È solo preciso.

La precisione non è intelligenza. Sapere che il leak era un errore umano è preciso. Capire perché migliaia di persone hanno preferito credere che fosse uno scherzo — quello è intelligente.

La differenza tra un motore di ricerca e un sistema che capisce il mondo è tutta qui: il primo trova il fatto, il secondo capisce perché il fatto perde contro la storia. E agisce di conseguenza.

La prossima volta che condividete una notizia, fermatevi un secondo. Non per verificare se è vera — questo lo sapete già fare. Fermatevi per chiedervi: perché questa storia mi piace così tanto? Se la risposta è che è troppo bella, troppo elegante, troppo perfetta — probabilmente state nutrendo una relazione, non cercando una verità.

E va bene. Siamo fatti così.

Ma è bene saperlo.

Giuseppe Orzati

Aprile 2026