In ogni dibattito sull'intelligenza artificiale nella pratica clinica, la domanda d'apertura è la stessa: "Chi è responsabile se l'AI sbaglia?" È una domanda comprensibile. Ma è la domanda sbagliata. L'AI non emette diagnosi. Le emette il medico. Nel diritto italiano vigente, l'AI è uno strumento — e uno strumento non "sbaglia": funziona o non funziona, è usato bene o male, è adeguato o difettoso.
La domanda corretta ha due facce: come cambia la posizione giuridica del medico che si avvale dell'AI? E come cambia quella del medico che sceglie di non avvalersene? La Legge 24/2017 (Gelli-Bianco) ancora la responsabilità all'art. 5: aderenza alle linee guida SNLG e alle buone pratiche. L'art. 1176 c.c. fissa il parametro della diligenza qualificata. Il D.Lgs. 206/2005 copre la responsabilità del produttore per difetto del dispositivo. L'AI Act (Reg. UE 2024/1689) aggiunge i requisiti di trasparenza e supervisione umana. Ma quando l'errore nasce nell'interazione tra le due intelligenze — non nel difetto dell'una né nella negligenza dell'altra, ma nel modo in cui si sono parlate — non esiste ancora un frame giuridico chiaro.
La Doppia Opacità
Il discorso pubblico dipinge l'AI come "scatola nera" — opaca, non rendicontabile, incapace di spiegare se stessa. L'immagine contiene un nucleo tecnico reale: le architetture di deep learning sono opache nei passaggi intermedi. Ma questa opacità viene trattata come un'eccezione, un difetto della macchina, quando in realtà è una condizione simmetrica.
Neppure il ragionamento clinico è trasparente. Il medico esperto opera attraverso pattern recognition, intuizione addestrata, euristiche consolidate. Raramente ricostruisce con precisione documentale il percorso che lo ha condotto a un sospetto diagnostico. Nella pratica, formula prima il giudizio e poi, se richiesto, la giustificazione. La differenza è che alla cognizione umana concediamo una fiducia narrativa: accettiamo la ricostruzione a posteriori come se fosse il processo reale.
Abbiamo dunque due opacità speculari: quella dell'algoritmo e quella del giudizio clinico. La risposta dominante — l'Explainable AI (XAI) — punta a rendere la prima trasparente. Ma le spiegazioni XAI sono anch'esse ricostruzioni narrative, non finestre sul processo computazionale reale. Spiegano la decisione, non come è stata generata.
Il Paradosso dell'Omissione
Il dibattito si concentra sull'errore per commissione: il medico usa l'AI, l'AI suggerisce un percorso errato, il paziente subisce un danno. Ma il rischio simmetrico — l'errore per omissione — è ancora largamente ignorato.
Se un sistema di AI era disponibile e validato, e avrebbe potuto rilevare un pattern clinico che il medico ha mancato, si configura una responsabilità potenziale per mancata adozione. Ma il punto è più profondo: l'omissione crea un effetto cricchetto. Man mano che i sistemi di AI entrano nella pratica clinica corrente e vengono incorporati nelle linee guida SNLG e nelle buone pratiche, il non-utilizzo diventa progressivamente più difficile da giustificare. Si produce un mandato de facto senza un mandato de jure: nessuna norma obbliga il medico a usare l'AI, ma la giurisprudenza sulla diligenza qualificata renderà sempre più oneroso dimostrare che non usarla fosse una scelta ragionevole.
La domanda giuridica del futuro non sarà "perché hai usato l'AI?" ma "perché non l'hai usata?"
Oracolo o Interlocutore
Ogni problema — responsabilità, opacità, omissione, consenso — converge in una scelta di architettura che è prima concettuale e poi tecnica: come viene progettata la relazione tra il clinico e il sistema.
Il Paradigma Oracolare
L'AI riceve un input, produce una risposta (diagnosi suggerita, probabilità, score di rischio), la consegna al medico. Il medico accetta o rifiuta. La responsabilità è un gioco a somma zero: fidarsi e abdicare, o diffidare e perdere valore. L'audit trail registra solo l'output finale.
Il Paradigma Dialogico
L'AI non produce diagnosi: genera un campo di confronto. Il clinico porta un'ipotesi; il sistema la mette in tensione con i dati. Le discordanze vengono esplorate, non eliminate. Il ragionamento è co-costruito — e registrato nella sua interezza.
Nel paradigma dialogico, la responsabilità resta ancorata al clinico, ma il suo giudizio è stato arricchito, non sostituito. L'opacità diventa produttiva. L'audit trail è completo: ipotesi, contro-ipotesi, anomalie rilevate, percorsi esclusi e ragioni dell'esclusione. E il consenso diventa narrabile — il medico può spiegare al paziente non solo cosa ha deciso ma come ci è arrivato.
L'AI come Dispositivo di Accountability
Se superiamo il frame della "scatola nera", emerge un paradosso: l'AI generativa può produrre qualcosa che il ragionamento clinico umano tipicamente non produce — una narrazione strutturata e documentata delle ragioni che sostengono o indeboliscono un'ipotesi diagnostica, ancorata in tempo reale a fonti verificabili.
Nell'ottica dell'art. 5 della Legge 24/2017 (Gelli-Bianco), il sistema può svolgere: correlazione con le linee guida SNLG, mappatura delle evidenze, documentazione delle ipotesi, segnalazione di anomalie, audit trail narrativo e — soprattutto — la memoria del non-detto: documentazione di ciò che il sistema ha rilevato ma il clinico ha scelto di non perseguire.
In questo senso, l'AI non è un rischio per la compliance Gelli: è il più potente dispositivo di protezione medico-legale oggi concepibile. Non perché non sbaglia, ma perché documenta il ragionamento in un modo che nessun clinico, da solo, può fare.
Ma c'è un rischio nascosto anche nel paradigma dialogico: l'assuefazione da conferma. Se il clinico si abitua a ratificare l'output del sistema senza reale confronto, il dialogo degenera in un oracolo mascherato. Per questo servono cicli di verifica causale: valutazioni periodiche non solo dell'affidabilità del sistema, ma della qualità dell'interazione — il confronto produce davvero ipotesi nuove, o il clinico si è adattato a confermare?
Questo paradigma non è un'ipotesi: è la base di COGI.CO, un sistema di intelligenza dialogica e collaborativa progettato per la governance sanitaria nel SSN italiano. Ciò che segue è una dimostrazione interattiva di come le tre lenti — oracolo, dialogo, legge — trasformano cinque situazioni ordinarie in cinque rivelazioni.
