Intelligenza Artificiale, Medico e Responsabilità Professionale

Scritto il 15/04/2026

Position Paper · COGI.CO

La Doppia Opacità
AI, Medico e Legge

La domanda non è "chi è responsabile se l'AI sbaglia." La domanda è: cosa succede quando il medico che non ha usato l'AI non può dimostrare l'ampiezza del ragionamento che ha effettivamente svolto?

In ogni dibattito sull'intelligenza artificiale nella pratica clinica, la domanda d'apertura è la stessa: "Chi è responsabile se l'AI sbaglia?" È una domanda comprensibile. Ma è la domanda sbagliata. L'AI non emette diagnosi. Le emette il medico. Nel diritto italiano vigente, l'AI è uno strumento — e uno strumento non "sbaglia": funziona o non funziona, è usato bene o male, è adeguato o difettoso.

La domanda corretta ha due facce: come cambia la posizione giuridica del medico che si avvale dell'AI? E come cambia quella del medico che sceglie di non avvalersene? La Legge 24/2017 (Gelli-Bianco) ancora la responsabilità all'art. 5: aderenza alle linee guida SNLG e alle buone pratiche. L'art. 1176 c.c. fissa il parametro della diligenza qualificata. Il D.Lgs. 206/2005 copre la responsabilità del produttore per difetto del dispositivo. L'AI Act (Reg. UE 2024/1689) aggiunge i requisiti di trasparenza e supervisione umana. Ma quando l'errore nasce nell'interazione tra le due intelligenze — non nel difetto dell'una né nella negligenza dell'altra, ma nel modo in cui si sono parlate — non esiste ancora un frame giuridico chiaro.

· · ·

La Doppia Opacità

Il discorso pubblico dipinge l'AI come "scatola nera" — opaca, non rendicontabile, incapace di spiegare se stessa. L'immagine contiene un nucleo tecnico reale: le architetture di deep learning sono opache nei passaggi intermedi. Ma questa opacità viene trattata come un'eccezione, un difetto della macchina, quando in realtà è una condizione simmetrica.

Neppure il ragionamento clinico è trasparente. Il medico esperto opera attraverso pattern recognition, intuizione addestrata, euristiche consolidate. Raramente ricostruisce con precisione documentale il percorso che lo ha condotto a un sospetto diagnostico. Nella pratica, formula prima il giudizio e poi, se richiesto, la giustificazione. La differenza è che alla cognizione umana concediamo una fiducia narrativa: accettiamo la ricostruzione a posteriori come se fosse il processo reale.

Abbiamo dunque due opacità speculari: quella dell'algoritmo e quella del giudizio clinico. La risposta dominante — l'Explainable AI (XAI) — punta a rendere la prima trasparente. Ma le spiegazioni XAI sono anch'esse ricostruzioni narrative, non finestre sul processo computazionale reale. Spiegano la decisione, non come è stata generata.

Esiste un'alternativa epistemologica: non cercare di eliminare l'opacità, ma rendere produttivo il confronto tra le due opacità. Non "perché hai concluso X?" ma: generare un campo di tensione tra ciò che il clinico vede e ciò che il sistema rileva, e lasciare emergere le discordanze come segnali diagnostici.

Il Paradosso dell'Omissione

Il dibattito si concentra sull'errore per commissione: il medico usa l'AI, l'AI suggerisce un percorso errato, il paziente subisce un danno. Ma il rischio simmetrico — l'errore per omissione — è ancora largamente ignorato.

Se un sistema di AI era disponibile e validato, e avrebbe potuto rilevare un pattern clinico che il medico ha mancato, si configura una responsabilità potenziale per mancata adozione. Ma il punto è più profondo: l'omissione crea un effetto cricchetto. Man mano che i sistemi di AI entrano nella pratica clinica corrente e vengono incorporati nelle linee guida SNLG e nelle buone pratiche, il non-utilizzo diventa progressivamente più difficile da giustificare. Si produce un mandato de facto senza un mandato de jure: nessuna norma obbliga il medico a usare l'AI, ma la giurisprudenza sulla diligenza qualificata renderà sempre più oneroso dimostrare che non usarla fosse una scelta ragionevole.

La domanda giuridica del futuro non sarà "perché hai usato l'AI?" ma "perché non l'hai usata?"

· · ·

Oracolo o Interlocutore

Ogni problema — responsabilità, opacità, omissione, consenso — converge in una scelta di architettura che è prima concettuale e poi tecnica: come viene progettata la relazione tra il clinico e il sistema.

Il Paradigma Oracolare

L'AI riceve un input, produce una risposta (diagnosi suggerita, probabilità, score di rischio), la consegna al medico. Il medico accetta o rifiuta. La responsabilità è un gioco a somma zero: fidarsi e abdicare, o diffidare e perdere valore. L'audit trail registra solo l'output finale.

Il Paradigma Dialogico

L'AI non produce diagnosi: genera un campo di confronto. Il clinico porta un'ipotesi; il sistema la mette in tensione con i dati. Le discordanze vengono esplorate, non eliminate. Il ragionamento è co-costruito — e registrato nella sua interezza.

Nel paradigma dialogico, la responsabilità resta ancorata al clinico, ma il suo giudizio è stato arricchito, non sostituito. L'opacità diventa produttiva. L'audit trail è completo: ipotesi, contro-ipotesi, anomalie rilevate, percorsi esclusi e ragioni dell'esclusione. E il consenso diventa narrabile — il medico può spiegare al paziente non solo cosa ha deciso ma come ci è arrivato.

L'AI come Dispositivo di Accountability

Se superiamo il frame della "scatola nera", emerge un paradosso: l'AI generativa può produrre qualcosa che il ragionamento clinico umano tipicamente non produce — una narrazione strutturata e documentata delle ragioni che sostengono o indeboliscono un'ipotesi diagnostica, ancorata in tempo reale a fonti verificabili.

Nell'ottica dell'art. 5 della Legge 24/2017 (Gelli-Bianco), il sistema può svolgere: correlazione con le linee guida SNLG, mappatura delle evidenze, documentazione delle ipotesi, segnalazione di anomalie, audit trail narrativo e — soprattutto — la memoria del non-detto: documentazione di ciò che il sistema ha rilevato ma il clinico ha scelto di non perseguire.

In questo senso, l'AI non è un rischio per la compliance Gelli: è il più potente dispositivo di protezione medico-legale oggi concepibile. Non perché non sbaglia, ma perché documenta il ragionamento in un modo che nessun clinico, da solo, può fare.

Ma c'è un rischio nascosto anche nel paradigma dialogico: l'assuefazione da conferma. Se il clinico si abitua a ratificare l'output del sistema senza reale confronto, il dialogo degenera in un oracolo mascherato. Per questo servono cicli di verifica causale: valutazioni periodiche non solo dell'affidabilità del sistema, ma della qualità dell'interazione — il confronto produce davvero ipotesi nuove, o il clinico si è adattato a confermare?

Questo paradigma non è un'ipotesi: è la base di COGI.CO, un sistema di intelligenza dialogica e collaborativa progettato per la governance sanitaria nel SSN italiano. Ciò che segue è una dimostrazione interattiva di come le tre lenti — oracolo, dialogo, legge — trasformano cinque situazioni ordinarie in cinque rivelazioni.

Cosa Hai Appena Visto

Hai visto Anna Ferrante seduta al tavolo della cucina con sei scatole di pillole e nessuno che le chieda se ha capito. Hai visto Lucia scrivere "sto bene" otto minuti dopo aver scritto "non so più come si fa." Hai visto il dott. Vinci dire "rivediamo in Q3" mentre la dott.ssa Ferro contava i re-ricoveri del lunedì. Hai visto un D-dimero borderline scomparire dietro un 72% di polmonite.

In ciascun caso, tre cose sono accadute. L'oracolo ha confermato ciò che il sistema già credeva. Il dialogo ha fatto emergere ciò che nessuno aveva nominato. E la legge ha mostrato il vuoto in cui il danno si annida — non nel difetto dello strumento, non nella negligenza del clinico, ma nella distanza tra ciò che il sistema potrebbe documentare e ciò che effettivamente documenta.

Tre Rovesciamenti

Primo — L'opacità non è il nemico. Il medico che ha sospettato la polmonite non sapeva ricostruire perché. Il sistema che ha rilevato la tensione del D-dimero non può mostrare i propri pesi interni. Ma dal confronto tra le due opacità è emerso un segnale — il viaggio in auto, il Wells non calcolato — che nessuna delle due intelligenze avrebbe prodotto da sola. L'opacità diventa risorsa quando due forme diverse si confrontano.

Secondo — L'AI non indebolisce il medico. Lo protegge. Anna Ferrante dimessa il venerdì con uno score di 0.74 che nessuno legge. La traccia dialogica avrebbe registrato: il rischio di transizione segnalato, la telefonata del lunedì raccomandata, le ragioni della scelta. Non la risposta giusta — la documentazione che il ragionamento è stato completo. In sede Gelli-Bianco, questa traccia è il dossier difensivo.

Terzo — La domanda è "come," non "se." Il dott. Vinci che rinvia a Q3 accumula pressione cricchetto. Ogni mese di rinvio è un mese di consapevolezza istituzionale documentata senza azione. L'oracolo avrebbe dato un ROI a 14 mesi. Il sistema dialogico ha mostrato che il non-fare costa €9.000/mese e che il verbale stesso diventerà prova in un contenzioso. La scelta non è se adottare l'AI. È se adottare l'oracolo — che conferma — o il dialogo — che confronta.

Una nota di cautela

Il paradigma dialogico non è immune dal proprio fallimento. Se il clinico si abitua a ratificare le tensioni del sistema senza pensiero critico, il dialogo degenera in un oracolo mascherato — e l'audit trail documenta diligenza apparente, non reale. Per questo ogni Azienda Sanitaria che adotta un sistema dialogico deve prevedere cicli di verifica causale: il confronto produce davvero ipotesi nuove? O il clinico ha smesso di pensare e firma?

La sfida non è tecnica. È di governance. E la governance inizia dalla scelta di progettare la relazione tra intelligenza umana e intelligenza artificiale come un dialogo — non come una delega, non come una sostituzione, ma come un confronto generativo dal quale entrambe le parti escono trasformate.

Giuseppe Orzati è fondatore e CEO di Koncept srl, Firenze. Lavora nella trasformazione organizzativa della sanità da oltre vent'anni. Questo position paper e la demo interattiva fanno parte dell'ecosistema COGI.CO — un sistema di intelligenza dialogica e collaborativa per la governance sanitaria. www.cogi.co · giuseppe.orzati@koncept.it