ChatGPT Health: impressioni americane

Scritto il 20/01/2026

L’annuncio di ChatGPT Health segna l’ingresso ufficiale di OpenAI nel mercato verticale della salute, trasformando un chatbot in un confidente medico. Abbiamo analizzato il dibattito internazionale attraverso le lenti di Time, CT Insider e AI Magazine da cui emergono almeno tre criticità sistemiche: la sicurezza del dato, l’integrazione clinica e la sostenibilità ambientale.

Il problema della privacy

Il punto di rottura fondamentale riguarda la fine del segreto medico tradizionale. Negli Stati Uniti, la protezione dei dati è storicamente garantita dall’HIPAA (Health Insurance Portability and Accountability Act). Con l’avvento di Chatgpt nel settore sanitario, quando un utente inserisce la propria anamnesi all’AI (privata), avviene uno slittamento giuridico: da pazienti protetti da un giuramento professionale a utenti che hanno accettato i “termini di servizio” di una multinazionale.

Per quanto l’AI risulti straordinariamente vantaggiosa diventando un copilota capace di riassumere anni di analisi in pochi secondi, il rischio di una disintermediazione pericolosa è dietro l’angolo. Per il management sanitario, una delle difficoltà sarà evitare che l’urgenza di risposte immediate porti a una “zona grigia” legale, dove la custodia del dato esce dal perimetro protetto delle istituzioni per finire nel cloud di soggetti privati.

Istituzioni d’eccellenza come Yale (raccontate da CT Insider) vedono nell’AI uno strumento straordinario per abbattere il carico burocratico e potenziare la precisione chirurgica. Il dogma è chiaro: l’AI non sostituirà il medico, ma il medico che non usa l’AI sarà presto sorpassato.

Il nuovo sicofante

Esiste però un rovescio della medaglia: la pigrizia mentale. Gli esperti avvertono che l’algoritmo è spesso programmato per essere utile o compiacente: il fenomeno della sycophancy. Questo fenomeno consiste nella tendenza dell’AI ad accontentare l’interlocutore, adattando le risposte per confermare le aspettative o le ipotesi (anche errate) dell’utente.

Come sottolineato da Davide Bennato, professore di Sociologia dei media digitali all’Università di Catania, il termine “sicofante” assume oggi un nuovo significato: non più la delazione del latino classico, ma l’adulazione insincera.

Attraverso risposte appaganti, questi sistemi rischiano di creare “camere di risonanza digitali” e dipendenze emotive. Secondo Bennato, l’AI agisce come lo specchio della regina di Biancaneve: potrebbe intrappolarci in relazioni artificiali e autodiagnosi confermate solo per piacerci, rendendo sempre più difficile abbandonare il supporto della macchina a favore del parere oggettivo (e talvolta sgradito) di un medico umano. Questa “cortesia statistica” è l’opposto del rigore scientifico: la verità medica richiede spesso di contraddire il paziente, mentre l’AI è programmato per validare ansie infondate pur di non generare frizioni nel dialogo.

La responsabilità ultima non può dunque ricadere sul software, deve restare saldamente in capo al giudizio critico del clinico.

La salute del pianeta: il costo invisibile

Un approccio lungimirante non può ignorare l’impatto ecologico. Come evidenziato da AI Magazine, ogni interrogazione medica ha un corpo fisico fatto di server, energia e acqua. La sfida dei prossimi anni sarà integrare l’innovazione tecnologica con gli obiettivi di sostenibilità e Net Zero. Curare l’uomo ammalando il pianeta creerebbe un paradosso sanitario, disintegrando il concetto di One health, tema a cui siamo sempre più sensibili. L’efficienza clinica deve quindi essere bilanciata con una gestione responsabile delle risorse energetiche necessarie a sostenere la potenza di calcolo dell’AI.

L’intelligenza artificiale agisce come un potente moltiplicatore delle capacità umane, è innegabile. Può monitorare i parametri glicemici, analizzare valori ematici. Colmare il vuoto della solitudine e gestire la complessità emotiva della malattia resta materia umana.

Per la Direzione Generale e il management sanitario, l’obiettivo sarà la governance della tecnologia. L’accreditamento delle strutture del futuro certificherà la capacità del sistema di garantire che l’algoritmo resti un supporto alla decisione e mai la decisione stessa.