L’intelligenza artificiale non disumanizza la sanità: ne rivela l’ipocrisia
ChatGPT Health, medicina difensiva e il problema reale della responsabilità clinica e politica
Negli ultimi giorni l’annuncio di ChatGPT Health, una versione dei modelli di OpenAI pensata per supportare ambiti sanitari e clinici, ha riacceso un dibattito che sembra ormai ciclico: è giusto affidarsi a sistemi di intelligenza artificiale quando sono in gioco diagnosi, cure e decisioni che riguardano la vita delle persone? Il confronto si è immediatamente polarizzato tra entusiasmo tecnologico e allarme etico, riproponendo una contrapposizione ormai familiare tra efficienza algoritmica e umanità della cura.
L’intelligenza artificiale in sanità non rappresenta una minaccia etica nuova: rende semplicemente visibili decisioni politiche, cliniche e istituzionali che da anni vengono prese senza trasparenza e senza una chiara assunzione di responsabilità. La tecnica, infatti, non entra oggi nella medicina per colmare un eccesso di fiducia nell’uomo, ma per compensare un sistema che ha reso il medico solo, il paziente un rischio e la decisione clinica un atto sempre più burocratico.
Il dibattito pubblico sull’intelligenza artificiale applicata alla sanità tende a concentrarsi su questioni reali ma parziali: la privacy dei dati, il rischio di delegare decisioni vitali a una macchina, la perdita dell’empatia nella relazione di cura. Sono preoccupazioni legittime, ma spesso formulate in modo astratto, come se l’IA si innestasse in un sistema sanitario ideale, umano, relazionale, fondato sul libero esercizio del giudizio clinico. Quel sistema, però, non è quello in cui viviamo.
La sanità contemporanea è già attraversata da processi di standardizzazione, razionalizzazione e controllo che precedono di molto l’arrivo dell’IA. Le decisioni cliniche sono sempre più incardinate in protocolli rigidi, pensati non solo per garantire appropriatezza terapeutica, ma anche – e talvolta soprattutto – per proteggere il medico da possibili ripercussioni giudiziarie. In questo contesto, l’autonomia professionale non viene abolita formalmente, ma svuotata materialmente. Il medico non è privo di competenze; è privo di margine decisionale.
La cosiddetta “medicina difensiva” non è un’eccezione patologica del sistema: è diventata una sua componente strutturale. L’intuizione clinica, il sapere tacito maturato nell’esperienza, la capacità di leggere il paziente come individuo e non come caso statistico sono elementi sempre più difficili da esercitare apertamente, perché difficilmente difendibili in sede legale. Il risultato è un paradosso: in nome della tutela del paziente, si costruisce un sistema che incentiva il medico a non decidere davvero.
È in questo spazio, già segnato da opacità e deresponsabilizzazione, che si inserisce l’intelligenza artificiale. E qui avviene l’errore di prospettiva più diffuso: attribuire all’IA la colpa di una disumanizzazione che è in larga parte già avvenuta. L’IA non crea il problema, ma lo rende leggibile. Non introduce la logica del calcolo nella medicina, ma la esplicita, la formalizza, la rende tracciabile.
Se osservata fuori da slogan e paure, l’IA in sanità può essere compresa come una protesi istituzionale: uno strumento che non sostituisce il giudizio umano, ma lo costringe a esplicitarsi. Un sistema come ChatGPT Health, utilizzato come supporto decisionale, non “decide al posto del medico”; rende visibili i dati, le correlazioni, le probabilità, i margini di incertezza entro cui il medico è comunque chiamato a scegliere. In altre parole, formalizza il rischio, invece di lasciarlo implicito.
Questo passaggio è cruciale. Oggi molte decisioni cliniche vengono prese in condizioni di incertezza, ma questa incertezza resta spesso non dichiarata, nascosta dietro l’autorità del protocollo o la routine organizzativa. L’IA, al contrario, espone l’incertezza: mostra i limiti dei dati, le probabilità, le alternative possibili. Così facendo, non elimina la responsabilità umana, ma la rende meno eludibile.
Da questo punto di vista, il vero discrimine etico non è l’uso o il rifiuto dell’intelligenza artificiale, ma il contesto istituzionale in cui essa viene adottata. Qui si apre la questione decisiva del rapporto tra pubblico e privato.
Finché strumenti di supporto decisionale basati su IA restano nelle mani di soggetti privati, il rischio principale non è soltanto la gestione dei dati sensibili, ma l’asimmetria di potere cognitivo che si crea. Un’azienda privata può offrire tecnologia, imporre standard di fatto, orientare pratiche, senza essere politicamente responsabile delle conseguenze sistemiche delle proprie soluzioni. La responsabilità resta contrattuale, non democratica.
Uno scenario diverso si aprirebbe se uno Stato, ad esempio l’Italia, decidesse di stipulare un accordo per l’utilizzo di queste tecnologie mantenendo la gestione dei dati su infrastrutture pubbliche, sotto la propria giurisdizione, con versioni del sistema istruite e adattate su linee guida, protocolli e priorità del servizio sanitario nazionale. In questo caso, l’IA cesserebbe di essere un semplice servizio e diventerebbe un’infrastruttura cognitiva pubblica.
Questo non renderebbe automaticamente il sistema più giusto o più umano. Lo Stato non è neutrale, né infallibile. Ma sarebbe un potere visibile, contestabile, responsabile. Le decisioni prese con il supporto dell’IA sarebbero attribuibili, discutibili, politicamente valutabili. Oggi, invece, molte scelte avvengono in una zona grigia, dove la responsabilità si disperde tra protocolli, prassi consolidate e vincoli non dichiarati.
Si obietta spesso che uno Stato potrebbe utilizzare l’IA per giustificare tagli alla spesa o razionalizzazioni aggressive. Ma questo rischio esiste già, e viene esercitato quotidianamente senza strumenti avanzati di analisi. La differenza è che oggi tali decisioni sono opache, mentre un uso pubblico e regolato dell’IA potrebbe renderle più esplicite e quindi più difficili da mascherare come necessità tecniche inevitabili.
Un’altra obiezione riguarda il timore che l’IA diventi di fatto obbligatoria. Anche qui occorre distinguere: nessuno strumento elimina automaticamente la libertà professionale. Ma è vero che, in sistemi complessi, ciò che riduce il rischio tende a diventare standard. La questione allora non è impedire l’adozione, ma governarla, chiarendo che il supporto algoritmico non sostituisce il giudizio clinico, ma lo accompagna e lo documenta.
Infine, si solleva il tema della sovranità tecnologica: anche una versione “custom” resterebbe fondata su architetture progettate altrove. È vero. Ma nessun sistema complesso nasce in purezza epistemica. Anche la medicina occidentale è un costrutto storico, standardizzato, globalizzato. La sovranità non è isolamento, ma capacità di governo.
In questo quadro, l’intelligenza artificiale non appare come una minaccia all’umanità della cura, ma come uno specchio scomodo. Riflette un sistema che ha già sacrificato il giudizio umano sull’altare della sicurezza legale e dell’efficienza amministrativa, ma che fatica ad ammetterlo. Rifiutare l’IA in nome dell’umanità rischia allora di diventare un gesto consolatorio, non una scelta etica.
La vera domanda non è se l’intelligenza artificiale debba entrare nella sanità, ma se siamo disposti, finalmente, a rendere visibili, discutibili e politicamente responsabili le decisioni che già oggi vengono prese in suo nome.
