• Non è solo luce e gas, è l'energia di casa tua.
  • Un museo. Quattro Sedi. IntesaSanPaolo
  • La piattaforma di wealth planning
  • Italpress Agenzia di stampa

Tra cura e algoritmo: ChatGPT Health e la sfida di una sanità davvero umana

 
Tra cura e algoritmo: ChatGPT Health e la sfida di una sanità davvero umana
di William Nonnis Esperto Blockchain, Analista tecnico per la digitalizzazione e innovazione alla Presidenza del Consiglio dei Ministri

L’annuncio di ChatGPT Health segna un passaggio simbolico e concreto nell’evoluzione dell’intelligenza artificiale applicata alla sanità. Per la prima volta, agli utenti viene offerta la possibilità di caricare cartelle cliniche, referti ed esami medici per ottenere spiegazioni e suggerimenti personalizzati basati su modelli di intelligenza artificiale sviluppati da OpenAI, aprendo una questione centrale legata alla gestione, alla sicurezza e alla governance delle informazioni sanitarie dei pazienti.

Tra cura e algoritmo: ChatGPT Health e la sfida di una sanità davvero umana

Si tratta di un’evoluzione che va ben oltre la dimensione tecnologica e che coinvolge aspetti culturali, etici e sociali profondi. L’affidamento di dati sanitari personali a piattaforme di intelligenza artificiale può apparire come una naturale estensione della sanità digitale, ma rappresenta al tempo stesso un terreno estremamente delicato, soprattutto se rapportato al livello medio di alfabetizzazione digitale degli utenti e degli operatori.
In Italia, secondo gli indicatori DESI, il Paese si colloca ancora nelle ultime posizioni europee per competenze digitali.

A ciò si aggiungono i dati OCSE, che indicano come circa il 47% per cento della popolazione rientri nella categoria degli analfabeti funzionali digitali. In questo contesto, consentire il caricamento diretto di cartelle cliniche senza un adeguato accompagnamento culturale e formativo rappresenta un rischio concreto, spesso sottovalutato nel dibattito pubblico.

Emerge così un nodo strutturale: affinché l’intelligenza artificiale possa essere realmente efficace e sicura in ambito sanitario, dovrebbe essere gestita e contestualizzata in ambienti controllati, locali e coerenti con il contesto sanitario di riferimento. L’utilizzo di grandi modelli linguistici addestrati e gestiti da soggetti terzi in ambienti globali comporta una rinuncia parziale alla governance nazionale dei dati e dei processi. Un approccio più coerente sarebbe lo sviluppo di modelli sanitari nazionali dedicati, chiusi e costruiti sulle specificità del sistema sanitario italiano, piuttosto che l’adozione generalizzata di piattaforme pensate per un pubblico globale.

È inoltre necessario chiarire un punto spesso frainteso: ChatGPT non è l’intelligenza artificiale in senso stretto, ma un’interfaccia che consente di interrogare modelli complessi. Confondere lo strumento con la tecnologia sottostante alimenta aspettative irrealistiche e favorisce un utilizzo improprio di questi sistemi.

Detto questo, le opportunità offerte da strumenti come ChatGPT Health sono evidenti. L’intelligenza artificiale può supportare la comprensione dei dati sanitari, facilitare la lettura di referti complessi, migliorare la preparazione alle visite mediche e contribuire a una maggiore consapevolezza del paziente. In sistemi sanitari sotto pressione, frammentati e spesso privi di interoperabilità, come accade in Italia, l’IA potrebbe rappresentare un alleato importante per la prevenzione, l’educazione sanitaria e l’individuazione precoce dei fattori di rischio, a condizione che venga integrata in modo responsabile nei percorsi di presa in carico.

Accanto a queste opportunità emergono tuttavia rischi rilevanti. La salute non è un dato neutro, ma coinvolge identità, vulnerabilità e storia personale. Affidare cartelle cliniche a piattaforme di intelligenza artificiale impone una riflessione seria su privacy, sicurezza dei dati, responsabilità e modelli di governance. Anche quando le piattaforme dichiarano di non sostituire il medico, il rischio di una delega cognitiva implicita resta concreto.

L’intelligenza artificiale elabora informazioni, ma non comprende il contesto umano, sociale e relazionale della malattia. Non possiede empatia né capacità di valutazione clinica complessiva. Il pericolo principale non è l’errore tecnico, ma la progressiva normalizzazione di un rapporto algoritmico con la salute, in cui il dato rischia di prevalere sulla relazione di cura. In questo senso, il problema non riguarda ciò che l’IA è in grado di fare, ma ciò che gli esseri umani potrebbero smettere di fare.

È plausibile che nei prossimi anni si affermi una nuova configurazione del rapporto di cura basata sulla triade Paziente–Medico–IA. Il paziente, per sentirsi più seguito, più sicuro e maggiormente coinvolto nel proprio percorso sanitario, tenderà a ricorrere a una componente di intelligenza artificiale virtuale sempre disponibile. Tuttavia, la natura stessa dei modelli linguistici porta questi sistemi ad assumere un ruolo tendenzialmente compiacente rispetto a quanto l’utente espone, con il rischio di rafforzare convinzioni e percezioni più che favorire un equilibrio decisionale consapevole.

In questa triade prende forma una dinamica già osservabile, in cui molti utenti risultano più coinvolti e più compiacenti verso un avatar o una intelligenza artificiale virtuale che verso una relazione sociale reale. Come osserva la psicologa Marianne Brandon, tali relazioni non sono necessariamente problematiche, poiché possono soddisfare stimoli simili a quelli attivati in altre forme di relazione. Resta però centrale l’avvertimento di studiosi come Michael Inzlicht, che sottolinea l’importanza di analizzare gli effetti a lungo termine di queste dinamiche, mettendo in guardia dal rischio di un’influenza di massa in grado di modificare in senso negativo le nostre società.

In questo quadro non va dimenticato che l’ecosistema tecnologico della sanità non può fondarsi esclusivamente sull’intelligenza artificiale. Un ruolo centrale è svolto anche dalla blockchain, intesa come infrastruttura capace di garantire sicurezza, tracciabilità e certezza della singola informazione. Senza una solida architettura di protezione dei dati, il rischio è quello di inseguire l’ennesimo entusiasmo tecnologico senza comprenderne davvero le conseguenze.

La tecnologia ha oggi il potenziale concreto di migliorare la qualità e l’aspettativa di vita delle persone. Ma questo potenziale può realizzarsi solo se viene compreso e governato. In caso contrario, il rischio non è quello di utilizzare male lo strumento, ma di diventarne progressivamente dipendenti, fino a esserne governati.