Se i medici utilizzano l’intelligenza artificiale per gestire la comunicazione con i pazienti, si potrebbe assistere a un cambiamento profondo nella gestione delle cure e del rapporto medico-paziente. In un recente articolo del New York Times, emerge come negli Stati Uniti, tramite piattaforme come MyChart, i pazienti possano inviare ai medici migliaia di messaggi dettagliando i sintomi, le preoccupazioni o chiedendo chiarimenti. Questa pratica, ormai comune, potrebbe alleggerire il carico dei medici ma comporta anche alcuni rischi.
Utilizzando l’AI per generare risposte rapide, i medici possono risparmiare tempo, consentendo a più pazienti di ottenere risposte alle loro domande senza lunghi tempi d’attesa. Tuttavia, questa delega all’intelligenza artificiale introduce il rischio di errori o di risposte generiche, che potrebbero non considerare dettagli cruciali o le sfumature personali di ogni caso. Infatti, uno dei timori principali dei professionisti è che le risposte generate dall’AI possano trasmettere informazioni incomplete o, nel peggiore dei casi, imprecise, influenzando negativamente la fiducia del paziente e mettendo in pericolo la sua salute.
Inoltre, il filtro AI nella comunicazione potrebbe alterare il legame empatico tra medico e paziente, essenziale per costruire una fiducia reciproca e garantire che il paziente si senta ascoltato. Mentre la tecnologia continua a evolvere, molti ritengono fondamentale garantire una supervisione umana che possa individuare errori e offrire un tocco umano indispensabile alla cura sanitaria, bilanciando efficienza e sicurezza in un sistema in cui l’AI diventa sempre più parte integrante
Gli Errori dell’Intelligenza Artificiale in Sanità
Un piccolo studio pubblicato su The Lancet Digital Health ha rivelato le insidie dell’intelligenza artificiale nel rispondere a domande di salute. Il modello di AI GPT-4, utilizzato anche nel sistema sanitario Epic, ha mostrato un tasso di errore particolarmente problematico. I medici che hanno esaminato le risposte ipotetiche di ChatGPT-4 hanno scoperto che, nel 7% dei casi, i suggerimenti generati contenevano inesattezze significative. Eric Poon, responsabile delle informazioni sanitarie presso Duke Health, ha evidenziato su The New York Times che la qualità dei messaggi generati dall’AI è ancora lontana dagli standard richiesti, mantenendo i medici vigili e attenti. Secondo Epic, addirittura un terzo dei messaggi creati dall’AI arriva al paziente senza revisione: un dato che solleva dubbi sulla sicurezza e sull’efficacia di questa tecnologia nella comunicazione medica.
Il Rischio dell’Interazione Diretta con Chatbot in Ambito Sanitario
Uno dei timori maggiori è che i pazienti possano rivolgersi direttamente ai chatbot per consulenze sanitarie, senza il supporto e il filtro di un medico. Uno studio dell’Osservatorio Sanità Digitale del Politecnico di Milano condotto nel 2024 ha rilevato che il 22% degli italiani ha familiarità con ChatGPT e lo utilizza per cercare informazioni sulla salute: il 23% per la prevenzione e stili di vita, il 19% per dettagli su malattie specifiche, il 15% per farmaci e terapie, e addirittura il 12% si è avventurato a chiedere una diagnosi basata sui propri sintomi. Tuttavia, come osserva Deborah De Cesare, ChatGPT non è stato progettato né certificato per l’assistenza sanitaria. Senza la guida di un professionista, i pazienti potrebbero trarre conclusioni errate e pericolose per la loro salute.
Il Ruolo Fondamentale del Medico nel Processo di Diagnosi
Un medico, oltre a identificare potenziali errori, porta con sé una conoscenza approfondita del paziente, che si basa su una relazione personale, e sa quindi adattare diagnosi e suggerimenti in base alle necessità specifiche del singolo. Questo livello di personalizzazione è ancora fuori portata per l’intelligenza artificiale, che risponde con dati generali, senza comprendere la complessità del caso umano.
La strada per una gestione sicura dell’AI in sanità è ancora lunga, e i medici chiedono trasparenza e avvertimenti chiari per i pazienti che usano chatbot. Fino ad allora, la cautela è d’obbligo: l’AI può essere uno strumento potente, ma deve essere sempre integrata con la supervisione medica.