Valter VitaAlcuni articoli recenti esplorano i rischi dell’intelligenza artificiale (AI) nei settori sanitario e farmaceutico, evidenziando che, sebbene l’AI offra notevoli vantaggi, sono emersi anche errori che sollevano preoccupazioni di sicurezza.

Ad esempio, il National Institutes of Health (NIH) ha condotto uno studio in cui un modello di AI diagnostico ha mostrato accuratezza nelle risposte, ma ha spesso fallito nel fornire spiegazioni coerenti per le sue decisioni. Ciò ha rivelato una limitazione nell’affidabilità delle risposte, poiché l’AI mancava di un’interpretazione clinica complessa, fondamentale per il giudizio medico umano. L’assenza di questa capacità interpretativa rappresenta un ostacolo critico nell’adozione sicura dell’AI in contesti clinici complessi, dove l’accuratezza non può dipendere solo dalla risposta finale

NIH.

Un altro rapporto evidenzia i rischi legati al “black box decision-making” dell’AI, in cui le decisioni del sistema sono poco trasparenti, rendendo difficile per i medici comprendere e valutare il processo decisionale. Inoltre, l’AI può non essere in grado di considerare l’impatto di falsi positivi o negativi, esponendo i pazienti a rischi potenziali se utilizzati senza supervisione umana. Problemi come il “distributional shift” (cambiamenti nei dati di input rispetto a quelli di addestramento) possono portare l’AI un errore significativo in caso di variazioni nei modelli di malattia o nell’ambiente clinico, dimostrando che queste tecnologie sono ancora vulnerabili a problemi pratici di adattamento e sicurezza

Tommaso Netto

Questi studi suggeriscono la necessità di un approccio cauto nell’integrazione dell’AI in ambito clinico, con una supervisione continua e un’attenzione particolare alle implicazioni etiche e legali della sicurezza del paziente.

Ecco alcuni esempi recenti di errori commessi dall’AI in ambito sanitario e farmaceutico:

  1. Bias e Diagnosi Sbagliate : Uno dei rischi più evidenti è l’impatto dei bias nei dati di addestramento dell’AI, che possono portare a diagnosi errate o discriminatorie. Ad esempio, i sistemi di intelligenza artificiale spesso hanno una minore precisione nei risultati per le minoranze etniche, esponendo certi pazienti a rischi maggiori. Questo è stato riscontrato soprattutto nella diagnostica tramite imaging, dove gli algoritmi, addestrati su campioni poco rappresentativi, generano errori che possono tradursi in ritardo o errori nella diagnosi delle malattie immersione medicapsnet.ahrq.
  2. Errori nella Previsione del Rischio : Nel tentativo di identificare i pazienti ad alto rischio di determinate patologie, alcuni algoritmi di AI hanno assegnato punti di rischio in modo scorretto. In un caso citato dall’OMS, un sistema ha sottostimato il rischio per alcuni pazienti, portando interventi inadeguati e potenziali complicazioni per la salute. Questo problema è stato collegato alla mancanza di dati sufficienti e alla gestione inappropriata della complessità clinica immersione medica.
  3. Errori nella Medicina di Precisione e nel Dosaggio : Alcuni algoritmi utilizzati per suggerire dosaggi personalizzati di farmaci hanno fallito nel considerare adeguatamente le variabili individuali, come il metabolismo del paziente e le interazioni farmacologiche. Questi errori hanno causato danni ai pazienti, evidenziando la necessità di un monitoraggio più rigoroso e di algoritmi più sofisticati per gestire casi complessi psnet.ahrq.

Questi esempi sottolineano l’importanza di un’adeguata supervisione e di una regolamentazione mirata, come raccomandata da organizzazioni come l’OMS e il PSNet.

Ecco altri esempi recenti di errori dell’AI nel settore sanitario:

  1. Diagnosi errate a causa di limiti nei dati e bias razziali : Uno studio ha evidenziato come un algoritmo utilizzato per la gestione di pazienti ad alto rischio abbia generato errori significativi basandosi sui costi sanitari per prevedere i bisogni di assistenza, introducendo così distorsioni razziali. Questo approccio ha sottovalutato le esigenze dei pazienti di colore rispetto a quelli bianchi, poiché basato su dati che riflettevano spese mediche diverse e diseguaglianze strutturali piuttosto che i reali bisogni di salute. Questo ha provocato ritardi nelle cure e diagnosi errate, mostrando i limiti dell’AI quando si basa su dati con pregiudizi insiti nel sistema sanitario (JAMA Network) rete di jama.
  2. Insufficiente attenzione alla storia clinica familiare : In un caso riportato dalla Stanford HAI, un giovane paziente è stato dimesso da un ospedale dopo che un algoritmo aveva interpretato i suoi esami del sangue come normali. Tuttavia, il sistema non aveva considerato una storia familiare di arresti cardiaci, e il paziente è deceduto sei settimane dopo. L’errore è stato attribuito alla mancanza di una struttura regolatoria chiara che richiede test rigorosi per gli algoritmi di AI prima del loro utilizzo in contesti clinici, un tema di preoccupazione crescente negli USA per evitare gravi conseguenze nei pazienti (Stanford HAI) Ciao Stanford.

Questi esempi sottolineano come l’AI, pur offrendo opportunità nel migliorare diagnosi e trattamento, possa introdurre rischi gravi se non progettati, testati e applicati con un rigoroso controllo sulla qualità dei dati e un’attenzione particolare a evitare pregiudizi sistematici.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *