
Il 2023 sarà probabilmente ricordato come l’anno in cui l’intelligenza artificiale è entrata a far parte della nostra vita quotidiana. Esistono però dei ambiti in cui questo tipo di tecnologie è oggetto di studio già da diversi anni, anche nel contesto della medicina. La cardiologia è sicuramente uno di questi, con potenziali applicazioni dell’intelligenza artificiale proposte in diversi ambiti, dalla stratificazione del rischio alla diagnosi e trattamento delle patologie cardiovascolari.
A oggi, tuttavia, alcune barriere di tipo metodologico, etico, legale e organizzativo hanno fatto sì che l’implementazione di questi strumenti nella pratica clinica sia stata piuttosto limitata. Ne abbiamo parlato con Eugenio Santoro, responsabile del Laboratorio di Informatica medica dell’Istituto di Ricerche Farmacologiche Mario Negri IRCCS di Milano.
Uno degli aspetti più studiati per quanto riguarda l’intelligenza artificiale in cardiologia è quella della stratificazione del rischio. Quali sono le applicazioni più promettenti?
Per quanto riguarda la predizione esistono diverse applicazioni avanzate nell’ambito dello scompenso cardiaco e delle aritmie. Di recente la rivista European Heart Journal – Digital Health ha pubblicato alcuni articoli, compresa una revisione, su questo tema e ci sono dei risultati effettivamente promettenti. Uno di questi ha descritto un modello di machine learning applicabile agli elettrocardiogrammi in grado di predire episodi di scompenso cardiaco con un’accuratezza confrontabile a quella dei principali indicatori di rischio.
C’è poi la predizione degli outcome dopo un episodio cardiovascolare, ad esempio per andare a vedere la mortalità a breve e a lungo termine dopo scompenso cardiaco o il rischio di successive ospedalizzazioni. Si tratta di dati che possono essere utilizzati in una doppia chiave: clinica, per individuare i pazienti più a rischio, e organizzativa, per calibrare le esigenze degli ospedali in base alle necessità dei pazienti.
Atri gruppi si stanno invece concentrando sulle potenzialità dell’intelligenza artificiale in ambito diagnostico e terapeutico…
Quella della diagnostica è sicuramente un’altra area interessante. Ci sono applicazioni riguardanti la diagnosi di scompenso cardiaco, di fibrillazione atriale, di cardiopatia ipertrofica, che sono basate ad esempio sull’analisi dell’elettrocardiogramma o dell’ecocardiografia o, in altri casi, utilizzano il Natural Language Processing direttamente sulle cartelle cliniche elettroniche. In generale, le applicazioni relative alla diagnostica sono quelle in uno stadio più avanzato perché ci si lavora da più tempo, anche al di fuori dell’ambito cardiovascolare.
Un’ultima applicazione, anche in questo caso studiata anche in ambiti diversi da quello cardiovascolare, riguarda la ricerca clinica. Da un lato, ad esempio, per selezionare le molecole più promettenti su cui andare a strutturare una sperimentazione e dall’altro per l’identificazione dei pazienti a rischio di drop out. La possibilità di individuare i soggetti più a rischio permetterebbe di intervenire per aumentare il loro coinvolgimento e fare in modo che non escano dalla sperimentazione.
Nonostante i risultati talvolta molto promettenti, anche in cardiologia l’implementazione delle applicazioni basate sull’intelligenza artificiale è a oggi marginale. Perché?
Una critica molto forte che viene fatta a tanti studi condotti nell’ambito dell’intelligenza artificiale e del machine learning è che per la stragrande maggioranza sono studi retrospettivi. Bisognerebbe sempre prediligere studi prospettici che vadano a vedere quello che succede da un determinato momento in poi. Inoltre, spesso si tratta di studi condotto in singoli centri. Inevitabilmente questo limita la generalizzabilità dei risultati, perché non è detto che una situazione riscontrabile in un centro – ad esempio in termini di tecnologia disponibile – esista anche altrove.
Come dovrebbero essere strutturati gli studi utili a dimostrare l’efficacia clinica di uno strumento di intelligenza artificiale?
Bisognerebbe condurre sudi che mettano a confronto l’efficacia dello strumento di intelligenza artificiale rispetto a quella degli interventi già disponibili, ovvero degli studi randomizzati. Spesso però non è semplice trovare un accordo su quale dovrebbe essere il braccio di controllo: alcuni ritengono che il braccio di intervento dovrebbe essere costituito dal sistema di intelligenza artificiale insieme all’operatore e quello di controllo dal solo operatore. Quello che non si dovrebbe fare è mettere a confronto l’utilizzo dell’intelligenza artificiale rispetto al non utilizzo dell’intelligenza artificiale, perché l’operatore costituisce una variabile fondamentale.
Gli studi dovrebbero poi essere multicentrici, con dati raccolti nel modo più omogeneo possibile. Bisognerebbe fare studi nell’ambito della real world evidence e non studi che analizzino situazioni diverse da quelle reali. Finché non ci sono evidenze chiare è anche difficile proporre questi strumenti da un punto di vista regolatorio, perché per essere prescrivibili o utilizzabili o rimborsabili è necessario avere delle prove di efficacia, altrimenti c’è il rischio che restino confinati al mondo della ricerca.
Esistono infine delle barriere di tipo etico, legale, organizzativo. Quali sono, a oggi, quelle che limitano maggiormente l’implementazione degli strumenti di intelligenza artificiale?
Il primo punto è sicuramente quello della responsabilità. Chi è responsabile del cattivo funzionamento del sistema? Il medico che lo utilizza, l’azienda che lo ha prodotto? Questi aspetti devono essere molto chiari perché il medico deve capire a cosa va incontro nel momento in cui utilizza un determinato sistema.
C’è il problema, ad esempio, delle cosiddette black box: fino a che punto un medico può intervenire nel rifiutare una decisione del sistema di intelligenza artificiale che lui non capisce o non condivide? Spesso non si ha neanche la possibilità di capire come lo strumento sia arrivato a una specifica scelta. Infine ci sono gli aspetti etici, sempre poco considerati ma particolarmente rilevanti nell’ambito dell’intelligenza artificiale.
Intervista a cura di Fabio Ambrosino