×
×
☰ MENU

SALUTE

Quando l'AI sbaglia. L'intelligenza artificiale in oncologia: tante potenzialità, ma anche rischi nell'uso dei dati, errori e dilemmi etici

Quando l'AI sbaglia

di Monica Tiezzi

27 Ottobre 2025, 22:21

Le Intelligenze Artificiali (AI, Artificial Intelligence) hanno un ruolo crescente nel mondo della sanità: nello studio delle cause delle malattie; nella predizione della probabilità di ammalarsi; nella diagnosi e nella prognosi, fino alla sintesi di nuovi farmaci e il supporto alle decisioni terapeutiche.

Dell'applicazione delle AI in oncologia abbiamo parlato con Vittorio Franciosi, specialista oncologo e presidente del Centro di bioetica «Luigi Migone».

«Le AI sono indispensabili per lo sviluppo della cosiddetta “oncologia personalizzata” o “oncologia di precisione”, che consiste in un approccio alla prevenzione, diagnosi e terapia dei tumori, che tiene conto della variabilità individuale a livello molecolare-genetico, clinico, degli stili di vita e delle caratteristiche culturali e sociali di ogni persona - spiega Franciosi - L’oncologia personalizzata si fonda su due condizioni: identificare sottotipi precisi di tumore e disporre di terapie mirate per ciascun sottotipo».

In che modo le AI sviluppano l’oncologia personalizzata?

«I modelli di AI utilizzati in oncologia personalizzata sono di tipo predittivo e generativo. Le AI predittive, basate sul machine learning, analizzano insiemi di dati molto vasti e individuano correlazioni utili a calcolare il rischio di tumore o a prevederne l’andamento clinico. Le AI generative, grazie al deep learning e alle reti neurali, sono in grado di creare nuovi contenuti – testi, immagini, persino molecole – partendo dai dati esistenti. Questi modelli di AI sono in grado di estrarre (data mining) un’enorme quantità di dati (big data) da bio-banche, cartelle cliniche digitali, archivi radiologici, registri tumori, fascicoli sanitari elettronici, data-base farmacologici e letteratura scientifica, analizzarli, elaborarli ed estrarre correlazioni e classificazioni nascoste che sfuggirebbero all’osservazione umana».

Quali sono le attuali applicazioni delle AI nella ricerca e nella pratica clinica oncologica?

«Nella ricerca oncologica, le AI vengono utilizzate per scoprire i meccanismi biologici che conducono all’insorgenza dei tumori, per accelerare la progettazione di nuovi farmaci, riducendo i tempi di screening dei composti chimici e per creare dati sintetici, utili nelle sperimentazioni cliniche per superare i limiti dovuti alla scarsità e al costo dei dati reali, garantendo al contempo la protezione della privacy. Nella pratica clinica, le applicazioni sono già visibili: calcolo del rischio di sviluppare tumori, supporto alla diagnosi radiologica tramite la radiomica (che permette di interpretare informazioni nascoste nelle immagini mammografiche, Tac, Rmn o Pet), identificazione precoce dei melanomi grazie all’analisi automatica delle immagini dermoscopiche e supporto nella definizione della prognosi. Le AI sono promettenti anche nel supporto alle decisioni terapeutiche del medico, anche se il caso emblematico di “Watson for Oncology”, l’applicazione sviluppata da Ibm per supportare gli oncologi nelle decisioni terapeutiche, ha mostrato, soprattutto nelle popolazioni asiatiche, una concordanza parziale con le decisioni proposte dai team clinici multidisciplinari, evidenziando importanti errori e discriminazioni algoritmiche causate dal fatto che l’addestramento era avvenuto su dati provenienti da popolazioni prevalentemente bianche americane».

Quali sono i rischi e le questioni etiche delle applicazioni delle AI in oncologia?

«Le AI mostrano un potenziale enorme se vengono addestrate con dati di qualità e governate correttamente dal medico. Viceversa, pongono seri rischi di replicare e amplificare errori e pregiudizi di genere, razziali e culturali se vengono addestrate con dati obsoleti o non rappresentativi. Inoltre, le AI generative possono produrre “allucinazioni”, cioè risultati apparentemente plausibili ma privi di fondamento, mettendo a rischio la sicurezza dei pazienti. Vi sono poi rischi etici legati alla privacy, alla possibilità di re-identificazione di dati pseudonimizzati (cioè resi non riconducibili a una persona) e alla sorveglianza sanitaria. Inoltre le AI stanno modificando il concetto stesso di salute e la relazione medico-paziente. Ci sono poi problemi etici generali di tutte le AI, come la disparità di accesso tecnologico tra Paesi con infrastrutture diverse, e la sostenibilità ambientale, essendo fortemente energivore. Per uno sviluppo sicuro delle AI in oncologia e in sanità occorre tenere a mente i sette principi dell’“algor-etica”, l’etica applicata agli algoritmi: trasparenza (comprensibilità), inclusione (accessibilità), responsabilità (in capo a chi le progetta e utilizza), imparzialità (devono evitare discriminazioni), affidabilità (devono funzionare in modo stabile), sicurezza (devono operare senza danni) e tutela della privacy. Questi criteri rappresentano in sanità la base per rendere l’impiego delle AI coerente con il principio medico del “primum non nocere”. Come sottolinea il bioeticista Paolo Benanti, nel libro “Human in the loop”, lo sviluppo etico delle AI in sanità richiede una governance internazionale non solo scientifica ed etica ma anche di tipo politico-economico, capace di bilanciare il progresso tecnologico con la tutela della persona».

© Riproduzione riservata

CRONACA DI PARMA

GUSTO

GOSSIP

ANIMALI