domenica, 15 Dicembre, 2024
Attualità

FnomCeo: l’Intelligenza Artificiale in medicina, è anche un rischio

Audizione alla Commissione Lavoro del presidente dei medici

Intelligenza Artificiale in medicina sì, ma con paletti ben definiti: affinché a curarci non sia, in futuro, anziché un medico, un algoritmo. A tracciare i confini dell’utilizzo, il Presidente della FnomCeo, la Federazione nazionale degli Ordini dei Medici Chirurghi e degli Odontoiatri, Filippo Anelli, ascoltato nei giorni scorsi in audizione dalla Commissione XI – Lavoro della Camera, nell’ambito dell’Indagine conoscitiva sul rapporto tra Intelligenza Artificiale e mondo del lavoro. “L’Intelligenza Artificiale in medicina – ha premesso Anelli – rappresenta l’innovazione dirompente per eccellenza: la disponibilità di una mole di dati praticamente illimitata e la possibilità di una facile e immediata elaborazione stanno aprendo scenari impensabili e dalle grandi potenzialità per pazienti ed operatori, anche e soprattutto in logica predittiva. L’IA, tuttavia, non è priva di criticità e come tutti gli strumenti può prestarsi a un utilizzo improprio. La diffusione massiva e sistemica di applicazioni di IA impone la necessità di una regolamentazione chiara e condivisa in linea con l’Europa”.

Le aree di impatto

“L’impatto dell’Intelligenza Artificiale nella professione medica è profondo e multiforme – ha continuato Anelli – trasformando molti aspetti della fornitura di cure mediche, della ricerca e dell’amministrazione. Rimane comunque evidente che il ruolo del medico rimarrà centrale nella gestione del paziente, soprattutto per quanto riguarda l’approccio empatico e la capacità di sintesi per operare scelte che possono anche essere difformi da quanto un’analisi computazionale, statistica o basata su riconoscimento di pattern possano raccomandare”. Tra le aree sulle quali l’IA ha maggior impatto, l’imaging, la diagnosi precoce, i piani di trattamento e terapie personalizzate; e, ancora, la progettazione di nuovi farmaci, tramite modelli predittivi; il monitoraggio dei pazienti in tempo reale; i compiti amministrativi e burocratici, quali la gestione degli appuntamenti o l’aggiornamento delle cartelle cliniche; la formazione, tramite modelli di simulazione avanzati; il coinvolgimento dei pazienti e l’aderenza alle terapie; la sorveglianza delle malattie e la previsione di epidemie e pandemie.

Sfide etiche e legali

“L’IA nella professione medica – ha sintetizzato Anelli – non solo sta migliorando l’efficienza e l’accuratezza dei servizi sanitari, ma sta anche aprendo la strada a soluzioni sanitarie più innovative, personalizzate e accessibili in tutto il mondo. Tuttavia, è fondamentale affrontare le sfide etiche, legali e formative che accompagnano questi sviluppi. La privacy dei dati, la sicurezza informatica, la responsabilità medica e l’interpretazione corretta delle informazioni generate dall’IA sono tutti aspetti critici che devono essere gestiti attentamente”. Tra i rischi paventati, anche quelli legati a un approccio eccessivamente centrato sull’efficienza, che potrebbe ridurre l’interazione umana e ridimensionare l’interazione medico-paziente. l’IA potrebbe inoltre non essere in grado di considerare adeguatamente la complessità del contesto clinico del singolo paziente, influenzato anche da fattori socioeconomici e da convinzioni e preferenze personali. Ancora, gli algoritmi potrebbero rispecchiare i pregiudizi umani nelle scelte decisionali o diventare il “magazzino” dell’opinione medica personale.

Coinvolgere i sanitari

Infine, ma non certo ultimo per importanza, gli algoritmi potrebbero perseguire obiettivi non etici. Il conflitto etico potrebbe crearsi per le differenze di intenti e obiettivi tra chi finanzia e realizza un algoritmo e chi lo utilizza. “Per mitigare questi rischi”, ha avvertito il medico, “gli operatori sanitari dovrebbero essere coinvolti attivamente nella gestione e nella supervisione dei sistemi di IA, garantendo che la tecnologia sia utilizzata come strumento complementare e non come sostituto delle competenze umane. Normative e linee guida chiare sono fondamentali per garantire un utilizzo etico e sicuro dell’IA in ambito medico”.

Condividi questo articolo:
Sponsor

Articoli correlati

Riserve gas all’83,5%. In primavera rigassificatore a Piombino

Cristina Calzecchi Onesti

Bullismo problema di salute pubblica, ne è vittima un giovane su due

Redazione

Sanità, Lavoro&Welfare “Sviluppare alleanza fra pubblico e privato”

Redazione

Lascia un commento

Questo modulo raccoglie il tuo nome, la tua email e il tuo messaggio in modo da permetterci di tenere traccia dei commenti sul nostro sito. Per inviare il tuo commento, accetta il trattamento dei dati personali mettendo una spunta nel apposito checkbox sotto:
Usando questo form, acconsenti al trattamento dei dati ivi inseriti conformemente alla Privacy Policy de La Discussione.