ROMA (Public Policy Bytes) – “L’IA che usa il tuo dottore è sicura?” È il quesito che pone l’Organizzazione mondiale della sanità, in una nota a margine del nuovo report “Artificial intelligence is reshaping health systems: state of readiness across the Who European region”.
Lo studio, basato sulle risposte di 50 dei 53 Stati membri della Regione europea dell’Oms, fornisce “il primo quadro regionale completo sull’adozione e la regolamentazione dell’IA in sanità” – si legge nel comunicato. “L’intelligenza artificiale sta già aiutando i medici a individuare le malattie, ridurre gli oneri amministrativi e comunicare con i pazienti” – si legge nella nota – “ma chi è responsabile quando un sistema di IA commette un errore o provoca un danno?”
“Senza standard legali chiari – avverte David Novillo Ortiz, Consigliere regionale per i dati, l’intelligenza artificiale e la sanità digitale dell’Oms – i clinici potrebbero essere riluttanti a fare affidamento sugli strumenti di IA e i pazienti potrebbero non avere percorsi chiari di ricorso in caso di controversie”. Per questo – prosegue la nota – “l’Oms esorta i Paesi a chiarire le responsabilità, istituire meccanismi di risarcimento e garantire che i sistemi di IA siano testati in termini di sicurezza, equità ed efficacia nel mondo reale prima del loro utilizzo clinico”.
“Quando si cerca assistenza medica – sottolinea l’Oms – ci si aspetta che il medico o l’infermiere siano responsabili di eventuali errori, ma l’IA modifica questa dinamica, perché si basa sui dati per apprendere e prendere decisioni. Se tali dati sono incompleti o presentano bias, anche le decisioni dell’IA lo saranno, con possibili diagnosi mancate, trattamenti errati o cure diseguali”.
A detta dell’Organizzazione, infatti, “la rapida diffusione dell’IA in ambito sanitario procede senza le tutele giuridiche di base necessarie a proteggere pazienti e operatori sanitari”. Tra le cause individuate, vi è la persistenza di “significative lacune” nel livello di preparazione, che rimarrebbe “disomogeneo e frammentato”. Dallo studio emerge infatti che solo 4 Paesi (l’8% del totale) dispongono di una strategia nazionale dedicata all’IA in sanità e altri 7 (14%) la stanno sviluppando.
In fatto di adozione di strumenti di IA, inoltre, quasi 9 paesi su 10 (l’86%) indicano l’incertezza giuridica come il principale ostacolo all’adozione, e 8 su 10 (il 78%) citano i limiti finanziari come ostacolo rilevante. Nel frattempo, meno di un paese su 10 (l’8%) dispone di norme sulla responsabilità civile in ambito di IA, che definiscono chi è responsabile in caso di errore o danno provocato da un sistema di IA.




