L'entrata in vigore del Regolamento n.1689/2024, noto come "AI Act", segna un passaggio storico per la regolamentazione dell'intelligenza artificiale (IA) in Europa, con effetti diretti anche nel settore sanitario. Questo nuovo quadro normativo impone regole chiare per chi sviluppa e fornisce i sistemi IA, noti come "providers", sia per chi li utilizza, i cosiddetti "deployers".
La figura del deployer
L'art. 3, paragrafo 3 dell’AI Act definisce il "deployer" come “una persona fisica o giuridica, un ente pubblico o privato, che utilizza un sistema di IA sotto la propria responsabilità”. Questa definizione è volutamente ampia, includendo non solo individui ma anche organizzazioni che forniscono sistemi IA agli utenti, a patto che l'uso avvenga in ambito professionale.
Nel settore sanitario, il deployer sarà la struttura sanitaria o il medico stesso, a seconda di chi si assume la responsabilità dell’utilizzo del sistema IA e della prestazione sanitaria erogata attraverso esso. Questo ruolo non si limita al semplice utilizzo della tecnologia: il deployer deve anche garantire che il sistema IA venga utilizzato sotto la propria autorità e con adeguati livelli di competenza tecnica.
Se il contratto di cura è stipulato dalla struttura sanitaria, quest’ultima diventa il deployer, mentre il medico viene considerato parte del personale incaricato di utilizzare il sistema. Se, invece, il medico stipula il contratto direttamente con il paziente, egli stesso sarà il deployer, assumendo sia il ruolo di utilizzatore sia quello di responsabile del sistema.
Implicazioni sulla gestione del rischio clinico
Una delle questioni centrali sollevate dall’AI Act è la gestione del rischio clinico legato all’utilizzo dell’intelligenza artificiale. Gli obblighi imposti ai deployers di sistemi IA ad alto rischio sono numerosi e richiedono un'attenta valutazione. In particolare, viene richiesto ai deployers di adottare misure specifiche per garantire che il personale coinvolto nell’uso dei sistemi IA possieda un’adeguata formazione, tenendo conto delle competenze tecniche e dell’esperienza nel contesto specifico in cui il sistema viene utilizzato.
Questo aspetto è di particolare importanza, poiché eventuali danni causati al paziente derivati dall’uso inappropriato dell’IA, in assenza di misure preventive adeguate, potrebbero aggravare la posizione del deployer coinvolto in controversie legali tanto da essere ritenuto responsabile, mettendo in discussione la condotta del medico o della struttura sanitaria.
Un nuovo equilibrio tra innovazione e responsabilità
L’AI Act introduce una regolamentazione rigorosa ma necessaria per un settore in rapida evoluzione. Per i professionisti della salute, questo significa un maggiore controllo sull’uso delle tecnologie IA, ma anche nuove responsabilità. La capacità di adattarsi a questi cambiamenti e di integrare l'IA nella pratica clinica in modo sicuro e consapevole sarà cruciale per garantire non solo la conformità normativa, ma anche la qualità delle cure fornite ai pazienti.
Fonte: Studio Legale Stefanelli