L’introduzione di sistemi di AI in sanità può alimentare nuove forme di medicina difensiva, e questo inciderà sull’allocazione della responsabilità civile. Muovendo dal dilemma tra adesione alle linee-guida (l. 24/2017), buona prassi medica e impiego di strumenti innovativi ma opachi, occorre evidenziare il rischio di un’applicazione meramente difensiva degli strumenti di cura muniti di AI. Possiamo, infatti, immaginare scenari di una “nuova” medicina difensiva: esami aggiuntivi non necessari; uso della sola IA certificata; iper-documentazione per giustificare l’adesione o il dissenso rispetto all’output algoritmico; trasferimento del rischio sulle assicurazioni, con aumenti di costi a carico del paziente; rifiuto dell’AI, con possibile perdita di benefici per il paziente. Sul piano della responsabilità, si distingue tra device muniti di AI sotto controllo medico, che mantiene il giudizio di colpa professionale, e quelli ad elevata autonomia e opacità, ove l’interruzione del nesso causale suggerisce di spostare il baricentro verso la responsabilità del produttore e della filiera, anche alla luce della Product Liability Directive 2024 e del regime risk-based dell’AI Act per i sistemi “ad alto rischio”. Nei confronti delle strutture sanitarie, si conferma l’azione di natura contrattuale del paziente e la possibile rivalsa graduata verso medico e produttore del device, il cui malfunzionamento, se non rilevabile, può esclude la responsabilità diretta del medico. L’equilibrio tra innovazione e tutela del paziente passa, da una parte, dalla promozione di una IA affidabile e trasparente, accompagnata da una responsabilità oggettiva del produttore nei casi di errore “della macchina”; dall’altra, dall’individuazione di una possibile colpa omissiva del medico, che rifiuti ingiustificatamente l’uso di adeguata AI.
La medicina difensiva al tempo dell’intelligenza artificiale / Natale, Andrea Vincenzo. - In: BIOLAW JOURNAL. - ISSN 2284-4503. - 2025:3(2025), pp. 371-409.
La medicina difensiva al tempo dell’intelligenza artificiale
andrea vincenzo natale
2025-01-01
Abstract
L’introduzione di sistemi di AI in sanità può alimentare nuove forme di medicina difensiva, e questo inciderà sull’allocazione della responsabilità civile. Muovendo dal dilemma tra adesione alle linee-guida (l. 24/2017), buona prassi medica e impiego di strumenti innovativi ma opachi, occorre evidenziare il rischio di un’applicazione meramente difensiva degli strumenti di cura muniti di AI. Possiamo, infatti, immaginare scenari di una “nuova” medicina difensiva: esami aggiuntivi non necessari; uso della sola IA certificata; iper-documentazione per giustificare l’adesione o il dissenso rispetto all’output algoritmico; trasferimento del rischio sulle assicurazioni, con aumenti di costi a carico del paziente; rifiuto dell’AI, con possibile perdita di benefici per il paziente. Sul piano della responsabilità, si distingue tra device muniti di AI sotto controllo medico, che mantiene il giudizio di colpa professionale, e quelli ad elevata autonomia e opacità, ove l’interruzione del nesso causale suggerisce di spostare il baricentro verso la responsabilità del produttore e della filiera, anche alla luce della Product Liability Directive 2024 e del regime risk-based dell’AI Act per i sistemi “ad alto rischio”. Nei confronti delle strutture sanitarie, si conferma l’azione di natura contrattuale del paziente e la possibile rivalsa graduata verso medico e produttore del device, il cui malfunzionamento, se non rilevabile, può esclude la responsabilità diretta del medico. L’equilibrio tra innovazione e tutela del paziente passa, da una parte, dalla promozione di una IA affidabile e trasparente, accompagnata da una responsabilità oggettiva del produttore nei casi di errore “della macchina”; dall’altra, dall’individuazione di una possibile colpa omissiva del medico, che rifiuti ingiustificatamente l’uso di adeguata AI.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.


