Intelligenza Artificiale in sanità: guida completa al “Decalogo” 2023 del Garante Privacy
Il 10 ottobre 2023 il Garante per la protezione dei dati personali ha pubblicato un Decalogo che stabilisce dieci condizioni imprescindibili per progettare, addestrare e usare sistemi di IA all’interno del Servizio Sanitario Nazionale (SSN). Il documento anticipa molte delle tutele oggi previste dall’AI Act e offre un riferimento operativo per legislatori, strutture sanitarie, sviluppatori e pazienti.
Perché servono dieci regole specifiche
L’IA può migliorare diagnosi, pianificazione ospedaliera e ricerca clinica, ma amplifica anche i rischi legati a errori, bias e violazioni di dati sanitari — informazioni tra le più sensibili in assoluto. Il Decalogo nasce dunque per:
- garantire sicurezza clinica e riduzione degli errori;
- evitare discriminazioni tra gruppi di pazienti;
- assicurare trasparenza nel funzionamento dei modelli;
- chiarire responsabilità legali degli attori coinvolti.
I 10 principi del Decalogo, spiegati nel dettaglio
1. Basi giuridiche del trattamento
Ogni progetto deve poggiare su una norma di legge / regolamento che indichi dati trattabili, finalità e misure di tutela. Senza base giuridica, il sistema può essere bloccato o sanzionato.
2. Accountability & privacy by design/default
La protezione dei dati va incorporata fin dalla progettazione: minimizzazione, impostazioni protettive per default, documentazione e audit trail sempre disponibili per il Garante.
3. Ruoli chiari (titolare, responsabile, fornitore)
Bisogna definire chi decide finalità e mezzi del trattamento, chi gestisce l’infrastruttura e chi sviluppa l’algoritmo, con accordi contrattuali che ripartiscano oneri e sanzioni.
4. Conoscibilità, non-esclusività e non-discriminazione
(a) Il paziente deve sapere che c’è un’IA in gioco e come funziona; (b) l’ultima parola spetta sempre a un clinico (“human-in-the-loop”); (c) occorre testare e correggere i bias che penalizzano categorie di pazienti.
5. Valutazione d’impatto (DPIA / VIP)
Prima del deployment serve una DPIA nazionale che analizzi rischi, benefici e contromisure. Va aggiornata ad ogni major release o cambio di dataset.
6. Qualità dei dati
Dataset accurati, completi e aggiornati; procedure per eliminare duplicati, errori e voci obsolete; verifiche continue di accuratezza.
7. Integrità e riservatezza
Crittografia end-to-end, accessi profilati, monitoraggio intrusioni, difese anti-data-poisoning e inversion attacks lungo tutta la pipeline IA.
8. Correttezza e trasparenza
Pubblicare logiche, set di training, margini di errore, responsabilità cliniche e benefici attesi; predisporre meccanismi di explainability (es. SHAP, LIME).
9. Supervisione umana qualificata
Professionisti sanitari devono poter convalidare o smentire gli output. Caso emblematico: un algoritmo USA sottostimava il rischio dei pazienti afroamericani a causa di una metrica sbilanciata.
10. Dignità e identità personale
Vietate etichette stigmatizzanti; rispetto per autonomia, cultura e integrità dei pazienti; scelta di fornitori in grado di garantire standard etici e normativi.
Dal principio alla pratica: come implementare il Decalogo
Governance di progetto
Occorre costituire un comitato multidisciplinare (clinici, data scientist, DPO, ingegneri di sicurezza) che monitori l’intero ciclo di vita del modello, dai requisiti iniziali al phase-out.
Data contract sanitario
Occorre definire in modo formale quali dati possono essere ingegnerizzati, chi li potrà toccare, per quanto tempo verranno conservati e con quali finalità secondarie (research, quality improvement).
Pipeline MLOps etica
Occorre integrare controlli di fairness, explainability e performance nel tuo CI/CD. Ogni build dovrebbe fallire se violi soglie di equità o security.
Formazione del personale
Occorre prevedere corsi periodici su: lettura degli output AI, gestione dei falsi positivi/negativi, principi di non-discriminazione e corretta informativa al paziente.
Comunicazione al pubblico
- Predisporre una pagina web dell’ospedale che spieghi, in linguaggio accessibile, quali algoritmi sono in uso e con quali garanzie.
- Effettuare campagne di consenso informato che includano moduli dedicati all’IA.
Benefici attesi se il Decalogo viene rispettato
- Miglioramento clinico: Diagnosi più rapide e triage più accurati senza sacrificare la sicurezza dei pazienti.
- Equità di accesso: Riduzione di divari territoriali, socio-economici e di genere nei percorsi di cura.
- Riduzione del contenzioso: Chiarezza su ruoli e DPIA limita il rischio di sanzioni e cause legali.
- Accettazione sociale: Trasparenza e human-in-the-loop accrescono la fiducia di pazienti e operatori.
- Allineamento normativo: Conformarsi oggi al Decalogo significa arrivare preparati alle verifiche dell’AI Act domani.
Conclusioni
Il Decalogo del 2023 funge da framework operativo per coniugare innovazione algoritmica e tutela dei diritti fondamentali. Implementare i dieci principi in tutte le fasi del ciclo di vita dell’IA — dalla raccolta dati al deployment clinico — non è mera conformità giuridica, ma elemento chiave per:
- Affidabilità scientifica dei modelli,
- Accettabilità sociale e fiducia degli stakeholder,
- Sostenibilità etica dei sistemi sanitari digitali.
Solo così l’Intelligenza Artificiale potrà evolvere da strumento sperimentale a vera infrastruttura coniugando precisione scientifica, sicurezza dei dati e centralità della persona.