Condividi questo articolo:
Privacy

Referti Medici e Intelligenza Artificiale Generativa

Referti medici e Intelligenza Artificiale Generativa: analisi tecnico-legale, rischi, buone pratiche e scenari futuri

1. Introduzione

Negli ultimi due anni si è registrata una crescita esponenziale dell’uso di piattaforme di Intelligenza Artificiale Generativa (IA generativa) per scopi che vanno ben oltre l’elaborazione di testo o la generazione di immagini artistiche. Una tendenza particolarmente rilevante e delicata è l’impiego di questi sistemi per l’interpretazione di referti medici.

Il Garante per la Protezione dei Dati Personali, con comunicato del 30 luglio 2025, ha evidenziato i rischi connessi alla condivisione di dati sanitari con IA generative non certificate come dispositivi medici. L’avvertimento si fonda su due elementi centrali:

  • Rischio di perdita di controllo sui dati sanitari.
  • Rischio di ricevere interpretazioni errate o fuorvianti.

L’oggetto di questo approfondimento è analizzare in dettaglio tali rischi, il contesto normativo, gli impatti sugli attori coinvolti e fornire schemi operativi e casi concreti per orientare le scelte di utenti, professionisti sanitari e sviluppatori.

2. Fenomenologia del problema

2.1 Come funziona nella pratica

Il processo tipico osservato è il seguente:

  1. L’utente fotografa o scansiona il proprio referto (es. TAC, esame del sangue).
  2. Carica il file su una piattaforma di IA generativa.
  3. Formula un prompt con richiesta di interpretazione (“Puoi spiegarmi cosa significa questo referto?”).
  4. Riceve una risposta testuale generata dal modello.

Schema 1 – Flusso tipico di caricamento referti su IA generativa:
Referto medico → Upload su piattaforma IA → Elaborazione algoritmica → Output interpretativo → Utilizzo da parte dell’utente

2.2 Differenze tra IA medica certificata e IA generativa generica

  • IA medica certificata: software sviluppati per finalità cliniche, testati e certificati ai sensi del Regolamento UE 2017/745 (MDR).
  • IA generativa generica: modelli general purpose, non progettati né validati per diagnosi mediche.

Conseguenza pratica: un referto caricato su un sistema generico può essere elaborato senza alcuna garanzia di accuratezza clinica, né di conformità ai requisiti di sicurezza.

2.3 Il rischio della “normalizzazione” dell’uso improprio

Il pericolo più insidioso è che, con la crescente confidenza degli utenti verso l’IA, diventi prassi comune caricare dati sanitari sensibili su piattaforme non sicure, ignorando implicazioni legali e cliniche.

3. Rischi principali

3.1 Perdita di controllo sui dati sanitari

I dati sanitari rientrano nelle categorie particolari di dati (art. 9 GDPR). La loro gestione richiede misure rafforzate. Caricando un referto su un sistema di IA generativa generica:

  • Non è chiaro se i dati vengano cancellati dopo l’elaborazione.
  • Potrebbero essere conservati per addestrare modelli.
  • È possibile che vengano trasferiti fuori dall’UE, in paesi con livelli di protezione inferiori.

3.2 Rischio clinico da informazioni errate

Un modello generico non addestrato su dati medici validati può:

  • Interpretare male termini tecnici.
  • Fornire correlazioni inesatte.
  • Generare allarmismo o, al contrario, falsa rassicurazione.

Caso pratico 1 – Interpretazione fuorviante
Un paziente carica un referto con la dicitura “lesione ipodensa di 3 cm”. L’IA generativa, priva di contesto clinico, ipotizza un tumore maligno, inducendo il paziente a un forte stress e a decisioni mediche inappropriate. In realtà, la lesione era benigna e già nota al medico curante.

3.3 Web scraping e addestramento non controllato

Il Garante richiama anche i rischi del web scraping indiscriminato di dati sanitari, pratica con cui dataset pubblici o semi-pubblici vengono raccolti per addestrare modelli, senza consenso informato.

4. Quadro normativo essenziale

4.1 GDPR

  • Art. 5: principi di liceità, trasparenza, minimizzazione, limitazione della conservazione.
  • Art. 9: divieto di trattamento dei dati sanitari salvo specifiche condizioni (consenso esplicito, finalità mediche, ecc.).
  • Art. 13: obbligo di fornire informativa chiara.

4.2 Regolamento UE sull’IA

Classifica i sistemi di IA in base al rischio.
Sistemi per la diagnosi medica → alto rischio → obbligo di supervisione umana qualificata.
Art. 14: supervisione lungo tutto il ciclo di vita del sistema (sviluppo, addestramento, validazione).

4.3 Disciplina sanitaria nazionale

Necessità di un presupposto di liceità specifico.
Ruolo del Consiglio Superiore di Sanità: linee guida 2021 confermano necessità di controllo medico.

5. Attori coinvolti e responsabilità

5.1 Utente/paziente

Responsabilità di valutare l’affidabilità della piattaforma. Rischio di subire violazioni di privacy e danni alla salute.

5.2 Operatore sanitario

Obbligo deontologico di usare strumenti certificati. Responsabilità in caso di uso improprio di IA non mediche.

5.3 Sviluppatore/gestore della piattaforma

Necessità di conformità a GDPR e Regolamento IA. Obbligo di fornire opzioni chiare su conservazione e cancellazione dati.

Caso pratico 2 – Conservazione non dichiarata dei dati
Un paziente utilizza una piattaforma di IA generativa per interpretare una risonanza magnetica. La piattaforma, senza informativa chiara, conserva le immagini per futuri addestramenti. Dopo due anni, le immagini compaiono in dataset aperti a ricercatori terzi.

6. Misure operative consigliate

6.1 Per gli utenti

  • Leggere sempre la privacy policy.
  • Usare piattaforme certificate per referti.
  • Chiedere al medico un secondo parere umano.

6.2 Per gli sviluppatori

  • Consentire la cancellazione immediata dei dati caricati.
  • Integrare controlli di data minimization.
  • Prevedere tracciamento dell’uso dei dati.

Schema 3 – Ciclo di protezione del dato sanitario in IA
1. Raccolta → 2. Minimizzazione → 3. Elaborazione → 4. Cancellazione sicura

7. Scenari futuri

L’evoluzione dell’IA multimodale porterà a modelli sempre più capaci di elaborare testo e immagini diagnostiche in modo integrato. Ciò aumenterà:

  • Potenzialità cliniche.
  • Rischi di abuso e fuga di dati.

Caso pratico 3 – IA multimodale e diagnosi predittiva
Nel 2027, un sistema multimodale analizza referti e anamnesi per prevedere la probabilità di sviluppo di una patologia. Il risultato viene condiviso senza supervisione medica, generando decisioni affrettate da parte del paziente.

8. Check-list operative

Per utenti:

  • Verifica certificazione piattaforma.
  • Leggi privacy policy.
  • Usa pseudonimizzazione se possibile.
  • Chiedi conferma medica.

Per sviluppatori:

  • Prevedi cancellazione immediata dei dati.
  • Implementa crittografia end-to-end.
  • Documenta tutte le fasi di trattamento.
  • Rispetta i principi di minimizzazione.

9. Conclusioni

Il comunicato del Garante non è un divieto assoluto, ma un invito alla consapevolezza.
L’uso dell’IA in sanità può rappresentare una rivoluzione positiva, ma solo se ancorato a solide basi di etica, sicurezza e legalità.

La protezione del dato sanitario è protezione della persona nella sua interezza: un principio che nessuna tecnologia può sacrificare.

Post correlati