Introduzione
L’intelligenza artificiale è oggi il cuore pulsante della trasformazione digitale che sta cambiando economia, lavoro e società. La sua diffusione in ogni settore – dalla sanità alla giustizia, dall’industria alla pubblica amministrazione – impone la costruzione di regole capaci di bilanciare innovazione, sicurezza e tutela dei diritti fondamentali.
L’Unione Europea ha risposto a questa sfida con l’AI Act, il primo regolamento al mondo che disciplina in modo organico lo sviluppo e l’uso dei sistemi di intelligenza artificiale. L’obiettivo è creare fiducia, promuovere la trasparenza e garantire che l’IA resti sempre al servizio della persona.
Il modello europeo: un approccio basato sul rischio
L’approccio europeo è definito come risk-based: ogni sistema viene valutato in base al livello di rischio che comporta per le persone. Sono vietati i sistemi a rischio inaccettabile, come la manipolazione comportamentale o il riconoscimento emotivo in ambito lavorativo. I sistemi ad alto rischio, come quelli utilizzati in sanità o giustizia, sono ammessi solo rispettando requisiti severi su sicurezza, qualità dei dati e controllo umano. Per tutti gli altri casi, l’AI Act prevede obblighi più leggeri o raccomandazioni di buona pratica. È un modello di regolazione che punta alla proporzionalità e alla responsabilità.
La risposta italiana: Legge 132/2025
L’Italia ha scelto di accompagnare questa rivoluzione con una normativa complementare: la Legge 132/2025. Entrata in vigore nell’ottobre 2025, essa adatta i principi europei alle esigenze del sistema italiano, promuovendo un uso etico e competitivo dell’intelligenza artificiale.
La legge sottolinea la centralità della persona, la necessità di trasparenza e spiegabilità degli algoritmi, la sicurezza dei sistemi e la prevenzione delle discriminazioni. Particolare attenzione è dedicata ai settori più sensibili:
- Sanità: la decisione finale resta sempre al medico.
- Pubblica amministrazione: l’IA può semplificare i processi ma non sostituire il giudizio umano.
- Lavoro: la legge tutela i diritti dei lavoratori e promuove la formazione digitale.
La governance nazionale è affidata alla Presidenza del Consiglio, affiancata da AgID e ACN, con un Comitato interministeriale incaricato di aggiornare la strategia nazionale ogni due anni.
Lo standard ISO 42001:2023 come strumento operativo
Accanto alla regolazione pubblica, entra in gioco anche la norma ISO 42001:2023, il primo standard internazionale dedicato alla gestione responsabile dell’intelligenza artificiale. Lo standard introduce un modello organizzativo basato su pianificazione, controllo e miglioramento continuo, aiutando imprese e istituzioni a integrare la dimensione etica nella gestione dei sistemi di IA.
La ISO 42001 rappresenta un ponte tra la compliance legale e la governance aziendale, traducendo principi astratti in procedure concrete. Seguendo il modello “Plan–Do–Check–Act”, ogni organizzazione può strutturare un sistema di controllo trasparente, tracciabile e orientato al miglioramento costante.
Verso una governance multilivello dell’intelligenza artificiale
Il quadro che emerge è quello di una governance multilivello: l’Europa definisce le regole, l’Italia ne realizza l’attuazione etica e la ISO 42001 fornisce gli strumenti per applicarle nella pratica. Insieme, questi tre livelli creano un ecosistema in cui innovazione e tutela non sono in conflitto, ma si rafforzano a vicenda.
Conclusioni
Il futuro dell’intelligenza artificiale sarà sostenibile solo se sapremo coniugare progresso tecnologico e responsabilità umana. È questo il messaggio che attraversa le nuove regole europee e italiane: l’IA non deve sostituire l’uomo, ma amplificarne l’intelligenza, nel rispetto dei valori che fondano la nostra società digitale.





