Con l’entrata in vigore dell’AI Act europeo (Regolamento UE 2024/1689), dal 2 agosto 2025 cambiano le regole per chi utilizza sistemi di Intelligenza Artificiale in ambito sanitario.
Dalle diagnosi automatizzate ai chatbot, fino ai software di refertazione e supporto clinico: ogni strumento basato su IA deve ora rispettare criteri di sicurezza, trasparenza e responsabilità.
Per cliniche, farmacie, poliambulatori e studi medici, non è più solo una questione di innovazione: è un obbligo normativo.
Ecco un vademecum pratico in 7 punti per orientarsi subito:
Individuare quali strumenti utilizzano IA (anche integrata in software gestionali o diagnostici).
Il regolamento distingue tra applicazioni ad alto rischio (es. diagnosi) e basso rischio (es. chatbot informativi).
Ogni decisione clinica supportata da IA deve poter essere validata da un professionista.
Applicare i principi del GDPR: minimizzazione, pseudonimizzazione, consenso informato e DPIA (valutazione d’impatto).
Accertarsi che le piattaforme o i software adottati siano conformi e certificati.
Medici e operatori devono sapere come funziona l’IA che usano e quali limiti ha.
Includere l’uso dell’IA nelle procedure di sicurezza e governance dei dati.
Il mancato rispetto dell’AI Act può comportare sanzioni elevate, ma soprattutto perdita di fiducia da parte dei pazienti. In un settore basato sulla riservatezza e sulla responsabilità, usare l’IA senza regole significa esporsi a rischi legali ed etici.
Con OKPrivacy, il servizio legale di Consulcesi & Partners, supportiamo strutture sanitarie pubbliche e private nell’adeguamento all’AI Act e al GDPR: