Skip to main content

Il Regolamento (UE) 2024/1689 (AI Act), che mira a promuovere la diffusione di un’IA antropocentrica e trustworthy, si occupa di numerose tematiche, tra le quali di particolare rilievo risultano quelle in cui si intrecciano i temi di protezione dei dati personali e addestramento dei modelli IA.

Nel nuovo assetto dell’AI Act, per i sistemi ad alto rischio, i set di dati di training, convalida e prova devono essere sottoposti a pratiche di governance e gestione specifiche.

Queste pratiche, ad esempio, riguardano i processi di raccolta dei dati e la valutazione delle distorsioni che potrebbero incidere sulla salute e la sicurezza delle persone, avere un impatto negativo sui diritti fondamentali o comportare discriminazioni vietate, specie laddove gli output del sistema influenzino gli input per operazioni future.

Il trattamento di categorie particolari di dati (o “dati sensibili”) è inoltre consentito solo allo scopo di rilevare e correggere queste distorsioni, nel caso in cui non possano essere impiegati dati sintetici o anonimizzati e, comunque, in presenza di tutele adeguate per le persone coinvolte, tra le quali limitazioni tecniche per il riutilizzo dei dati, misure più avanzate di sicurezza e divieti di trasmissione o messa a disposizione dei terzi.

In caso di uso di questi sistemi per adottare decisioni con effetti significativi su di una persona, la scelta europea è stata nel senso di rafforzare le tutele degli interessati previste dal GDPR in materia di processi decisionali automatizzati: i destinatari avranno infatti il diritto di ottenere dall’utilizzatore del sistema spiegazioni chiare e significative sul ruolo dell’AI nella procedura decisionale e sui principali elementi della decisione adottata (c.d. xAI).