Recentemente (il 5 aprile scorso) il CNIL, il Garante Privacy francese, ha aperto sul proprio sito e pubblicato un’intera sezione dedicata all’Intelligenza Artificiale, che contiene risorse utili, tra le altre cose, per i professionisti del settore e dunque per gli sviluppatori di tecnologie AI (qui il link di riferimento https://www.cnil.fr/fr/intelligence-artificielle-ia).
I contributi pubblicati si suddividono in una breve guida per la creazione di sistemi di AI compliant al GDPR ed in una sezione specifica di autovalutazione per i sistemi di Intelligenza Artificiale tramite il riscontro ad una serie di quesiti specifici.
Riassumiamo in questo articolo le linee guida per la conformità al GDPR, che si rivolgono specificamente ai soggetti sviluppatori di sistemi di AI, al fine di guidarli nella creazione di tecnologie algoritmiche compliant per impostazione predefinita ai principi del Reg. (UE) 2016/679.
I principi fondamentali privacy nel settore AI
L’Intelligenza Artificiale si sostanzia in una tecnologia che comporta il trattamento di grandissime quantità di dati, ed in quanto tale essa richiede una particolare attenzione, da parte degli sviluppatori, al rispetto della cosiddetta “cassetta degli attrezzi del GDPR”, ovverosia di tutti i principi contenuti nell’art. 5 Reg. (UE) 2016/679. Precisamente, gli sviluppatori dovranno rispettare precisamente:
- Il principio di finalità: le finalità dei sistemi AI devono essere sempre determinate, legittime ed esplicite, tenendo conto anche delle diverse fasi di costruzione di tali tecnologie; il CNIL si focalizza in particolare sui sistemi machine learning, che prevedono almeno due fasi, quella di training e quella di produzione dei risultati: l’Autorità francese stabilisce come le finalità per queste due fasi non potranno solitamente combaciare, ma nondimeno dovranno essere individuate ed esplicitate dagli sviluppatori.
- Il principio di liceità del trattamento: i dati personali utili alla creazione ed alla gestione di sistemi di AI devono essere raccolti e trattati sul fondamento di una base giuridica lecita tra quelle riconosciute dal Regolamento; il CNIL ci ricorda dunque come non può essere implementato un sistema di AI sulla base di dati personali (di training, ad esempio) raccolti illegalmente, e come la sola finalità della “ricerca scientifica” non possa di per sé fondare la liceità del trattamento, ma sia necessario inserire tale finalità in una delle basi giuridiche espressamente riconosciute dal GDPR.
- Il principio di minimalizzazione dei dati: questo, insieme al principio di limitazione della conservazione, è il principio di più difficile applicazione quando si entra nel contesto dell’Intelligenza Artificiale; i sistemi AI, infatti, ed in particolare quelli basati sull’apprendimento automatico, richiedono l’utilizzo di grandi volumi di dati per poter funzionare correttamente. Nonostante tale configurazione, il principio di minimizzazione non deve essere visto come un ostacolo allo sviluppo di sistemi AI performanti. Il CNIL consiglia in particolare di valutare e formare in modo motivato (rispetto alle finalità specificate) i propri data set di riferimento, rispondendo alle seguenti regole:
-
- valutare criticamente la natura e la quantità di dati da utilizzare;
- verificare le prestazioni del sistema quando alimentato con nuovi dati;
- distinguere chiaramente i dati utilizzati durante le fasi di apprendimento e produzione;
- utilizzare meccanismi di pseudonimizzazione o di filtraggio/offuscamento dei dati;
- predisporre e mantenere a disposizione la documentazione relativa alle modalità di costituzione del data set utilizzato e alle sue proprietà (fonte dei dati, campionamento dei dati, verifica della loro integrità, operazioni di pulizia effettuate, ecc.);
- rivalutare regolarmente i rischi per le persone interessate (privacy, rischio di discriminazione/pregiudizio, ecc.);
- garantire la sicurezza dei dati e in particolare regolare con precisione le autorizzazioni di accesso per limitare i rischi.
4. Il principio di trasparenza: il CNIL evidenzia come in questo caso, l’uso e la gestione di grandi quantitativi di dati personali dovrà essere bilanciata dal rispetto di specifici obblighi informativi nonché di trasparenza nella costruzione dei data set di riferimento, al fine di permettere agli interessati di esercitare in qualsiasi momento i propri diritti privacy.
5. Il principio di limitazione della conservazione: anche il rispetto di questo principio, come per quello di minimizzazione, non deve essere letto in modo limitativo o ostativo allo sviluppo dei sistemi di AI; il CNIL ci ricorda infatti come la durata della conservazione dovrà sempre essere parametrata alla finalità individuata: ad esempio, la finalità di misurazione delle prestazioni deve essere esplicitamente pianificata per essere utilizzata e i dati conservati più a lungo a tale scopo devono essere selezionati in modo appropriato.
L’informativa privacy rafforzata per i sistemi di intelligenza artificiale e le possibili deroghe
L’applicazione del principio di trasparenza e degli obblighi informativi di cui agli artt. 13, 14 e 22 GDPR hanno una portata particolare nel mondo dell’Intelligenza Artificiale, in quanto se da un lato impongono l’esposizione di informazioni aggiuntive (ad esempio l’indicazione delle modalità di funzionamento del sistema di decisione automatizzato e le possibili conseguenze applicative) dall’altro si scontrano con difficoltà applicative che necessitano di essere superate:
Si pensi a sistemi di AI implementati tramite dati personali riutilizzati, laddove i dati non siano stati raccolti direttamente da chi sta sviluppando il modello, con difficoltà nel risalire e individuare gli interessati del trattamento. In questi casi si potrà applicare la deroga prevista dal par. 5 lett. b) dell’art. 14 laddove informare gli interessati richiederebbe uno sforzo sproporzionato da parte del titolare del trattamento;
Un’altra difficoltà operativa specifica è legata al mito della black box, il fenomeno per il quale l’opacità dei modelli algoritmici non permetterebbe di spiegare chiaramente come essi funzionino e si sviluppino; in realtà, le decisioni AI sono decisioni assolutamente informate, razionali e trasparenti in quanto fondate su modelli matematici (e dunque perfettamente logici), che possono però essere non facilmente comprensibili a causa di uno sbilanciamento formativo lato dell’interessato, che spesso non possiede gli strumenti cognitivi e linguistici corretti per comprendere come funziona il meccanismo decisorio e il suo risultato. Sarà compito quindi degli sviluppatori trovare il linguaggio giusto per spiegare correttamente agli interessati come funzioni il sistema di AI utilizzato.
L’approccio risk based applicato ai sistemi di AI
Dal 2010 circa è emerso un campo di ricerca sul tema della messa in sicurezza dei modelli di AI e, in particolare, delle possibilità di estrazione delle informazioni, che possono avere importanti ripercussioni sulla riservatezza dei dati personali (si parla in questo ambito di attacchi di inferenza di appartenenza, attacchi di esfiltrazione di modelli o persino attacchi di inversione di modelli). Il CNIL sottolinea quindi come gli sviluppatori debbano porre in essere misure tecniche ed organizzative idonee a ridurre al minimo i rischi di violazione. Nel caso in cui poi l’attacco sia compiuto con successo, esso comporterà con tutta probabilità un data breach ai sensi dell’art. 34 GDPR: in questo caso, afferma l’Autorità francese, sarà necessario procedere quanto prima al ritiro del modello in questione e presentare una notifica di violazione dei dati all’autorità competente per la protezione dei dati, qualora la violazione possa comportare un rischio per i diritti e le libertà degli interessati.
L’approccio multidisciplinare riduce i costi ed evita i ritardi del go live
L’intelligenza artificiale (AI) è pronta a cambiare il mondo in cui viviamo. Dalle auto a guida autonoma alla medicina personalizzata, l’AI ha il potenziale per trasformare molti aspetti della nostra vita quotidiana. Le aziende hanno iniziato a prenderne atto e alcune si stanno già muovendo rapidamente per integrare l’AI nelle loro operazioni quotidiane.
Tuttavia, come con qualsiasi nuova tecnologia, ci sono diverse considerazioni importanti per le aziende che desiderano sfruttare l’AI per i loro modelli di business. Un elemento chiave di queste considerazioni è la conformità con le norme sulla protezione dei dati come il regolamento generale sulla protezione dei dati personali (GDPR).
Per questo, la collaborazione stretta tra sviluppatori di software e professionisti del legal tech non è solo auspicabile, ma necessaria: sia per garantire che la fase di sviluppo operativo si basi su requisiti che includano per impostazione predefinita anche la conformità alla normativa applicabile, sia per ridurre i costi di un eventuale adeguamento successivo e i conseguenti ritardi nel rilascio.