Algoritmi e Pregiudizi – E-PRIVACY XXX

Cosa accade quando un modello di Intelligenza Artificiale, nato e progettato per velocizzare un determinato processo decisionale e dunque per aiutare l’uomo nello svolgimento di una determinata attività, produce un risultato che ha come effetto quello di discriminare donne, minoranze etniche, persone appartenenti alla comunità LGTBQIA+?

Come si inserisce nel processo di adozione e sviluppo dell’AI, il rispetto dei diritti fondamentali dell’uomo, e nello specifico il diritto a non essere discriminati?

La rappresentazione generale dell’AI ci parla da tempo di una tecnologia intelligente, che solitamente nei film, nelle serie tv e nei romanzi sci-fi minaccia gli esseri umani di prendere il sopravvento distruggendo l’umanità; la realtà dei fatti ci pone sicuramente di fronte ad una tecnologia intelligente (ce lo dice anche il nome)  ma le possibili implicazioni problematiche, quelle che veramente devono preoccuparci, non hanno nulla a che fare con gli scenari post apocalittici che siamo abituati a vedere sul grande e piccolo schermo.

L’uso non accorto dell’Intelligenza Artificiale può creare problemi gravi e attuali, come ad esempio la possibilità di presentare risultati errati nell’elaborazione statistica, che possono avere effetti  particolarmente incidenti sulla vita delle persone; uno dei principali motivi di apprensione  che sta coinvolgendo in questo momento la comunità scientifica concerne infatti il fenomeno della discriminazione algoritmica, ovverosia la capacità dell’AI di propagare ed amplificare  gli elementi di discriminazione già ben radicati nella nostra società.

L’AI: la macchina intelligente che non conosce volontà

Quando parliamo di Intelligenza Artificiale e di discriminazione algoritmica, la prima cosa che dobbiamo tenere ben a mente è che l’AI è caratterizzata dall’assenza dell’elemento della volontà: “l’intelligenza artificiale, a differenza di quella umana, non ha volontà e deve ricorrere a un diverso paradigma conoscitivo. La macchina è prima di ogni altra considerazione un agente razionale che non può contraddirsi, e che fonda ogni azione su un presupposto logico. Per l’intelligenza artificiale non si addicono dunque termini come volontà, o intuito, che appaiono del tutto vaghi” scrive l’Ingegner Giuseppe D’Acquisto nel suo volume Intelligenza Artificiale, Elementi, e tale elemento è fondamentale in quanto esclude dalla conversazione sui bias la possibilità di una discriminazione algoritmica “volontaria”.

La macchina non è in grado di produrre risultati volutamente discriminanti, ma questo effetto nasce come conseguenza indiretta di un sistema precostituito, assorbito dal modello algoritmico nelle varie fasi della sua progettazione e messa in funzione (nella fase di programmazione, ad esempio, laddove la macchina viene programmata da un essere umano che può essere foriero di pregiudizi, o nella fase di training).

L’Intelligenza Artificiale che viola i diritti umani

Eliminato l’elemento della volontà, è in ogni caso necessario affrontare il problema della discriminazione algoritmica, per capire da cosa è causato e come può essere risolto, onde evitare che l’AI soffra degli stessi mali che affliggono l’uomo.

I risultati discriminatori non voluti, conseguenze di processi decisionali automatizzati, possono avere effetti dirompenti per l’essere umano, contribuendo a giustificare e confermare un sistema discriminatorio già instaurato nella nostra società; la minaccia non è così eventuale, considerato che la modalità di funzionamento delle macchine intelligenti, prevedono, per la maggior parte dei casi, una fase di allenamento nel quale la macchina impara da dati e informazioni derivanti dal mondo reale, intriso di pregiudizi e stereotipi anche inconsapevoli.

Così, il pericolo dei bias (definiti come pregiudizi che incidono con uno squilibrio della decisione finale) ed in particolar modo dei gender e dei racial bias, è la propagazione di un sistema di discriminazione che, purtroppo, è già ben radicato nella nostra realtà sociale, con la produzione di hidden inequalities in grado di rendere ancora più dirompenti gli effetti di tale comportamento.

Secondo la recente letteratura giuridica, inoltre, i bias potrebbero costituire una nuova forma di violazione dei diritti umani: “i pregiudizi che determinano la discriminazione illecita degli individui sono gli esempi più rappresentativi di violazioni involontarie dei diritti umani” in un contesto in cui la violazione non consegue intenzionalmente da una condotta dei soggetti attori, ma discende come conseguenza indiretta del sistema decisionale adottato (KRIEBITZ A., LUTGE C., Artificial Intelligence and Human Rights: A Business Ethical Assessment).

E se l’AI potesse risolvere, da sola, questo problema?

Ma se il vero scopo e il fondamento dell’Intelligenza Artificiale è la possibilità di ragionare non come l’uomo, ma meglio dell’uomo, può l’AI aiutarsi da sola?

Sono ipotizzabili sistemi di utilizzo dell’Intelligenza Artificiale utili per un debiasing non solo della macchina, ma anche dei sistemi socioculturali precostituiti?

Ne parleremo durante l’intervento ad E-Privacy XXX, venerdì 17 giugno alle 17:20.

Clicca qui per partecipare.

Valentina De Nicola

Valentina De Nicola

Nata a Venezia, si è laureata presso l’Università degli studi di Padova presentando una tesi in diritto penale d’impresa dal titolo “Gruppo d’impresa e D.Lgs. 231/2001: problemi e prospettive”. Dopo la laurea ha svolto il praticantato ed è stata abilitata al patrocinio, continuando ad approfondire il tema dei modelli organizzativi che l’hanno progressivamente avvicinata alla materia della data protection. È stata privacy consultant presso una primaria società di consulenza, sviluppando progetti di compliance per società private e pubbliche amministrazioni. È stata abilitata alla professione forense nel 2019, ed è iscritta all'Albo degli Avvocati di Venezia dal 2021, è certificata privacy specialist secondo la norma UNI ISO 11697:2017 presso AICQ SICEV, e sta continuando il suo percorso di specializzazione ultimando il Master di II livello in “Responsabile della protezione dei dati personali: Data Protection Officer e Privacy Expert” presso l’Università di Roma Tre; è interessata allo sviluppo di sistemi di gestione aziendali e nel tempo libero si dedica alla musica e alla lettura.