Fonte dell’immagine: Europeana

Il tribunale di Bologna nel dicembre 2020 ha emesso una sentenza contro l’algoritmo utilizzato dalla compagnia Deliveroo definendolo illegittimo e discriminatorio, in quanto il calcolo del ranking sfavoriva rider che chiedevano esoneri dalle consegne per motivi di salute, senza garantire quindi i fondamentali diritti di ogni lavoratore e lavoratrice.

La Fairness (equità, correttezza) dei modelli è uno dei valori cardine per lo sviluppo e l’utilizzo etico di sistemi di Intelligenza Artificiale. Il principio è ricorrente in molte linee guida, pubblicate per esempio dalla commissione europea (“Diversity, non-discrimination and fairness”) e da aziende tech come Google, richiamato nell’obiettivo “Avoid creating or reinforcing unfair bias”.

La pubblicazione di principi etici di questo tipo, tuttavia, rischia di confluire nell’ethics-washing, ovvero il limitarsi a stilare una serie di valori eticamente condivisibili per costruire un’immagine positiva della policy dell’attore pubblico o privato, senza però far seguire un reale cambiamento nelle pratiche e nei modelli utilizzati.

Nonostante questo rischio, le linee-guida svolgono comunque il ruolo di orientare il lavoro presente e futuro, aiutandoci a interrogarci, a voler comprendere queste tecnologie esigendo responsabilità e trasparenza.

Le decisioni automatiche sono utilizzate in dimensioni umane quotidiane e determinanti quali il lavoro e la sanità: le conseguenze a medio-lungo termine riguardano tutte e tutti noi, poiché hanno impatti profondi su diritti fondamentali come la libertà di espressione, la privacy, la sicurezza, la giustizia e l’uguaglianza.

È urgente quindi la costruzione di una narrazione diversa, più approfondita, per permettere una comprensione critica degli attuali sistemi di IA. Una prima necessaria consapevolezza risiede nel non concepire come oggettive, affidabili, infallibili le decisioni automatiche. Infatti, la tecnologia non è mai neutrale, ma è sempre condizionata da scelte e convinzioni umane in ogni fase, dalla progettazione allo sviluppo, dal testing all’utilizzo e alla manutenzione in contesti applicativi reali. Nella dimensione della Fairness, la non-neutralità dei sistemi di IA può causare l’amplificazione di pregiudizi umani, causando discriminazioni. 

Un esempio paradigmatico emerge da un algoritmo utilizzato nella ricerca delle risorse umane di un’azienda: alla macchina vengono fornite grandi quantità di dati sulle assunzioni passate, in modo da poter apprendere la politica aziendale e automatizzare il processo per le assunzioni future. Può succedere, inconsapevolmente, che il sistema impari a scartare un CV perché appartenente a una donna, oppure a una persona con un nome straniero o proveniente da una certa regione del mondo: compiere queste scelte automatizzate in base a dimensioni sensibili, come il genere o la nazionalità, crea un modello ingiusto, che discrimina determinati gruppi sociali a causa della distorsione emergente dai dati storici.

Un altro contesto problematico: la formalizzazione del significato delle parole comprensibile per i computer, rappresentando il senso del termine in base ai contesti linguistici simili in cui è utilizzato. Le correlazioni sono estratte dai modelli a partire da grandi quantità di dati testuali e possono cogliere correttamente analogie che rappresentano legami reali, ad esempio “uomo” sta a “re” come “donna” a “regina”, ma possono anche rispecchiare e amplificare stereotipi, come esemplificato nel titolo del famoso paper “Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings” (Bolukbasi et al., 2016).

Alcuni movimenti culturali di riappropriazione sociale e consapevolezza riguardo i sistemi di IA operano proprio con lo scopo di tracciare un percorso verso tecnologie responsabili ed eque: raccolgono esperienze personali di discriminazione digitale e organizzano iniziative in varie direzioni, ad esempio testando dall’esterno delle aziende i sistemi commerciali (attraverso la pratica dell’“algorithmic audit”).

Il progetto di tirocinio “Fairness analysis for abusive language detection systems”, realizzato con il team Digital Humanities di FBK, ha seguito proprio questa direzione. Il contesto applicativo risiede nell’identificazione di contenuti irrispettosi e offensivi pubblicati sui social media, sulla base di segnalazioni operate da moderatori automatici. Il rischio, come evidente anche dagli esempi iniziali, emerge nel generalizzare una concezione stereotipata della realtà, per esempio associando un alto grado di tossicità a post neutri contenenti termini come “musulmano”, “donna” o “gay”,  poiché la maggior parte degli esempi su cui il sistema è stato allenato contenevano riferimenti a queste identità in contenuti fortemente offensivi. Concretamente, il lavoro è consistito nella creazione di dati linguistici sintetici per testare una serie di pregiudizi sociali (per esempio di genere, razziali o verso la disabilità) in classificatori automatici di Hate-Speech, per facilitare l’identificazione di bias verso categorie socialmente discriminate, evitando l’amplificazione di stereotipi preesistenti.

Una volta stabilita la presenza di bias algoritmici, come individuarne le cause e limitarne gli effetti? La problematica più frequente emerge dai dati utilizzati per allenare questi modelli, spesso non adeguatamente rappresentativi delle diverse minoranze. Una prima soluzione semplicistica per ridurre queste distorsioni consiste nel rimuovere interamente gli attributi sensibili (in modo tale da non poterli usare per la classificazione) oppure nell’effettuare un’altra fase di raccolta dati per costruire una collezione più bilanciata.

Emerge inoltre la questione della responsabilità: a chi e a quali fattori sono riconducibili queste scelte automatiche e gli impatti sociali che ne derivano? All’algoritmo, al programmatore, al Data Scientist o all’azienda che utilizza il modello? L’assunzione di responsabilità da parte dei molteplici attori coinvolti è spesso sfumata, confusa e regolamentata in modo ambiguo.

Una delle maggiori problematiche nell’affrontare la Fairness dei modelli di IA risiede nella mancanza di una definizione univoca di questa proprietà, così come nell’assenza di tecniche standardizzate e accettate dalla comunità scientifica.

La complessità del fenomeno non si limita però soltanto agli algoritmi o ai risultati calcolati, ma è radicata in questioni sociali e culturali, motivata dall’interrogarsi se sia legittimo utilizzare questi sistemi in contesti socialmente delicati e determinata dagli attori che caratterizzano il modello in ogni fase, così come dal ruolo giocato dalle istituzioni.

Un altro aspetto da considerare è che il sistema può anche essere fair rispetto a una serie di parametri tecnici, ma se utilizzato per scopi o con effetti dannosi, diventa una tecnologia ingiusta e pericolosa (ad esempio l’utilizzo di tecnologie per il riconoscimento facciale a scopi di sorveglianza e tracciamento).

Infine, una partecipazione più comprensiva al dialogo sui contesti e le modalità di utilizzo di questi sistemi costituisce un’altra modalità per arricchirne il processo di sviluppo: la costruzione di tecnologie realmente inclusive è possibile soltanto coinvolgendo in ogni fase i gruppi di persone negativamente influenzati dalle decisioni automatiche.

Le strategie per analizzare e incrementare la Fairness, quindi, se limitate a una prospettiva meramente tecnica, rischiano di semplificare, di ridurre la questione a misure quantitative, correggendo il flusso di dati senza affrontare il più ampio problema umano che ne è alla radice.