Il mondo FQ

Nazionalità, età, stato civile, disabilità: l’Intelligenza artificiale usata in Uk per stanare gli abusi si basa su pregiudizi

Un'inchiesta del Guardian ha rivelato che l'algoritmo predilige specifici gruppi razziali quando raccomanda indagini per presunte frodi al welfare
Commenti

Pregiudizi integrati nel sistema di intelligenza artificiale utilizzato dal governo inglese per individuare abusi nel sistema di sussidi pubblici.

L’esclusiva è del Guardian, che ha ricevuto un rapporto interno del ministero del Lavoro. Secondo il documento, ottenuto grazie a una richiesta di accesso agli atti, l’intelligenza artificiale, in teoria esente da preconcetti, predilige specifici gruppi razziali quando raccomanda indagini per presunti abusi del sistemi di welfare.

L‘analisi interna di imparzialità nella distribuzione delle verifiche ha rivelato ‘un risultato statisticamente rilevante’ a sfavore di richiedenti, sulla base della loro nazionalità, stato civile, disabilità ed età. Questo malgrado le rassicurazioni, reiterate dal ministero solo la scorsa estate, che AI “non sollevi preoccupazioni urgenti per discriminazione, trattamento ingiusto o impatto negativo sui clienti”.

Il rapporto non ufficiale smentirebbe questa ricostruzione. Del resto, il governo è sotto enorme pressione: secondo gli ultimi dati disponibili, il sistema di sussidi pubblici è vittima di frode per 8 miliardi ogni anno. A beneficiare di varie forme di sussidio, nel Regno Unito, sono quasi 23 milioni di persone, circa un terzo della popolazione. Questo numero include minori e pensionati: circa 9.6 milioni sono le persone in età lavorativa, 700mila i minori con disabilità. Una massa di richiedenti, alcune dei quali con casi complessi. Anche se la decisione finale è sempre di un funzionario in carne e ossa, negli ultimi anni i governi che si sono succeduti hanno integrato nel processo decisionali alcuni automatismi, in ottica di efficienza.

L’esistenza di ‘pregiudizi’ nei processi governati dall’intelligenza artificiale è nota e documentata, ma nel caso dei benefits, lo ricordano gli attivisti del Public Law Project, la valutazione del rischio è insufficiente. Per esempio, l’analisi di imparzialità non include categorie come razza, sesso, orientamento sessuale, religione, gravidanza, riassegnazione di genere: gruppi già particolarmente vulnerabili a pratiche discriminatorie che rischiano di essere esclusi dai sussidi e finire nella macchina infernale dei ricorsi.

Ci sono poi l’aspetto economico e di sorveglianza: il governo ricorre con sempre maggiore frequenza agli strumenti di intelligenza artificiale, ma non fa abbastanza per garantire la trasparenza dell’algoritmo e dell’utilizzo finale dei dati, come ha ammesso lo stesso Peter Kyle, il ministro per la scienza e la tecnologia,

Il mese scorso, ricorda il Guardian, la polizia ha avviato una gara per un contratto da 20 milioni per un software di riconoscimento facciale, ma è impossibile avere rassicurazioni contro il rischio di “sorveglianza biometrica di massa”.

Gentile lettore, la pubblicazione dei commenti è sospesa dalle 20 alle 9, i commenti per ogni articolo saranno chiusi dopo 72 ore, il massimo di caratteri consentito per ogni messaggio è di 1.500 e ogni utente può postare al massimo 150 commenti alla settimana. Abbiamo deciso di impostare questi limiti per migliorare la qualità del dibattito. È necessario attenersi Termini e Condizioni di utilizzo del sito (in particolare punti 3 e 5): evitare gli insulti, le accuse senza fondamento e mantenersi in tema con la discussione. I commenti saranno pubblicati dopo essere stati letti e approvati, ad eccezione di quelli pubblicati dagli utenti in white list (vedere il punto 3 della nostra policy). Infine non è consentito accedere al servizio tramite account multipli. Vi preghiamo di segnalare eventuali problemi tecnici al nostro supporto tecnico La Redazione