Eliminare i punti dati raggruppati per ridurre i bias di riconoscimento facciale spiegati nel discorso AFRL
CasaCasa > Blog > Eliminare i punti dati raggruppati per ridurre i bias di riconoscimento facciale spiegati nel discorso AFRL

Eliminare i punti dati raggruppati per ridurre i bias di riconoscimento facciale spiegati nel discorso AFRL

Sep 01, 2023

Nonostante la presenza di molti "pezzi grossi" nel discorso pubblico sui pregiudizi nel riconoscimento facciale, i malintesi sulla natura del problema e sulla sua origine sono diffusi, secondo un recente intervento nell'ambito della serie di conferenze virtuali dell'Applied Face Recognition Lab. .

John Howard, principale scienziato dei dati dell'Identity and Data Sciences Laboratory presso il Maryland Test Facility, ha approfondito la questione in una presentazione intitolata "Comprendere e mitigare i pregiudizi nel riconoscimento dei volti di persone e macchine".

Mentre molti osservatori, tra cui molti che lavorano nel campo dell’informatica e della visione artificiale, sottolineano il ruolo dei dati come causa di distorsione nelle prestazioni degli algoritmi biometrici, Howard osserva che esistono molte possibili fonti.

"Penso anche che dare semplicemente la colpa ai dati sia, francamente, un modo per evitare questioni probabilmente più impegnative e più interessanti", spiega Howard. Questa è una tendenza attraente, perché porta a una risoluzione a cui i data scientist sono abituati e con cui si sentono a proprio agio; l'acquisizione di più dati.

La funzione di perdita, i bias di valutazione e il modo in cui le persone si relazionano con le macchine sono importanti per una comprensione più completa del problema dei bias nel riconoscimento facciale, sostiene Howard. Quest’ultimo problema include il bias di proiezione, il bias di conferma e il bias di automazione. In altre parole, le persone tendono ad aspettarsi che le macchine si comportino come loro, confermino le loro convinzioni e producano risultati che non necessitano di essere verificati.

Il volto è una modalità biometrica meno matura rispetto all'impronta digitale e all'iride, afferma Howard, e si possono eventualmente trarre lezioni dalle due modalità più vecchie dei "tre grandi". Tuttavia, i "problemi unici" possono essere presentati da elementi unici della modalità facciale.

Le false corrispondenze prodotte dagli algoritmi di riconoscimento dell’iride, ad esempio, spesso si incrociano tra generi ed etnie, mentre quelle in faccia no. Ciò rende più difficile per le persone individuare gli errori nella corrispondenza dei volti, nonostante in ogni caso venga utilizzata la stessa terminologia ("falso errore di corrispondenza").

Howard ha esaminato diversi documenti di ricerca che dimostrano i diversi pregiudizi. Il bias dell’automazione è modesto e, in circostanze ideali, si manifesta soprattutto quando le persone non sono sicure, ad esempio. Quando le circostanze sono meno ideali, come quando le persone indossano maschere, è più probabile che si privilegi la valutazione di un computer.

Ha anche esaminato l'effetto di "ampia omogeneità" e i risultati della FRVT Parte 3 del NIST, che valuta i bias negli algoritmi su base individuale.

In definitiva, sebbene i volti contengano dati simili o "raggruppati" in base ai dati demografici, Howard sottolinea che la ricerca indica che è possibile selezionare particolari punti dati che non presentano clustering, per ridurre gli errori di false corrispondenze che equivalgono a distorsioni nella biometria dei volti, in particolare quando un essere umano è nel giro. Questo perché gli algoritmi restituiscono elenchi di candidati che improvvisamente assomigliano più a quelli del riconoscimento delle impronte digitali e dell’iride. Il candidato giusto, in molti casi, è ovvio all’occhio umano.

precisione | bias biometrico | biometria | riconoscimento facciale | Centro di prova del Maryland (MdTF)

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati dei tuoi commenti.

Continua a leggere