Sicurezza digitale: riconoscimento digitale e discriminazioni

di Gianni Commenta


I moderni sistemi di riconoscimento digitale sono discriminatori? A parlarne nelle ultime settimane sono stati diversi panel di esperti che, soprattutto negli Stati Uniti, hanno posto in luce il fatto che i sistemi di riconoscimento facciale adoperati dalle forze dell’ordine e investigative per individuare i volti dei criminali siano affetti da alcuni pregiudizi cognitivi che in alcune ipotesi potrebbero sfociare in vere e proprie forme di discriminazione razziale.

In diversi casi è infatti stato dimostrato come l’individuazione del “presunto criminale” avvenga anche attraverso elementi che sono costituiti dal colore della pelle, dalla larghezza del naso, dal diametro della bocca e da altri criteri puramente estetici, che integrano o sostituiscono altri criteri più sostanziali. Ma è davvero così diffuso il fenomeno?

Come funziona il riconoscimento facciale

Uno studio recente da parte del Center for Privacy & Technology della Georgetown University sostiene ad esempio che oltre 100 milioni di volti americani siano già archiviati in uno o più database utilizzati dalle forze dell’ordine per il riconoscimento facciale.

Sul come tali dati siano utilizzati non ci sono grandi misteri teorici. Nel corso di un’indagine può infatti capitare che le forze dell’ordine scelgano di procedere al riconoscimento facciale per rinvenire una corrispondenza tra l’immagine di un presunto criminale e uno o più foto contenute nei database a cui gli investigatori hanno accesso.

Tale processo avviene su diverse fasi: quella di pre-elaborazione prepara l’immagine al processo di riconoscimento, mentre quella di face detection localizza i volti da esaminare, li normalizza e li allinea per l’analisi. Quindi, si passa alla fase di estrazione delle features, individuando e rappresentando in forma matematica, e dunque “digeribile” dall’algoritmo, le caratteristiche fondamentali.

Infine, c’è la fase di riconoscimento, con cui si confrontano i dati dell’immagine del presunto criminale con quelle del database.

Il bias cognitivo

Ebbene, in una buona parte degli algoritmi di riconoscimento facciale esaminati dal National Institute of Standards and Technology (NIST) è emerso che perfino i migliori e i più affidabili continuano a mostrare dei pregiudizi evidenti, con un tasso di falsi positivi più elevato tra gli africani e gli asiatici orientali.

Insomma, questi sistemi tendevano a individuare gli individui asiatici e afroamericani come possibili criminali più frequentemente di quanto identificassero erroneamente i caucasici…

Leggi di più su Aicom.it

Lascia un commento

Il tuo indirizzo email non verrà pubblicato.

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>