Ricercatori contro il "riconoscimento facciale" di Amazon: è discriminatorio
Oltre 50 studiosi firmano una petizione per chiedere al colosso tech di sospendere la vendita alle forze di polizia della sua tecnologia di face-recognition: l'algoritmo ha più difficoltà nel distinguere soggetti femminili e persone di colore
Il riconoscimento facciale è una tecnologia ormai presente nella vita di tutti i giorni. La troviamo applicata nei sistemi di sblocco degli smartphone, nelle app di realtà aumentata come Snapchat o nei social network, che sfruttano la face recognition per evidenziare i volti degli amici da "taggare" nelle foto.
Negli Stati Uniti, è in uso anche in alcune realtà pubbliche, come ad esempio le agenzie governative e la polizia. Su questo argomento almeno 50 illustri ricercatori nel campo dell'intelligenza artificiale, tra cui esperti di Google, Facebook e il vincitore del prestigioso Turing Award (Yoshua Benjo), hanno pubblicato una lettera per chiedere ad Amazon di sospendere la vendita alle forze di polizia della sua tecnologia di face-recognition: l'algoritmo ha più difficoltà nel distinguere soggetti femminili e persone di colore.
Uno studio condotto da Joy Buolamwini, ricercatrice del Massachussetts Institute of Technology (Mit) e pubblicato a gennaio, aveva mostrato come il software "Rekognition" di Amazon avesse più difficoltà nell'identificare il genere nei volti dei soggetti femminili, specie se di pelle scura, rispetto a servizi simili sviluppati da IBM e Microsoft.
Qualche mese prima, i test erano stati effettuati solo sui software di IBM, Facebook e la cinese Face++ che, sollecitate, avevano provveduto a migliorare il loro servizio. Successivamente lo studio era stato ripetuto includendo anche Amazon.
Al sollecito rivolto a quest'ultima da Buolamwini insieme alla sua Algorithmic Justice League, tuttavia, il colosso tech ha risposto criticando i metodi di ricerca con cui era stato condotto lo studio. Secondo l'azienda sarebbe stata confusa l'analisi facciale con il riconoscimento facciale, misurando erroneamente la prima con le tecniche generalmente usate per valutare il secondo.
"La risposta alle ansie rispetto alle nuove tecnologie non è quella di eseguire" test "incoerenti con il modo in cui il servizio è progettato per essere utilizzato, e di amplificare le conclusioni false e fuorvianti del test attraverso i media", ha scritto il direttore generale dell'Intelligenza Artificiale di Amazon Matt Woodin in un post sul blog, senza un esplicito riferimento allo studio del Mit.
"In questo momento - spiega la ricercatrice - ciò che sta accadendo è che queste tecnologie sono ampiamente distribuite senza supervisione, spesso in segreto, con il rischio che quando ci sveglieremo sarà forse troppo tardi".
Come funzionano
Semplificando al massimo, un algoritmo di riconoscimento facciale crea una rappresentazione matematica del volto del soggetto da riconoscere (elaborata sulla base di misurazioni delle proporzioni del viso, analisi spettrografiche e così via) e lo confronta con un archivio preimpostato - il più ampio possibile - di "campioni" di volti. Quello che più si avvicina al modello cercato viene proposto dal sistema come candidato ideale.
Oltre a Buolamwini, molti altri ricercatori hanno dimostrato come questi sistemi tendano a favorire i "pregiudizi istituzionali" incorporati nei dati da cui stanno attingendo. Ad esempio, se i sistemi di Intelligenza Artificiale sono sviluppati utilizzando immagini di persone per lo più bianche, funzioneranno meglio nel riconoscere persone bianche.
Tali disparità possono a volte essere una questione di vita o di morte. Un recente studio sulle auto a guida autonoma, infatti, ha dimostrato come i sistemi di visione artificiale abbiano più difficoltà nel rilevare pedoni con tonalità di pelle più scure.
Negli Stati Uniti, è in uso anche in alcune realtà pubbliche, come ad esempio le agenzie governative e la polizia. Su questo argomento almeno 50 illustri ricercatori nel campo dell'intelligenza artificiale, tra cui esperti di Google, Facebook e il vincitore del prestigioso Turing Award (Yoshua Benjo), hanno pubblicato una lettera per chiedere ad Amazon di sospendere la vendita alle forze di polizia della sua tecnologia di face-recognition: l'algoritmo ha più difficoltà nel distinguere soggetti femminili e persone di colore.
Uno studio condotto da Joy Buolamwini, ricercatrice del Massachussetts Institute of Technology (Mit) e pubblicato a gennaio, aveva mostrato come il software "Rekognition" di Amazon avesse più difficoltà nell'identificare il genere nei volti dei soggetti femminili, specie se di pelle scura, rispetto a servizi simili sviluppati da IBM e Microsoft.
Qualche mese prima, i test erano stati effettuati solo sui software di IBM, Facebook e la cinese Face++ che, sollecitate, avevano provveduto a migliorare il loro servizio. Successivamente lo studio era stato ripetuto includendo anche Amazon.
Al sollecito rivolto a quest'ultima da Buolamwini insieme alla sua Algorithmic Justice League, tuttavia, il colosso tech ha risposto criticando i metodi di ricerca con cui era stato condotto lo studio. Secondo l'azienda sarebbe stata confusa l'analisi facciale con il riconoscimento facciale, misurando erroneamente la prima con le tecniche generalmente usate per valutare il secondo.
"La risposta alle ansie rispetto alle nuove tecnologie non è quella di eseguire" test "incoerenti con il modo in cui il servizio è progettato per essere utilizzato, e di amplificare le conclusioni false e fuorvianti del test attraverso i media", ha scritto il direttore generale dell'Intelligenza Artificiale di Amazon Matt Woodin in un post sul blog, senza un esplicito riferimento allo studio del Mit.
"In questo momento - spiega la ricercatrice - ciò che sta accadendo è che queste tecnologie sono ampiamente distribuite senza supervisione, spesso in segreto, con il rischio che quando ci sveglieremo sarà forse troppo tardi".
Come funzionano
Semplificando al massimo, un algoritmo di riconoscimento facciale crea una rappresentazione matematica del volto del soggetto da riconoscere (elaborata sulla base di misurazioni delle proporzioni del viso, analisi spettrografiche e così via) e lo confronta con un archivio preimpostato - il più ampio possibile - di "campioni" di volti. Quello che più si avvicina al modello cercato viene proposto dal sistema come candidato ideale.
Oltre a Buolamwini, molti altri ricercatori hanno dimostrato come questi sistemi tendano a favorire i "pregiudizi istituzionali" incorporati nei dati da cui stanno attingendo. Ad esempio, se i sistemi di Intelligenza Artificiale sono sviluppati utilizzando immagini di persone per lo più bianche, funzioneranno meglio nel riconoscere persone bianche.
Tali disparità possono a volte essere una questione di vita o di morte. Un recente studio sulle auto a guida autonoma, infatti, ha dimostrato come i sistemi di visione artificiale abbiano più difficoltà nel rilevare pedoni con tonalità di pelle più scure.