L'analisi

Gli occhi dell'Intelligenza Artificiale e i cadaveri dei soldati russi

Dall’Ucraina all’Afghanistan, dalla Cina a Londra: come l’occhio dell’Intelligenza Artificiale ci osserva

Gli occhi dell'Intelligenza Artificiale e i cadaveri dei soldati russi
Pixabay
Telecamera di videosorveglianza

Quando la compagnia americana Clearview AI ha messo i suoi algoritmi di riconoscimento facciale a disposizione dell’esercito ucraino, nessuno poteva immaginare quanto dirompenti potessero divenire nel conflitto. Si era fin da subito pensato a un loro impiego per l’identificazione di potenziali minacce ai checkpoint o per riconoscere i cadaveri. Non si era invece immaginato che potessero diventare una potente arma di propaganda.

Da giorni, l’IT Army, una forza di volontari guidata dal governo di Zelensky, sta infatti sfruttando gli algoritmi per trovare gli account social dei soldati russi morti e condividere coi loro amici e coi loro familiari le immagini dei cadaveri, con commenti come “questo è ciò che succede quando inviate la vostra gente in guerra”.

Una campagna macabra, che ha finora raggiunto i cari di 582 soldati russi, con l’intento di spezzare il silenzio del Cremlino sui morti. Difficile però stabilire se tale strategia accresca più il sentimento antiguerra o l’odio. Un video analizzato dal Washington Post mostra le reazioni incredule di chi riceve le foto, come nel commento “Questo è un photoshop! NON È POSSIBILE!”. O come nel rifiuto di una madre di riconoscere il cadavere del proprio figlio, finché non le vengono mostrati i documenti. “Perché fate questo?”, risponde la donna, “Volete che muoia? Io già non vivo più. Immagino stiate provando piacere”.

In Ucraina, la tecnologia sta venendo utilizzata anche per sorvegliare le case. Il ministro ucraino alla trasformazione digitale Mykhailo Fedorov ha diffuso su Twitter e Instagram le informazioni personali di un uomo che spediva dalla Bielorussia centinaia di chili di vestiti rubati dalle case dei profughi, commentando che tutti i criminali saranno riconosciuti.

Precedentemente, negli USA, Clearview AI era già stato utilizzato dalla polizia e dai federali per comparare le immagini di sospetti con oltre 20 miliardi di foto raccolte da social media e altri siti internet. Recentemente, un’investigazione del MIT Technology Review ha evidenziato come tale tecnologia sia stata anche sfruttata in Minnesota, nell’Operazione Rete di Sicurezza (Operation Safety Net, OSN), per monitorare i manifestanti all’indomani della morte di George Floyd.

Ma nessuna nazione si avvantaggia della combinazione tra occhi e cervelli elettronici quanto la Cina, dove il sistema di sorveglianza è strettamente legato a quello del credito sociale, che misura la reputazione di ogni cittadino, alla quale sono legati benefici o punizioni – le quali includono divieti di volo, esclusione da scuole private, esclusione da lavori di prestigio, rallentamento delle connessioni internet, iscrizione nella blacklist pubblica.

Un Grande, anzi Grandissimo, Fratello, capace di andare ben oltre quello immaginato nel romanzo 1984 di George Orwell, in cui le immagini dovevano essere interpretate da uno o più uomini, con tutti i loro limiti. Oggi l’Intelligenza Artificiale (IA) può analizzare miliardi di pixel al secondo, identificando con altissima precisione persone, oggetti ed eventi per i più svariati scopi. Questa rivoluzione, iniziata negli anni ’60 e capace di raggiungere performance impensabili nel 2012, con l’introduzione delle reti neurali profonde (deep neural networks), non sembra intenzionata a fermarsi.

Di fatto, si è venuto a creare un ecosistema di generazione e analisi di dati visivi senza precedenti. Si stima che nel 2021 ci fossero oltre un miliardo di telecamere di sorveglianza nel mondo, circa metà delle quali in Cina (e 18% nelle Americhe). Contando quelle private (ad esempio quelle dei cellulari), il numero sarebbe salito a oltre 45 miliardi di occhi elettronici (quasi sei volte gli abitanti del pianeta), per lo più concentrati nei grandi centri urbani. A Londra, ad esempio, il rapporto tra telecamere e persone è di 11 a 1.

Da anni, gruppi in difesa della privacy lottano invano contro l’utilizzo di questi sistemi di sorveglianza, evidenziando non solo lo scarso rispetto dei diritti del cittadino, ma anche i rischi legati a potenziali errori delle macchine (ad esempio, l’errata identificazione di un criminale in casi giudiziari) o alla perdita dei dati sensibili (come è accaduto a seguito della rovinosa fuga dell’esercito americano dall’Afghanistan).