Australia: riconoscimento facciale per chi è in quarantena Covid. Ma è polemica sulla privacy

Test avviati in gran parte dell’Australia per aiutare la polizia nel controllo di chi è in quarantena. Dubbi e timori per la privacy e i diritti umani. Le Nazioni Unite chiedono moratoria.

Il riconoscimento facciale in Australia

Due delle regioni più popolose dell’Australia, il Nuovo Galles del Sud (New South Wales o NSW) e i territori della Western Australia (WA), in tutto più di 11 milioni di cittadini, hanno avviato la sperimentazione di un software per il riconoscimento facciale che consente alla Polizia locale di controllare e verificare il rispetto della quarantena come misura di contenimento della pandemia da Covid-19.

La tecnologia è stata sviluppata dalla società Genvis, che ha anche pubblicato sul suo sito web alcuni dati relativi alla sperimentazione del suo software per il riconoscimento facciale in diverse città e regioni australiane: “Che arriva a coinvolgere più della metà della popolazione nazionale”, circa 25 milioni di persone.

Da poco, anche lo Stato del South Australia (SA) ha iniziato i primi test per il riconoscimento facciale, si legge in un articolo su euronews.com, sempre in ausilio alle forze dell’ordine per rendere operativi i provvedimenti sanitari anti-Covid.

La firma facciale

Ogni cittadino che partecipa alla sperimentazione deve giornalmente inviare un suo selfie alla Polizia locale, che poi tramite il software in questione controlla che ci sia piena conformità tra l’identità della persona e la sua “firma” biometrica facciale.

In questo modo, secondo le forze dell’ordine, la tecnologia rende possibile quello che altrimenti non lo sarebbe: il più grande monitoraggio pubblico di sicurezza sanitaria mai eseguito nella storia in tempo reale.

Per controllare ogni giorno che gli australiani rispettino la quarantena o qualsiasi altra misura di sicurezza sanitaria non basterebbe un intero esercito di poliziotti, ha spiegato l’amministratore delegato di Genvis, Kirstin Butcher, per questo è fondamentale testare il software sul maggior numero possibile di individui.

Dubbi e timori per la privacy e i diritti umani

I gruppi per i diritti umani e per la tutela della privacy sono subito insorti in tutto il Paese, perché i pericoli insiti in questa tecnologia ancora in fase di sviluppo sono troppi, tali da squilibrare il rapporto tra costi e benefici, a favore dei primi.

Una soluzione tecnologica basata sull’intelligenza artificiale che al momento non è pienamente affidabile e può causare conseguenze gravi per i diritti umani e individuali, ha spiegato l’altro giorno L’Alto Commissario delle Nazioni Unite per i diritti umani, Michelle Bachelet, chiedendo una moratoria internazionale sull’impiego di tali sistemi.

Lo stesso giorno, la Direttrice del Thematic Engagement dell’Alto Commissariato per i Diritti Umani, Peggy Hicks, ha citato diversi casi giudiziari negli Stati Uniti e in Australia, in cui l’intelligenza artificiale è stata erroneamente applicata, causando gravi danni alle persone e alle imprese, per un impiego troppo veloce e superficiale di tali sistemi e senza nessuna garanzia a tutela degli individui.

Fino a quando non saranno dissolti tutti i dubbi e i timori al momento esistenti sul riconoscimento facciale, ha dichiarato Bachelet, sarebbe meglio che ogni Stato al mondo interrompesse le sperimentazioni, “prima che siano causati danni irreparabili alle persone e alle comunità”.

Dello stesso avviso è Toby Walsh, professore di Intelligenza Artificiale presso l’Università del NSW: “Sono molto preoccupato per l’utilizzo in Australia e nel resto del mondo del riconoscimento facciale, soprattutto per l’impatto che questa tecnologia può avere sulle nostre vite”.

Fonte: Key4biz | di Flavio Fabbri

© 2017-2018 Associazione Privacy Italia - C.F. 91039930192 - P. Iva 01685370197 - Informativa Privacy

Con il sostegno di:

Fondazione di Sardegna Fondazione Cariplo
Positive SSL