L’AI riconosce i criminali dalla foto del volto. Polemiche sulla ricerca

Fa discutere una recente ricerca sull’AI, secondo cui ai ricercatori basterebbe dare un’occhiata alla fotografia del volto di una persona per prevedere se si tratta di un criminale.

Un buon numero di esperti e ricercatori AI nei giorni scorsi ha manifestato il proprio dissenso e si è duramente opposto a una ricerca in via di pubblicazione e intitolata “A Deep Neural Network Model to Predict Criminality Using Image Processing“.

La ricerca in questione, preparata da due professori e un dottorando della Harrisburg University in Pennsylvania, sembra un misto fra le teorie del Lombroso e Minority Report: alla rete neurale predisposta dai ricercatori basterebbe dare un’occhiata alla fotografia del volto di una persona per prevedere – con l’80% di accuratezza – se questa abbia o meno inclinazioni criminose.

In altre parole, se siamo (o saremo) dei criminali l’intelligenza artificiale lo saprà semplicemente guardando una nostra foto.

La pagina dell’università che presentava la ricerca (ora ufficialmente rimossama ancora consultabile grazie a Internet Archive) si esprimeva senza mezzi termini: “Con l’80% di accuratezza e nessun pregiudizio razziale, il software può prevedere se qualcuno è un criminale basandosi solamente su una foto del volto. Il software è indicato per aiutare le forze dell’ordine a prevenire il crimine” (l’enfasi è mia).

Come se non bastasse, la ricerca sarebbe stata pubblicata all’interno di una futura collana del prestigioso editore Springer, per essere precisi “Springer Nature – Research Book Series: Transactions on Computational Science & Computational Intelligence“.

Ma per molti studiosi ed esperti di AI questa ricerca ha decisamente oltrepassato il segno. Anzitutto le premesse sono sbagliate: il machine learning, contrariamente a quanto asseriscono gli autori dello studio, non supera gli umani nel riconoscimento delle emozioni, né è possibile identificare tratti somatici o estrarre “microscopiche caratteristiche” dalle foto dei volti che siano “altamente predittive del livello di criminalità” degli individui. Del resto la fisiognomica predittiva è stata sbertucciata già nel secolo scorso, non basta certo coprirla con un po’ di machine learning per riabilitarla.

È poi impensabile dichiarare alla leggera che un sistema AI sia “libero da pregiudizi”, poiché i pregiudizi si annidano ovunque, anche in maniera involontaria e surrettizia, a partire dalle ipotesi alla base della ricerca, alla costituzione dei dataset, fino ai modelli utilizzati o alle tecniche di regolarizzazione, passando ovviamente per la cultura e l’origine dei ricercatori che lavorano allo studio.

Infine c’è la questione dell’ambito di applicazione. Oggi molte aziende abusano dei termini “intelligenza artificiale” o “deep learning” per vendere prodotti o impreziosire le presentazioni Powerpoint, e finché ci si limita a quello ci potranno essere magari acquisti sbagliati, ma senza impatti sociali. Quando però questa sorta di voodoo tecnologico viene usato per rifilare invenzioni sconclusionate al sistema giudiziario (e non parliamo dell’ambito medico) il rischio di spianare la strada a pericolose tecno-aberrazioni nella nostra vita è terribilmente concreto.

Così stavolta la comunità dell’intelligenza artificiale si è organizzata come fanno tante altre, con una raccolta firme online e un invito – diretto a Springer – a non pubblicare la ricerca in questione, arricchendo la lettera con una spiegazione dettagliata e particolareggiata che potete leggere qui: Abolish the #TechToPrisonPipeline

La lettera aperta è stata sottoscritta in pochi giorni da migliaia di persone e ha attirato subito l’attenzione dei media come Wired e la BBC, oltre che di qualcuno alla Harrisburg University che ha deciso di rimuovere subito l’annuncio dal sito. Lo studio non solo non finirà nella collana di Springer, ma la ricerca che molti hanno definito “pseudoscienza” (e che aveva fra i suoi autori un ex poliziotto di New York) non verrà proprio pubblicata.

La protesta, la raccolta di firme e l’immediata reazione delle parti in causa segnala forse l’inizio di una presa di coscienza comune da parte del settore AI. Oggi c’è chi pensa che basti aggiungere un po’ di machine learning alla propria ricerca per poter pubblicare qualunque cosa. E poiché a tantissimi stakeholder – a cominciare da gran parte del mondo accademico, passando per i giornalisti, i politici e i consulenti che dovrebbero consigliarli – mancano ancora le basi per comprendere quale proposta è seria e quale invece è assurda, rischiamo di veder implementate nella nostra società “soluzioni” di intelligenza artificiale profondamente sbagliate e dannose.

L’unico argine è dunque rappresentato dalla comunità di tecnici e ricercatori AI, che però sussulta solo in caso di eventi di natura sproporzionatamente ridicola come questo. Una autoregolamentazione “sui generis” del settore che non è sufficiente e che non potrà certo mettere una pezza su tutto. Servono quindi al più presto politiche e iniziative per educare una parte della popolazione, che sia più ampia e trasversale possibile, ai limiti e alle potenzialità delle tecnologie di intelligenza artificiale.

Per essere tutti un po’ più consapevoli e preparati.

Fonte: Key4biz | di Luca Sambucci, Specialista in Cybersecurity e Intelligenza Artificiale

© 2017-2018 Associazione Privacy Italia - C.F. 91039930192 - P. Iva 01685370197 - Informativa Privacy

Con il sostegno di:

Fondazione di Sardegna Fondazione Cariplo
Positive SSL