Audit e accountability per prevenire i pregiudizi degli algoritmi

Secondo la Harvard University Review è necessario assicurare che algoritmi e Intelligenza Artificiale riflettano i valori della società tramite controlli mirati analoghi all’audit aziendale.

Assicurare che gli algoritmi e le sempre più diffuse tecnologie di Intelligenza Artificiale riflettano i valori della società è un’operazione che richiede non meno duro lavoro di quello degli sviluppatori. Un buon punto di partenza è l’attività di auditing, alla quale gli algoritmi devono essere sottoposti allo stesso modo delle aziende, che prima di comunicare i loro risultati finanziari si sottopongono ad una approfondita revisione da parte di società di auditing esterne all’organizzazione. Lo scrive la Harvard Business Review, in un’analisi che mette in guardia dal rischio di affidarsi in maniera fideistica al potere di giudizio del software senza considerare i rischi di un mancato scrutino preventivo delle impostazioni che guidano gli algoritmi.

La stella polare di questa attività di auditing dell’Intelligenza Artificiale, secondo la rivista, è quello di accountability già adottato nella Ue con l’entrata in vigore del GDPR, il nuovo regolamento europeo sulla Data protection che richiede alle organizzazioni di spiegare le decisioni degli algoritmi che usano. Anche l’amministrazione di New York ha organizzato una task force ad hoc per studiare possibili pregiudizi insiti nei sistemi decisionali dei sistemi algoritmici.

“E’ ragionevole anticipare che le regolazioni emergenti si preoccuperanno di accountability dell’algoritmo”, si legge sulla rivista della Harvard University, secondo cui l’auditing in questo ambito dovrà essere interdisciplinare e integrare diverse skill che vanno dalla psicologia all’economia comportamentale alle scienze umane all’etica.

Un auditor dell’algoritmo dovrà fare domande come ad esempio questo algoritmo è abbastanza trasparente per gli utenti finali? Sarà utilizzato in maniera socialmente accettabile? Potrebbe provocare effetti psicologici indesiderati o potrebbe urtare involontariamente delle fragilità umane? Questo algoritmo sarà utilizzato per scopi ingannevoli? C’è qualche traccia di pregiudizio o incompetenza interno al suo design? Indica in maniera adeguata come arriva alle sue raccomandazioni e ai suoi livelli di affidabilità?

In alcuni casi il pregiudizio dell’algoritmo si è manifestato in tutta evidenza, come nel caso di algoritmi per la libertà vigilata, che hanno penalizzato persone di colore sulla base di dati che hanno sollevato le proteste di associazioni per i diritti umani, o per la selezione di personale, che hanno penalizzato persone di sesso femminile.

Fonte: Key4biz | di Paolo Anastasio

© 2017-2018 Associazione Privacy Italia - C.F. 91039930192 - P. Iva 01685370197 - Informativa Privacy

Con il sostegno di:

Fondazione di Sardegna Fondazione Cariplo
Positive SSL