Intelligenza artificiale, Garante Privacy: “Occorre vigilare sulla protezione dei dati”

Durante la giornata della Protezione dei dati 2019, il comitato consultivo della Convenzione 108 ha dettato alcune linee guida per le applicazioni dell’intelligenza artificiale, con lo scopo di garantire una serie di diritti fondamentali, come quello al rispetto della protezione dei dati. 

Le applicazioni dell’intelligenza artificiale (AI) devono rispettare i diritti fondamentali, incluso quello alla protezione dei dati. Sviluppatori, produttori e fornitori di servizi AI devono valutare preventivamente i possibili rischi, adottando un approccio di tipo “precauzionale”. Necessarie precise prescrizioni nelle procedure di appalto pubblico. Queste alcune delle indicazioni delle linee guida presentate – nel corso della Giornata della Protezione dei dati 2019 – dal Comitato consultivo della Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale (Convenzione 108/1981), che dal 2016 è presieduto dalla rappresentante del Garante della privacy italiano.
Le linee-guida, (reperibili al link https://rm.coe.int/guidelines-on-artificial-intelligence-and-data-protection/168091f9d8 e rese disponibili sul sito del Garante in una traduzione non ufficiale in italiano), si rivolgono a decisori pubblici, sviluppatori e fornitori di servizi basati sull’AI, come quelli utilizzati nell’ambito della domotica, delle smart cities, della sanità e della prevenzione del crimine. In particolare, sono evidenziati i principi da rispettare affinché l’impiego di tale tecnologia avvenga nel rispetto dei principi della nuova Convenzione 108 (nota come “Convenzione 108+”), adottata lo scorso 18 maggio 2018, e già firmata da 26 Paesi tra cui l’Italia.
Si sottolinea, innanzi tutto, che ogni progetto basato sull’intelligenza artificiale dovrebbe rispettare la dignità umana e le libertà fondamentali, nonché i principi base di liceità, correttezza, specificazione della finalità, proporzionalità del trattamento, protezione dei dati fin dalla progettazione (privacy by design) e protezione per impostazione predefinita (privacy by default), responsabilità e dimostrazione della conformità (accountability), trasparenza, sicurezza dei dati e gestione dei rischi.
Tra i punti cardine del documento si segnala la necessità di adottare un approccio fondato sulla preventiva valutazione dell’impatto che sistemi, software e dispositivi basati sull’intelligenza artificiale possono avere su diritti fondamentali, nonché sulla minimizzazione dei relativi rischi per le persone evitando, tra l’altro, potenziali pregiudizi (bias) ed altri effetti discriminatori, come quelli basati sulla differenza di genere o sulle minoranze etniche. Il Comitato consultivo rimarca, tra l’altro, l’opportunità di inserire nel processo di valutazione nuove “forme partecipatorie”, basate sul coinvolgimento di individui e di gruppi potenzialmente colpiti dagli effetti dell’AI.
Varie le indicazioni anche per la pubblica amministrazione che dovrebbe, ad esempio, predisporre procedure di appalto pubblico dove si impongano a sviluppatori, produttori e fornitori di servizi di AI, specifici obblighi di trasparenza, la valutazione preliminare dell’impatto del trattamento dei dati sui diritti umani e sulle libertà fondamentali, e l’obbligo di “vigilanza sugli algoritmi”, in particolare sugli effetti negativi e sulle conseguenze derivanti dalle applicazioni AI.

© 2017-2018 Associazione Privacy Italia - C.F. 91039930192 - P. Iva 01685370197 - Informativa Privacy

Con il sostegno di:

Fondazione di Sardegna Fondazione Cariplo
Positive SSL