IA, presentate le regole Ue. Vestager: ‘Da noi no sorveglianza di massa’

Vietati i sistemi di IA che minacciano la sicurezza e i diritti delle persone. Bannati anche per il riconoscimento facciale in tempo reale, ma con 32 eccezioni.

Il primo quadro giuridico al mondo sull’Intelligenza artificiale (IA) è europeo. Il “modello GDPR” funziona, per cui va replicato per consentirne un uso affidabile, etico e al servizio dei cittadini dell’IA. Così oggi la Commissione Ue ha illustrato la proposta di Regolamento europeo per introdurre in tutti gli Stati membri nuove regole e azioni per l’utilizzo o il divieto di sistemi di intelligenza artificiale.

IA, bannata se manipolano il comportamento umano per aggirare il libero arbitrio degli utenti

Sarà vietata l’IA quando rappresenta un rischio inaccettabile.

Ossia, concretamente, quando i sistemi di IA sono una chiara minaccia:

  • per la sicurezza, i mezzi di sussistenza e i diritti delle persone.
  • Sono compresi i sistemi o le applicazioni di IA che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l’assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono ai governi di attribuire un “punteggio sociale”.

Quando sono a rischio alto? Rispettare rigorosi obblighi

Invece, i sistemi di intelligenza artificiale saranno oggetto di rigorosi obblighi prima di essere immessi sul mercato se sono considerati a rischio alto. Rientra in questa classificazione la tecnologia di IA utilizzata:

  • in infrastrutture critiche(ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini;
  • nell’istruzione o formazione professionale, poiché può determinare l’accesso all’istruzione e il percorso professionale della vita di una persona (ad esempio, attribuzione del punteggio degli esami);
  • in componenti di sicurezza dei prodotti(ad esempio un’applicazione di IA utilizzata nella chirurgia assistita da robot);
  • nell’ambito dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo(ad esempio, software di selezione dei CV per le procedure di assunzione);
  • in servizi pubblici e privati essenziali(ad esempio, lo scoring del credito che può negare ai cittadini la possibilità di ottenere un prestito);
  • in attività di contrastoche possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell’affidabilità delle prove);
  • nella gestione della migrazione, dell’asilo e del controllo delle frontiere(ad esempio, verifica dell’autenticità dei documenti di viaggio);
  • nell’amministrazione della giustiziae nei processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti).

Riconoscimento facciale. Sistemi di IA in tempo reale vietati, con 32 eccezioni

Nella proposta di Regolamento, tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. “Il loro utilizzo in tempo reale ai fini di attività contrasto in spazi accessibili al pubblico è in linea di principio vietato”.

Vestager: “32 casi in cui possibile l’identificazione biometrica remota”

Ma sono previste delle eccezioni. “La lista è composta da 32 eccezioni”, ha detto la vice presidente esecutiva della Commissione europea, Margrethe Vestager, durante la conferenza stampa di presentazione del Regolamento.

Nell’Ue non c’è spazio per la sorveglianza di massa”

“I 32 casi riguardano reati con pena superiore a 3 anni, per cui è previsto l’ordine di arresto europeo”, ha spiegato Vestager, aggiungendo anche con il Regolamento sull’IA “nell’Ue non c’è spazio per la sorveglianza di massa”.

Le eccezioni

Dunque le eccezioni per il riconoscimento facciale sono rigorosamente definite e regolamentate, ad esempio:

  • dove strettamente necessario per cercare un minore scomparso,
  • prevenire una minaccia terroristica specifica e imminente o individuare,
  • localizzare, identificare o perseguire autori o sospettati di un reato grave.

“L’uso”, prevede il Regolamento, “è soggetto all’autorizzazione di un organo giudiziario o di un altro organo indipendente e a limiti per quanto riguarda il tempo, la portata geografica e le banche dati ricercate”.

Riguarda proprio quest’aspetto la recente bocciatura del Garante privacy del sistema di riconoscimento facciale in tempo reale che il Viminale avrebbe voluto mettere in campo la “repressione dei reati e alla tutela dell’ordine e della sicurezza pubblica”.

Infine le ultime 2 condizioni fissate dalla Commissione per usare l’IA.

Rischio limitato, ossia sistemi di IA con specifici obblighi di trasparenza: quando utilizzano sistemi di IA come i chatbot, gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina, in modo da poter decidere con cognizione di causa se continuare ad usarli oppure no.

Rischio minimo: la proposta legislativa consente il libero utilizzo di applicazioni quali videogiochi o filtri spam basati sull’IA. La grande maggioranza dei sistemi di IA rientra in questa categoria. Il progetto di regolamento non interviene in questo caso, poiché questi sistemi di IA presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini.

In termini di governance, la Commissione propone che le autorità nazionali di vigilanza del mercato competenti supervisionino le nuove regole, mentre l’istituzione di un comitato europeo per l’intelligenza artificiale ne faciliterà l’attuazione e stimolerà lo sviluppo di norme per l’IA.

Fonte: Key4biz | di Luigi Garofalo

© 2017-2018 Associazione Privacy Italia - C.F. 91039930192 - P. Iva 01685370197 - Informativa Privacy

Con il sostegno di:

Fondazione di Sardegna Fondazione Cariplo
Positive SSL