Algoritmi di AI e privacy utenti. Occorre scossa del sistema legislativo

Risulta necessario incominciare a valutare una vera e propria riscrittura delle leggi attualmente in vigore in modo da fornire un aiuto concreto per lo sviluppo delle AI.

L’adozione di algoritmi di intelligenza artificiale all’interno delle nostre attività quotidiane si troverà necessariamente a dover fare i conti con l’infrastruttura normativa e legale che regola le nostre vite.

Spesso l’impianto legale e la regolamentazione della tecnologia sono visti come dei veri e propri ostacoli per l’innovazione, considerati come un gigantesco pachiderma che rallenta lo sviluppo.

La diffusione di applicazioni di AI ci costringe però a dover volgere lo sguardo alla legislazione, poiché ci stiamo già rendendo conto che le intelligenze artificiali avranno effetti dirompenti sia dal punto di vista etico che dal punto di vista legale. Abbiamo necessariamente bisogno quindi di sviluppare un modello di governance funzionale per affrontare le sfide dell’AI.

I giornali segnalano già alcuni casi in cui i pregiudizi dei programmatori hanno portato dei software a prendere delle decisioni dannose per una particolare categoria di cittadini, introducendo così nel discorso pubblico il concetto di bias. Allo stesso modo, la necessità di raccogliere ed archiviare una gigantesca mole di dati per addestrare gli algoritmi di deep learning introduce nuove preoccupazioni per la sicurezza delle informazioni racchiuse in questi database e per la privacy degli utenti.

Non possiamo prevedere un’unica legge che regoli l’impiego delle macchine intelligenti proprio perché il concetto di AI stessa racchiude in sé diversi algoritmi che si applicano in contesti differenti.

Per questi motivi, quindi, è necessario iniziare a valutare un adeguamento e, qualora necessario, una vera e propria riscrittura delle leggi attualmente in vigore in modo da fornire un aiuto concreto per lo sviluppo delle AI e non bloccare la ricerca.

Uno dei concetti primari che i legislatori dovrebbero considerare è la natura multiforme degli algoritmi di intelligenza artificiale: non possiamo prevedere un’unica legge che regoli l’impiego delle macchine intelligenti proprio perché il concetto di AI stessa racchiude in sé diversi algoritmi che si applicano in contesti differenti.

Al momento non esiste un’unica definizione di intelligenza artificiale ma esistono innumerevoli scenari in cui degli algoritmi che rientrano nel grosso calderone dell’AI vengono applicati: c’è ad esempio il riconoscimento facciale utilizzato per individuare dei sospettati, algoritmi che supportano le decisioni dei giudici, e persino sistemi che valutano l’affidabilità di un creditore.

In questi casi è necessario che i legislatori valutino ogni specifico dettaglio dei contesti di utilizzo degli algoritmi di AI, producendo di conseguenza delle norme che non siano eccessivamente generiche e che evitino di produrre danni inaspettati.

Allo stesso tempo, però, per poter garantire l’introduzione di norme efficaci è necessario tenere in considerazione anche l’asimmetria informativa che investe l’analisi delle intelligenze artificiali.

Come suggerito in un articolo dell’Harvard Law Review Forum, spesso, di fronte alle nuove tecnologie, la legislazione si muove per reazione, applicando dapprima le norme preesistenti e riformando le leggi in un secondo momento, se necessario. Questo ad esempio è l’approccio utilizzato dalla Germania con la recente regolamentazione delle auto a guida autonoma, introdotta come un emendamento alla legge già esistente sul traffico stradale.

Allo stesso tempo, però, per poter garantire l’introduzione di norme efficaci è necessario tenere in considerazione anche l’asimmetria informativa che investe l’analisi delle intelligenze artificiali.

Fonte: MotherBoard.com | di Riccardo Coluccini

© 2017-2018 Associazione Privacy Italia - C.F. 91039930192 - P. Iva 01685370197 - Informativa Privacy

Con il sostegno di:

Fondazione di Sardegna Fondazione Cariplo
Positive SSL