L’adozione di algoritmi di intelligenza artificiale all’interno delle nostre attività quotidiane si troverà necessariamente a dover fare i conti con l’infrastruttura normativa e legale che regola le nostre vite.
Spesso l’impianto legale e la regolamentazione della tecnologia sono visti come dei veri e propri ostacoli per l’innovazione, considerati come un gigantesco pachiderma che rallenta lo sviluppo.
La diffusione di applicazioni di AI ci costringe però a dover volgere lo sguardo alla legislazione, poiché ci stiamo già rendendo conto che le intelligenze artificiali avranno effetti dirompenti sia dal punto di vista etico che dal punto di vista legale. Abbiamo necessariamente bisogno quindi di sviluppare un modello di governance funzionale per affrontare le sfide dell’AI.
I giornali segnalano già alcuni casi in cui i pregiudizi dei programmatori hanno portato dei software a prendere delle decisioni dannose per una particolare categoria di cittadini, introducendo così nel discorso pubblico il concetto di bias. Allo stesso modo, la necessità di raccogliere ed archiviare una gigantesca mole di dati per addestrare gli algoritmi di deep learning introduce nuove preoccupazioni per la sicurezza delle informazioni racchiuse in questi database e per la privacy degli utenti.
Per questi motivi, quindi, è necessario iniziare a valutare un adeguamento e, qualora necessario, una vera e propria riscrittura delle leggi attualmente in vigore in modo da fornire un aiuto concreto per lo sviluppo delle AI e non bloccare la ricerca.
Uno dei concetti primari che i legislatori dovrebbero considerare è la natura multiforme degli algoritmi di intelligenza artificiale: non possiamo prevedere un’unica legge che regoli l’impiego delle macchine intelligenti proprio perché il concetto di AI stessa racchiude in sé diversi algoritmi che si applicano in contesti differenti.
Al momento non esiste un’unica definizione di intelligenza artificiale ma esistono innumerevoli scenari in cui degli algoritmi che rientrano nel grosso calderone dell’AI vengono applicati: c’è ad esempio il riconoscimento facciale utilizzato per individuare dei sospettati, algoritmi che supportano le decisioni dei giudici, e persino sistemi che valutano l’affidabilità di un creditore.
In questi casi è necessario che i legislatori valutino ogni specifico dettaglio dei contesti di utilizzo degli algoritmi di AI, producendo di conseguenza delle norme che non siano eccessivamente generiche e che evitino di produrre danni inaspettati.
Come suggerito in un articolo dell’Harvard Law Review Forum, spesso, di fronte alle nuove tecnologie, la legislazione si muove per reazione, applicando dapprima le norme preesistenti e riformando le leggi in un secondo momento, se necessario. Questo ad esempio è l’approccio utilizzato dalla Germania con la recente regolamentazione delle auto a guida autonoma, introdotta come un emendamento alla legge già esistente sul traffico stradale.
Allo stesso tempo, però, per poter garantire l’introduzione di norme efficaci è necessario tenere in considerazione anche l’asimmetria informativa che investe l’analisi delle intelligenze artificiali.
Alcune delle foto presenti su Privacyitalia.eu potrebbero essere state prese da Internet e quindi valutate di pubblico dominio. Se i soggetti o gli autori avessero qualcosa in contrario alla pubblicazione, lo possono segnalare via email alla redazione che provvederà prontamente alla rimozione delle immagini utilizzate.
© 2017-2018 Associazione Privacy Italia - C.F. 91039930192 - P. Iva 01685370197 - Informativa Privacy
Con il sostegno di: