Intelligenza artificiale, la Commisione UE presenta le linee guida

Sono sette i principi chiave contenuti nelle linee guida sull’IA, presentate dalla Commissione Ue.  L’obiettivo è quello di migliorare, attraverso la tecnologia, l’agire umano e i suoi diritti e non ridurre la sua autonomia”. I cittadini, inoltre, devono essere sempre informati  sull’utilizzo dei loro dati  e averne il pieno controllo, in linea con quanto previsto dal GDPR.

Industria e ricerca che vogliono realizzare in Europa soluzioni di intelligenza artificiale (IA) dovranno farlo mettendo al centro l’uomo “ci deve essere sempre un controllo umano, perché l’obiettivo è migliorare l’agire umano e i suoi diritti, non ridurre la sua autonomia”. Così recita il primo dei sette princìpi chiave contenuti nelle linee guida sull’IA presentate dalla Commissione Ue. A queste seguirà a fine giugno il lancio di una fase pilota e poi a inizio 2020 una valutazione con revisione dei punti chiave, se necessaria.
I 7 elementi fondamentali per un’IA affidabile
Un’IA affidabile dovrebbe rispettare tutte le disposizioni legislative e regolamentari applicabili e una serie di requisiti. Liste di controllo specifiche aiuteranno a verificare l’applicazione di ciascuno dei seguenti requisiti fondamentali.
1. Azione e sorveglianza umane: i sistemi di IA dovrebbero promuovere lo sviluppo di società eque sostenendo l’azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l’autonomia dell’uomo.
2. Robustezza e sicurezza: per un’IA di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA.
3. Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.
4. Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di IA.
5. Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l’intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
6. Benessere sociale e ambientale: i sistemi di IA dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
7. Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di IA e dei loro risultati.
“Una persona deve sempre sapere quando si trova di fronte a una macchina e non a un essere umano”, ha spiegato la commissaria Ue, Maryia Gabriel, per questo “i sistemi di AI devono essere riconoscibili”. A giungo verrà quindi avviato un esercizio pilota a cui parteciperà un’ampia gamma di attori diversi, da imprese e multinazionali extra Ue a pubbliche amministrazioni (qui per registrarsi), e avverrà sotto l’egida dell’Alleanza europea per l’IA e la supervisione del Gruppo di esperti di alto livello per l’intelligenza artificiale. L’Ue punterà quindi a costruire una coalizione a livello internazionale per far applicare questi principi di sviluppo all’intelligenza artificiale anche a livello globale, a partire dai partner che condividono già questo approccio tra cui Canada, Giappone e Singapore.

Fonte: key4biz.it | di Luigi Garofalo

© 2017-2018 Associazione Privacy Italia - C.F. 91039930192 - P. Iva 01685370197 - Informativa Privacy

Con il sostegno di:

Fondazione di Sardegna Fondazione Cariplo
Positive SSL