IA generativa e ChatGPT, nuove sfide per il legislatore

Con l’avvento di ChatGPT, noto per la capacità di interagire con gli utenti e rispondere alle domande in modo realistico e dettagliato, non sono mancate discussioni in merito ai rischi nell’utilizzo dell’IA generativa.

È naturale chiedersi se le informazioni fornite dall’IA generativa siano affidabili o meno, anche in considerazione dell’improvvisa fama che sistemi come ChatGPT hanno riscontrato nel loro rapido ingresso nel dibattito sociale. Questo è solo uno fra i sempre più frequenti casi in cui una tecnologia ha uno sviluppo ed un’implementazione così veloci, da essere utilizzata quotidianamente da utenti che, paradossalmente, non la conoscono. Secondo una statistica, lo strumento di OpenAI ha impiegato solo cinque giorni per raggiungere il traguardo di un milione di utenti.

I modelli di IA generativa vengono addestrati attraverso l’analisi e l’elaborazione di dati pubblici disponibili su Internet. Generano output di vario tipo sulla base di grandi moli di dati su cui sono stati addestrati. Una rete neurale generatrice crea risultati in base a una richiesta, mentre un altro tipo di rete, il discriminatore, valuta i dati cercando di distinguere tra i dati del mondo reale e quelli generati dal modello. L’interazione tra i due tipi di rete fa sì che il generatore migliori i suoi output sulla base del feedback ricevuto dal discriminatore. La macchina è così in grado di produrre come output stringhe di testo o contenuti multimediali, riuscendo a prevedere la parola o il pixel successivo. Questo è ciò che avviene nelle GAN (reti generative avversarie), le quali sono però caratterizzate dalla presenza di black boxes (“scatole nere”), spazi e fasi inaccessibili che rendono difficile comprendere a pieno ogni comportamento e decisione che la macchina adotta per arrivare ad un determinato risultato.

Prospettive giuridiche

I soggetti i cui dati sono stati utilizzati per addestrare questi sistemi, potrebbero esserne completamente all’oscuro. Anche se la politica di ChatGPT indica chiaramente che i dati vengono utilizzati per “fornire e migliorare il servizio”, dal momento che “l’addestramento” che si verifica all’interno delle GAN avviene senza intervento umano, ci si pongono non pochi interrogativi in merito al trattamento di tali informazioni.

Nello spazio UE i legislatori stanno elaborando una legge sull’IA, l’Artificial Intelligence Act. La bozza del regolamento contiene indizi riguardo la possibilità di impiegare categorie di dati personali per addestrare l’IA e diminuire così l’incidenza e la diffusione di stereotipi o pregiudizi (biases), che rappresentano uno dei principali pericoli di questa nuova tecnologia.

Altrettanto interessante è la diversa prospettiva del diritto d’autore, nei confronti delle opere prodotte dall’intelligenza artificiale. Pochi giorni fa lo U.S. Copyright Office ha rilasciato una guida sull’IA e la legge sul copyright, stabilendo una valutazione caso per caso. In generale, viene esclusa la possibilità di riconoscere il copyright ad una creazione prodotta dall’IA, salvo che non vi sia una significativa componente umana. Più nello specifico, il riconoscimento è escluso se le creazioni sono state generate in un modo tale da non essere previste in anticipo. Volendo esplorare questo campo di applicazione dell’IA generativa, non si può di certo fare a meno di menzionare DALL·E 2, sviluppato anch’esso da OpenAI. Si tratta di un sistema di intelligenza artificiale che è in grado di produrre immagini partendo da stringhe di testo, immesse dall’utente. Ma a chi appartengono tali creazioni?

Nei termini di utilizzo di OpenAI si legge quanto segue:

“L’Input e l’Output sono collettivamente “Contenuti”. Come stabilito tra le parti e nella misura consentita dalla legge applicabile, l’utente è proprietario di tutti gli Input e, subordinatamente al rispetto da parte dell’utente dei presenti termini, OpenAI cede all’utente tutti i propri diritti, titoli e interessi relativi agli Output”.

Rimane incerta la possibilità per l’IA di ottenere, o meno, un riconoscimento per la creazione da essa generata. Un ostacolo in questo senso è probabilmente rappresentato dall’opacità delle blackboxes, che rendono difficile verificare l’eventuale contributo dell’agente umano. Ma qual’è la situazione attuale nello Stivale? Sul tema della creazione di opere grazie a particolari programmi (anche se in questo caso non si tratta propriamente di IA) si è pronunciata la Corte di Cassazione, con ordinanza del 16 gennaio 2023, n. 1107. Si è stabilito, nello specifico, che l’opera grafica “The Scent of the Night”, utilizzata come scenografia del palco del Festival di Sanremo nel 2016, è da considerarsi “creativa” e quindi suscettibile di protezione secondo la legge sul diritto di autore, nonostante fosse stata prodotta attraverso un software. Questo perché è stato ritenuto, fra le varie considerazioni, che la creazione riflettesse la personalità del suo autore.

Esempi di implementazione

Recentemente Google ha annunciato una serie di funzionalità basate sull’IA generativa che saranno implementate nelle varie app della suite Workspace, tramite uno strumento che “consente di organizzare rapidamente le idee e, col tempo, sarà dotato di funzioni per l’ingegnerizzazione immediata, la generazione di dati sintetici e la messa a punto di modelli personalizzati”.  Grazie a Generative AI App Builder, per esempio, sarà possibile per le aziende creare applicazioni di IA generativa in pochi minuti o ore. I nuovi strumenti consentiranno inoltre di generare, sulla base di un argomento comunicato dall’utente, la bozza di una email o di un documento di testo. Un altro passo dell’azienda di Mountain View nella direzione della Generative AI si riscontra anche nel progetto di Google Sparrow, una chatbot che promette di diminuire le risposte errate e fuori contesto e che sembra apparire come il diretto concorrente di OpenAI. Anche Microsoft ha dimostrato un forte interesse per la nuova frontiera dell’IA. L’azienda, infatti, ha da poco reso noto lo sviluppo di un framework sperimentale per controllare robot e droni utilizzando le capacità linguistiche di ChatGPT.

I nuovi investimenti delle Big Tech ci fanno riflettere sul futuro di questi sistemi innovativi, che acquisteranno sempre maggior rilievo, e sulla necessità di regolamentazioni che non si limitino a rispondere ad una necessità impellente, ma che siano in grado di porre solide basi per affrontare in modo più efficiente e tempestivo la continua evoluzione della materia.

I pericoli dell’IA generativa

Oltre al problema, precedentemente menzionato, dei biases che caratterizzano gli algoritmi di blackbox, sono numerosi gli aspetti da considerare. In una recente intervista Giovanni Ziccardi, professore di Informatica Giuridica all’Università degli Studi di Milano, ha sottolineato come un tempo il criminale informatico doveva possedere grandi competenze, per essere in grado di generare un nuovo ed originale programma malevolo. Ora è possibile, anche per chi ha scarse competenze informatiche, condurre un attacco informatico completo grazie a chatGPT o strumenti simili. “La grande forza di questo sistema di IA è che si sta rivelando molto più intelligente delle persone che dialogano con chatgpt”.

“L’IA difronte ad un’idea estetica è neutrale, crea sulla base della conoscenza di cui dispone, senza sapere se ciò che crea sia bello o eticamente giusto” ha aggiunto Filiberto Brozzetti, Assistant Professor di AI, Law and Ethics presso la LUISS. L’IA generativa potrebbe quindi anche contribuire al crimine nell’ottica, tipica di tali sistemi, di massimizzare un risultato. Riguardo l’aspetto normativo ha poi affermato: “Siamo difronte ad un diritto che insegue la tecnologia”.

Come si legge in un articolo pubblicato nel sito web del World Economic Forum: “Le aziende devono essere consapevoli che, sebbene le tecnologie di IA generativa abbiano accelerato la creazione di contenuti e creato nuovi tipi di macchine automatiche per la generazione di contenuti, non devono affidarsi esclusivamente a esse. Dovrebbero invece utilizzare queste tecnologie come strumenti di assistenza o per costruire solide strategie di IA per mitigare i rischi”.

La speranza è che il legislatore, soprattutto quello europeo, si dedichi ad una regolamentazione il più efficace e lungimirante possibile, in un’ottica di bilanciamento tra i bisogni della società e i diritti fondamentali che la sostengono.

Fonte: Privacyitalia | di Massimo Zanolla

© 2017-2018 Associazione Privacy Italia - C.F. 91039930192 - P. Iva 01685370197 - Informativa Privacy

Con il sostegno di:

Fondazione di Sardegna Fondazione Cariplo
Positive SSL