Privacy, minori e social network. 4 proposte per cambiare le cose

Le tragedie recenti sollecitano una riflessione urgente su un fenomeno sempre più diffuso collegato all’uso dei social e delle piattaforme di video-sharing.

Occorre far riferimento regolamento europeo generale sulla protezione dei dati personali Ue n. 2016/679 GDPR (General Data Protection Regulation) – relativo alla protezione delle persone fisiche con riguardo al trattamento e alla libera circolazione dei dati personali stabilisce che l’età minima per non essere considerati dei minori per quanto riguarda il consenso per la privacy è 16 anni. Si ricorda, tuttavia, come siano gli Stati membri a decidere dove collocare questa soglia a partire dai 13 anni.

Cosa succede in Europa

La normativa di riferimento, dunque, sul consenso per la privacy dei minorenni è il Regolamento generale sulla protezione dei dati personali, il Gdpr approvato dall’Unione europea che definisce, tra le altre cose, quelli che sono i punti fondamentali della tutela dei dati personali di chi non ha ancora compiuto i 16 anni. In particolare, il testo prevede che è possibile per gli Stati membri di modificare questo limite al ribasso purché non vada al di sotto dei 13 anni. Se occorre dare il consenso di un minore al di sotto dei 13 è richiesto l’intervento di chi ha la responsabilità genitoriale.

Il GDPR sancisce, inoltre, che è necessario spiegare, in modo chiaro e comprensibile, come vengono raccolti i dati personali dell’utente minorenne.

Il consenso deve essere richiesto quando il trattamento dei dati di un minore riguarda:

  • un obbligo contrattuale;
  • un obbligo derivante dalla legge;
  • un interesse vitale;
  • un servizio pubblico;
  • legittimi interessi.

Cosa succede in Italia

L’Italia, nel recepire il Regolamento, ha fissato il limite per poter prestare autonomamente e validamente il consenso in 14 anni. In particolare, il decreto legislativo recita: “In attuazione dell’articolo 8, paragrafo 1, del Regolamento, il minore che ha compiuto i 14 anni può esprimere il consenso al trattamento dei propri dati personali in relazione all’offerta diretta di servizi della società di informazione. Con riguardo a tali servizi – continua il decreto – il trattamento dei dati personali del minore d’età inferiore a 14 anni è lecito a condizione che sia prestato da chi esercita la responsabilità genitoriale”.

Si ricorda infatti come il consenso dei genitori di un minore di almeno 14 anni non sia necessario nemmeno nell’ambito della prevenzione o della consulenza che viene fornita direttamente ai ragazzi, ad esempio, in materia di cyberbullismo o di sostegno all’infanzia, il consenso del 14enne, anche in questi casi, viene ritenuto valido dalla normativa.

Tale scelta fu accolta con perplessità dal Garante Privacy Soro per cui sarebbe stato più opportuno mantenere il limite di età a 16 anni. Le perplessità del Garante si fondavano sul fatto che risulta alquanto incoerente il fatto di chiedere, ad esempio, il consenso dei genitori per iscrivere un 15enne in palestra mentre si lascia un 14enne libero di fare ciò che vuole nell’universo ben più complicato della Rete. Tuttavia, nell’accettare la decisione del legislatore, l’Autorità sottolineò che l’abbassamento dell’età dovesse essere accompagnata “da programmi formativi specifici, rivolti a minorenni, che ne assicurino una sufficiente consapevolezza digitale”.

Privacy, minori e social network

Nell’ambito dell’applicazione delle direttive sia europee, che della declinazione nazionale, va detto che i social network hanno, per quanto riguarda il consenso per la privacy, delle regole ben precise. Nel dettaglio:

  • Facebook – vietata l’iscrizione ai minori di 13 anni, mentre chi non ha almeno 16 anni può aprire un profilo solo con il consenso dei genitori;
  • WhatsApp – vale la stessa regola: niente minori di 13 anni, utenti da 13 a 16 anni con consenso dei genitori;
  • Twitter  – resta la soglia minima dei 13 anni, mentre i minori di 16 anni non possono usare Periscope;
  • Instagram – il limite minimo per avere un account è sempre 13 anni;
  • Tik Tok – i servizi sono riservati esclusivamente a utenti con un’età minima di 13 anni.

Tali limiti sono tuttavia non rispettati nella pratica di uso comune e quotidiano, per cui l’accesso su tali piattaforme è effettuato ben prima del raggiungimento dei 13 anni da parte dei minori che spesso falsificano la propria età in modo da poter registrare il proprio account.

Secondo l’ultima indagine condotta da EuKids Online[1], in Italia il 23% dei bambini tra i 9-11 anni e il 63% dei preadolescenti tra i 12-14 anni visitano un Social Network su base quotidiana. La percentuale sale naturalmente al 79% per i ragazzi tra i 15-16 anni.

Minori e social network: casi recenti di cronaca

Negli ultimi giorni si sono verificati oltre al caso della bambina di Palermo anche altri inquietanti episodi che riguardano il grave rischio che corrono i minori in rete (un bimbo di Bari ed una bambina di lecce, casi su cui però sta ancora indagando la magistratura). In relazione alla recente tragica morte della bimba di 10 anni di Palermo Il Garante per la protezione dei dati personali ha disposto inizialmente solo nei confronti di Tik Tok il blocco immediato dell’uso dei dati degli utenti per i quali non sia stata accertata con sicurezza l’età anagrafica. Subito dopo l’Autorità ha aperto un fascicolo anche su Facebook e Instagram chiedendo di fornire una serie di informazioni.

Il provvedimento pone già un principio di possibilità di allargamento a tutti gli altri social in quanto, come si è esposto, vale per tutte le piattaforme l’osservanza delle norme sulla privacy con particolare riferimento all’età minima per la prestazione del consenso.

Per ciò che concerne il rischio di divulgazione di dati, ogni dato affidato alla rete è un dato immesso nell’immenso web che sarà difficile recuperare ed oscurare.

I rischi vanno dalla condivisione di frasi ed immagini che si potrebbero non volere più vedere nel futuro assegnati alla propria persona fino alla rielaborazione da parte di sistemi di intelligenza artificiale e rielaborazione automatica che possono consentire di innescare immagini sconvenienti (ad es. immagini di nudo su visi tratti da foto) e quindi pericoli di manipolazioni con contenuti falsi.

Minori e social network: poca trasparenza

Purtroppo, c’è ancora poca trasparenza da parte dei social network nelle modalità di accesso ai dati personali anche se, uno dei principi cardine del regolamento europeo, è proprio la trasparenza del trattamento che deve essere sindacabile da parte dell’utente.

Ma i rischi per i minori sono presenti e amplificati soprattutto dalla scarsa consapevolezza verso il valore dei propri dati personali e sensibili, la stessa scarsa consapevolezza è spesso presente anche negli adulti di riferimento che dovrebbero guidare i minori nell’utilizzo delle tecnologie digitali.

Tornando al caso di cronaca di Palermo, è opportuno osservare come le famose “challenge” (sfide) online, non sono un’esclusiva di Tik Tok, ma sono molto diffuse nella rete ed anche in altri social network.

Altro punto di riflessione è relativo all’utilizzo di dispositivi complessi come gli smartphone in tenera età, senza nessun tipo di educazione all’utilizzo, o guida da parte dell’adulto di riferimento.

Osservando le statistiche riportate prima, sappiamo che un’alta percettuale di bambini sotto i 13 anni hanno dei profili sui social network, questo significa verosimilmente che in modo autonomo hanno registrato il proprio account falsificando la data di nascita, e in modo altrettanto autonomo procedono verso l’utilizzo dello strumento. Spesso l’adulto (per mancanza di conoscenze e formazione specifica) ignora i possibili rischi presenti nella rete e permette l’utilizzo autonomo e non condiviso, confidando nel fatto che “sono nativi digitali e lo sanno usare meglio di noi”.

Ci sono quindi responsabilità e doveri diversi nella tutela dei minori da parte sia dei gestori di questi servizi che dei genitori.

Per quanto riguarda i Gestori di servizi digitali e in particolare dei Social Network necessario:

  • il controllo preventivo dei dati e la verifica dell’età dei minori,
  • maggiore trasparenza nel trattamento dei dati,
  • in caso di divulgazione di contenuti illecito, pronta rimozione e segnalazione all’autorità pubblica.

Per quanto riguarda i genitori necessario:

  • maggiore formazione ed educazione alle tecnologie digitali non solo per i minori ma anche per la scuola e le famiglie
  •  consenso esplicito da parte di chi esercita patria potestà;
  • un sistema di condivisione che consenta ai genitori il monitoraggio dell’attività dei figli minorenni e nel caso lanci allarme.

Si ricorda, inoltre che i genitori rispondono anche dei danni che possono derivare a terzi, dell’assenza di vigilanza sui minori e dell’omessa educazione all’uso di uno strumento così potente che mettono nelle mani dei minori.

Va inoltre sottolineato che è molto semplice (per un minore come per un qualsiasi utente) falsificare la propria età in fase di iscrizione o accesso ad una piattaforma online. Gli attuali sistemi di autenticazione richiedono una semplice autodichiarazione. Per tale motivo è l’utente il responsabile delle azioni che compie, ma sappiamo che per un bambino o bambina non è ancora possibile un tale livello di responsabilità, per cui “l’azione di falsificare i propri dati in rete” non ha per loro connotati gravi. Da ciò appare necessaria una riflessione sulle modalità di verifica dell’età e l’adozione di sistemi di autenticazione più avanzati che prevedano altri livelli di controllo. Una soluzione eventualmente da valutare è l’utilizzo delle identità digitali (ad es. lo SpID) come strumento di autenticazione che possa permettere una verifica più approfondita dell’età dell’utenza.

Ma In concreto cosa cambierà dopo la contestazione del Garante Privacy nell’utilizzo di Tik Tok?

La misura inibitoria ha effetto immediato dalla ricezione del provvedimento, ma tenuto conto del moltiplicarsi di episodi drammatici come questo è ragionevole attendersi un cambio di passo in tal senso.

Proposte:

  1. Maggiori regole rispetto all’uso dei dati degli utenti di cui non è disponibile un accertamento dell’età anagrafica.
  2. Richiesta di una rapida attuazione delle normative europee e nazionali in termini di protezione dei dati degli utenti con particolare attenzione ai dati dei minori in Rete.
  3. Confronto del CNU con con le principali istituzioni che hanno competenza nella gestione dei temi legati all’infanzia e all’adolescenza e con le aziende del settore
  4. Richiesta di maggiori finanziamenti (recovery plan) per programmi di formazione ed educazione alle  tecnologie digitali (educazione digitale) non solo indirizzati ai minori ma con particolare attenzione alla formazione dei genitori, alla formazione  del personale scolastico  e delle figure di riferimento dei minori.

Ulteriori riflessioni:

Le tragedie ricordate sollecitano una riflessione urgente su un fenomeno sempre più diffuso collegato all’uso dei social e, in particolare, all’uso delle piattaforme di video-sharing che costituiscono ormai un fitto reticolo di mezzi di informazione, non facile da governare alla luce delle dirompenti trasformazioni tecnologiche dell’ecosistema digitale.

La nuova direttiva europea sui servizi media audiovisivi (SMAV) introduce importanti novità per le piattaforme di video sharing, e potrebbe fornire le prime risposte ai nuovi scenari indotti dalla rapidità dei processi tecnologici in corso. Questa estende anche alle piattaforme di video-sharing le tutele dei minori previste per i media tradizionali relativamente ai contenuti audiovisivi, compresi i video generati dagli utenti, ed alle comunicazioni commerciali.

Anche i social media rientrano nel campo di applicazione della regolamentazione, al fine di proteggere i minori da contenuti nocivi e tutti i cittadini dall’istigazione all’odio, alla violenza e al terrorismo.

La citata direttiva – che si appresta ad essere recepita nel nostro Paese, atteso lo stato dei lavori parlamentari – prevede misure appropriate anche per tutelare i minori dai contenuti che possono nuocere al loro sviluppo fisico, mentale o morale ma anche tutelare il grande pubblico dai contenuti che istigano alla violenza o all’odio.

Si tratta di misure che consentono la possibilità di segnalare contenuti inappropriati, di verificare lo stato della segnalazione, nonché sistemi per verificare l’età degli utenti e garantire innovativi sistemi di controllo parentale

La direttiva, infine, impone che i fornitori di servizi di media siano in grado di fornire chiare informazioni sui contenuti in modo tale che, in particolare per ciò che riguarda i minori, non possano nuocere al loro sviluppo psicofisico (ad esempio, mediante un sistema di descrittori di contenuti, un’avvertenza acustica, un simbolo visivo o qualsiasi altro mezzo che descriva la natura del contenuto).

Appare inoltre evidente come il legislatore nazionale nella previsione dei principi e dei criteri per il recepimento della Smav, tenda a dare importanza al rafforzamento della tutela. Con una modifica approvata in occasione dell’esame in Senato, è stato previsto che i fornitori di servizi di media, comprese le piattaforme social, debbano fornire agli utenti dettagliate informazioni in merito a contenuti, anche pubblicitari, nocivi allo sviluppo fisico, mentale o morale dei minori, incluso il divieto di pubblicità relativa al gioco d’azzardo.

Con il recepimento di tale direttiva il legislatore nazionale procederà anche all’aggiornamento dei compiti dell’Autorità per le garanzie nelle comunicazioni, quale autorità di regolazione di settore in un ‘ottica di ulteriore rafforzamento delle prerogative di indipendenza.  Tale armonizzazione garantirà un livello più elevato di protezione dai contenuti che potrebbero nuocere anche allo sviluppo psicofisico dei minori.

Molto significativa è stata la dichiarazione della Presidente della Commissione europea Ursula Von der Leyen, che ha posto in primo piano la necessità di un’urgente maggiore regolamentazione sia internazionale che nazionale delle piattaforme online, regolamentazione basata non solo sulla concorrenza libera e leale, ma anche sulla  sicurezza e sulla qualità delle  informazioni. Per cui appare necessaria non solo una profonda riflessione sul tema dei contenuti che vengono veicolati sulle piattaforme di maggiore utilizzo ma anche una maggiore trasparenza sui sistemi algoritmici in grado di definire le priorità dei contenuti online.

Per ciò che concerne infine la  Legge sui servizi digitali[2] (Digital Services Act) che  per la prima volta unirà  un insieme di norme sugli obblighi e la responsabilità degli intermediari si ricorda che il suo obiettivo è quello di  garantire un elevato livello di tutela a tutti gli utenti ( e quindi ai minori ), indipendentemente dal luogo in cui risiedono nell’UE . Tra i suoi obiettivi: una minore esposizione a contenuti illegali ed una maggiore tutela dei diritti fondamentali.

In ogni caso c ‘è da riflettere che non si può basare tutto soprattutto sulla regolamentazione delle piattaforme ( seppur necessaria e doverosa) .

E’ necessario anche sottolineare la responsabilità degli utenti e soprattutto nel caso dei minori la responsabilità genitoriale per cui  imprescindibile la necessità che l’utenza tutta (con particolare riguardo non solo ai minori ma anche agli adulti di riferimento ) sia maggiormente informata, ma anche formata rispetto al funzionamento delle piattaforme digitali (in particolare i social network)e ciò presuppone la necessità di mettere in campo risorse adeguate  per l’educazione digitale prevedendole anche nel recovery plan


[1] https://www.lse.ac.uk/media-and-communications/assets/documents/research/eu-kids-online/reports/EU-Kids-Online-2020-10Feb2020.pdf

[2] https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/digital-services-act-ensuring-safe-and-accountable-online-environment_it

Fonte: Key4biz | di Sandra Cioffi, Presidente del Consiglio Nazionale degli Utenti (CNU)

© 2017-2018 Associazione Privacy Italia - C.F. 91039930192 - P. Iva 01685370197 - Informativa Privacy

Con il sostegno di:

Fondazione di Sardegna Fondazione Cariplo
Positive SSL