Meta e la sfida della protezione dei minori online: l’app della Commissione Europea in arrivo

Meta, la società madre di Facebook e Instagram, è sotto la lente d’ingrandimento della Commissione Europea per non avere implementato adeguati strumenti di protezione per impedire l’accesso dei minori di 13 anni alle sue piattaforme. Quest’assenza di soluzioni valide ha sollevato preoccupazioni sul rispetto del Digital Services Act, una normativa che punta a garantire un ambiente online più sicuro e responsabile.

La nuova app per la verifica dell’età: un passo avanti

Per affrontare questa problematica, la Commissione Europea ha presentato, il 15 aprile scorso, una nuova app per la verifica dell’età. Questo strumento ha l’obiettivo di garantire che solo gli utenti maggiorenni possano accedere a contenuti non appropriati per i minori, come ad esempio i siti di natura pornografica. A tal proposito, la vicepresidente esecutiva Henna Virkkunen ha dichiarato in conferenza stampa che la tutela dei minori è una priorità assoluta della Commissione.

L’application richiederà agli utenti di confermare la propria identità al momento dell’installazione, senza tuttavia condividere informazioni personali superflue. Nonostante il concept sia simile a quello del green pass utilizzato durante la pandemia, le criticità non mancano: già subito dopo il lancio è emersa la vulnerabilità del sistema, con esperti in grado di hackarlo in pochi minuti. La Virkkunen ha spiegato che, sebbene sia complicato trovare soluzioni infallibili, la Commissione è determinata a stabilire regole chiare.

Quali sono le aspettative e i prossimi passi?

Una volta definito il modello tecnico, la Commissione adotterà una raccomandazione che delinea le aspettative per gli Stati membri. La tecnologia per la verifica dell’età dovrà essere implementata in modo uniforme, ma ogni nazione avrà la libertà di personalizzarla secondo le proprie necessità. Ciò significa che i vari paesi dell’Unione Europea potranno optare per soluzioni che si integrino anche nei digital wallet previsti entro la fine dell’anno. È essenziale che queste soluzioni garantiscano l’interoperabilità al fine di consentire un uso responsabile e sicuro in tutto il territorio europeo.

Inoltre, Bruxelles avvierà una valutazione dei fornitori di servizi che contribueranno allo sviluppo di queste tecnologie. Solo quelli che soddisferanno i criteri di sicurezza stabiliti saranno autorizzati a operare. Questa azione mira a garantire standard elevati nella protezione dei minori online, promuovendo così un ambiente digitale più sicuro.

Meta e le responsabilità nella tutela dei minori

Sfortunatamente, le indagini preliminari rivelano che Meta non ha adottato misure sufficienti per impedire l’accesso ai minori. La pratica di inserire una data di nascita falsa è all’ordine del giorno, tant’è che i minori possono facilmente creare un profilo senza che Meta ne verifichi l’identità. Attualmente, il 12% dei bambini sotto i 13 anni in Europa utilizza Instagram o Facebook, esponendosi così a contenuti inadeguati e ai pericoli del cyberbullismo. La Virkkunen ha rimarcato che sebbene i sistemi di parental control possano fornire un certo livello di protezione, non devono diventare l’alibi per scaricare le responsabilità sulle famiglie. Anche le piattaforme devono attivamente contribuire a garantire la sicurezza dei loro utenti più giovani.

Riflessioni finali

La nuova iniziativa della Commissione Europea rappresenta un passo significativo verso la protezione dei minori nel mondo digitale, ma il successo dipenderà dalla collaborazione tra istituzioni, aziende e famiglie. In Italia, dove la presenza di giovani utenti su piattaforme come Instagram è particolarmente elevata, è fondamentale che le istituzioni e le aziende tech si attivino per garantire un ambiente sicuro. La responsabilità non può ricadere solo su singole entità; sia i legislatori sia i giganti del web devono lavorare insieme per un futuro online più sicuro e responsabile.