Meta in difficoltà: l'Unione Europea critica la sua gestione della sicurezza per i minori su Facebook e Instagram Recentemente, la Commissione Europea ha rilasciato un verdetto negativo nei confronti di Meta, l'azienda madre di Facebook e Instagram, accusandola di non…
Meta in difficoltà: l’Unione Europea critica la sua gestione della sicurezza per i minori su Facebook e Instagram
Recentemente, la Commissione Europea ha rilasciato un verdetto negativo nei confronti di Meta, l’azienda madre di Facebook e Instagram, accusandola di non fare abbastanza per impedire l’accesso ai propri servizi da parte di utenti sotto i 13 anni. Questa sentenza arriva dopo un’indagine durata quasi due anni, e mette in luce le fragilità dei sistemi di controllo adottati dalla piattaforma.
Inefficienza dei sistemi di verifica dell’età
L’indagine ha rivelato che i ragazzi possono facilmente aggirare i sistemi di registrazione inserendo dati falsi, come una data di nascita fittizia, che consente loro di dichiararsi maggiorenni. Nonostante Meta stabilisca chiaramente nei propri termini di servizio che i propri social network non sono destinati a utenti al di sotto dei 13 anni, i controlli attuali risultano essere inadeguati. Henna Virkkunen, responsabile della politica tecnologica dell’UE, ha affermato che “le evidenze preliminari mostrano che Facebook e Instagram non stanno attuando misure sufficienti per proteggere i minori”.
Strumenti di segnalazione inadeguati
Un ulteriore problema evidenziato dalla Commissione è l’insoddisfazione riguardo agli strumenti messi a disposizione per segnalare utenti minorenni. Tali strumenti sono stati descritti come “difficili da usare e poco efficaci”. Anche quando un utente minorenne viene segnalato, spesso non si segue un’azione concreta per rimuoverlo dalla piattaforma. Queste carenze pongono Meta in violazione delle normative DSA (Digital Services Act) che richiedono una gestione attenta dei rischi associati all’uso delle piattaforme da parte di utenti così giovani.
Il richiamo dell’Unione Europea
La Commissione ha attaccato anche la valutazione dei rischi che Meta ha condotto per tutelare i minori, definendola “incompleta e arbitraria”. Secondo accertamenti, tra il 10 e il 12% dei bambini sotto i 13 anni accede attivamente a Facebook e Instagram. Inoltre, Meta sembra aver ignorato ricerche scientifiche che dimostrano come i bambini più piccoli siano più vulnerabili ai potenziali danni provocati da piattaforme come Facebook. Rimane aperta un’indagine su come l’uso di queste reti sociali possa generare comportamenti addictivi nei più giovani.
La posizione di Meta e gli sviluppi futuri
Meta ha adesso l’opportunità di correggere le proprie mancanze e migliorare la propria metodologia di valutazione dei rischi, nonché di implementare strumenti di verifica dell’età più efficaci. Se non agirà in tempi brevi e dovesse ricevere un verdetto di non conformità, l’azienda rischia sanzioni fino al sei percento del fatturato globale, che potrebbe arrivare fino a 12 miliardi di dollari, considerando i ricavi stimati per il 2025.
Meta ha risposto alle critiche sottolineando il suo impegno nel garantire che i suoi servizi siano per persone di almeno 13 anni e di voler investire in misure ulteriori per individuare e rimuovere utenti al di sotto di questa soglia.
Impatto per il mercato italiano
Per gli utenti e le aziende italiane, la questione è significativa. La presenza di utenti minorenni su queste piattaforme può influire sulla sicurezza online e sul benessere dei più giovani. È fondamentale che le aziende tecnologiche come Meta implementino controlli efficaci non solo per soddisfare le normative, ma anche per garantire che gli spazi digitali siano sicuri per tutti, in particolare per le generazioni più giovani. Il dibattito su questi temi è destinato a continuare, e l’attenzione della Commissione Europea potrebbe spingere Meta e altre aziende a riconsiderare le proprie politiche in materia di sicurezza e protezione dei dati.
