Le specifiche di Private Processing, infine, prevedono una serie di accorgimenti a livello di sicurezza informatica per prevenire eventuali attacchi che possano mettere a rischio la riservatezza dei contenuti utilizzati.
Riassumendo: Meta garantisce che non userà i contenuti analizzati per profilare i suoi utenti, non venderà le informazioni a terze parti e ha fatto di tutto per fare in modo che i dati non vengano rubati da hacker e cyber criminali. È sufficiente per stare tranquilli?
Cosa può andare storto
Nonostante tutte le rassicurazioni, qualche perplessità rimane. La prima riguarda il fatto che, conservati o meno, quei messaggi vengono in qualche modo usati da Meta e, in particolare, verranno utilizzati per addestrare il suo modello di AI Llama. Nel comunicato e nella descrizione del sistema di Private Processing, Whatsapp non affronta l’argomento. Ci sono pochi dubbi, però, che l’interesse si concentri proprio su questo aspetto.
Per l’azienda di Zuckerberg, significa poter attingere a una vera miniera d’oro. Gli oltre 2 miliardi di utenti Whatsapp rappresentano una fonte inesauribile di materiale su cui l’algoritmo può affinare le sue capacità conversazionali.
Sotto il profilo della privacy, però, significa che nell’addestramento del modello di AI targato Meta potrebbero finire informazioni decisamente sensibili. La garanzia di anonimato offerta da Private Processing esclude che i contenuti possano essere collegati a uno specifico utente. Cosa succede però se all’interno delle conversazioni ci sono riferimenti puntuali a persone, numeri di telefono o altre informazioni sensibili che hanno una loro “autonomia”?
Non si corre il rischio che quelle informazioni vengano fagocitate dall’AI e, prima o poi, saltino fuori come è già accaduto in passato?
Anche la possibilità di bloccare la funzionalità attraverso le opzioni di Whatsapp non è così rassicurante. Il recente caso delle (imbarazzanti) domande rivolte a Meta AI pubblicate nella sezione Discover dell’applicazione ne è la dimostrazione più evidente.
Colpa di chi non ha controllato quello che stava facendo, si potrà dire. Tuttavia, l’idea di “scaricare” sugli utenti la responsabilità di tenere sotto controllo i contenuti che non dovrebbero essere condivisi con l’algoritmo continua a suonare stonata.