Inoltre, nell’idea di Basso e Nicita, il segreto industriale non potrà essere opponibile: un giudice potrà ordinare alla piattaforma di consegnare la documentazione tecnica dei propri algoritmi. Su questo punto la sentenza di Los Angeles pesa e Nicita lo dice chiaramente: “I documenti interni di queste aziende, introdotti nel corso del processo, dimostrano la consapevolezza delle piattaforme e la scelta specifica di determinati disegni algoritmici rispetto ad altri. C’è un tema di responsabilità che va coperto”.
Il diritto a non essere profilati
Per i minori le tutele sono ulteriormente rafforzate. “Proponiamo che ci sia un livello di controllo al livello più alto possibile, cioè a livello dei sistemi operativi”, spiega Nicita, “che in ambiente iOS o Android si possa già determinare un sistema che verifichi l’età dell’utente, e automaticamente tutto il materiale scaricato rispetti quella classificazione. Una selezione a monte, non app per app”.
La disciplina verrebbe estesa anche ai sistemi di intelligenza artificiale generativa e conversazionale, con limiti all’antropomorfizzazione e alla simulazione affettiva nei confronti degli utenti più giovani, e protocolli obbligatori di rilevazione delle crisi.
Viene inoltre vietato esplicitamente ciò che chiunque abbia provato a disinstallare un’app conosce bene: i dark pattern, i percorsi dissuasivi progettati per rendere la cancellazione più complicata dell’installazione. “Oggi non è così: si attiva scaricando, ma non si può cancellare con la stessa facilità. Obblighiamo gli operatori a garantire un meccanismo di cancellazione esattamente simmetrico a quello di attivazione”.
I minori e il nodo politico
La proposta di legge individua nell’Agcom, l’Autorità per le garanzie nelle comunicazioni, il soggetto che deve produrre linee guida precise dal punto di vista algoritmico. Le sanzioni possono arrivare fino al 4% del fatturato mondiale annuo della piattaforma in questione – la stessa soglia del Gdpr – e vengono aumentate della metà nei casi che riguardano minori o che si verificano a ridosso di consultazioni elettorali: l’80% degli introiti sanzionatori confluirebbe in un Fondo per l’alfabetizzazione digitale.
Anche Basso sottolinea che la legge non regola i contenuti – materia che resta al Digital services Act europeo – “e non è punitiva nei confronti della tecnologia, vuole solo ripulirla”, ma l’architettura, il modo in cui le piattaforme sono progettate per distribuire quei contenuti.
“Il nostro ddl è complementare alle proposte sui minori che si stanno affermando in tanti paesi, dall’Australia in poi”, dove è stata introdotto un divieto di social per gli under 16, precisa Nicita, “perché si occupa dell’architettura algoritmica nel suo complesso, non soltanto dei minori”. Ma è complementare anche alle tante iniziative già in cantiere nello stesso Parlamento italiano.


