Seleziona una pagina
martedì, Mag 23

Intelligenza artificiale e privacy, come la Francia vuole combinarle | Wired Italia



Da Wired.it :

In tal caso, la valutazione delle conseguenze dell’uso di questi dati va fatta sia per quanto riguarda la parte dell’apprendimento (machine learning) che per la generazione dell’output. In tal senso, l’ultima versione del testo dell’Ai Act approvato dal parlamento europeo l’11 maggio prevede l’obbligo di trasparenza di menzionare l’uso di dati coperti da copyright, per esempio. Una delle contestazioni fatte alle Ai generative era, per quanto riguarda l’output, il possibile pregiudizio del risultato generato (per esempio, si chiede all’Ai chi sia una persona e la risposta risulta diffamatoria).

La Cnil non manca poi, come fa altrettanto il nostro Garante della privacy, di fornire indicazioni e raccomandazioni concrete alle aziende, nell’applicare il Gdpr a queste nuove situazioni. Le autorità, infatti, non hanno solo il compito di investigare e sanzionare le violazioni ma anche quello di fornire una guida all’applicazione del regolamento.

Tra le applicazioni più complesse, ad esempio, c’è quella del principio di finalità nel caso delle AI generiche (la cosiddetta general purpose Ai) in cui può risultare difficile riuscire a stabilire in concreto come e per quali fini i dati personali saranno trattati. Non manca poi da risolvere il problema di come condividere le responsabilità tra le entità che costituiscono le banche dati, quelle che elaborano modelli a partire da tali dati e quelle che utilizzano tali modelli; [elaborare, ndr] le regole e le migliori pratiche applicabili alla selezione dei dati per la formazione, tenendo conto dei principi di accuratezza e minimizzazione dei dati; [considerare, ndr] la gestione dei diritti delle persone, in particolare i diritti di accesso, rettifica e opposizione; le regole applicabili sulla durata di conservazione, in particolare per le basi di formazione e i modelli più complessi da utilizzare”.

La Cnil cerca anche di capire le implicazioni etiche di questi modelli di apprendimento, che possono portare a effetti discriminatori e pregiudizievoli per gli individui. Dal riconoscimento facciale agli algoritmi per assegnare degli sgravi fiscali, i casi in cui l’uso incontrollato degli algoritmi ha portato a tali effetti discriminatori si sono riscontrati anche in Europa.

La Cnil a fianco delle imprese

Per aiutare le imprese in modo concreto, sul modello seguito anche dall’Ai Act, la Cnil ha lanciato una sandbox per sostenere progetti e attori innovativi, ovvero uno spazio in cui le aziende possano sperimentare liberamente e correggere il tiro con le indicazioni dell’autorità. La sandbox sulla salute ha raccolto 12 progetti nel 2021, quella sull’istruzione 10 nel 2022, mentre è aperta la call per il 2023 sul tema della Ai nel settore pubblico.

Vista poi la prossima adozione del riconoscimento facciale negli stadi per le Olimpiadi 2024, la Cnil ha lanciato un programma di sostegno specifico per i fornitori di videosorveglianza “potenziata”, nell’ambito della sperimentazione prevista dalla legge sui Giochi olimpici e paralimpici del 2024, e si concentrerà altresì sull’uso dell’intelligenza artificiale nella lotta contro le frodi, con particolare attenzione alla presenza di adeguate valutazioni d’impatto sulla protezione dei dati per documentare i rischi e adottare misure per ridurli; di adeguate misure per informare le persone e per l’esercizio dei loro diritti in modo adatto a questo particolare contesto. Quando si usa l’Ai, non sempre infatti la privacy policy classica costituisce il miglior modo per fornire le informazioni all’utente e, per questo, le aziende dovranno proporre metodi alternativi che dimostrino la loro concreta efficacia nell’assolvimento del proprio compito informativo.



[Fonte Wired.it]