Seleziona una pagina
martedì, Gen 21

Perché Google vuole regolamentare l’intelligenza artificiale


Secondo il Ceo di Mountain View, Sundar Pichai, serve un intervento normativo internazionale per regolare il settore e scongiurare potenziali rischi dell’intelligenza artificiale. In visita a Bruxelles ha elogiato il Gdpr, “un buon modello da cui partire”

(foto: Geert Vanden Wijngaert/Getty Images)

Secondo il Ceo di Google, Sundar Pichai, l’intelligenza artificiale va regolamentata. Una posizione, già anticipata al Financial Times, che il numero uno di Mountain View – da poche settimane anche alla guida della società madre Alphabet – ha ribadito ieri a Bruxelles, incontrando il vicepresidente della Commissione europea Frans Timmermans e il commissario per la concorrenza Margrethe Vestager.

Vediamo che il riconoscimento facciale comporta molti rischi, perciò da parte nostra c’è un periodo di attesa fino a quando non vedremo come viene utilizzato” ha detto durante una conferenza sull’intelligenza artificiale organizzata dal think-tank europeo Bruegel. Una posizione al vaglio anche dell’Ue che vorrebbe introdurre una moratoria di cinque anni per l’uso della tecnologia nei luoghi pubblici in Europa, al fine di valutarne l’impatto e i rischi. Al momento – ha specificato Pichai – Google non offre prodotti per il riconoscimento facciale generico perché è una delle “applicazioni ad alto rischio” che, appunto, i governi dovrebbero considerare come priorità.

Nell’editoriale sul Financial Times infatti, Pichai aveva chiarito meglio la sua posizione. Quello che Google vuole scongiurare sono le ripercussioni negative che possono scaturire dalla tecnologia – di suo neutra – e per farlo non si può non passare dal mezzo legislativo. La storia è piena di esempi in cui gli impieghi virtuosi della tecnologia non sono garantiti, ha scritto: “I motori a combustione interna hanno permesso alle persone di viaggiare lontano, ma anche causato incidenti. Internet ha consentito alle persone di comunicare, ma anche semplificato la diffusione della disinformazione”. In sintesi, per il numero uno di Google, sono “lezioni che ci hanno ci hanno insegnato che dobbiamo tenere gli occhi ben aperti su cosa potrebbe andare storto”.

Gdpr, un modello virtuoso

Insomma, non ci sono dubbi: “L’intelligenza artificiale deve essere regolata” a livello internazionale e, per questo, risulta essenziale – agli occhi di Pichai – un “allineamento” fra Stati Uniti e Unione europea. L’accordo deve fondarsi su valori condivisi e fondamentali. In questo cammino, l’Europa sarebbe avvantaggiata. L’Ue infatti non deve “partire da zero, le norme esistenti come il Gdpr possono costituire una base solida” anche per l’intelligenza artificiale, ha spiegato il Ceo. Insomma un punto di partenza per realizzare un impianto normativo che possa meglio tutelare la privacy delle persone in tutto il mondo. L’obiettivo è quello di un “un quadro normativo ragionevole” con “un approccio proporzionato”, capace di “bilanciare i potenziali danni e le opportunità sociali” della tecnologia.

Qualche contraddizione

Seppur la posizione assunta da Google sia, per certi versi, inaspettata e destinata ad aprire una breccia nel mondo online e offline, alcuni analisti ne sottolineano le contraddizioni, anche alla luce di precedenti progetti. Ad esempio il fallimento dell’Advanced Technology External Advisory Council, un consiglio istituito da Google e composto da membri esterni all’azienda per affiancare il gruppo nello sviluppo dell’intelligenza artificiale sulla base di linee guida etiche. Uno strumento, che già non esiste più, volto a scongiurare gli scenari che adesso lo stesso Ceo sembra temere. Non solo, secondo Techcrunch il numero uno di Montain View vorrebbe introiettare la sua visione di “effetti collaterali” dell’intelligenza artificiale che non è necessariamente una visione oggettiva. Infatti, si fa notare, non viene citato fra i rischi quello della concentrazione monopolistica del settore.

Potrebbe interessarti anche





Source link