Seleziona una pagina



Da Wired.it :

Armi biologiche letali, attacchi automatizzati alla cybersecurity, potenti modelli di intelligenza artificiale che sfuggono al controllo umano. Queste sono solo alcune delle potenziali minacce rappresentate dall’AI secondo il nuovo rapporto del governo britannico, pubblicato per contribuire a definire l’agenda del AI safety summit, il vertice internazionale sulla sicurezza dell’AI che si terrà nel Regno Unito l’1 e il 2 novembre. Il rapporto è stato redatto con il contributo di aziende leader nel settore dell’intelligenza artificiale, come l’unità DeepMind di Google, e di diversi dipartimenti governativi britannici, comprese le agenzie di intelligence.

In particolare il summit si concentrerà sulle possibili modalità di abuso o perdita di controllo delle forme avanzate di intelligenza artificiale. Anche se alcuni esperti del settore, insieme a diversi membri dell’esecutivo inglese, hanno criticato duramente il focus dell’evento, sostenendo che il governo dovrebbe dare priorità a questioni più impellenti, come aiutare il paese a competere con i leader mondiali del settore come Cina e Stati Uniti, anziché cercare di trovare soluzioni a scenari che potrebbero anche non realizzarsi mai.

Joe White, inviato del Regno Unito per la tecnologia negli Stati Uniti, sostiene che il vertice sarà l’occasione giusta per riunire i paesi e le principali aziende di AI per comprendere al meglio i rischi posti dall’evoluzione di questa tecnologia. Secondo White, che ha contribuito all’organizzazione dell’evento, la soluzione più adatta per gestire al meglio i potenziali effetti negativi degli algoritmi sarà una collaborazione organica tra le parti: “Non si tratta di sfide tra macchina e uomo — ha dichiarato —, ma di sfide tra uomo e uomo

A tal proposito, alcuni esperti hanno fatto notare che la recente impennata di discussioni riguardo i rischi dell’evoluzione dell’AI, tra cui la probabilità (remota) di estinzione umana, potrebbe distrarre le autorità di regolamentazione e l’opinione pubblica da problemi ben più immediati, come gli algoritmi discriminatori o il fatto che questa tecnologia rischia di rafforzare la posizione di predominio di alcune Big tech.

Eppure il rapporto britannico analizza con grande lucidità le implicazioni per la sicurezza nazionale dei modelli linguistici avanzati, tecnologia alla base di ChatGpt. Come riportato da White, le agenzie di intelligence britanniche stanno collaborando con la Frontier AI task force, un gruppo di esperti governativi, per esplorare alcuni scenari futuri plausibili legati all’AI, come la possibilità che un ampio modello linguistico possa contribuire a progetti di sviluppo di armi biologiche.



[Fonte Wired.it]