Seleziona una pagina
giovedì, Giu 01

Intelligenza artificiale, gli Stati Uniti non vogliono che controlli le armi nucleari | Wired Italia



Da Wired.it :

Ad aprile il Dipartimento di stato degli Stati Uniti ha presentato un nuovo piano per lo sviluppo, il collaudo e la verifica dei sistemi militari che sfruttano l’intelligenza artificiale (Ai), che prende in esame anche le armi.

Le nuove linee guida

La Dichiarazione politica sull’uso militare responsabile dell’intelligenza artificiale e dell’autonomia, come è stato ribattezzato il documento, rappresenta il tentativo del paese di guidare lo sviluppo dell’Ai militare in un momento cruciale per la tecnologia. Il testo non vincola da un punto di vista legale le forze armate statunitensi, ma la speranza è che le nazioni alleate abbraccino i principi delineati dalla dichiarazione, creando una sorta di standard globale per lo sviluppo responsabile dei sistemi Ai.

Tra le altre cose, il documento afferma che l’Ai militare deve essere sviluppata in accordo con le leggi internazionali, che i paesi devono essere trasparenti sui principi alla base della propria tecnologia e che è necessario adottare standard elevati per verificare le prestazioni dei sistemi di intelligenza artificiale. La dichiarazione, inoltre, sottolinea che le decisioni sull’uso delle armi nucleari dovrebbero essere esclusiva degli esseri umani.

Quando si parla di sistemi di armamento autonomi, i leader militari statunitensi hanno spesso rassicurato sul fatto che l’uomo continuerà a essere “coinvolto” nelle decisioni che riguardano l’uso della forza letale. Ma la politica ufficiale del paese, emanata per la prima volta dal Dipartimento della difesa nel 2012 e aggiornata quest’anno, non prevede alcun obbligo in questo senso.

Tra stop ed espansione

Ad oggi ogni tentativo di introdurre un divieto internazionale delle armi autonome è stato vano. La Croce Rossa Internazionale e gruppi come Stop Killer Robots spingono per un accordo sotto l’egida della Nazioni Unite, ma alcune grandi potenze – Stati Uniti, Russia, Israele, Corea del Sud e Australia – non si sono dimostrate disposte a un impegno del genere.

Uno dei motivi è che molti esponenti all’interno del Ministero della difesa statunitense considerano l’aumento dell’uso dell’intelligenza artificiale all’interno delle forze armate, anche al di là dei sistemi non militari, come vitale e inevitabile. Secondo queste persone, un divieto rallenterebbe i progressi degli Stati Uniti penalizzando la tecnologia del paese a favore di avversari come la Cina e la Russia. La guerra in Ucraina ha dimostrato quanto rapidamente l’autonomia – in questo caso nella forma di droni economici e usa e getta, che stanno diventando sempre più efficaci grazie agli algoritmi di apprendimento automatico – possa contribuire a garantire un vantaggio nel contesto di un conflitto.



[Fonte Wired.it]