Il Vietnam sta entrando nella “era di ascesa nazionale”. È la promessa fatta da To Lam, segretario generale del Partito comunista vietnamita, durante il recente Congresso che lo ha confermato alla guida del Paese. Tra le componenti chiave di questa ascesa ci sono la tecnologia avanzata, di cui Hanoi sta diventando sempre più un polo di produzione, e l’intelligenza artificiale. Non è un caso che il Vietnam sia il primo paese del Sudest asiatico a dotarsi di una regolamentazione organica sull’intelligenza artificiale (AI).
La legge quadro è entrata in vigore il 1 marzo 2026 e disciplina lo sviluppo, la distribuzione e l’uso dei sistemi basati su AI. Come detto, si tratta della prima normativa completa di questo tipo adottata nella regione, un passaggio che segnala come Hanoi stia cercando di collocarsi tra coloro che non intendono subire passivamente la rivoluzione tecnologica in corso e desiderano invece governarla attraverso strumenti normativi e strategie industriali mirate. Con il coinvolgimento diretto dello Stato.
Tra Europa e Cina, il Vietnam scrive la sua legge sull’AI
Norme ispirate all’Europa, con un occhio alla Cina
La legge introduce un sistema articolato di classificazione dei rischi, stabilisce obblighi di trasparenza per le aziende e rafforza il principio della supervisione umana sui sistemi intelligenti, con un approccio che richiama in modo evidente il modello dell’Unione europea, senza dimenticarsi della Cina, che ha appena operato una stretta sulle applicazioni human-like e sta predisponendo piani per evitare una eccessiva sostituzione della forza lavoro. Come già accade a Pechino, Hanoi parte dalla premessa che i sistemi di intelligenza artificiale non siano strumenti neutrali e non possano essere trattati semplicemente come software tradizionali. L’AI è infatti vista come una questione di sicurezza nazionale, stabilità sociale e sovranità digitale.
Da qui nasce la necessità di attribuire allo Stato un ruolo più attivo nella gestione delle tecnologie emergenti. Una delle convergenze più interessanti con il modello cinese riguarda il modo in cui entrambe le regolamentazioni attribuiscono responsabilità estese ai fornitori e agli sviluppatori di sistemi di AI generativa lungo l’intero ciclo di vita della tecnologia, dalla progettazione alla distribuzione fino all’utilizzo da parte degli utenti finali.
L’AI come motore del nuovo modello di sviluppo
Il Vietnam, che negli ultimi due decenni ha registrato una delle crescita economiche più rapide al mondo, vede nel settore tecnologico una leva fondamentale per consolidare il proprio sviluppo nei prossimi decenni. Le autorità vietnamite hanno dichiarato apertamente che intelligenza artificiale ed economia dei dati rappresentano pilastri centrali del nuovo modello di crescita nazionale, che punta a trasformare il Paese da piattaforma manifatturiera a basso costo in una economia sempre più avanzata e basata sulla conoscenza.
La nuova legge nasce quindi dall’incrocio tra due esigenze fondamentali: la volontà di promuovere lo sviluppo tecnologico e attrarre investimenti nel settore digitale; la necessità di prevenire i rischi sociali, politici ed economici legati all’uso incontrollato dell’intelligenza artificiale. In Vietnam, dove vige un sistema politico a partito unico, questi temi sono particolarmente sensibili, soprattutto in un contesto digitale caratterizzato da una rapida espansione dei social media e delle piattaforme online.
Classificazione dei rischi e lotta ai deepfake
Il cuore della nuova normativa è un sistema di classificazione basato sul livello di rischio dei sistemi di AI. Le applicazioni vengono suddivise in categorie che determinano il grado di controllo e responsabilità imposto ai fornitori e agli utilizzatori della tecnologia. I sistemi considerati ad alto rischio – ad esempio quelli utilizzati in ambiti sensibili come sanità, finanza, istruzione o infrastrutture critiche – sono sottoposti a controlli rigorosi, che includono valutazioni di conformità prima dell’immissione sul mercato, meccanismi obbligatori di gestione del rischio e la presenza di forme di supervisione umana. Le applicazioni a rischio medio sono invece soggette a obblighi di trasparenza e monitoraggio, mentre quelle a basso rischio sono sottoposte a una supervisione più limitata, pur rimanendo all’interno del quadro generale della normativa.


