Il risultato è che soggetti formalmente uguali possono essere trattati diversamente da un sistema algoritmico semplicemente perché appartengono a gruppi che, nei dati storici, presentano comportamenti differenti.
È il problema delle cosiddette discriminazioni algoritmiche. Ma ridurre la questione a una semplice distorsione tecnica sarebbe fuorviante.
La trasformazione della grammatica dell’eguaglianza
In realtà ciò che l’intelligenza artificiale mette in discussione è la grammatica stessa dell’eguaglianza formale. La legge, nella tradizione costituzionale europea, costruisce l’eguaglianza attraverso categorie astratte. L’algoritmo invece opera attraverso classificazioni dinamiche, spesso invisibili, generate automaticamente dai dati.
La conseguenza è una forma di segmentazione sociale molto più sottile e pervasiva. Non più categorie giuridiche dichiarate, ma cluster statistici impliciti; non più differenziazioni normative esplicite, ma profilazioni probabilistiche che agiscono dietro l’apparente neutralità del calcolo.
In questo senso l’eguaglianza formale rischia di diventare una promessa svuotata. Formalmente tutti sono uguali davanti alla legge, ma nella pratica decisionale mediata dagli algoritmi ciascun individuo viene collocato in una costellazione di probabilità che orienta il trattamento ricevuto.
L’intelligenza artificiale e l’eguaglianza sostanziale
Ma l’intelligenza artificiale mette sotto pressione anche la seconda dimensione dell’articolo
tre, quella dell’eguaglianza sostanziale. Se è vero che i sistemi di AI possono riprodurre e amplificare le disuguaglianze esistenti, è anche vero che essi possono diventare strumenti potentissimi per individuarle e contrastarle.
Gli algoritmi sono in grado di analizzare pattern complessi di esclusione sociale, di individuare disparità sistemiche nei servizi pubblici, di orientare politiche redistributive più mirate.
Il punto, dunque, non è semplicemente se l’AI minacci o rafforzi l’eguaglianza. Il punto è chi
governa l’architettura di questi sistemi e secondo quali principi. Qui emerge la vera sfida costituzionale.
Verso un costituzionalismo tecnologico
L’articolo tre non è soltanto una norma programmatica. È anche un criterio di progettazione istituzionale. Nell’era dell’intelligenza artificiale questo criterio deve iniziare a operare anche a livello tecnologico. Significa chiedersi se gli algoritmi utilizzati nelle decisioni pubbliche siano progettati per ridurre le disuguaglianze o per ottimizzare l’efficienza. Significa interrogarsi su quali dati vengano utilizzati, su quali metriche di equità vengano adottate, su quali margini di controllo umano restino nelle decisioni automatizzate.
In altre parole, la questione dell’eguaglianza si sposta progressivamente dal momento dell’applicazione della legge al momento della progetazione dei sistemi tecnologici. Non è un caso che molte delle nuove regolazioni europee, a partire dall’AI Act, insistano proprio su questo punto: la necessità di integrare principi di equità, trasparenza e non discriminazione direttamente nell’architettura dei sistemi di intelligenza artificiale.

