Lubrano definisce questo fenomeno sloganoid effect: un’apparente chiarezza che in realtà riduce la varietà espressiva. Invece di fornire nuove sfumature, i modelli ripropongono lo stesso schema binario, replicando il linguaggio della pubblicità e dei titoli acchiappaclick.
Il rischio della lingua piatta
La questione non è estetica ma culturale. Se gli utenti leggono continuamente testi che funzionano secondo lo schema “non… ma…”, finiscono per interiorizzarlo e usarlo a loro volta. Questo alimenta un circolo vizioso: i modelli lo apprendono dal web, lo amplificano, lo rilanciano agli utenti che a loro volta lo riversano nei contenuti online, rinforzando ulteriormente i dataset futuri. Il risultato è una lingua digitale più piatta, dominata da dualismi e slogan, che riduce le possibilità espressive e schiaccia le alternative retoriche.
Lo studio nota come questa dinamica non sia limitata all’inglese: campionamenti preliminari mostrano che lo stesso eccesso compare anche in spagnolo, francese, mandarino e arabo. È un segnale che l’epanortosi potrebbe diventare una sorta di universale artificiale della scrittura generata. Per contestualizzare, Lubrano richiama la retorica classica, da Quintiliano a Lausberg, in cui l’epanortosi era definita come strumento di intensificazione e chiarificazione, da usare in modo mirato. Ora, per colpa dell’AI, può diventare un fenomeno diffuso che contribuisce a diminuire l’efficacia di ciò che leggiamo su internet.
Attenzione all’AI slop
Secondo Lubrano, il fenomeno può essere contenuto. Tra le strategie proposte: inserire nei dataset più testi che usano forme diverse di enfasi (metafore, comparazioni, clausole concessive), modificare i reward models penalizzando la ripetizione del pattern e spingere i prompt engineer a richiedere esplicitamente soluzioni alternative. Non si tratta di cancellare l’epanortosi — resta una figura retorica utile — ma di riportarla a scelta consapevole, invece che a default algoritmico.
Il messaggio finale del paper è chiaro: concentrarsi solo sulle allucinazioni significa guardare a metà del problema. Gli LLM non modellano soltanto i contenuti, ma anche le forme. E quando una forma retorica diventa eccesso strutturale, rischia di modificare come leggiamo i testi artificiali, nonché il modo in cui scriviamo noi stessi. È in questo contesto che si inserisce anche il dibattito culturale attorno al termine AI slop, ovvero i pasticci delle intelligenze artificiali sempre più frequenti online: un’etichetta che denuncia l’appiattimento linguistico prodotto da questi automatismi e che oggi diventa chiave di lettura per comprendere il rapporto tra AI e stile. Perché i modelli possono aiutarci a scrivere, ma non sempre il loro apporto è positivo.