Le Intelligenze Artificiali generative, come ChatGpt, stanno rischiando di saturare il web con contenuti autogenerati, creando un ciclico processo di apprendimento su materiale prodotto da esse stesse. Questo comporta il rischio di generare un loop tossico che potrebbe portare al collasso di tali modelli, secondo uno studio condotto da Ilia Shumailov dell’Università di Oxford e pubblicato su Nature.
Con l’aumento della diffusione delle IA generative, che producono testi, immagini e video, il web potrebbe presto trovarsi sovraccarico di contenuti generati da queste tecnologie. Attualmente, le IA imparano da dati forniti dagli esseri umani, come pagine di Wikipedia o collezioni di immagini, ma progressivamente stanno creando e utilizzando autonomamente i propri materiali per l’addestramento.
Gli esperti hanno condotto esperimenti addestrando una IA con i propri output, e utilizzando i nuovi dati generati per addestrare ulteriori modelli. Questo processo ha portato a un progressivo deterioramento delle prestazioni, con testi pieni di ripetizioni e una crescente perdita della capacità di discernere tra oggetti. Ad esempio, le IA potrebbero confondere una chiesa con una lepre.
Il rischio di saturazione di contenuti generati da IA sul web potrebbe portare a seri problemi, fino al collasso dei modelli attuali. È necessario affrontare questa sfida in modo intelligente per evitare un sovraccarico di contenuti senza senso.
FP