Scrivi un articolo chiaro, ben strutturato e leggibile. Mantieni i tag HTML.
Musica e tecnologia sono due mondi
che si sono incontrati più volte nel corso della storia. Forse
mai, però, il loro rapporto ha portato a interrogarsi come dopo
l’avvento dei sistemi di intelligenza artificiale generativa. Se
n’è parlato oggi pomeriggio al convegno “Musica&AI”, organizzato
dall’Airia (Associazione Regolazione Intelligenza Artificiale)
all’Università Roma Tre.
“Il rapporto tra musica e tecnologia è sempre stato
all’avanguardia – ha affermato in apertura Luca Aversano,
direttore del dipartimento di Filosofia, Comunicazione e
Spettacolo dell’ateneo -. Dal mio punto di vista il tema più
importante è quello dell’autorialità quando viene utilizzata
l’IA per generare musica. Ma a questo si potrebbe rispondere che
l’invenzione stessa dell’autorialità è una cosa tarda, perché la
musica non ha avuto autori per secoli”.
“Oggi nell’ecosistema delle startup di IA generativa dedicata
alla musica ci sono circa 300 aziende totali al mondo”, ha
spiegato Chiara Santoro, music and tech advisor dell’Airia. Gli
strumenti sono molto vari, da quelli che generano canzoni dal
testo a quelli che servono per il mixing o identificano se è
stata usata l’IA in un brano. “Ma c’è allo stesso tempo
un’invasione di contenuti – ha aggiunto – ogni giorno sulle
piattaforme vengono pubblicate 106mila tracce e non c’è una
stima di quante siano generate da IA. Pochissime riescono ad
avere almeno 100 ascolti l’anno”.
Di questo ha parlato pure Enzo Mazza, ceo di Fimi: “Ci sono
persino brani creati con l’IA e fatti ascoltare dai bot per
farli salire in classifica”, con ricadute economiche. Per lui
“ci vuole un sistema di licenza per combattere tutti i fenomeni
illeciti, perché la musica IA sta diventando una parte del
mercato e dovrà essere utilizzata, creata e messa a disposizione
in maniera legale perché competerà con gli altri”.
E tocca porsi anche la questione su come si ‘allenano’ i
modelli, come ha ricordato Elisa Giomi, commissaria Agcom. “Si
può ipotizzare di escludere tutta la musica europea dai dati di
addestramento ma non si può impedire che le IA si alimentino da
tutte le altre fonti mondiali”, ha commentato, e se lo si
facesse “gli europei dovrebbero elaborare musiche e testi a
partire da fonti cinesi e americane, ma non europee, mettendo a
tacere così qualunque velleità di competizione tecnologica”.
Pure la percezione delle persone influenzerà il futuro del
settore. “Secondo uno studio – ha detto Viviana De Vincentis,
Chief legal officer di Siae – quando i consumatori sanno che
un’opera è prodotta da un’IA, il valore attribuito cade
drasticamente, sia dal punto di vista economico che dalla
riconoscibilità del valore artistico. Questo significa che pure
la discussione che si sta facendo sull’etichettatura IA può dare
maggiore valore economico a ciò che è prodotto dall’uomo”. Una
delle sfide sarà però capire “qual è la percentuale di
partecipazione massima dell’IA per qualificare un’opera come
nata dall’ingegno umano”.
Tra gli interventi, pure esperienze personali. “Il mio lavoro
è cambiato solo in parte grazie all’IA”, ha spiegato Jacopo Èt,
autore di diverse hit italiane. “Ci sono nuovi strumenti che per
me non sono così diversi da quelli che già si usavano – ha
continuato -. A livello di tecnologia siamo inevitabilmente agli
albori, il suono di Suno ad esempio è ancora scadente, ‘sporco’.
Ma questi sistemi saranno usati tantissimo per stimolare la
creatività. Certo, c’è da dire che dal punto di vista più ampio
il problema è che l’IA è arrivata in un momento in cui il
mercato musicale è saturo e stanco. E per fare un brano buono,
anche con l’intelligenza artificiale, ci vuole tempo. Le canzoni
hanno bisogno di tempo da sempre”.
FP

