Le Case Editrici Fanno Causa a Meta per Violazione di Copyright

Un’importante controversia legale si sta sviluppando nel mondo dell’editoria, con Meta, la compagnia madre di Facebook, nel mirino di un’azione legale collettiva lanciata da cinque case editrici di spicco, insieme a un autore. Questo gruppo accusa Meta di aver perpetrato una delle più gravi violazioni di diritti d’autore nella storia, utilizzando materiali protetti per addestrare i suoi modelli di intelligenza artificiale, in particolare l’AI Llama.

Accuse di Furto di Proprietà Intellettuale

Nella denuncia presentata, i noti marchi dell’editoria come Macmillan, McGraw Hill, Elsevier, Hachette, Cengage e l’autore Scott Turow sostengono che Meta abbia copiato ripetutamente opere come libri e articoli accademici senza alcuna autorizzazione. Secondo le accuse, l’azienda avrebbe utilizzato contenuti provenienti da siti considerati “pirata” per nutrire il proprio AI. Tra questi, LibGen e Sci-Hub, noti per la disponibilità di testi protetti da copyright. Inoltre, si afferma che Meta avrebbe addestrato Llama utilizzando il dataset Common Crawl, ritenuto pieno di copie non autorizzate di opere protette.

Questo tipo di violazione ha portato alla generazione di risposte testuali da parte del modello Llama che riproducono, in modo quasi identico, profili di opere pubblicate. Per esempio, quando Llama è stimolato con frasi tratte dal libro “Calculus: Early Transcendentals” di James Stewart, inizia a generare testo letteralmente identico a quello presente nel testo originale. Questo suscita non pochi dubbi sulle modalità di allenamento delle AI e sulla legittimità dell’utilizzo di questi materiali.

Situazione Comparabile nel Settore AI

Questa querelle legale non è isolata. Un caso simile ha coinvolto Anthropic, un’altra azienda nel campo dell’AI, che è stata accusata di violazioni del copyright. In quel caso, un giudice federale ha stabilito che addestrare modelli di intelligenza artificiale su opere legalmente acquistate potrebbe rientrare nei confini del “fair use”. Tuttavia, ciò non ha impedito agli autori di procedere con un’azione legale, che si è conclusa con un accordo da 1,5 miliardi di dollari in favore degli scrittori.

Questi eventi gettano una luce sugli attuali dilemmi etici e legali che circondano l’uso dei contenuti nel training degli algoritmi. La questione è di particolare rilevanza anche per il contesto italiano, dove molte opere letterarie e accademiche potrebbero trovarsi nella stessa vulnerabilità. Le case editrici italiane e gli autori potrebbero affrontare situazioni analoghe, mettendo in discussione l’equilibrio tra innovazione tecnologica e protezione dei diritti d’autore.

La Richiesta di Risarcimento e Le Risposte di Meta

Il gruppo di editori e Turow chiedono non solo danni economici, ma anche misure cautelari per fermare le presunte attività illegali di Meta. In aggiunta, vogliono che l’azienda fornisca un elenco delle opere utilizzate per addestrare Llama, affinché possa essere accertata la portata della violazione.

Meta ha risposto a queste accuse affermando che l’intelligenza artificiale sta portando innovazione e creatività, e che la formazione di AI su materiali protetti può essere considerata “uso legittimo”. Il portavoce di Meta ha dichiarato che l’azienda intende combattere questa causa con determinazione.

Conclusioni

La battaglia legale tra Meta e le case editrici rappresenta un momento cruciale per il futuro del copyright e dell’uso delle tecnologie AI. Con l’evoluzione delle capacità di intelligenza artificiale, è fondamentale trovare un equilibrio tra innovazione e rispetto dei diritti degli autori. Gli sviluppi di questa causa potrebbero avere implicazioni significative non solo per il mercato statunitense, ma anche per l’industria culturale italiana, portando alla necessità di rivedere le normative sul copyright e sull’utilizzo delle opere protette. Il settore editoriale, sia a livello locale che globale, sta affrontando una sfida complexa che potrebbe ridefinire i contorni della proprietà intellettuale nel mondo digitale.