La società di intelligenza artificiale Anthropic ha raggiunto uno storico accordo, accettando di pagare 1,5 miliardi di dollari per risolvere una causa collettiva intentata da autori. Gli autori sostenevano che l'azienda avesse utilizzato libri piratati per addestrare i propri modelli di IA. L'accordo, annunciato il 5 settembre 2025, rappresenta un momento cruciale nel dibattito in corso tra le aziende di intelligenza artificiale e i creatori di contenuti riguardo all'acquisizione dei dati e al rispetto del copyright.
La causa, avviata dagli autori Andrea Bartz, Charles Graeber e Kirk Wallace Johnson, accusava Anthropic di aver scaricato circa 465.000 libri da fonti non autorizzate, tra cui Library Genesis (LibGen) e Pirate Library Mirror (PiLiMi), per addestrare il suo modello linguistico Claude. Come parte dell'accordo, Anthropic si è impegnata a distruggere tutte le copie piratate dei libri utilizzate nei suoi dati di addestramento e a cessare l'uso di materiali non autorizzati per futuri sviluppi di IA. L'accordo è soggetto all'approvazione del tribunale, con un'udienza preliminare prevista per l'8 settembre 2025 e l'approvazione finale attesa l'anno prossimo.
Questo accordo è particolarmente significativo in quanto rappresenta il più grande risarcimento per violazione del copyright nella storia degli Stati Uniti. Gli autori dovrebbero ricevere circa 3.000 dollari per ciascuna delle circa 500.000 opere coperte dall'accordo. L'entità del risarcimento sottolinea la crescente attenzione legale ed etica nei confronti delle pratiche di acquisizione dati delle aziende di IA, segnalando un potenziale spostamento verso una maggiore responsabilità e la necessità di garantire set di dati legittimi ed eticamente approvvigionati.
Il caso evidenzia una tensione critica tra la necessità di enormi quantità di dati per addestrare modelli di IA sofisticati e l'imperativo di rispettare i diritti di proprietà intellettuale. Sebbene un giudice federale avesse precedentemente stabilito che l'addestramento dell'IA su libri legalmente acquisiti potesse essere considerato "fair use" (uso corretto), la corte ha anche stabilito che l'acquisizione da parte di Anthropic di milioni di libri da siti pirata fosse illecita. Questa distinzione tra acquisizione legale e pirateria è centrale per l'accordo, sottolineando che il metodo di acquisizione dei dati è importante quanto il suo successivo utilizzo.
Questo accordo che crea un precedente è destinato a influenzare numerose altre cause legali in corso contro aziende di IA, comprese quelle che coinvolgono OpenAI, Microsoft e Meta Platforms. Serve come un forte messaggio per l'industria, rafforzando l'importanza della conformità al copyright e dell'acquisizione etica dei dati. L'accordo suggerisce che l'era dello "scraping" (raschiamento) incontrollato dei dati per l'addestramento dell'IA potrebbe volgere al termine, portando potenzialmente a un aumento delle controversie legali e a una maggiore supervisione normativa per le aziende di IA a livello globale, plasmando così la traiettoria futura e i costi dello sviluppo dell'IA.
La Human Artistry Campaign ha accolto con favore l'accordo, definendolo una "vittoria enorme non solo per gli autori coinvolti, ma per tutti gli scrittori, artisti e creatori che sanno che il loro lavoro ha valore e che i loro diritti devono essere rispettati quando si tratta di usi dell'IA". Questo sentimento riflette un più ampio riconoscimento del settore della necessità di consenso e compenso per le opere creative utilizzate nell'addestramento dell'IA.