Le macchine e le opere

C’è fermento nel mondo della cultura italiana per le intelligenze artificiali, e ci sono molte reazioni scomposte. Ma siamo appena agli inizi. Ne parliamo con l’avvocato Simone Aliprandi a partire da un caso che riguarda un libro.

Slow News. Il primo progetto italiano di slow journalism.

L’arrivo delle cosiddette intelligenze artificiali generative ha creato un bel po’ di scompiglio nel mondo dei lavoratori della cultura. Questi strumenti sono in grado di creare testo o immagini o video a partire da comandi (detti in gergo prompt), che possono essere a loro volta testuali o “multimodali” (per esempio, audio o immagini).
Per funzionare, le intelligenze artificiali generative devono essere “addestrate”. Con testi, con immagini, con video. Inoltre, sono state sviluppate da pochissime aziende nel mondo, che lavorano in regime di sostanziale oligopolio.
La velocità con cui sono state immesse pronte all’uso di persone con minime competenze digitali ha sparigliato e creato molta confusione. 

Il dibattito sulla liceità dell’addestramento con ogni tipo di materiale, poi, è appena entrato nel vivo, con posizioni spesso duramente contrapposte, anche nei tribunali (sappiamo delle cause di Franzen e Grisham contro OpenAI, per esempio).

Un libro e le reazioni

Anche in Italia c’è dibattito, ovviamente, nonostante il nostro paese – come gli altri paesi europei – non possa che stare a guardare, oggi, sul tema dello sviluppo tecnologico.

Il 9 ottobre 2023 Eris Edizioni ha annunciato un libro illustrato dal titolo Sunyata, di Francesco D’Isa. Le illustrazioni del libro sono realizzate con alcuni strumenti di generazione di immagini basati proprio su queste tecnologie. 

Le reazioni di critica – che si possono ancora vedere online, sui profili social di Eris e di D’Isa – sono state numerose, in alcuni casi scomposte e violente. Qualcuno ha anche parlato esplicitamente di “furto”. L’idea dietro questa accusa sarebbe, più o meno, questa: le macchine sono addestrate con testi e immagini di autori (viventi e non); questo sarebbe un furto perché non è stato chiesto il permesso per quell’utilizzo.

Le cose però non sono così semplici.

Per questo, ho pensato fare qualche domanda a Simone Aliprandi, avvocato, docente e divulgatore impegnato da 20 anni nell’ambito del diritto della proprietà intellettuale e delle tecnologie digitali. Aliprandi, tra l’altro, ha pubblicato di recente il libro L’autore artificiale (Ledizioni, 2023) dedicato proprio a questi temi oggetto di dibattito. 

«Sinceramente non capisco tutto questo clamore e scandalo, visto che non è certo il primo libro realizzato così».

«Forse perché si tratta di un libro a fumetti, quindi di un libro in cui le immagini rappresentano una parte centrale?

Inoltre, mi lasci dire che gli argomenti portati da alcuni commentatori erano veramente di basso profilo: già utilizzare concetti come “furto” o come “ladro” è indicativo di una scarsa conoscenza dei principi giuridici che invece governano questo settore.

 

Infatti, benché risulti molto efficace per innescare un senso di “scandalo” nei lettori, è assolutamente improprio utilizzare il concetto di “furto” quando parliamo di beni immateriali come le opere creative. 

«Benché risulti molto efficace per innescare un senso di “scandalo” nei lettori, è assolutamente improprio utilizzare il concetto di “furto” quando parliamo di beni immateriali come le opere creative».

«Se parliamo di addestramento di sistemi di intelligenza artificiale generativa, si tratta più che altro di diritti d’autore e diritti connessi violati (quelli degli autori dei contenuti utilizzati per l’addestramento) e di contratti non rispettati (cioè i termini d’uso dei siti o delle piattaforme da cui tali contenuti sono stati prelevati). Siamo quindi su un piano principalmente civile e non penale».

 

Stando al diritto vigente in Italia, cosa si può dire dell'uso di materiale coperto da copyright utilizzato per l'addestramento delle intelligenze artificiali generative?

«La legge italiana dice ben poco sullo specifico tema dell’addestramento dei sistemi AI; però, come d’altronde tutte le legislazioni dei paesi UE, anche quella italiana contiene delle norme sul cosiddetto “text and data mining” direttamente derivanti dalla direttiva copyright del 2019 (dir. 2019/790/UE). Queste norme introducono una nuova eccezione al diritto d’autore (quindi uno spazio di libero utilizzo in cui i diritti dei creatori di opere intellettuali passano in secondo piano rispetto ad altri interessi ritenuti dall’ordinamento più importanti) e consentono ad alcune tipologie di enti e nel rispetto di alcune condizioni di fare liberamente attività di estrazione di testo e di dati da opere ancora soggette a copyright. Questa possibilità però è riservata per lo più a enti pubblici (università, biblioteche) o a enti non-profit (fondazioni) impegnati nella ricerca scientifica; difficilmente può essere invocata da società commerciali».

 

I LLM, però superano i confini nazionali: usiamo macchine USA, magari ne useremo di giapponesi o cinesi. Varie istituzioni sono al lavoro per regolamentarli. Qual è la legge applicabile, in questo caso? E come ci si comporterà in futuro se emergeranno differenze incolmabili? (Per esempio: in Giappone l'addestramento rientra in quello che per i giapponesi è il fair use)

«Il problema di fondo è proprio questo: quasi tutti i sistemi di intelligenza artificiale generativa in uso oggi provengono da un contesto statunitense e dunque non applicano la normativa europea. Abbiamo visto lo stesso problema di “disallineamento” tra gli ordinamenti giuridici con l’avvento del GDPR in tema di dati personali. È un problema connaturato a un mondo ormai fortemente interconnesso e basato su tecnologie che per loro vocazione vanno oltre i confini nazionali (in sostanza tutte quelle che passano da internet).

 

L’UE sta appunto cercando di regolamentare il fenomeno AI con un apposito regolamento, il quale però sembra essersi un po’ “impantanato” e, nonostante la bozza pare sia ormai definitiva dallo scorso giugno, al momento non è ancora stato ufficialmente licenziato.

 

Non solo: gli USA sono un ordinamento di common law perciò al momento non sentono l’esigenza di un testo normativo equivalente all’AI Act europeo.

Da loro infatti la regolamentazione di certi fenomeni può passare dai precedenti giudiziari e dalle prassi giuridiche. In tal senso, si sono già viste alcune cause tra titolari dei diritti (case editrici, agenzie di fotografia, collettivi di autori) e aziende che forniscono sistemi AI.

La più interessante vede protagoniste Getty Images (attrice) e Stability AI (convenuta). 

Ci sono poi le decisioni e le linee guida emesse dal Copyright Office degli Stati Uniti che ha già preso posizione più volte sull’impossibilità di dichiarare una macchina come “autrice” di un’opera».

Info

Leggi il nostro approfondimento sul Robots.txt. In pratica, è una riga di codice che si mette dentro a un file specifico di un sito internet: contiene una richiesta alle aziende produttrici di determinati software (come quelli basati sulle I.A. di cui stiamo parlando), affinché i loro software non usino i contenuti di quel sito. Nell’immagine, la riga di codice del robots.txt del New York Times che blocca ChatGPT.

Licenza CC BY-SA 4.0

Continua a seguirci
Slow News ti arriva anche via email, da leggere quando e come vuoi...
Iscriviti gratis e scegli quali newsletter vuoi ricevere!
Altri articoli Società