Articoli

Posso vendere i contenuti generati da ChatGPT? (e altre FAQ sul tema I.A. e copyright)

,

Tutto il mondo è impazzito per il tema intelligenza artificiale, ChatGPT in particolare. Lo è anche il mondo editoriale, per due motivi: primo perché chatbot che scrivono più velocemente e (a volte) meglio degli umani possono stravolgere quel settore e quel mercato. Secondo perché, da un annetto a questa parte, ogni settimana escono diversi titoli legati all’I.A. (a breve ne partorirò uno anche io, ma non posso anticipare nulla).

Tra i molti titoli che ho letto in questi mesi, mi sento di segnalare “L’autore artificiale” del collega di casa editrice (Ledizioni), l’avvocato Simone Aliprandi, esperto di lungo corso di editoria e questioni legali. Il libro, snello e concreto, rappresenta un bel punto di partenza per esplorare un tema caldissimo: I. A. e diritto d’autore. Si parte da questo presupposto: nel Novecento, la creatività era considerata il requisito fondamentale per la protezione individuale di un’opera. Ma che cosa succede quando la creatività è generata da una macchina, un algoritmo, un HAL 9000? In questo pezzo ho raccolto quattro domande e risposte per invitarvi ad approfondire, leggendo il testo.

1. L’intelligenza artificiale può essere creativa?

L’I.A. può elaborare dati e generare contenuti che sembrano creativi, ma la questione è se questa “creatività” sia riconoscibile legalmente. Attualmente, la legge è orientata verso un concetto di creatività strettamente antropocentrico. L’autorialità è considerata una prerogativa umana, e l’idea di un autore non umano mette in discussione il concetto tradizionale di creatività. Dal quadro realizzato dall’asino Lolo al “selfie della scimmia”, questi casi sollevano domande sul diritto d’autore. Tuttavia, la legge attuale richiede un “autore umano” per la protezione del copyright.

2. Le opere create con l’ausilio dell’I.A. sono protette da diritto d’autore?

Se un’opera è generata con l’ausilio dell’I.A., come nel caso di un grafico che utilizza Photoshop, l’atto creativo è considerato umano e l’opera è protetta. E le opere generate interamente da I.A.? In questo caso, la situazione è più complessa. Alcuni sostengono che dovrebbe essere introdotta una nuova categoria di “opere generate da computer” (CGW), come previsto dal diritto britannico dal 1988.

3. Posso vendere i contenuti generati da ChatGPT?

Secondo i termini di servizio di OpenAI, l’utente detiene i diritti sull’output generato. Tuttavia, è responsabilità dell’utente assicurarsi che il contenuto non violi alcuna legge o diritto d’autore.

Ecco che cosa appare sul sito di OpenAI, nelle FAQ:

4. Cosa succede se l’I.A. genera contenuti simili o identici a quelli di altri utenti oppure se viola il copyright?

OpenAI avverte che, a causa della natura dell’apprendimento automatico, i servizi potrebbero generare output simili o identici, sollevando nuove questioni legali. Se si viola il copyright, attualmente, la responsabilità ricade sull’utente che ha generato il contenuto.

Scrivimi per organizzare un evento o un corso sull’intelligenza artificiale generativa

Scrivimi mandami un WhatsApp al 339.6325418 per organizzare un corso o una conferenza sull’A.I. generativa.

Inviaci email

Posso vendere i testi generati da ChatGPT?

,

Se scrivo un testo con ChatGPT o creo un’immagine con Stable Diffusion, posso usarli o addirittura venderli? Parto dal presupposto che il diritto d’autore è un argomento complesso e in continua evoluzione, soprattutto nel contesto delle nuove tecnologie: basti pensare alla disputa tra Google e gli editori per quanto riguarda il servizio Google News. Con l’avvento dei modelli di linguaggio di apprendimento automatico, come GPT-3 di OpenAI o Alpaca dell’Università di Stanford, si pongono nuove questioni riguardanti la proprietà intellettuale. Possono una macchina o un algoritmo essere titolari di diritto d’autore? Chiarisco subito un fatto: secondo la Legge, sia anglosassone che europea, per avere diritto d’autore un’opera deve essere creata da un essere umano. Un po’ quello che successe nel caso del “Monkey selfie”: vale la pena raccontarlo.

Il caso dell’“autoscatto del macaco” finì sui giornali nel 2011 quando un macaco indonesiano scattò una serie di fotografie a se stesso con la macchina di un fotografo britannico. Le foto divennero virali, ma sollevarono anche questioni legali sulla proprietà dei diritti d’autore. Il fotografo, David Slater, rivendicò i diritti sulle foto, sostenendo che la macchina fotografica era sua e che l’aveva impostata correttamente lui. Tuttavia, alcune organizzazioni per la difesa dei diritti degli animali hanno sostenuto che il macaco, chiamato Naruto, doveva essere riconosciuto come il legittimo autore degli scatti. Era stato lui a fare clic! Dopo una lunga battaglia legale, nel 2018 è stato raggiunto un accordo tra le parti coinvolte, stabilendo che i diritti d’autore delle foto appartenevano a Slater, ma i proventi generati sarebbero stati destinati alla salvaguardia delle scimmie nel loro habitat naturale. Il caso del “monkey selfie” ha sollevato importanti questioni sulla definizione legale di autore e sul rapporto tra gli esseri umani e gli animali nel contesto dei diritti d’autore.

Gli output di un LLM non sono generati né da uomini né da scimmie: sono opera di una macchina, di un algoritmo, di un’intelligenza artificiale. La questione è dirimente: è l’utente che fornisce l’input al modello il detentore del diritto d’autore, o è l’organizzazione che ha creato e addestrato il modello? O forse, dato che l’output è generato da una macchina, non può essere protetto dal diritto d’autore? Sapendo che su queste questioni ChatGPT non è affidabile, vale la pena affidarsi al sito di OpenAI. Dove, nelle FAQ, si legge:

Chiaro: l’output è tuo, è di chi fa il prompt! Ecco perché Amazon è già pieno di libri “scritti” da ChatGPT. In verità, per essere precisi: “Oggi non esiste una norma che definisca direttamente e univocamente chi sia l’autore di un’opera generata da una intelligenza artificiale”.

Quindi tutto chiaro: tu fai l’input e tu sei il titolare del diritto d’autore, giusto? Sì, ma la questione è ancora più complessa. Serve riportare questa notizia: “Getty Images ha citato in giudizio l’intelligenza artificiale che usa le sue foto”. In pratica, Getty Images, l’agenzia fotografica di fama mondiale, ha citato in giudizio Stability AI, la società dietro lo strumento di intelligenza artificiale generativa Stable Diffusion, per presunta violazione del copyright. Getty sostiene che Stability AI ha copiato ed elaborato illegalmente milioni di immagini protette da diritto d’autore per “educare” la sua IA. In effetti alcune immagini di output addirittura riportavano il logo di Getty Images alterato.

Questo solleva nuove questioni legali tra le società di AI e i creatori di contenuti. Naomi Klein, autrice di “No logo”, sostiene che “davanti ai nostri occhi le aziende più ricche della storia (Microsoft, Apple, Google, Meta, Amazon) stanno mettendo le mani su tutta la conoscenza umana disponibile gratuitamente in digitale e la stanno utilizzando per scopi privati, rinchiudendola in prodotti di loro proprietà. Molti dei quali danneggeranno le persone che, senza dare il consenso, hanno addestrato le macchine con il lavoro di una vita”.

Quindi, il copyright non c’è sull’output, ma dovrebbe esserci sull’input, il cosiddetto “dataset”. Per esempio, la già citata Stability AI, per la sua AI “Stable DIffusion”, usa un dataset che si chiama LAION 5B, fornito sotto il principio del “fair use” accademico dalla società non profit LAION. Questo dataset si compone di cinque miliardi di immagini di qualsiasi tipo (foto, disegni, documenti di vario genere) raccolte con uno “scraping” dalla rete.

Notizia di questi giorni: Google ha aggiornato la sua policy sulla privacy, affermando esplicitamente di riservarsi il diritto di raccogliere praticamente tutto ciò che si pubblica online per addestrare i suoi strumenti di intelligenza artificiale. Questo significa che qualsiasi cosa si pubblichi online finisce nel dataset per il training di un chatbot.

Per questo qualcuno ipotizza che in futuro i LLM saranno addestrati su contenuti legittimamente “comprati” dagli autori o quantomeno occorrerà trovare un meccanismo di remunerazione di giornalisti, blogger, case editrici e titolari di diritto d’autore dei contenuti online (e non solo). Qualcosa si sta già muovendo. La European Guild For Artificial Intelligence Regulation, un’organizzazione che riunisce professionisti di vari settori creativi, propone l’introduzione del “training right” per regolare l’uso dei dati e delle opere creative da parte delle società di IA. Questa proposta implica che l’utilizzo dei dati deve avvenire all’interno di un sistema di licenza d’uso con modalità e termini di utilizzo che devono essere definiti in accordo fra le parti. L’obiettivo è di intervenire sulla proposta di regolamento della Commissione Europea chiamato AI ACT, che inizialmente ignorava le implicazioni di queste applicazioni nel mondo della creatività.

Scrivimi per organizzare un evento o un corso sull’intelligenza artificiale generativa

Scrivimi mandami un WhatsApp al 339.6325418 per organizzare un corso o una conferenza sull’A.I. generativa.

Inviaci email

Diritto d’autore: le dieci novità (semiserie) della riforma Ue

Questo è il mio primo articolo satirico realizzato per Agenda Digitale e pubblicato qui.

Ecco le dieci novità più eclatanti con cui dovremo fare i conti dopo l’approvazione della nuova direttiva Ue sul Copyright (spoiler: si fa per ridere, eh!)

l 13 febbraio Parlamento, Consiglio europeo e Commissione hanno raggiunto un accordo sulla cosiddetta “direttiva sul copyright”.

Ecco le 10 cose che cambieranno.

  • I giornalisti potranno decidere se chiedere un indennizzo a Google, Facebook e YouTube o continuare a percepire il reddito di cittadinanza.
  • Si possono condividere foto di gattini su Facebook, ma i gattini non possono condividere le nostre foto. Per placare le proteste degli animalisti, d’ora in poi sarà il contrario.
  • In Italia si pubblicano oltre 60.000 libri all’anno, ma la metà non vende nemmeno una copia. Dopo le proteste della Siae, d’ora in poi gli autori saranno obbligati a comprare almeno una copia del loro libro.
  • I giornalisti che pubblicano i comunicati stampa con il copia e incolla saranno obbligati a leggere i loro articoli.
  • Le istituzioni corrono ai ripari: non se la sentono più di definire “opera dell’ingegno” l’ultimo libro di Corona.
  • Par condicio: d’ora in poi sarà possibile consultare Google News solo dopo aver dato una sbirciata al Televideo (e compilazione della relativa autocertificazione).
  • Sarà prevista una tassa per i link. Sovrattassa per chi condivide senza leggere l’articolo.
  • Le fake news saranno ricompensate con diritti d’autore negativi.
  • La cagnolina di Chiara Ferragni, che ha 300k follower, percepirà un centesimo ogni volta che finirà nelle slide dei formatori sul social media marketing.
  • La Siae continuerà a esistere. Ma solo nei nostri peggiori incubi.