Diritto digitale

Diritto d’autore e intelligenza artificiale

foto di Daniele Sorgente
AUTORE: Daniele Sorgente
d.sorgente@studiolegally.com
icona di linkedin

Diritto d’autore e intelligenza artificiale: cosa cambia

La Legge 132/2025 ridefinisce diritto d’autore, IA generativa, text and data mining, deepfake e responsabilità aziendali. Analisi pratica per imprese e professionisti.

diritto d'autore e intelligenza artificiale

TL;DR: 

Con l’approvazione della Legge 23 settembre 2025, n. 132, il legislatore italiano compie un passo decisivo nella regolamentazione dell’intelligenza artificiale, introducendo la prima legge quadro nazionale organica in Europa capace di dialogare in modo strutturato con l’AI Act (Reg. UE 2024/1689).

Non si tratta di un semplice recepimento di principi europei. La Legge 132/2025 interviene in profondità su alcuni pilastri storici dell’ordinamento, primo fra tutti il diritto d’autore, riscrivendo e ridefinendo il rapporto tra creatività umana, algoritmi e mercato.

Il filo conduttore è chiaro: sviluppo tecnologico sì, ma a condizione che resti antropocentrico, trasparente e giuridicamente responsabile.

  • Le opere generate autonomamente dall’IA non sono protette dal diritto d’autore.
  • La tutela resta possibile solo se l’output è risultato di un lavoro intellettuale umano determinante.
  • Il text and data mining diventa lecito solo nel rispetto di licenze e meccanismi di opt-out machine-readable.
  • Nascono nuovi reati legati a deepfake e manipolazione algoritmica.
  • I modelli 231 devono essere aggiornati per includere rischi IA, dataset e algoritmi.

 

Indice dell’articolo

La centralità dell’ingegno umano

Il cuore della riforma è la modifica dell’articolo 1 della Legge sul Diritto d’Autore, che sancisce in modo esplicito un principio fino a oggi affidato alla giurisprudenza: il diritto d’autore nasce solo da un atto creativo umano.

Con l’inserimento del termine “umano” nella definizione di opera dell’ingegno, il legislatore introduce una vera e propria “riserva di umanità” nel processo creativo. L’intelligenza artificiale può essere utilizzata, ma solo come strumento di ausilio, non come soggetto creativo autonomo.

La norma, tuttavia, non è tecnofoba. Riconosce tutela anche alle opere realizzate con l’ausilio di sistemi di IA, purché il risultato sia riconducibile a un lavoro intellettuale dell’autore.

Cosa conta davvero

Non quanta IA è stata usata, ma quanto è riconoscibile l’impronta creativa umana.


 

Opere generate da IA: cosa è protetto e cosa no

La Legge 132/2025 chiarisce definitivamente uno dei punti più controversi del dibattito contemporaneo: non tutto ciò che “crea” un’IA è un’opera giuridicamente tutelabile.

  • Le opere generate in modo autonomo dall’algoritmo ricadono nel pubblico dominio.
  • Le opere assistite o rielaborate dall’uomo possono essere protette, se l’apporto creativo è sostanziale.
  • Il semplice prompt testuale, di regola, non è sufficiente a fondare un diritto d’autore.

Il focus si sposta quindi sulla governance del processo creativo, non sull’output finale isolato.


 

L’onere della prova nella creatività algoritmica

Uno degli effetti più concreti della riforma riguarda la prova della paternità dell’opera.

Chi utilizza sistemi di IA generativa deve essere in grado di documentare il proprio processo creativo, dimostrando come l’output sia stato guidato, selezionato e trasformato dall’intervento umano.

Questo comporta un cambio di paradigma per creativi, agenzie, studi professionali e aziende:

  • conservazione dei prompt
  • versioning delle bozze
  • tracciabilità delle scelte creative
  • documentazione delle rielaborazioni

La tutela non è più automatica: diventa difendibile solo se dimostrabile.


 

Text and Data Mining e nuovo art. 70-septies LDA

La Legge 132/2025 interviene in modo incisivo sull’addestramento dei modelli di IA, introducendo il nuovo articolo 70-septies LDA, dedicato al text and data mining.

Il principio cardine è semplice: si può estrarre e riprodurre solo ciò a cui si ha legittimamente accesso, e solo nel rispetto delle riserve espresse dai titolari dei diritti.

La norma distingue due scenari:

  • Ricerca scientifica non profit: Text and Data Mining (TDM) ampiamente consentito
  • Finalità commerciali: consentito solo se il titolare non ha esercitato l’opt-out

Questo impatta direttamente su:

  • sviluppatori di LLM
  • aziende che addestrano modelli proprietari
  • fornitori di dataset

 


 

Deepfake e nuovi reati

Con la Legge 132/2025 il legislatore interviene in modo diretto sul fenomeno dei deepfake, riconoscendo che la capacità dell’IA di generare contenuti realistici incide su beni giuridici fondamentali come identità, reputazione e libertà morale. L’introduzione dell’articolo 612-quater c.p. colma un vuoto normativo, tipizzando una fattispecie autonoma che punisce la diffusione non consensuale di contenuti multimediali alterati o generati artificialmente quando idonei a causare un danno ingiusto alla persona rappresentata.

La norma è costruita in modo selettivo: richiede il dolo specifico di nuocere o indurre in errore e prevede aggravanti nei casi a maggiore impatto sociale, come il coinvolgimento di minori, soggetti vulnerabili o figure pubbliche. Per imprese e professionisti, questo implica una responsabilità indiretta ma concreta nella gestione dei contenuti digitali, soprattutto in ambito comunicazione, marketing e relazioni con il pubblico.

Il reato colpisce chi diffonde deepfake idonei a:

  • nuocere alla reputazione
  • ingannare il pubblico
  • ledere identità e libertà morale

Le aggravanti sono rilevanti quando:

  • la vittima è un minore
  • la condotta incide su mercati o istituzioni
  • l’IA è usata come mezzo insidioso

Il legislatore riconosce così che l’IA non è neutra, ma può amplificare il danno.


Professioni e obbligo di trasparenza

Un passaggio centrale della riforma riguarda l’uso dell’IA nelle professioni regolamentate. La legge  ribadisce che l’intelligenza artificiale può essere solo uno strumento di supporto e che la responsabilità della prestazione resta integralmente in capo al professionista. L’automazione non attenua né trasferisce l’obbligo di diligenza.

L’elemento chiave è l’obbligo informativo verso il cliente: l’impiego di sistemi di IA deve essere comunicato in modo chiaro e documentato, specificandone finalità e limiti. 

Si introduce quindi un obbligo informativo chiaro:

  • il cliente deve sapere se e come viene utilizzata l’IA
  • l’informativa deve essere scritta e comprensibile
  • la responsabilità resta sempre umana

La mancata trasparenza può generare:

  • illecito disciplinare
  • responsabilità contrattuale
  • contestazioni per automation bias

Devi tutelare la tua opera?

Ti affianchiamo nella tutela legale della tua opera in modo da permetterti di usare l’IA senza preoccupazioni.

✅ Analisi e Tutela legale
✅ Procedure ed Oneri
Leggi gli altri articoli
[WEBINAR] Deepfake e IA: minacce e strumenti di tutela per il tuo business
Pianificare la tua Exit Strategy: cessione, fusione o IPO
Come richiedere il bonus giovani under35
NIS2: al via la seconda fase attuativa. Cosa devono fare le aziende
Come iscriversi all’Albo degli Influencer AGCOM

Ti serve qualche informazione in più sull'articolo? Scrivici a info@studiolegally.com