AI benefici e sfide per il diritto tradizionale

IA generativa: nuove funzionalità, vecchi dilemmi (legali)

L’Intelligenza Artificiale generativa, con i suoi grandi modelli linguistici (LLM, Large Language Model) come ChatGPT e DALL-E, ha spalancato nuove frontiere, dimostrandosi capace di creare contenuti originali con una creatività sorprendente. Se da un lato questa tecnologia promette benefici inimmaginabili, dall’altro pone interrogativi urgenti che il mondo del diritto fatica a risolvere tempestivamente.

Il primo nodo cruciale riguarda la privacy. L’addestramento degli LLM avviene su masse immense di dati, spesso raccolti tramite web scraping. Questo solleva questioni complesse sulla base giuridica del trattamento di tali dati, sul rischio di “contrattacchi” (che potrebbero rivelare dati personali usati nell’addestramento) e sulla gestione di informazioni sensibili che gli utenti stessi inseriscono nei prompt utilizzati.

Il ben noto GDPR, pur essendosi rivelato un lungimirante tentativo di regolazione dell’IA, incontra dei limiti genetici nel conciliare principi fondamentali come la predeterminazione delle finalità con la natura “onnivora” dell’IA generativa, che per funzionare al meglio richiede un vastissimo set di dati e si evolve autonomamente.

Altrettanto spinoso è il tema del diritto d’autore. L’IA generativa apprende copiando contenuti esistenti dalla rete, e la creazione di nuove opere basate su materiale protetto solleva inevitabilmente dubbi sulla violazione della proprietà intellettuale. L’AI Act tenta di normare questo aspetto, imponendo ai fornitori di modelli generativi il rispetto del diritto d’autore dell’UE e l’obbligo di pubblicare una sintesi dei contenuti utilizzati per l’addestramento- anche se si ritiene doveroso precisare che questo onere non si applica ai modelli open source, ad eccezioni di quelli connaturati da rischi sistemici.

L’IA generativa non era inizialmente inclusa nella prima versione dell’AI Act ed è stata aggiunta solo in un secondo momento, proprio per la sua versatilità e la capacità di essere impiegata in molteplici contesti, anche ad alto rischio. Questo dimostra il tasso di obsolescenza delle normative nel settore tecnologico, che faticano a stare al passo con un’innovazione così rapida e imprevedibile. L’approccio europeo, basato sulla co-regolazione e sui principi di accountability, delega gran parte degli oneri di sicurezza e trasparenza agli operatori stessi. Questo tenta di promuovere un ecosistema AIfriendly, ma la sua efficacia nel bilanciare innovazione e tutela dei diritti fondamentali, come la privacy e la proprietà intellettuale, rimane una sfida aperta, cruciale per la competitività europea nel mercato globale dell’IA.

Elenco delle fonti utilizzate:

  • Astone Antonia, Autodeterminazione nei Dati e Sistemi A.I., in Comitato e Impresa, 2022, p. 434.
  • Buiten Miriam, Product Liability for Defective AI, SSRN Scholarly Paper, Rochester, NY, 2023, p. 255. https://papers.ssrn.com/abstract=4515202
  • Scarpellino Camilla, Il ruolo della responsabilità civile nella Governance dell’Intelligenza Artificiale, 14 mar. 2025, Iris LUISS,  https://dx.doi.org/10.13119/11385_249038.