L’Intelligenza artificiale sta rivoluzionando ogni settore della nostra vita, permettendo l’automazione completa di attività complesse come guidare un’auto o diagnosticare malattie. Questa pervasività, tuttavia, solleva un interrogativo cruciale che risuona con sempre maggiore urgenza nel mondo del diritto: chi è responsabile quando un sistema di IA causa un pregiudizio? Il problema, noto come liability gap– il vuoto di tutela– emerge proprio dall’autonomia crescente di tali sistemi algoritmici, la cui capacità di auto-apprendere e di rispondere in maniera critica agli input rende estremamente arduo applicare i tradizionali principi di responsabilità civile, basati sulla colpa o su un chiaro nesso causale tra un’azione e un danno. Come si può provare un “difetto di calcolo” o una negligenza se il funzionamento interno dell’IA è paragonabile a una scatola nera impenetrabile? E se è vero che la maggior parte dei sistemi in esame sono programmati per rispondere ai prompt inseriti “ad ogni costo”, come profilare delle correzioni efficaci in ambiti potenzialmente così delicati? Questa difficoltà lascia spesso il danno dove cade, senza una chiara attribuzione di responsabilità.
Per colmare questa crescente incertezza, l’Unione Europea ha recentemente adottato un “pacchetto IA”, che include l’Artificial Intelligence Act (AI Act) e due proposte di direttiva complementari: la PLD (Product Liability Directive) riformata e l’AILD (AI Liability Directive). L’AI Act, in vigore da agosto 2024, mira a definire un quadro di governance per l’IA, classificando i sistemi in base a un’esplicita scala di rischio (inaccettabile, alto, limitato, minimo). Le direttive sulla responsabilità, strettamente interconnesse all’AI Act, intendono invece contribuire alla tutela delle eventuali vittime di pregiudizio provocato da tali sistemi, specialmente per quelli ad alto rischio, capaci di causare un impatto nocivo significativo sulla salute, la sicurezza e i diritti fondamentali.
Una delle principali innovazioni introdotte dal pacchetto normativo in esame è rappresentata dall’obbligo di esibizione delle prove e dall’introduzione di presunzioni di responsabilità aventi, sembrerebbe, un carattere quasi “punitivo”. In pratica, laddove un fornitore non dovesse dimostrarsi in grado di produrre la documentazione tecnica richiesta sulla conformità del sistema agli obblighi previsti dall’AI Act, ai giudici sarà riconosciuta la facoltà di presumerne la sua colpa (secondo la AILD) o il difetto del prodotto (secondo la PLD). L’obiettivo, evidentemente, è quello di riequilibrare l’asimmetria informativa tra le grandi aziende tecnologiche e i cittadini danneggiati. L’intervento, tuttavia, non è scevro di criticità: a titolo di esempio, la PLD non sembra intervenire sulla controversa “difesa del rischio di sviluppo”, che potrebbe esonerare i produttori da responsabilità per difetti non prevedibili al momento dell’immissione sul mercato, trasferendo di fatto il rischio sui consumatori.
Questo intricato bilanciamento tra la protezione delle vittime e l’incentivo all’innovazione tecnologica rimane, ancora oggi, la sfida centrale di un quadro normativo in continua evoluzione.
Elenco delle fonti utilizzate:
- Arnaudo Luca, Pardolesi Roberto, Ecce robot. Sulla responsabilità dei sistemi adulti di intelligenza artificiale. Danno e Responsabilità, 2023, p. 409.
- Astone Antonia. Autodeterminazione nei Dati e Sistemi A.I., in Comitato e Impresa, 2022, p. 434.
- Sabatino Benedetta Maria, Volontà e autonomia dell’intelligenza artificiale. Il nodo dell’imputazione della decisione algoritmica, 30 mag. 2022, Università degli studi di Salerno, https://api.core.ac.uk/oai/oai:elea.unisa.it:10556/7417.
- Scarpellino Camilla., Il ruolo della responsabilità civile nella Governance dell’Intelligenza Artificiale, 14 mar. 2025, Iris LUISS, https://dx.doi.org/10.13119/11385_249038.