< Back to insights hub

Article

Verso un nuovo regime della responsabilità da intelligenza artificiale: presunzioni e diritto di accesso alle prove in favore dei soggetti danneggiati22 December 2022

Share this Page
Il 28 settembre 2022 la Commissione UE ha adottato una proposta di direttiva del Parlamento e del Consiglio Europeo relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale (direttiva sulla responsabilità da intelligenza artificiale) (la “Proposta”).

"Il legislatore europeo si sta muovendo in un’ottica di prevenzione e gestione dei rischi soprattutto con riferimento ai sistemi IA ad alto rischio, accompagnata ad un favor nei confronti delle eventuali vittime in caso di danni provocati da tali sistemi."

Partendo dal presupposto che il tema della responsabilità è centrale nello sviluppo e diffusione dei sistemi di IA, la Commissione nella sua Relazione alla Proposta rileva come le norme nazionali vigenti -in particolare in materia di responsabilità per colpa -non siano adatte a gestire le azioni di responsabilità per danni causati da prodotti e servizi basati sull’IA. “In base a tali norme, coloro che subiscono un danno sono tenuti a dimostrare un’azione o un’omissione illecita da parte della persona che ha causato il danno. Le caratteristiche specifiche dell’IA, tra cui la complessità, l’autonomia e l’opacità (il cosiddetto effetto “scatola nera”), possono rendere difficile o eccessivamente costoso, per quanti subiscono un danno, identificare la persona responsabile e dimostrare che sussistono i presupposti ai fini dell’esito positivo di un’azione di responsabilità. In particolare, quando chiedono un risarcimento, i danneggiati potrebbero dover sostenere costi iniziali molto elevati e affrontare procedimenti giudiziari notevolmente più lunghi rispetto a quanto accade nei casi che non riguardano l’IA, venendo pertanto del tutto dissuasi dal chiedere un risarcimento”.

Per gestire tale difficoltà e per completare il quadro giuridico delineato con il c.d. Artificial Intelligence Act, la Proposta introduce dei meccanismi di alleggerimento dei sistemi probatori in favore del danneggiato da un sistema di IA.

Il nucleo centrale del testo normativo è costituito dagli articoli 3 e 4 che prevedono rispettivamente:

(i) Il potere dell’organo giurisdizionale di ordinare la divulgazione di elementi di prova rilevanti in relazione a specifici sistemi di IA ad alto rischio che si sospetta abbiano cagionato danni. I destinatari di tali obblighi di divulgazione sono fornitori o utenti di sistemi di IA. Il giudice potrà richiedere tale divulgazione solo nella misura necessaria a sostenere una domanda di risarcimento; nel valutare la proporzionalità della richiesta, il giudice dovrà verificare i vari interessi legittimi coinvolti, inclusi i segreti commerciali. Gli Stati membri dovranno introdurre degli adeguati sistemi di impugnazione relativi alle decisioni relative alle richieste di divulgazione. In assenza di adempimento agli obblighi di divulgazione, l’organo giurisdizionale nazionale presume la non conformità a un pertinente obbligo di diligenza da parte del convenuto, che gli elementi di prova richiesti erano intesi a dimostrare ai fini della domanda di risarcimento del danno;

(ii) L’articolo 4 stabilisce il secondo elemento presuntivo riguardante il nesso di causalità tra la condotta colposa del convenuto e l’output prodotto dal sistema di IA, oppure tra la condotta colposa del convenuto e la mancata produzione da parte del sistema di IA dell’output che il sistema di IA avrebbe dovuto produrre.

< Back to insights hub

"Il legislatore europeo si sta muovendo in un’ottica di prevenzione e gestione dei rischi soprattutto con riferimento ai sistemi IA ad alto rischio, accompagnata ad un favor nei confronti delle eventuali vittime in caso di danni provocati da tali sistemi."

Tale presunzione opera in presenza di tre condizioni: (a) deve essere stata fornita la prova della colpa del convenuto (o deve aver operato la presunzione di cui al precedente punto (i), consistente nella non conformità a un obbligo di diligenza previsto dal diritto dell’Unione o nazionale e direttamente inteso a proteggere dal danno verificatosi; (b) si può ritenere ragionevolmente probabile, sulla base delle circostanze del caso, che il comportamento colposo abbia influito sull’output prodotto dal sistema di IA o sulla mancata produzione di un output da parte di tale sistema; (c) l’attore deve aver dimostrato che il danno è stato causato dall’output prodotto dal sistema di IA o dalla mancata produzione di un output da parte di tale sistema.

Detta presunzione non può operare qualora il convenuto dimostri che l’attore può ragionevolmente accedere a elementi di prova e competenze sufficienti per dimostrare l’esistenza del nesso di causalità. La norma prevede inoltre l’ipotesi di danni cagionati da sistemi di IA non ad alto rischio

(i quali non sono soggetti ai requisiti obbligatori dell’Artificial Intelligence Act), prevedendo che la presunzione di causalità debba applicarsi tutte le volte in cui il giudice ritenga eccessivamente complesso per il danneggiato fornire la relativa prova.

La Proposta non si inserisce nel solco della Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’IA, che auspicava anzitutto l’adozione di un Regolamento, ma soprattutto l’introduzione un regime di responsabilità oggettiva per gli operatori di sistemi ad alto rischio, che aveva ricevuto molte critiche da interpreti e operatori.

Il quadro delineato dalla Proposta – concentrandosi essenzialmente sulle difficoltà probatorie, con l’intento di predisporre un assetto unitario nella UE– lascia tuttavia  diverse criticità importanti da risolvere, tra cui: (i) la difficoltà di individuare nella filiera della produzione e utilizzo di un sistema IA il soggetto responsabile; (ii) il richiamo a nozioni di carattere nazionale, quale quello della colpa; (iii) il ruolo degli organi giudiziari nazionali, che potrebbero creare disomogeneità nel mercato unitario; (iv) le diversità che possono sussistere tra i vari ordinamenti in relazione alla nozione di danno risarcibile.

Il contesto normativo che andrà a regolare i sistemi di IA è allo stato ancora incerto, così come non chiare sono le conseguenze di eventuali danni connessi alla produzione, commercializzazione e utilizzo dei sistemi di IA. Il legislatore europeo si sta muovendo in un’ottica di prevenzione e gestione dei rischi soprattutto con riferimento ai sistemi IA ad alto rischio, accompagnata ad un favor nei confronti delle eventuali vittime in caso di danni provocati da tali sistemi.

In questo panorama, gli operatori del settore dovranno monitorare costantemente l’iter delle norme proposte, ma anche apportare alla propria attività le integrazioni o correttivi necessari, per poter essere in grado di adeguarsi al futuro quadro regolatorio e alle conseguenze che ne deriveranno.

< Back to insights hub