< Back to insights hub

Article

La trasparenza degli algoritmi tra l’Artificial Intelligence Act e le Corti italiane12 July 2021

Share this Page
Il 21 aprile 2021 la Commissione UE ha pubblicato una proposta di Regolamento su un approccio europeo per l’intelligenza artificiale, il c.d. Artificial Intelligence Act.
Questo articolo analizza perché questo significa che la questione della trasparenza degli algoritmi è destinata a diventare sempre più importante.

"Si tratta di un impianto normativo che – nell’intenzione del legislatore europeo – dovrebbe essere applicabile sia ai produttori e fornitori europei, sia ad aziende che esportino i loro prodotti nella UE e dovrebbe essere basato su un approccio di prevenzione del rischio. "

  1. L’Artificial Intelligence Act e l’obbligo di trasparenza degli algoritmi

Il 21 aprile 2021 la Commissione UE ha pubblicato una proposta di Regolamento su un approccio europeo per l’intelligenza artificiale, il c.d. Artificial Intelligence Act, con cui si intende definire il quadro regolatorio per la progettazione e l’immissione in commercio dei sistemi di intelligenza artificiale (“IA”).

Si tratta di un impianto normativo che – nell’intenzione del legislatore europeo – dovrebbe essere applicabile sia ai produttori e fornitori europei, sia ad aziende che esportino i loro prodotti nella UE e dovrebbe essere basato su un approccio di prevenzione del rischio.

In particolare, si considera connesso ai sistemi IA un rischio che può essere inaccettabile (per cui il sistema viene vietato), alto, moderato, sino a minimo.

I sistemi IA a rischio alto (tra i quali quelli utilizzati nell’ambito di infrastrutture critiche, quali i trasporti, le componenti di sicurezza di determinati prodotti, i sistemi sui quali si basa l’accesso all’istruzione o formazione professionale, l’amministrazione della giustizia, la gestione della migrazione e del controllo delle frontiere) saranno soggetti a specifici obblighi di progettazione e realizzazione e ad una preventiva certificazione di conformità per l’immissione in commercio.

Tra gli obblighi che vincolano gli sviluppatori, produttori, fornitori di sistemi IA a rischio alto, vi è quello della trasparenza.

L’art.13 dell’Artificial Intelligence Act, dispone infatti che i sistemi ad alto rischio siano progettati, sviluppati e forniti in modo da assicurare la trasparenza del loro funzionamento, oltre a fornire istruzioni per un uso appropriato.

In particolare si richiede di fornire informazioni su: l’identità e i contatti del fornitore, le caratteristiche, la capacità e i limiti di performance del sistema, inclusi lo scopo, il livello di sicurezza, qualsiasi circostanza nota o prevedibile connessa all’uso del sistema che possa provocare dei rischi per la salute, sicurezza e diritti, il funzionamento rispetto alla categoria di persone nei cui confronti dovrà essere utilizzato, i dati di addestramento e in generale i data sets utilizzati, i possibili cambiamenti del sistema e del funzionamento durante il ciclo di vita dello stesso, le misure di manutenzione da adottare.

Prima dell’Artificial Intelligence Act, i principi di trasparenza e spiegabilità già erano emersi in diversi testi europei di soft law in materia di IA.

In particolare, nelle Ethics Guidelines for Trustworthy Artificial Intelligence (2019), redatte da un gruppo di esperti nominato dalla Commissione UE nell’ambito del Piano coordinato sull’intelligenza artificiale del 2018, veniva precisato che la trasparenza dovrebbe riguardare i dati, il sistema ed il modello di business. Connessa alla trasparenza, la spiegabilità atterrebbe alla capacità di spiegare sia i processi tecnici di un sistema di IA che le relative decisioni umane (ad esempio i settori di applicazione di un sistema di IA). Affinché un sistema di IA possa essere tecnicamente spiegabile– secondo questo documento – gli esseri umani devono poter capire e tenere traccia delle decisioni prese dal sistema stesso.

"L’art.13 dell’Artificial Intelligence Act, dispone infatti che i sistemi ad alto rischio siano progettati, sviluppati e forniti in modo da assicurare la trasparenza del loro funzionamento, oltre a fornire istruzioni per un uso appropriato. "

2. Le prime decisioni delle Corti

In questo quadro di riferimento, nel panorama italiano, anche le prime decisioni giurisprudenziali che si sono confrontate con gli algoritmi hanno posto l’attenzione al tema della trasparenza. Su questo punto si è soffermata recentemente la Corte di Cassazione, con una ordinanza del 25 maggio 2021 n. 14381, in cui ha stabilito che “in tema di trattamento di dati personali, il consenso è validamente prestato solo se espresso liberamente e specificamente in riferimento a un trattamento chiaramente individuato; ne segue che nel caso di una piattaforma web (con annesso archivio informatico) preordinata all’elaborazione di profili reputazionali di singole persone fisiche o giuridiche, incentrata su un sistema di calcolo con alla base un algoritmo finalizzato a stabilire i punteggi di affidabilità, il requisito di consapevolezza non può considerarsi soddisfatto ove lo schema esecutivo dell’algoritmo e gli elementi di cui si compone restino ignoti o non conoscibili da parte degli interessati”.

Sempre di recente con la decisione del Stato 4 febbraio 2020 n. 881 il Consiglio di Stato ha stabilito che “Al fine di consentire la piena conoscibilità del modulo utilizzato e dei criteri applicati con l’algoritmo, occorre garantire un’ampia trasparenza, che deve investire ogni aspetto della formazione e dell’impiego del mezzo informatico, così da garantire la conoscibilità dell’identità dei suoi autori, il procedimento usato per la sua elaborazione, il meccanismo di decisione e l’imputabilità delle responsabilità derivanti dall’adozione del provvedimento automatico”. In maniera analoga, con la decisione del 13 dicembre 2019 n.8472, il Consiglio di Stato aveva precisato che – in materia di immissione in ruolo di docenti e di assegnazione a determinate sedi effettuate tramite un procedimento automatizzato – è necessario garantire la trasparenza, assicurando che il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) debba essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico.

Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che i criteri, i presupposti e gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato.

3. Alcuni nodi irrisolti

Il tema della trasparenza appare quindi centrale nelle questioni attinenti ai sistemi di IA, ma alcuni aspetti risultano non chiari: (i) le indicazioni dei testi e delle Corti non sembrano sufficienti a delimitare con esattezza il contenuto dell’obbligo di disclosure; (ii) occorrerà verificare se sia poi fattibile una disclosure completa, tenendo conto della particolare complessità della tecnologia (si pensi ai c.d. algoritmi black box, ossia quei sistemi i cui meccanismi e la cui logica interna siano opachi o inaccessibili alla comprensione umana); (iii) un obbligo di trasparenza rischia evidentemente di confliggere con la tutela della proprietà intellettuale, in particolare del segreto industriale.

"L’approccio del legislatore e dell’interprete potrebbe apparire in parte naif di fronte ad una tecnologia che non solo si caratterizza per un livello particolarmente elevato di complessità, ma che fonda la sua particolare efficacia anche nella caratteristica dell’autoapprendimento: il c.d. machine learning, infatti, è alla base della maggior parte dei sistemi attuali di IA. "

Per quanto riguarda i primi due aspetti, l’approccio del legislatore e dell’interprete potrebbe apparire in parte naif di fronte ad una tecnologia che non solo si caratterizza per un livello particolarmente elevato di complessità, ma che fonda la sua particolare efficacia anche nella caratteristica dell’autoapprendimento: il c.d. machine learning, infatti, è alla base della maggior parte dei sistemi attuali di IA. Attraverso tale meccanismo, le istruzioni fornite non sono completamente predeterminate, ma viene consentito alla macchina di apprendere dall’esperienza (il c.d. autoapprendimento, appunto), tramite l’inserimento dei dati; questi sistemi, quindi, non si limitano a seguire le istruzioni del programmatore, ma possono andare verso soluzioni impreviste, in relazione ai dati che acquisiscono durante il loro funzionamento. Ancora più oscuri possono risultare i sistemi di deep learning (una categoria del machine learning), basati sulle reti neurali artificiali, il cui funzionamento risulta ad oggi per lo più inspiegabile in maniera teorica, ma la cui efficacia risulta provata a livello empirico.

In questa prospettiva è evidente che molte delle informazioni che attengono al funzionamento del sistema, ai possibili rischi e ad eventuali mutamenti potrebbero non essere in possesso del soggetto tenuto all’adempimento degli obblighi di disclosure, poiché saranno il frutto di interazioni tra il sistema e i dati inseriti.

Inoltre occorre tener presente che parlare di trasparenza potrebbe risultare fuorviante, in presenza di una tecnologia caratterizzata da una complessità tale che difficilmente il destinatario delle informazioni potrà essere in grado di comprendere effettivamente tutti gli aspetti dell’operatività del sistema con cui interagisce (una trasparenza completa significherebbe mettere a disposizione del destinatario una matrice di numeri) , con il rischio di una tutela meramente formale.

 L’altro punto sollevato da diversi interpreti – come sopra evidenziato – è quello relativo all’equilibrio tra le esigenze di tutela della proprietà intellettuale e gli obblighi informativi.

In questa prospettiva alcuni spunti potrebbero venire dalla Direttiva (UE) 2016/943 del Parlamento Europeo e del Consiglio dell’8 giugno 2016 sulla protezione del know-how riservato e delle informazioni commerciali riservate (segreti commerciali) contro l’acquisizione, l’utilizzo e la divulgazione illeciti. Nel testo troviamo al considerando 11 l’indicazione che la direttiva non dovrebbe pregiudicare l’applicazione delle norme dell’Unione o nazionali che prevedono la divulgazione di informazioni, inclusi i segreti commerciali, al pubblico o alle autorità pubbliche. Il considerando 15 prevede la necessità di individuare le circostanze nelle quali la protezione giuridica del segreto industriale è giustificata, evidenziando, quindi, come non possa trattarsi di una tutela priva di limiti.

Si tratterà, quindi, di selezionare quelle informazioni che possano avere una rilevanza per l’utilizzatore del sistema, tralasciando – ove possibile – quelle che attengano a profili strettamente industriali. È evidente, però, come si tratti di un bilanciamento di difficile e non certa attuazione, che dovrà essere valutato caso per caso.

"Parlare di trasparenza potrebbe risultare fuorviante, in presenza di una tecnologia caratterizzata da una complessità tale che difficilmente il destinatario delle informazioni potrà essere in grado di comprendere effettivamente tutti gli aspetti dell’operatività del sistema con cui interagisce (una trasparenza completa significherebbe mettere a disposizione del destinatario una matrice di numeri) , con il rischio di una tutela meramente formale."

  1. Riflessioni conclusive

La questione della trasparenza degli algoritmi è destinata a diventare sempre più rilevante, soprattutto ove si consideri che – in caso di completamento dell’iter di approvazione – l’Artificial Intelligence Act prevede in caso di mancato rispetto degli obblighi previsti, sanzioni particolarmente elevate.

La presenza di aspetti incerti rispetto agli obblighi in questione obbliga gli operatori del settore a porre in essere valutazioni caso per caso, con la conseguente creazione di un contesto in cui le aziende potrebbero avere difficoltà a prevedere i rischi connessi ai loro investimenti e prodotti.

In questa prospettiva, alcuni spunti possono venire dalle Ethics Guidelines for Trustworthy Artificial Intelligence le quali prevedono una serie di aspetti che gli sviluppatori dovrebbero valutare in un’ottica di self-assessment, tra cui l’accertamento che “la spiegazione dei motivi per cui un sistema ha adottato una certa decisione che ha prodotto determinati risultati possa essere resa comprensibile per gli utenti che la desiderano”, la verifica che un sistema sia stato progettato ab origine tenendo presente l’interpretabilità, verificando che siano state effettuate ricerche sul modello più semplice ed interpretabile possibile, che sia stata valutata la possibilità di analizzare i dati di addestramento e di test e di aggiornarli nel corso del tempo, che sia stata valutata la possibilità una volta sviluppato il modello di accedere al flusso di lavoro interno.

Quel che appare chiaro è che le aziende che sviluppano questi sistemi (o se ne avvalgano) debbano adottare (o verificare che sia stato adottato) un approccio di trasparenza by design. Un cambiamento di prospettiva in questo senso dovrebbe tener conto della necessità di fornire agli utenti di un sistema di IA almeno la ratio del sistema, le grandi linee del funzionamento, impatto e relative conseguenze.

Una volta adottata questa impostazione nel proprio modello di business, le aziende potranno poi – caso per caso – valutare i limiti della disclosure, laddove prevalgano esigenze di tutela della proprietà intellettuale, ovvero sussistano evidenti impossibilità tecniche.

L’auspicio, comunque, è che la definizione di un quadro normativo più certo e il consolidamento di una prassi giurisprudenziale permettano di definire un contesto di maggiore chiarezza per le aziende del settore. Ciò dovrebbe avvenire nell’ambito di un costante dialogo tra giuristi ed informatici, o comunque esperti di IA, così da tentare di dar vita a norme e orientamenti giurisprudenziali adeguati e coerenti con le tecnologie a cui si dovranno applicare.

Keep in touch