L’INTELLIGENZA ARTIFICIALE ED IL SISTEMA DI GIUSTIZIA PREDITTIVA: STATO DELL’ARTE E PRIME APPLICAZIONI GIURISPRUDENZIALI
Sommario
1) L’ipotesi normativa
2) Le prime applicazioni giurisprudenziali
3) Il sistema di giustizia predittiva
4) Conclusioni
Lo schema di disegno di legge adottato dal Consiglio dei Ministri n. 78 del 23.04.24 reca disposizioni e delega al governo in materia di intelligenza artificiale (di seguito IA). Il sistema di intelligenza artificiale viene definito all’art 2 come segue: “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
Tale disegno di legge è successivo al recente regolamento approvato dal Parlamento europeo il 13.03.2024, pubblicato sulla Gazzetta Ufficiale dell’UE, che stabilisce regole armonizzate sull’intelligenza artificiale.
Il tentativo è di iniziare a disciplinare l’utilizzo dell’intelligenza artificiale in diversi ambiti, tra cui quello sulla giustizia.
Stabilisce infatti l’articolo 14 del sopra citato disegno di legge (di seguito ddl) che: “i sistemi di intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale. Il Ministero della giustizia disciplina l’impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari ordinari. Per le altre giurisdizioni l’impiego è disciplinato in conformità ai rispettivi ordinamenti. È sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento”.
E’ prevista all’art. 15 del ddl anche una possibile modifica all’articolo 9, comma secondo, del codice di procedura civile che stabilisce la competenza del Tribunale Ordinario. Infatti: “dopo le parole “esecuzione forzata” sono inserite le seguenti: “, per le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale”.
I sistemi di intelligenza artificiale troverebbero così ingresso anche nel codice di procedura civile, con riferimento alla competenza esclusiva del Tribunale Ordinario, in ordine alle vertenze aventi ad oggetto il funzionamento di un sistema di intelligenza artificiale.
Con riferimento all’esercizio della professione forense è invece previsto all’art. 12 del ddl che: “l’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è consentito esclusivamente per esercitare attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera. Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo”.
L’obiettivo è quindi disciplinare l’utilizzo dei sistemi di intelligenza artificiale, in maniera chiara e trasparente per l’utente finale che ne subisce gli effetti.
2. Le prime applicazioni giurisprudenziali
L’aumento vertiginoso dell’utilizzo di sistemi di intelligenza artificiale nei più diversi ambiti e settori ha fatto emergere, solamente di recente, la necessità di fornire una disciplina generale, in assenza della quale la giurisprudenza ha cercato di sopperire con prime pronunce.
Le questioni sinora affrontate in tema di diritti d’autore hanno fatto emergere profili di criticità in merito all’eventualità che la creazione di un’opera avvenga con l’ausilio dell’intelligenza artificiale, su input umano, e per questo sia o meno oggetto di tutela dei diritti d’autore.
Ebbene la soluzione fornita dalla giurisprudenza è ancora prudente, perché per tutelare il diritto d’autore occorrerà accertare in concreto se ed in quale misura con l’ausilio dell’IA: “l’utilizzo dello strumento abbia assorbito l’elaborazione creativa dell’artista che se ne era avvalso” (C. Cass. Civ., sez. I, n. 1107/23).
Un accertamento che può dare origine a numerose incertezze, dovute al fatto che non esistono ancora criteri tecnici definiti e sistemi di intelligenza artificiale univocamente identificati.
Per quel che riguarda invece i sistemi reputazionali, che attraverso l’utilizzo di un vasto e complesso sistema di dati, attribuiscono, con un algoritmo matematico, un punteggio di rating a persone fisiche e giuridiche, è stato affermato: “nel caso di una piattaforma web (con annesso archivio informatico) preordinata all’elaborazione di profili reputazionali di singole persone fisiche e giuridiche, incentrata su un sistema di calcolo con alla base un algoritmo finalizzato a stabilire i punteggi di affidabilità, il requisito di consapevolezza non può considerarsi soddisfatto ove lo schema esecutivo dell’algoritmo e gli elementi di cui si compone restino ignoti o non conoscibili da parte degli interessati” (Cass. Civ., sez. I, n. 14381/21).
E ancora: “ad integrare i presupposti del “libero e specifico” consenso, affinché esso sia legittimo e valido, è richiesto che l’aspirante associato sia in grado di conoscere l’algoritmo, inteso come procedimento affidabile per ottenere un certo risultato o risolvere un certo problema, che venga descritto all’utente in modo non ambiguo ed in maniera dettagliata, come capace di condurre al risultato in un tempo finito. Che, poi, il procedimento, come spiegato con i termini della lingua comune, sia altresì idoneo ad essere tradotto in linguaggio matematico è tanto necessario e certo, quanto irrilevante: ed invero, non è richiesto né che tale linguaggio matematico sia osteso agli utenti, né, tanto meno, che essi lo comprendano” (Cass. Civ., sez. I, Ordinanza n. 28358/23).
E’ bene precisare che l’utilizzo di un algoritmo matematico, come nel caso di specie, non rappresenta propriamente un sistema di intelligenza artificiale, ma potrebbe tuttavia essere assunto nella più ampia categoria identificata dall’art. 2 del ddl, per i quali vige comunque il principio di trasparenza (lo stesso affermato dalla Corte di Cassazione) oltre che di proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità (art. 3 del ddl).
Anche sul processo decisionale dell’azione amministrativa si è affermato che: “il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) deve essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico. Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato. In altri termini, la “caratterizzazione multidisciplinare” dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile, sia per i cittadini che per il giudice.
In secondo luogo, la regola algoritmica deve essere non solo conoscibile in sé, ma anche soggetta alla piena cognizione, e al pieno sindacato, del giudice amministrativo. (Consiglio di Stato Sez. Sesta Sentenza n. 2260/19).
Vengono quindi sanciti ancora una volta i principi di trasparenza, conoscibilità e comprensibilità del procedimento “robotizzato”.
Dello stesso tenore la decisione assunta in termini di procedure di mobilità automatizzate dei lavoratori, poichè: “non può presumersi che dalla circostanza di aver “affidato” la combinazione dei dati della procedura di mobilità a un sistema di intelligenza artificiale derivi, per ciò solo, la legittimità della procedura, occorrendo dimostrare che tale sistema abbia effettivamente funzionato in base a parametri che siano in definitiva rispettosi dei principi generali dell’azione amministrativa” (Trib. Roma sez. Lavoro Sent. n. 1565/23; in senso conforme Trib. Trani sez. Lavoro Sent. n. 1326/22).
D’altro lato è stata sostenuta l’utilità dell’intelligenza artificiale in determinati ambiti, come è il caso della lotta ai contenuti illegali on-line (Trib. Roma, sez. civile, sent. n. 15184/22).
3. Il sistema di giustizia predittiva
Un sistema di giustizia predittiva si propone di perseguire l’obiettivo di rendere, per quanto possibile, prevedibili le decisioni degli organi giurisdizionali, rendere noti gli orientamenti degli uffici giudiziari, rendere noti i tempi medi di decisione delle controversie, migliorare l’accesso alla giustizia, rendere noti gli orientamenti degli uffici giudiziari, consentire un ausilio a difensori, giudici e cittadini, migliorare le probabilità di successo delle transazioni ed infine operare una possibile riduzione dei tempi di definizione e del numero delle vertenze.
Non si tratta quindi semplicemente di mettere a disposizione delle banche dati ma di sviluppare una metodologia di analisi del materiale giurisprudenziale a disposizione, coniugando l’intelligenza artificiale con l’analisi dei dati accumulati. Sono tuttora in corso esperimenti in collaborazione tra Università, Tribunali e Ordini professionali (tra gli altri a Pisa, Bari, Brescia, Venezia).
Non sono poche le critiche pervenute all’utilizzo dell’IA nel settore giustizia, derivanti per lo più da esperimenti concreti, in ordinamenti diversi dal nostro, di parziale sostituzione della decisione umana con l’ausilio dell’intelligenza artificiale. Tali soluzioni non hanno trovato ingresso nel nostro ordinamento, ma sono state applicate in determinati ambiti nei sistemi di giustizia di common-law (viene citato spesso come esempio di applicazione negativa dell’IA il “caso Loomis”. Nella fattispecie in esame la determinazione della pena dell’imputato era stata effettuata anche in seguito ai risultati elaborati da un programma denominato “COMPAS”. Sulla base di tali risultanze l’imputato era da identificarsi quale soggetto ad alto rischio di recidiva. La Corte Suprema del Wisconsin ha tuttavia ridimensionato l’utilizzo del sistema COMPAS, sostenendo che la condanna era stata desunta anche da una serie di altri elementi che prescindevano dal programma utilizzato).
Sul possibile ingresso dell’IA in area decisionale l’art. 14 del ddl del Consiglio dei Ministri n. 78 del 23.04.24 ha previsto che sia sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento. Significativa in proposito una pronuncia incidentale sul ruolo dell’IA: “il ruolo concreto della tutela giudiziaria trova la sua ragion d’essere nella applicazione pratica della norma astratta che va calata nella situazione concreta, tenendo conto e valorizzando la specificità delle singole situazioni (diversamente verrebbe meno il ruolo assegnato al giudice e la decisione diverrebbe automatico risultato dalla asettica applicazione di norme demandabile senza alcuna difficoltà ad una intelligenza artificiale)” (Trib. Roma, sez. Sesta civile, sent. n. 10000/23).
Così come in una più recente pronuncia si dava atto nel ricorso respinto, che il ricorrente aveva tra le altre, utilizzato il sistema “Chat GPT” per la verifica di vincoli urbanistici nell’area di costruzione, che tuttavia, assieme ad altri elementi probatori, non erano serviti all’accoglimento del ricorso (Cass. Pen. Sez. III., N. 14631/24).
Nel nostro ordinamento l’attuale prospettiva non è l’ingresso dell’IA nel processo decisionale bensì l’utilizzo dell’IA quale valido ausilio e supporto alla decisione, senza quindi alcuna possibilità di anticipare, con un certo grado probabilistico, il processo decisionale di applicazione della norma al caso concreto o di interferire in alcun modo con l’autonomia del giudice.
L’IA diventa quindi uno strumento e non un fine.
Date tali premesse, è possibile prevedere uno scenario futuro in cui lo sviluppo dell’IA sia tale da anticipare, sostituire od integrare, con alta percentuale di successo, la decisione umana?
Ipotizzando che l’IA sostituisca la decisione umana, con maggiori garanzie di prevedibilità e velocità, e che siano comunque rispettati tutti i criteri già delineati (trasparenza, conoscibilità, proporzionalità, sicurezza, protezione dei dati personali, riservatezza etc), si prospetterebbero comunque problemi legati al criterio di inserimento dei dati all’interno del sistema di IA. E’ noto che spesso si scontrano orientamenti giurisprudenziali contrastanti, in materie e casi omogenei, frutto di un’innumerevole serie di decisioni sparse a livello anche locale. Chi si occuperebbe di inserire quell’enorme database ad uso e consumo dell’IA, privilegiando una fonte piuttosto che un’altra e, in questo modo, influenzando indirettamente anche la sua decisione finale. Inoltre, nell’ipotesi in cui sia l’IA stessa a scegliere la decisione giuridicamente più fondata, elaborando le innumerevoli quantità di dati inseriti, si rischierebbe pur sempre una cristallizzazione del sistema decisionale. Si correrebbe il rischio di involuzione nella direzione del cambiamento, rendendo la decisione eccessivamente rigida, in quanto ancorata esclusivamente ai dati inseriti, senza alcuna possibilità di aderire alle aspettative ed all’evoluzione della società.
C’è tuttavia un dato su cui riflettere, perché in realtà sono già stati fatti numerosi tentativi di ridurre il numero delle decisioni, sottoponendo ad esempio i singoli casi a “filtri” di inammissibilità o manifesta fondatezza/infondatezza delle domande, così semplificando e velocizzando il processo decisionale. L’articolo 360 bis cpc, in materia di procedimento in Corte di Cassazione, prevede che il ricorso sia inammissibile quando: “il provvedimento impugnato ha deciso le questioni di diritto in modo conforme alla giurisprudenza della Corte e l’esame dei motivi non offre elementi per confermare o mutare l’orientamento della stessa o è manifestamente infondata la censura relativa alla violazione dei princìpi regolatori del giusto processo”. Così anche per l’art. 348 bis cpc in tema di appello, che prevede la discussione orale: “quando ravvisa che l’impugnazione è inammissibile o manifestamente infondata”.
Il tentativo di inserire dei “filtri” decisionali denota la necessità di smaltire, con maggiore velocità, il numero dei procedimenti (problema sistemico del nostro paese), creando degli standard basati su precedenti soluzioni per casi simili.
L’IA potrebbe fornire, con le dovute garanzie, quel filtro e ausilio tecnico per abbreviare i tempi della giustizia e consentire di ridurre il carico dei procedimenti iscritti a ruolo dagli utenti.
Il futuro della disciplina normativa dei sistemi di IA, ancora incerto, non tiene in considerazione il fatto che il cambiamento è già in atto. Le applicazioni pratiche sono infatti già attive (un esempio è la piattaforma privata francese “Predictice” con l’applicativo “Assistant”, un’intelligenza artificiale sviluppata per rispondere a tutte le domande legali, citandone le fonti, accessibile ai tecnici del diritto).
Verona lì, 28.06.24
Avv. Federico Donini
Pubblicato su diritto.it al seguente link:
https://www.diritto.it/intelligenza-artificiale-sistema-giustizia/