Se provassi a chiederVi, e provaste voi stessi ai vostri clienti, quali sono le questioni aperte più critiche del sistema giudiziario italiano, sono certa che la risposta unanime sarebbe la lunghezza dei tempi di giustizia e la certezza del diritto, ossia la prevedibilità della sua applicazione e dunque delle sentenze. E’ chiaro dunque che davanti ad un software come Promoteia, che ha premesso alla Corte Superiore di Giustizia di Buenos Aires di risolvere 1000 casi (ripetitivi) nell’arco di sette giorni (anziché di 83) con un tasso di successo (parametrato alle soluzioni poi effettivamente adottate dai magistrati) del 96% dei casi, più di qualche tentazione viene. Il software è in corso di sperimentazione presso il Consiglio di Stato di Parigi. Ma occorre specificare che è applicabile alle cause routinarie.
Il tema della efficienza della giustizia, dunque, conferisce una stringente attualità a quello della giustizia predittiva, ossia la capacità di calcolare la probabilità di un esito giudiziario sulla base di un algoritmo o a base statistica oppure, vedremo, a base logica. Fino a giungere – per ora solo in via sperimentale teoria – a produrre essa stessa provvedimenti giudiziari.
Il rischio sotteso è quello della “standardizzazione” delle decisioni, assunte dal giudice che si appoggia al sistema esperto che gli offre una soluzione basata solo sui precedenti, dove il diritto del singolo e la specificità propria di ogni caso rischiano di rimanere schiacciati.
E con la standardizzazione, il timore degli operatori è che sia sacrificata totalmente la possibilità di una interpretazione “creativa” della interpretazione del diritto che ha contribuito a creare diritti prima che il legislatore ne avesse contezza (per esempio il diritto alla identità personale oppure all’oblio, per dire).
E’ sostanzialmente intorno a queste contraddizioni in apparenza non componibili – velocità&quantità vs qualità della giurisdizione – che si arrovellano i giuristi italiani, alla ricerca di una “via italiana” che potrebbe svilupparsi intorno a queste coordinate:
1) Software di giustizia predittiva a supporto e mai sostitutivi dell’operatore, che deve mantenere “il controllo” della procedura;
2) Capacità di riservarsi, l’avvocato una libertà argomentativa, e il magistrato una misurata libertà interpretativa, magari anche tramite adeguate soluzioni digitali (vedremo);
3) Necessario impegno a partecipare alla progettazione dei data set e degli algoritimi “giudiziari”;
4) Tendenziale trasparenza dell’algoritmo
5) Formazione di giuristi digitali e capacità di lavorare in team interdisciplinari;
6) Redazione degli atti giudiziari che da una parte consenta la rappresentazione il più fedele possibile ai fatti; dall’altra acquisisca nuove tecniche di linguaggio traducibile in sistema binario;
7) Necessità di un framework di norme e di governance che disciplinino l’utilizzo della Intelligenza artificiale nella Pubblica amministrazione (latu sensu), anche per stabilirne i limiti ed individuare le responsabilità;
8) Iniziative di ricerca non lasciate esclusivamente in mente alle multinazionali degli algoritmi;
9) Ancoraggio – come operatori del diritto – al quadro di tutela dei diritti fondamentali così come disegnati in Costituzione, nella Carta dei diritti fondamentali e della Convenzione europea dei diritti dell’Uomo.
La versione integrale dell’articolo è pubblicata su Avvocatoquattropuntozero.it/Altalex