Digitalizzare è ben più ampio processo e il mondo legale è decisamente più vario ed esteso di quello di chi indossa la toga. Quando si discute di giustizia digitale serve uno sguardo aperto e scevro da pregiudizi, tempo per approfondire e voglia di osservare le reali dinamiche che la giustizia abbraccia. Molte sono normative, molte di più sono tremendamente umane, perché al centro ci sono, o dovrebbero esserci, i diritti delle persone e al centro dovrebbero restare. Anzi, una reale ed efficace giustizia digitale, dovrebbe rafforzarli e garantirli. Dovrebbe, potrebbe: siamo ancora in tempo. In Italia siamo così indietro che forse, davvero, siamo ancora in tempo.
Prima di stabilire con esattezza a che punto sia la giustizia digitale nel nostro Paese si trova, è necessario considerare i tanti pianeti che questo universo comprende. Alcuni nemmeno si sfiorano: ci sono le pratiche e le normative ma anche gli edifici che ospitano chi le crea o le fa rispettare, o chi le viola e perde libertà. Ci sono le soft law, chi veglia sui diritti umani e chi prova a violarli con eleganza o furbizia. “È un discorso complesso che richiede delle precisazioni” spiega Erik Longo, facendo subito quella tra digitizzazione e digitalizzazione.
La prima consiste nel tradurre un oggetto in bit e byte, per esempio un documento stipato da anni in un archivio digitale. Abbiamo iniziato a farlo negli anni Novanta, mettendo il primo tassello di una giustizia digitale ancora tutta da comporre. La transizione è in corso e, qualsiasi siano i tempi richiesti, bisogna spezzare tale processo per lo meno in tre atti. Così la pensa Longo che se ne occupa da anni e vi ha scritto anche un libro: “Giustizia Digitale e Costituzione”. Un titolo che ci sbatte in faccia in modo sottile l’interrogativo più ingombrante della digitalizzazione della giustizia. Come impatterà sulla Costituzione?
Dipende da noi e da come gestiremo le fasi di una trasformazione lentamente in atto. Ad oggi si può parlare di “processo fuori dal processo” e di “futuro del processo”, i due capitoli ancora da scrivere dopo quello della dematerializzazione, in continuum.
Nel primo caso, Longo usa questo termine per indicare tutti gli strumenti e le sedi istituzionali in cui si amministra giustizia in modo non rituale. Un esempio sono le “Online Dispute Resolutions” (ODR) che fanno leva su una piattaforma tecnologica per bypassare la magistratura nella gestione di alcune controversie nate dai contratti di acquisto online di beni e servizi. Non è un’invenzione italiana ma disciplinata dal regolamento (UE) n. 524/2013 del Parlamento e del Consiglio del 21 maggio 2013 che regala coordinamento e omogeneità di regole ai Paesi impegnati nella digitalizzazione di alcune procedure di giustizia. Uno strumento alternativo ai soliti iter messo a disposizione di consumatori e imprese anche italiane, sempre che siano in grado di accedervi agilmente, dato l’indice di digitalizzazione medio della nostra nazione.
Già si inciampa nel presente, prima ancora di volgere lo sguardo a quello che Longo definisce “futuro del processo”, la tecnologia regolamentata a supporto di chi lavora nei processi di giustizia. Una tecnologia “che non è e mai sarà neutra, servirà quindi sempre la presenza di una persona che decida, perché comunque venga introdotta, deve restare al servizio dell’elemento umano” spiega. “E noi dobbiamo essere consapevoli di cosa comporti l’usarla” aggiunge, riferendosi sia agli errori sia agli inganni che la tecnologia porta con sé.
“Gli errori della macchina non sono come quelli umani, vanno compresi e considerati diversamente e vanno saputi riconoscere – precisa l’esperto – la stessa cosa vale per i possibili inganni che la macchina può presentare. È importante che chi ci ha a che fare resti sempre in grado di conoscere e capire quale ragionamento viene fatto. Le black box non sono ammissibili nella giustizia: se una macchina diventa in grado di ingannarci può fare danni profondi alla società e alle singole persone”.
Anche senza che le “box” siano “black”, è fondamentale restare con le antenne alzate, perché la digitalizzazione della giustizia non spazzi via i diritti custoditi dalla Costituzione. “È una trasformazione che coinvolge ogni piano e non esistono tecnologie neutre, va quindi sempre conservata una dimensione di potere, la giustizia deve continuare ad avere al centro i cittadini” spiega Longo.
L’Italia è un Paese tendenzialmente restio ad accogliere innovazioni disruptive, in generale e anche in questo campo specifico. Secondo Longo questo aspetto – stavolta- non è poi così negativo: “un po’ per cultura, un po’ per timore di perdere potere, la lentezza che mostriamo nell’adozione di nuove tecnologie nella giustizia ci può aiutare a capire meglio rischi e opportunità”. Detto ciò, qualche passo lo abbiamo fatto anche noi. Se in Europa e negli Stati Uniti esistono varie applicazioni di polizia predittiva da anni, su cui amiamo disquisire, pochi sanno che anche noi ne abbiamo: si chiama KeyCrime, e meno ancora ricordano la sperimentazione di Giove.
Nel 2023 la Polizia di Stato ha deciso di affidarsi all’Intelligenza Artificiale, chiedendo a questo nuovo sistema operativo di prevedere i crimini prima che accadano. L’obiettivo dichiarato da chi lo ha fortemente voluto, il Dipartimento di pubblica sicurezza del ministero dell’Interno, è quello di “prevenire e reprimere i reati a maggior impatto sociale”. Descritto come “ausilio alle attività di polizia“, Giove dovrebbe aumentare l’efficacia delle azioni contro crimini come furti in abitazione, rapine in esercizi commerciali e banche, truffe ai danni di persone vulnerabili e anche violenze sessuali o molestie, ma allo stesso tempo anche supportare la Polizia nelle fasi relative alle indagini preliminari. Sognando un futuro di lotta al terrorismo, per ora questo sistema si allena a studiare il modus operandi di specifiche bande, per poi fornire dritte alla Polizia rispetto a possibili futuri bersagli, con un margine di prevedibilità tecnicamente valido.
Chi non collega Giove al film Minority Report, si chiederà comunque chi ha disegnato e controlla l’algoritmo di intelligenza artificiale su cui si basa per fare tutto ciò. C’è chi vuole rassicurare gli animi sostenendo che il sistema fa “crime linking”, cioè “collegamento di crimini“, e non “hotspot analysis”, segnalando aree con alta incidenza di reati, criminalizzandole. Una spiegazione che non convince molti, perplessi anche su temi di privacy e uso dei dati personali. Tra questi anche Diletta Huyskes, ricercatrice esperta di etica delle tecnologie e impatto sociale delle intelligenze artificiali, in particolare nei processi decisionali, e su come prevenire eventuali rischi, tra cui le discriminazioni. Il suo sintetico e incisivo commento è: “Con l’AI Act, in Europa, inizieranno ad esserci maggiori tutele, ma le eccezioni per le forze di polizia le rendono quasi nulle in alcuni scenari”.
Grazie ai ritmi di innovazione italiani, l’AI Act potrebbe anche riuscire a sistemare tutto prima che l’intelligenza artificiale incida in modo importante sul nostro sistema di giustizia. Sentendo Longo è probabile che così avvenga: “se ne parla molto ma è un tema che non tocca realmente i cittadini e il loro rapporto con la giustizia. Ne parlano i legislatori, ma ci sono parecchie resistenze nell’adottarla, per cui per ora la si usa ancora in modo amatoriale” spiega.
La speranza è quella di saper usare questo tempo non solo per disquisirne sui media e al bar ma anche per “studiare e approfondire come funziona, i suoi limiti e l’impatto possibile sul giusto processo” aggiunge Longo. Non va trascurata quindi, perché anche se non usata strettamente nella giustizia, è comunque una tecnologia pervasivamente presente nella nostra vita. Longo ricorda per esempio “il giudice colombiano che l’ha usata per una sentenza ChatGPT con molta naturalezza, ammettendolo candidamente: è diventato uno strumento d’uso quotidiano per molti, va quindi ricordato che la legge stessa in Italia prevede che la decisione debba essere presa da una persona umana”. Purtroppo questo non assicura che si usino alcuni strumenti AI come supporto, come lo si fa in tanti altri ambiti anche delicati e sensibili.
Il timore di una giustizia predittiva AI based compare in alcune frange della società civile più consapevoli e informate. Magari una paranoia accademica, ma pochi sono felici all’idea di poter essere giudicati da una macchina, una prospettiva più vicina per i cittadini di Stati Uniti, Canada, Olanda e Spagna, oltre a quelli cinesi che fanno da cavie nel subire il lato oscuro dell’innovazione digitale, mostrando come può degenerare il rapporto tra cittadini e giustizia con un poco virtuoso uso della tecnologia. Un esempio reale che, secondo Longo, “evidenzia un problema universale: il trade off tra efficienza tecnologia e libertà del cittadino. Non sono né conseguenti né connesse”.
Tornando in Europa, nella nostra Unione Europea, un caso che può fungere da cannocchiale puntato su uno dei tanti futuri possibili è quello dell’Olanda.
In questo Paese, la Polizia sta utilizzando big data e AI sia nelle operazioni in prima linea, sia nelle indagini penali, sia nei contesti di intelligence. Le cause che hanno spinto questa innovazione sono da ricercare nell’aumento dei dati digitali disponibili e delle tecnologie a disposizione per la loro raccolta, elaborazione e analisi, ma anche il clima politico e sociale ha contribuito a convincere alcuni che l’AI fosse la soluzione a problemi di sicurezza inaspettati. Grazie a uno studio accademico dedicato proprio all’adozione di tecnologie legate ai big data da parte delle forze di polizia dei Paesi Bassi, realizzato da Marc Schuilenburg e Melvin Soudijn e pubblicato su “Policing: a Journal of Policy and Practice”, ci si trova di fronte a quello che potrebbe un giorno accadere anche in altri Paesi del mondo. O forse è già accaduto.
Per quanto riguarda l’uso in prima linea, si ha un sistema che disegna una griglia di 125 × 125 m su una mappa della città e per sezione determina rischio di criminalità e comportamenti sospetti. Usa i dati della polizia, combinandoli con informazioni sul numero di prestazioni sociali pagate per area, la composizione delle famiglie per ottenere un unico ambiente con vari tipi di dati relativi, ad esempio, a rapporti ufficiali, multe, sentenze e condanne.
Nelle indagini penali, invece, big data e AI trovano uso in primis nella lotta contro i crimini finanziari-economici, per verificare i dati personali dei sospetti o mappare flussi di denaro criminali tramite combinazione e l’analisi delle informazioni ottenute da fonti aperte, fonti Internet, intercettazioni e dispositivi sequestrati, come gli smartphone. La tecnologia diventa un modo per scovare connessioni inaspettate, sperando portino a quella svolta alle indagini che tutti si aspettano. Se si parla invece di intelligence, l’obiettivo diventa stimare quante probabilità di successo ha un certo caso, per valutare il modo migliore per affrontarlo.
Esistono pareri contrastanti sul tipo di utilizzo emerso, anche in Italia che per ora sembra voler stare a guardare. Tutti concordano però su un elemento: l’implementazione di applicazioni di big data condurrà a cambiamenti significativi nelle competenze e nelle posizioni all’interno dell’organizzazione di polizia. E man mano che le applicazioni diventeranno più complesse, nel personale dovranno essere sempre più robusti i principi etici come il rispetto per l’autonomia umana, la prevenzione dei danni, l’equità e la spiegabilità.
“Per ora la polizia predittiva sembra avere un livello di accettabilità sociale basso, non si hanno molti dati sulla sua affidabilità e il suo funzionamento. La paura è che targettizzi le persone, usando tecniche di machine learning basate su logiche aggregative e sistemi di classificazione che imparano dai dati storici – spiega Huyskes – ripete storicità avvenute che contengono discriminazioni strutturali e oppressioni di interi gruppi sociali, erodendo i principi democratici e quello di innocenza fino a prova contraria. Non sono dati sbagliati, sono dati reali ma descrivono un momento storico che appartiene al passato. L’errore è di chi pensa di potersi affidare a questi dati non in modo critico, lasciando che si crei un loop e restino colpiti sempre gli stessi gruppi sociali”.
Serve riflettere e non agire in automatico, non ragionare in chiave di accuratezza e sicurezza delle performance matematiche ma andare oltre, e di fianco, aprendo lo sguardo anche all’etica e al periodo storico diverso da quello in cui oggi viviamo. “I modelli e le tecnologie forniscono risultati magari anche accurati, ma non adeguati al contesto umano e sociale attuale – aggiunge Huyskes – il problema è nostro: non stiamo dando valore a questi parametri”.
Come esempio di cose fatte, poi porta il progetto di prevenzione della criminalità lanciato dalla città di Amsterdam nel 2015, che ha portato all’identificazione di 400 bambini e ragazzi che, secondo l’algoritmo ProKid+, pur non essendo mai stati condannati per un reato, lo sarebbero stati presto. Anche in quel caso, infatti, la previsione derivava da una serie di fattori di rischio analizzati dal sistema, che portavano a considerare una lunga serie di dati come determinanti del destino di quelle persone. Ma in che contesto?
Di fronte a tali esempi e considerazioni, è sempre più chiaro che la giustizia digitale non è un orizzonte banale e che certe tecnologie non possono essere adottate in automatico. Per lo meno non con la stessa agilità e superficialità con cui le stiamo introducendo in molti altri settori e nella vita privata. Serve un po’ di educazione all’adozione del digitale, a partire da coloro che sono chiamati a portarlo e usarlo nel mondo della giustizia in prima persona. Servono progetti come quello lanciato dall’Università di Firenze, assieme a quelle di Oxford e di Helsinki: un nuovo e innovativo istituto di formazione per dirigenti, l’Oxford Information and Media Leadership Programme for Judges and Policymakers (InfoLead).
Sostenuto dal Fondo europeo per i media e l’informazione (EMIF) e dalla Fondazione Gulbenkian, questo programma di giustizia digitale mira alla formazione dei responsabili politici e vuole offrire loro la possibilità di approfondire temi delicati ma inevitabili da affrontare in un percorso verso la giustizia digitale. La moderazione dei contenuti online (compreso il ruolo delle aziende, dei governi e dei gruppi della società civile), le minacce all’informazione come le campagne di disinformazione e di misfatto condotte dall’esterno durante le elezioni, e la rapida evoluzione del ruolo e della regolamentazione dell’AI generativa.
Longo è uno degli esperti coinvolti e racconta del kit di strumenti, tra cui un simulatore online e un libro di case studies, che i partecipanti riceveranno. La speranza su cui si sta investendo fondi e tempo è quella di riuscire a rafforzare la nostra capacità di rispondere ad alcune delle maggiori sfide dell’era dell’informazione, migliorando le competenze in materia di media digitali e di informazione degli operatori del diritto, compresi i membri della magistratura, e dei responsabili politici.
Mentre chi deve evolvere, prova a farlo al meglio, chi attende, resta in attesa, senza per ora avvertire alcun tipo di beneficio legato alla giustizia digitale a quanto pare ancora tutta da compiere. Per lo meno negli aspetti che potrebbero apportare maggiore efficienza lato utente. Ne é convinto il giuslavorista Gionata Cavallini: “la lenta introduzione delle tecnologie nel settore della giustizia non sta per ora avvenendo a beneficio degli utenti – afferma – nel caso dei lavoratori che devono avere a che fare con la giustizia per far valere i propri diritti, non ci sono per ora evidenti vantaggi legati a una eventuale digitalizzazione delle procedure che li riguardano. Non vedo alcun impatto in tal senso. Per ora la trasformazione, se sta avvenendo, riguarda solo la gestione di processi interni, ma non ha velocizzato o reso più snelli quelli che coinvolgono gli utenti”.
Le tempistiche sono quelle di sempre, quindi, e sono proprio il parametro più importante per chi si rivolge a un giuslavorista come Cavallini: “resta sempre la vecchia storia, la giustizia non è più accessibile, non è più semplice e non ha innovato. In alcuni casi si possono fare udienze da remoto ma il processo resta lo stesso di 80 anni fa. La digitalizzazione, quando c’è, impatta sulle specifiche tecniche dei singoli atti e su alcune semplificazioni, ma non cambia la sostanza e non va a vantaggio dei diritti delle persone”.
Nei panni di chi assiste i lavoratori, Cavallini non può poi trattenersi dal far notare che “invece che investire solo sulla digitalizzazione, andrebbero considerati i problemi reali che stanno alla base dell’ inefficienza della giustizia italiana. In primis quello del precariato nella PA – spiega – Ci siamo messi a digitalizzare vecchi fascicoli invece di risolvere i problemi veri”.
Intanto, la rapidità della digitalizzazione di altri settori diversi da quelle della giustizia, ha cambiato il panorama delle cause nel mondo del lavoro. Ne sono nate nuove tipologie e casistiche legate ai lavoratori delle piattaforme digitali, sono emersi processi decisionali esercitati da algoritmi che rischiano di non tutelare le persone, sottraendosi ad ogni controllo umano che potrebbe assicurare valori e regole. “Non sono ancora numerosi i casi, ma indicano nuove linee di tendenza che attirano l’attenzione e ci pongono nuove domande – commenta Cavallini – e ci ricordano che non si può e non si deve affidare la tutela dei nostri diritti a uno strumento. Deve restare un compito in mano a persone che ricoprono cariche pubbliche”.
InnovazionePA è una iniziativa Soiel International, dal 1980 punto d’informazione e incontro per chi progetta, realizza e gestisce l’innovazione.
Tra le altre iniziative editoriali di Soiel:
Soiel International Srl
Via Martiri Oscuri 3, 20125 Milano
Tel. +39 0226148855
Fax +39 02827181390
Email: info@soiel.it
CCIAA Milano REA n. 931532 Codice fiscale, Partita IVA n. 02731980153