|
(Foto: www.golegal.co.za) |
Uomo e macchina.
Un binomio a cui, ormai,
siamo abituati e che impaurisce ogni volta che lo si pronuncia.
Il
dilemma di fondo è quello di capire fino a che punto l’uomo debba
cedere spazi di manovra alla macchina.
Uno
dei campi del sapere in cui si discute maggiormente è senz’altro
quello del diritto, in particolare delle decisioni giudiziarie cosiddette automatizzate.
E’
vero che avremo un giudice robot molto presto? Per rispondere, si
individui prima cosa si intende, in generale, per previsione e
predizione.
Esistono
almeno quattro situazioni nelle quali il diritto e gli operatori
(giuristi e legislatori) si misurano con la «previsione» ovvero con
la necessità/capacità di vedere e valutare in anticipo ciò che
accadrà in futuro. Vediamole.
La previsione
normativa.
Nel
lessico dei giuristi compare spesso l’espressione «previsione
normativa» per indicare
la situazione astratta che il legislatore immagina e alla cui
esistenza viene riconnesso il sorgere di determinate conseguenze. In
dati contesti coincide con la cosiddetta «fattispecie astratta».
Il concetto di
previsione è, quindi, connaturato a quello di norma: il compito di
quest’ultima è prefigurare una situazione possibile del futuro.
Quando interpretiamo un enunciato normativo siamo portati, da un
lato, ad immaginare le circostanze di fatto nelle quali esso può
trovare applicazione e, dall’altro, a chiederci il perché di
quella previsione, cercando di individuare le ragioni che hanno
spinto il legislatore a fare o a non fare certe scelte.
La
previsione/prevedibilità della risposta dell’ordinamento: la
certezza del diritto.
In una prospettiva
connessa a quanto appena detto si colloca la previsione dell’esito
di una controversia.
La sentenza segna
il passaggio dalla «previsione normativa» astratta alla giustizia
del singolo caso al quale quella previsione viene applicata. È il
momento nel quale la fattispecie concreta si adatta perfettamente
alla fattispecie astratta secondo un modello di ragionamento di tipo
sillogistico. L’idea di un «diritto calcolabile» riposa sulla
convinzione che l’esito di ogni controversia debba essere
«prevedibile». Proprio tale assunto dà corpo ad uno dei pilastri
della nostra civiltà giuridica: quello della «certezza del
diritto». Il sistema giuridico compulsato in ordine ad un
determinato problema deve fornire sempre la medesima risposta. Perché
certo è solo ciò che è prevedibile.
3) La previsione
degli effetti della regolazione.
Assumendo l’ottica
propria dei regolatori/legislatori (e dei giuristi che con loro
collaborano) si deve ricordare come, da qualche lustro, sempre
maggiore enfasi venga posta sulla necessità di «prevedere» gli
effetti delle norme e della regolazione: le norme si devono emanare
solo se, al termine di una adeguata istruttoria, si è
ragionevolmente certi che sortiranno gli effetti voluti e previsti.
Occorre quindi
essere ragionevolmente in grado di «prevedere»:
a)
come reagiranno i consociati alle nuove regole (se terranno o meno i
comportamenti auspicati e/o imposti);
b)
se davvero gli effetti prodotti dalle nuove regole porteranno al
conseguimento degli obiettivi voluti.
La
previsione/predittività dell’intelligenza artificiale.
La
nuova frontiera è rappresentata dalle capacità predittive
dell’intelligenza artificiale, anche se meglio sarebbe dire della
«data
science»
e del «data
mining»
applicati al mondo del diritto («legal
analytics»).
Tralasciando il ben noto caso statunitense Loomis (nel quale al
software COMPAS sembrava essere stata delegata la capacità di
prevedere l’attitudine alla recidiva del signor Loomis) qui si
intende la
capacità di elaborare previsioni mediante un calcolo probabilistico
effettuato da algoritmi operanti su base semplicemente statistica o
su base logica.
La
«legal
analytics»
può essere usata per prevedere l’esito di un giudizio.
Nel 2016,
ad esempio, è stato svolto uno studio che, grazie ai progressi
nell’elaborazione del linguaggio naturale e nell’apprendimento
automatico, si proponeva di costruire modelli predittivi utili a
svelare gli schemi che guidano le decisioni giudiziarie. Il lavoro ha
previsto l’esito dei casi analizzati dalla Corte europea dei
diritti umani basandosi sul loro contenuto testuale: la previsione è
riuscita nel 79% dei casi. E, più in generale, può essere usata per
predire i comportamenti di tutti gli attori del sistema
giuridico. Lex
Machina,
una emanazione di Lexis-Nexis,
combina dati e software per creare set di dati su giudici, avvocati,
parti e soggetti di cause legali, analizzando milioni di pagine di
informazioni sulle controversie. Con questi dati gli avvocati possono
prevedere i comportamenti e gli esiti che produrranno le diverse
possibili strategie legali.
La
«legal
analytics»
si propone di predire gli esiti dei processi: non già sulla base di
un rigoroso e meccanico ragionamento giuridico, bensì alla luce di
sofisticate analisi algoritmico/statistiche di moli enormi di dati
(big
data).
Un
conto è ipotizzare possibili orientamenti di una corte, dei giudici,
degli operatori. Altra cosa è prevedere con certezza l’esito del
singolo giudizio. Per ottenere questo dovremmo disporre di algoritmi
in grado di governare incertezza e imprevedibilità. Ed, in ogni
caso, residuerebbe il problema etico circa la legittimità di
affidare una decisione giuridica a questo tipo di algoritmo.
A
proposito di quest’ultimo aspetto, è doveroso richiamare il lavoro
fatto dalla Commissione Europea per l’efficienza della giustizia
(CEPEJ), la quale ha adottato la cosiddetta Carta Etica Europea
sull’utilizzo dell’intelligenza artificiale nei sistemi
giudiziari e negli ambiti connessi. La Carta, emanata nel 2018, ha
stabilito cinque princìpi cardine sull’uso della Intelligenza
Artificiale nel sistema “giustizia”.
Insieme
di metodi scientifici, teorie e tecniche finalizzate a riprodurre
mediante le macchine le capacità cognitive degli esseri umani. Gli
attuali sviluppi mirano a far svolgere alle macchine compiti
complessi precedentemente svolti da esseri umani. Tuttavia,
l’espressione “intelligenza artificiale” è criticata dagli
esperti, che distinguono tra intelligenze artificiali “forti”
(capaci di contestualizzare problemi specializzati di varia natura in
maniera completamente autonoma) e intelligenze artificiali “deboli”
o “moderate” (alte prestazioni nel loro ambito di addestramento).
Alcuni esperti sostengono che le intelligenze artificiali “forti”,
per essere in grado di modellizzare il mondo nella sua interezza,
necessiterebbero di progressi significativi della ricerca di base e
non soltanto di semplici miglioramenti delle prestazioni dei sistemi
esistenti. Gli strumenti menzionati nel presente documento sono
sviluppati utilizzando metodi di apprendimento automatico, ovvero
intelligenze artificiali “deboli”.
Per
giustizia predittiva si intende l’analisi di una grande quantità
di decisioni giudiziarie mediante tecnologie di intelligenza
artificiale al fine di formulare previsioni sull’esito di alcune
tipologie di controversie specialistiche (per esempio, quelle
relative alle indennità di licenziamento o agli assegni di
mantenimento). Il termine “predittivo” utilizzato dalle società
di legal tech
è tratto dalle branche della scienza (principalmente la statistica)
che consentono di predire risultati futuri grazie all’analisi
induttiva. Le decisioni giudiziarie sono trattate al fine di scoprire
correlazioni tra i dati in ingresso (criteri previsti dalla legge,
fatti oggetto della causa, motivazione) e i dati in uscita (decisione
formale relativa, per esempio, all’importo del risarcimento). Le
correlazioni che sono giudicate pertinenti consentono di creare
modelli che, qualora siano utilizzati con nuovi dati in ingresso
(nuovi fatti o precisazioni introdotti sotto forma di parametri,
quali la durata del rapporto contrattuale), producono secondo i loro
sviluppatori una previsione della decisione. Alcuni autori hanno
criticato questo approccio sia formalmente che sostanzialmente,
sostenendo che, in generale, la modellizzazione matematica di
determinati fenomeni sociali non è un compito paragonabile ad altre
attività quantificabili più facilmente (isolare i fattori realmente
causativi di una decisione giudiziaria è un compito
infinitamente più complesso
di giocare, per esempio, una partita di Go o riconoscere
un’immagine): il rischio di false correlazioni è molto più
elevato. Inoltre, in dottrina, due decisioni contraddittorie possono
dimostrarsi valide qualora il ragionamento giuridico sia fondato.
Conseguentemente la formulazione di previsioni costituirebbe un
esercizio di carattere puramente indicativo e senza alcuna pretesa
prescrittiva.
Fissati
i termini, scopriamo quali sono i principi basilari stabiliti dalla
CEPEJ.
PRINCIPIO DEL
RISPETTO DEI DIRITTI FONDAMENTALI:
assicurare
l’elaborazione e l’attuazione di strumenti e servizi di
intelligenza artificiale che siano compatibili con i diritti
fondamentali. Quando gli strumenti di intelligenza artificiale sono
utilizzati per dirimere una controversia, per fornire supporto nel
processo decisionale giudiziario, o per orientare il pubblico, è
essenziale assicurare che essi non minino le garanzie del diritto di
accesso a un giudice e del diritto a un equo processo (parità delle
armi e rispetto del contraddittorio).
Ciò
significa che, fin dalle fasi
dell’elaborazione e dell’apprendimento, dovrebbero essere
pienamente previste norme che proibiscono la violazione diretta o
indiretta dei valori fondamentali protetti dalle Convenzioni
sovranazionali.
Human
rights by design.
PRINCIPIO DI
NON-DISCRIMINAZIONE:
prevenire
specificamente lo sviluppo o l’intensificazione di qualsiasi
discriminazione tra persone o gruppi di persone.
Data la capacità di tali metodologie di trattamento di rivelare le
discriminazioni esistenti, mediante il raggruppamento o la
classificazione di dati relativi a persone o a gruppi di persone, gli
attori pubblici e privati devono assicurare che le metodologie non
riproducano e non aggravino tali discriminazioni e che non conducano
ad analisi o usi deterministici.
Il
metodo deve essere NON discriminatorio.
PRINCIPIO DI
QUALITÀ E SICUREZZA:
in
ordine al trattamento di decisioni e dati giudiziari, utilizzare
fonti certificate e dati intangibili con modelli elaborati
multidisciplinarmente, in un ambiente tecnologico sicuro. I creatori
di modelli di apprendimento automatico dovrebbero poter fare ampio
ricorso alla competenza dei pertinenti professionisti del sistema
della giustizia e ricercatori nei campi del diritto e delle scienze
sociali. La costituzione di
squadre di progetto miste, per brevi cicli di elaborazione, al fine
di produrre modelli funzionali è uno dei metodi organizzativi che
permettono di ottenere il meglio da tale approccio multidisciplinare.
Più
siamo a progettare, meglio è.
PRINCIPIO DI
TRASPARENZA, IMPARZIALITÀ ED EQUITÀ:
rendere
le metodologie di trattamento dei dati accessibili e comprensibili,
autorizzare verifiche esterne.
Deve essere raggiunto un equilibrio tra la proprietà intellettuale
di alcune metodologie di trattamento e l’esigenza di trasparenza
(accesso al processo creativo), imparzialità (assenza di
pregiudizi), equità e integrità intellettuale (privilegiare gli
interessi della giustizia) quando si utilizzano strumenti che possono
avere conseguenze giuridiche, o che possono incidere
significativamente sulla vita delle persone. Dovrebbe essere chiaro
che tali misure si applicano all’intero processo creativo, così
come alla catena operativa, in quanto la metodologia di selezione e
la qualità e l’organizzazione dei dati influenzano direttamente la
fase dell’apprendimento.
L’Intelligenza
Artificiale deve poter essere verificata da terze parti.
PRINCIPIO DEL
“CONTROLLO DA PARTE DELL’UTILIZZATORE”:
precludere
un approccio prescrittivo e assicurare che gli utilizzatori
siano attori informati e abbiano il controllo delle loro scelte.
L’utilizzo di strumenti e servizi di intelligenza artificiale deve
rafforzare e non limitare l’autonomia dell’utilizzatore.
L’utilizzatore deve essere informato con un linguaggio chiaro e
comprensibile del carattere vincolante o meno delle soluzioni
proposte dagli strumenti di intelligenza artificiale, delle diverse
possibilità disponibili, e del suo diritto di ricevere assistenza
legale e di accedere a un tribunale. Deve inoltre essere informato in
modo chiaro di qualsiasi precedente trattamento di un caso mediante
l’intelligenza artificiale, prima o nel corso di un procedimento
giudiziario, e deve avere il diritto di opporvisi, al fine di far
giudicare il suo caso direttamente da un tribunale ai sensi
dell’articolo 6 della CEDU.
Essere
correttamente informati per controllare le proprie scelte.
Conclusioni:
A ben vedere i
principi dettati dalla CEPEJ ci indicano un via, che può essere
riassunta (adattandola al contesto giudiziario) con una nozione
elaborata durante il dibattito internazionale sviluppatosi
nell’ambito dell’ONU sulle armi autonome. Nell’impossibilità
di determinare lo stato computazionale dello strumento di
intelligenza artificiale e, quindi, un controllo completo
sull’esecuzione dell’algoritmo predittivo, per ovviare
all’alterazione della «correttezza e della parità del
contraddittorio fra le parti e fra queste ed il giudice»
dovrebbe
rinforzarsi la richiesta che la decisione predittiva sia resa senza
servirsi unicamente dei risultati meramente probabilistici ottenuti,
non soltanto poiché il suo assolvimento non è sempre
adeguatamente verificabile.
Ci si riferisce al
suggerimento dottrinale secondo cui andrebbe sancito che l’impiego
della macchina in sede giurisdizionale sia assoggettato a un
controllo
umano significativo
rappresentato dalle seguenti imprescindibili condizioni:
1) che il suo
funzionamento sia reso pubblico e vagliato conformemente ai criteri
di peer
review;
2) che sia noto il
potenziale tasso di errore;
3) che adeguate
spiegazioni traducano la “formula tecnica” costitutiva
dell’algoritmo nella regola giuridica, così da renderla leggibile
e comprensibile dal giudice, dalle parti e dai loro difensori;
4) che sia
salvaguardato il contraddittorio sulla scelta degli elementi
archiviati, sui loro raggruppamenti e sulle correlazioni dei dati
elaborati dall’apparato di intelligenza artificiale,
particolarmente in relazione all’oggetto della controversia;
5) che la loro
accettazione da parte del giudice sia giustificata alla luce di
quanto emerso in giudizio e per le circostanze di fatto valutato
secondo il principio del libero convincimento.
Enrica Priolo
Sitografia:
https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348
https://teseo.unitn.it/biolaw/article/view/1353
https://www.agendadigitale.eu/cultura-digitale/predire-il-futuro-fra-machine-learning-e-magia/
https://archiviodpc.dirittopenaleuomo.org/d/6735-sistema-penale-e-intelligenza-artificiale-molte-speranze-e-qualche-equivoco
S.
QUATTROCOLO, Equità del processo penale e automated evidence alla
luce della convenzione europea dei diritti dell’uomo, in Rev.
italo-española der. proc., 2019, consultabile su
http://www.revistasmarcialpons.es/rivitsproc/
https://www.europarl.europa.eu/RegData/etudes/STUD/2020/656295/IPOL_STU(2020)656295_EN.pdf
https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf
https://archiviodpc.dirittopenaleuomo.org/upload/3089-basile2019.pdf
Bibliografia:
Intelligenza
Artificiale. Un approccio moderno, Russell e Norvig, Pearson.
Yuval
Noah Harari, Homo Deus: a brief history of tomorrow,Vintage
publishing.
G.W.F. HEGEL,
Lineamenti di filosofia del diritto, 1821, trad. it., Bari, 1996.
G. ROMANO, Diritto,
robotica e teoria dei giochi: riflessioni su una sinergia, in G. Alpa
(a cura di), Diritto e intelligenza artificiale, Pisa, 2020
G. TAMBURRINI, Etica
delle macchine. Dilemmi morali per robotica e intelligenza
artificiale, Roma, 2020
U. RUFFOLO – A.
AMIDEI, Intelligenza Artificiale, human enhancement e diritti della
persona, in Intelligenza artificiale. Il diritto, i diritti, l’etica,
già anticipate in U. RUFFOLO – A. AMIDEI, Intelligenza Artificiale
e diritti della persona: le frontiere del "transumanesimo”, in
Giur. it., 2019
J.
LASSÈGUE, Justice digitale. Révolution graphique et rupture
anthropologique, Paris, 2018
J. NIEVA-FENOLL,
Intelligenza artificiale e processo, 2018, trad. it., Torino, 2019
S. SIGNORATO,
Giustizia penale e intelligenza artificiale. Considerazioni in tema
di algoritmo predittivo, in Riv. dir. proc., 2020