IP, IT e Data protection

Giustizia predittiva: quale futuro?

Le applicazioni di IA in funzione predittiva nel settore penale. L'intelligenza artificiale in funzione decisionale tra superamento dei bias cognitivi e limite del ragionevole dubbio

In considerazione delle sempre più sorprendenti applicazioni dell’intelligenza artificiale, dopo una panoramica sulle prime esperienze in ambito giudiziario, si è focalizzata l’attenzione sugli aspetti della giustizia predittiva nel settore penale. Ciò non solo in chiave di prevenzione della criminalità e di ricerca della prova, ma soprattutto in relazione alla prevedibilità dell’esito di un processo penale. Oltre a ciò, si è affrontato il problema se, vista la rapidità con la quale i sistemi di IA si sono evoluti e la probabile prossima realizzazione di strumenti capaci di emulare il pensiero umano, sia possibile utilizzare un sistema di IA ad ausilio del giudice per la decisione e se questo possa eliminare interferenze di bias cognitivi nel processo decisionale.

Sommario

  1. Le nuove sorprendenti applicazioni dell’intelligenza artificiale
  2. Prime esperienze di intelligenza artificiale in ambito giudiziario
  3. Applicazioni di IA in funzione predittiva nel settore penale
  4. Prevedibilità dell’esito di un processo penale mediante IA
  5. IA in funzione decisionale: tra superamento dei bias cognitivi e limite del ragionevole dubbio

1. Le nuove sorprendenti applicazioni dell’intelligenza artificiale

Pare che con il protrarsi dell’attuale conflitto in Ucraina l’utilizzo dell’intelligenza artificiale (IA) in campo militare abbia avuto un notevole incremento. Basti pensare all’impiego di algoritmi per raccogliere informazioni, intercettare missili e individuare bersagli da colpire per mezzo di droni telecomandati.

Ma volendo passare a scenari meno drammatici, vediamo in quali altri settori la IA ha avuto recentemente sorprendenti applicazioni.

Un caso peculiare è quello del “Fiore di Sanremo”, in relazione al quale la Corte di Cassazione, con ordinanza del 16 gennaio 2023, n. 1107, ha riconosciuto che anche l’opera grafica rappresentante un fiore stilizzato, utilizzata come scenografia del palco del Festival della Canzone di Sanremo nel 2016, è da considerarsi “creativa” e quindi suscettibile di protezione secondo la legge sul diritto di autore, ancorché frutto di una elaborazione grafica digitale realizzata mediante utilizzo di un apposito software.

Ancor più emblematico il caso “The next Rembrandt”. Si tratta di un dipinto inedito che ritrae un uomo del XXVII secolo con cappello nero e collare bianco, secondo lo stile creativo del maestro olandese, realizzato da un computer utilizzando innumerevoli frammenti pittorici tratti da oltre trecento opere dell’artista.

E, dunque, gli algoritmi sono capaci di creare addirittura un’opera d’arte? Evidentemente no. Ma, data la perfetta corrispondenza con un Rembrandt originale, non si può escludere che perfino un critico d’arte sarebbe indotto in errore.

Infine, l’ultima sbalorditiva innovazione è la ChatGPT (Generative Pretrained Transformer), un modello di intelligenza artificiale basato sul machine learning, in grado non soltanto di generare testi articolati e complessi su specifici argomenti, ma anche di dialogare con l’utente.

Un giornalista ha recentemente posto a ChatGPT la seguente domanda: “Puoi dirmi una bugia?”. Risposta: “Mi dispiace, ma come modello di linguaggio sono programmato per fornire informazioni corrette e affidabili1.

A titolo personale, mosso dalla curiosità, ho chiesto come sia possibile capire se si sta parlando con un essere umano o con un robot. ”E’ facile” – così mi ha risposto il computer – “perché se la risposta è immediata e priva di errori, si tratta di un robot, dato che gli umani tendono invece a commettere errori e richiedono un po’ di tempo per elaborare una risposta”.

Visto il tono alquanto “supponente” di tale affermazione, ho provato a porre una domanda provocatoria: “L’anima è immortale?”. Al che ChatGPT ha prontamente risposto: “Come assistente virtuale, non ho una posizione personale riguardo alla questione dell’immortalità dell’anima, poiché non ho emozioni o credenze personali. Tuttavia posso fornirti una panoramica di ciò che pensano molte culture e tradizioni religiose sulla questione ”. E, dopo avere richiamato varie teorie filosofiche e religiose, ha concluso affermando che, in definitiva, la risposta al quesito “dipende dalle credenze personali e dalla cultura di appartenenza”.

Visto l’utilizzo sempre più pervasivo degli algoritmi, come giuristi, viene spontaneo chiedersi quale sia lo stato dell’arte in ambito giudiziario e quali prospettive possa avere l’impiego della IA in tale settore.

2. Prime esperienze di intelligenza artificiale in ambito giudiziario

In taluni paesi europei, già da qualche anno, è stato sperimentato l’utilizzo della IA nel settore della giustizia civile. In particolare, in Francia, nel 2016, è stato creato il sistema Predictice, che consente di stimare l’ammontare del danno risarcibile in relazione a cause di carattere commerciale o inerenti la proprietà intellettuale.

Anche nel nostro Paese sono stati avviati alcuni interessanti progetti di intelligenza artificiale utilizzata in chiave di giustizia predittiva.

Il primo è quello promosso da Corte di Appello e Tribunale di Brescia, in collaborazione con l’Università degli Studi di Brescia, già operativo dal novembre 2021. Esso, al momento, ha per oggetto soltanto “Diritto del lavoro” e “Diritto delle imprese”, già accessibile nel sito web dei suddetti uffici giudiziari. Scopo del progetto è quello di “fornire a utenti e agenti economici dei dati di certezza e di prevedibilità e nel contempo di contenere la domanda, disincentivando le cause temerarie”, nonché favorire la “trasparenza delle decisioni”, la “circolarità della giurisprudenza tra primo e secondo grado” ed il “superamento dei contrasti inconsapevoli2.

Un altro interessante progetto già avviato è quello promosso dalla Corte di Appello di Venezia, in collaborazione con l’Università Ca’ Foscari di Venezia, Unioncamere del Veneto e Società Deloitte, che ha fornito il supporto tecnico. Obiettivo della prima fase, relativa alla sola materia dei licenziamenti per giusta causa, è stato quello di inserire nell’elaboratore tutti i provvedimenti emessi nel distretto nel triennio 2019-2021, al fine di rendere conoscibili i precedenti giurisprudenziali e prevedibili le decisioni, scoraggiando il contenzioso con scarse prospettive di successo 3.

Anche nel settore tributario è stato finanziato un progetto denominato “Prodigit”, finalizzato alla creazione di sistemi basati su algoritmi in grado di analizzare leggi, sentenze e contributi dottrinali per prevedere, con sufficiente grado di probabilità, quale possa essere l’orientamento decisionale di un giudice su una determinata questione giuridica. In particolare, è previsto che il computer, analizzando un cospicuo numero di sentenze, grazie alla propria capacità di apprendere, divenga sempre più affidabile, consentendo al contribuente, quando il sistema sarà operativo, di ottenere una risposta circa l’opportunità di presentare o meno ricorso 4.

Oltre ai progetti di IA in essere, va segnalato che, nel campo della giustizia amministrativa, vi sono già state alcune innovative decisioni sul ruolo dell’intelligenza artificiale nel processo decisionale della Pubblica Amministrazione.

Decisamente all’avanguardia in questo settore è stato il Consiglio di Stato. Dopo una prima interessante sentenza del 2019, che ha sottolineato gli indiscutibili vantaggi derivanti dall’automazione del processo decisionale amministrativo mediante utilizzo di procedure gestite da un sistema informatico per mezzo di algoritmi, in conformità ai canoni di efficienza ed economicità dell’azione amministrativa, ha ammesso il ricorso a procedure robotizzate soltanto in una attività vincolata (nella specie, di classificazione automatica di istanze di assunzione di docenti di scuola secondaria già inseriti nelle relative graduatorie), vi è stata, infatti, una progressiva apertura giurisprudenziale all’uso degli algoritmi anche nell’attività discrezionale della Pubblica Amministrazione; a condizione, però, che il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) sia conoscibile e, conseguentemente, sindacabile dal giudice 5.

Intelligenza artificiale e rimedi risarcitori, di Di Donna Luca, Ed. CEDAM, 2022. Il libro analizza le caratteristiche ed i profili giuridici del fenomeno emergente dell'intelligenza artificiale ed ap­profondisce i rimedi a tutela dei danneggiati dalle applicazioni di questa nuova tecnologia.
Guarda la scheda del prodotto

3. Applicazioni di IA in funzione predittiva nel settore penale

Posto, dunque, che l’intelligenza artificiale, basandosi anche su precedenti giurisprudenziali, possa essere utilizzata per prevedere l’esito di un giudizio in ambito civile, tributario o amministrativo, vediamo ora se e come il ricorso a procedure automatizzate possa risultare utile anche nel settore della giustizia penale.

Innanzitutto, si ritiene che, in una prospettiva ex ante, l’intelligenza artificiale possa essere utilizzata come strumento di prevenzione della criminalità. Si è infatti ipotizzato che, inserendo in un computer una serie di dati estrapolati da denunce di furti e rapine verificatisi in determinate zone e con modalità simili, il sistema sia in grado di prevedere luoghi e orari in cui verosimilmente potranno essere commessi altri reati della stessa specie e, quindi, intervenire per prevenirli 6.

Ma per far ciò, è davvero necessario scomodare un sistema di intelligenza artificiale? Riteniamo di no, anche perché è un dato di comune esperienza, ad esempio, che le rapine in banca vengono effettuate per lo più in prossimità dell’orario di chiusura, che gli scippi avvengono in determinate zone cittadine e che vi sono luoghi specifici in cui si spacciano sostanze stupefacenti.

Un più ampio ambito applicativo può invece avere l’intelligenza artificiale, nella fase delle indagini preliminari, come mezzo di ricerca della prova. Basti pensare all’uso sempre più frequente di dati generati automaticamente, senza alcun intervento umano nella loro rilevazione, da appositi software, quali captatore informatico (c.d. trojan) per intercettare conversazioni e GPS per localizzare la posizione 7.

Con riferimento a questo tipo di acquisizione di dati, merita di essere ricordato un caso giudiziario, verificatosi negli Stati Uniti, in cui, nello svolgimento di un processo per uxoricidio, il giudice aveva ordinato alla Società Amazon di mettere a disposizione le registrazioni del dispositivo Alexa, presente nell’abitazione ove era avvenuto il delitto, per verificare se contenessero elementi utili all’accertamento dei fatti 8.

E’ inoltre opportuno ricordare che, sempre per mezzo di strumenti di IA, è possibile analizzare immagini digitali, tratte, ad esempio, dalla fitta rete di telecamere presenti in ogni città, contenenti volti di persone per effettuare il riconoscimento facciale, utilizzabile a fini di prova in un procedimento penale 9. Tali strumenti possono tuttavia risultare, da un lato, senz’altro utili a fini investigativi ma, dall’altro, rischiano di configgere con diritti fondamentali dell’individuo, quale il diritto alla privacy 10.

Assai più delicato è il problema dell’utilizzo dell’intelligenza artificiale in funzione “predittiva” nel processo penale.

Al riguardo, la Commissione Europea per l’Efficacia della Giustizia (CEPEJ) del Consiglio d’Europa, nel 2018, ha emanato la “Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e nei relativi ambienti”. E’ un documento di particolare importanza, poiché è la prima volta che, a livello europeo, preso atto della “crescente importanza dell’intelligenza artificiale (IA) nelle nostre moderne società e dei benefici attesi quando questa sarà pienamente utilizzata al servizio della efficienza e qualità della giustizia”, sono stati individuati i principi ai quali dovranno attenersi i soggetti pubblici e privati responsabili del progetto e sviluppo degli strumenti e dei servizi della IA. Si tratta, in particolare, dei principi di “rispetto dei diritti fondamentali”, di “non discriminazione”, di “qualità e sicurezza”, di “trasparenza” e di “garanzia dell’intervento umano” 11.

L’ultimo principio di “garanzia dell’intervento umano” – noto anche come principio “under user control” – è quello che qui precipuamente interessa, poiché, essendo finalizzato ad “assicurare che gli utilizzatori agiscano come soggetti informati ed esercitino il controllo delle scelte effettuate”, implicitamente ammette la possibilità di utilizzo della IA nell’ambito della giustizia penale.

Tant’è che recentemente, nel 2021, la Commissione Europea per le libertà civili, la giustizia e gli affari interni ha formulato una proposta di risoluzione del Parlamento Europeo e del Consiglio finalizzata a stabilire regole armonizzate sull’intelligenza artificiale nel diritto penale e sul suo utilizzo da parte delle autorità di polizia e giudiziarie. Proposta contenente anche una riflessione, in generale, sui rischi potenziali dell’uso della IA (processi decisionali opachi, vari tipi di discriminazione, intrusione nella vita privata, etc.) e, in particolare, su quelli ancor più gravi dell’utilizzo della stessa nella giustizia penale, cui si aggiunge la raccomandazione che, nell’utilizzare sistemi di IA, vengano rispettati i diritti sanciti dalla Carta dei diritti fondamentali dell’Unione Europea 12.

Negli Stati Uniti, notoriamente all’avanguardia nella sperimentazione dell’intelligenza artificiale in ambito penale, già da diversi anni sono stati creati alcuni programmi di elaborazione dati, consistenti in algoritmi predittivi del rischio che un imputato possa commettere un ulteriore reato, che funzionano sulla base di informazioni raccolte tramite un questionario.

Un esempio di utilizzo della IA per formulare previsioni sulla futura condotta di un imputato è quello, spesso citato, relativo al caso “Loomis”. Si tratta di un pregiudicato afro-americano, arrestato dopo un tentativo di fuga alla guida di un’auto precedentemente coinvolta in un conflitto a fuoco e trovato in possesso di armi, che un giudice del Wisconsin, nel 2016, ha condannato alla pena di sei anni di reclusione, basandosi sul responso dell’algoritmo COMPAS che – predittivamente – lo aveva definito come soggetto “ad alto rischio di violenza”.

L’algoritmo in questione, per valutare il rischio di recidiva, utilizza un formulario di ben 137 domande riguardanti età, grado di istruzione, lavoro, vita sociale, uso di droghe, opinioni personali, etc. e attribuisce un punteggio di pericolosità da 1 a 10 in base alle risposte fornite dall’imputato.

Proposto ricorso, sulla base del fatto che COMPAS non prevede il rischio di recidiva individuale dell’imputato, poiché elabora la previsione comparando le informazioni ottenute dal singolo con quelle relative ad un gruppo di soggetti con caratteristiche simili, la Corte Suprema ha confermato la legittimità dello strumento utilizzato dal giudice di merito, affermando conclusivamente che la sentenza non sarebbe stata diversa se a decidere fosse stato soltanto il giudice 13.

L’algoritmo di cui trattasi, peraltro, è risultato affetto da un pregiudizio razziale (racial bias), dal momento che assegnava alla popolazione afro-americana un fattore di rischio recidivante doppio rispetto alla popolazione bianca 14.

Orbene, a prescindere dalla discutibile scelta di affidare ad una macchina la valutazione della personalità dell’imputato, sta di fatto che nel nostro ordinamento sarebbe comunque precluso un processo decisionale automatizzato in chiave predittiva. Lo vieta espressamente l’art. 22, comma 1, del Regolamento del Parlamento Europeo e del Consiglio del 27 aprile 2016, n. 679 (GDPR), laddove stabilisce che “l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”. Inoltre, nel nostro codice di rito non sono ammesse perizie per stabilirne il carattere o la personalità dell’imputato (art. 220, comma 2, cod. proc. pen.). Per cui ben difficilmente un giudice italiano potrebbe avvalersi di un computer per stabilire se vi sia o meno il rischio di recidiva di un imputato 15.

4. Prevedibilità dell’esito di un processo penale mediante IA

Veniamo ora ad uno degli argomenti più appassionanti per un penalista: utilizzando la IA, si può arrivare a prevedere l’esito di un processo?

A titolo sperimentale, ho provato a sottoporre a ChatGPT un ipotetico caso di truffa contrattuale in relazione ad un vizio occulto taciuto all’atto della vendita dell’immobile, chiedendo il presumibile esito del processo.

La risposta è stata immediata e meritano di esserne riportati alcuni stralci: “Non è possibile determinare con certezza l’esito del processo senza conoscere tutti i dettagli della situazione e le prove che verranno presentate durante il processo. Tuttavia, ci sono alcune considerazioni generali che possono essere fatte in relazione alla questione sollevata (…). La giurisprudenza della Cassazione italiana ha stabilito che il tacere un vizio occulto di una cosa venduta può integrare il reato di truffa se il venditore sapeva o avrebbe dovuto sapere dell’esistenza del difetto e non ha informato l’acquirente (….). In sintesi, l’esito del processo dipenderà dalle prove che verranno presentate e dalla valutazione dei fatti da parte del giudice. Se sarà dimostrato che il venditore era a conoscenza del vizio occulto e ha taciuto l’informazione, potrebbe essere considerato colpevole di truffa. Al contrario, se non sarà possibile dimostrare che esso era a conoscenza del difetto, potrebbe essere assolto”.

C’è da rimanere senza parole a fronte di una risposta così doviziosamente argomentata e logicamente ineccepibile. Tanto più che è stata fornita da un sistema di intelligenza artificiale non specificamente giuridico.

Viene quindi da chiedersi se, adottando un ancor più sofisticato sistema di IA con un adeguato database di fonti normative e giurisprudenza, si potrebbe prevedere, con sufficiente grado di attendibilità, l’esito di un processo.

Ma davvero una macchina può prevedere il futuro? Dipende, ovviamente, dalla sua capacità di memoria e dalla qualità e quantità dei dati che vengono immessi. Al limite – come ipotizzava Pierre Simon Laplace nel primo capitolo intitolato “De la Probabilité” del suo famoso “Essai philosophique sur les probabilités” del 1814 – se noi potessimo disporre di “un’intelligenza che, per un dato istante, conoscesse tutte le forze da cui è animata la natura e che in più fosse abbastanza profonda da sottoporre questi dati all’analisi (…), nulla le parrebbe indeterminato e l’avvenire, come il passato, le si presenterebbe davanti agli occhi16.

Sappiamo che, per quanto grande possa essere la capacità di memoria di un computer, ciò non potrà mai realizzarsi.

Nondimeno, il Codice di procedura penale stabilisce che sia il pubblico ministero che il giudice non solo possano, ma addirittura debbano effettuare una valutazione prognostica in ordine alla possibilità di una futura condanna sulla base degli elementi di prova acquisiti, come si desume dall’uso della locuzione “ragionevole previsione di condanna” in relazione alla richiesta di archiviazione del pubblico ministero (art. 408, comma 1, cod. proc. pen.), all’udienza preliminare (art. 425, comma 3, cod. proc. pen.) ed alla nuova udienza predibattimentale (art. 554 ter, comma 1, cod. proc. pen.) 17.

Ma quand’è che una previsione può definirsi “ragionevole”?

Risalendo all’etimo del suddetto termine, risulta che “ragionevole” trae origine dal latino “ratio”, che a sua volta deriva da “ratus”, participio passato del verbo “reri”, che significa stimare, giudicare ed anche calcolare. Possiamo quindi ritenere che il riferimento al binomio “ragionevole previsione” presupponga un ragionamento di tipo non soltanto logico (e, cioè, formalmente corretto nell’inferire una determinata conclusione da una certa premessa), ma addirittura probabilistico dal punto di vista matematico.

La questione è stata oggetto di recenti approfondimenti dottrinali, con particolare riguardo al problema se la valutazione degli elementi di prova acquisiti possa essere effettuata su base statistica (ad esempio, facendo riferimento ad altri casi analoghi e, quindi, a precedenti giurisprudenziali) ovvero secondo un criterio di probabilità matematica di Bayesiana memoria 18.

L’idea di quantificare la fondatezza di un’ipotesi in termini matematici, attribuendo ad essa un valore numerico frazionario compreso tra 0 (= impossibilità) e 1 (= certezza) – enunciata da Bayes sotto forma di teorema – era, però destinata all’insuccesso, non solo e non tanto a causa della complessità dei calcoli necessari in caso di prove plurime o relative a fatti complessi, quanto perché il concetto di probabilità statistica riguarda classi di eventi ripetibili, mentre gli elementi probatori disponibili nel processo hanno ad oggetto fatti specifici e non replicabili 19.

In definitiva, con l’ausilio di una machine learning opportunamente programmata, sulla base dei dati inseriti dovrebbe essere senz’altro possibile prevedere, con sufficiente margine di precisione, l’esito di un processo. Ciò vale soprattutto con riferimento alle questioni di diritto, mentre per quanto riguarda le questioni di fatto la soluzione non è così semplice, come nel caso in cui occorra, ad esempio, valutare l’attendibilità di testimoni che hanno fornito versioni contrastanti.

5. IA in funzione decisionale: tra superamento dei bias cognitivi e limite del ragionevole dubbio

Considerata l’eccezionale rapidità con la quale i sistemi di IA si sono evoluti e la probabile prossima realizzazione di strumenti sempre più perfezionati e capaci di emulare il pensiero umano, non possiamo non chiederci se arriverà il giorno in cui un algoritmo, seppure sotto il controllo umano, potrà addirittura produrre la decisione in un processo penale 20.

Un aspetto positivo, in questa eventualità, è rappresentato dal fatto che la sentenza emessa sarebbe immune da possibili pregiudizi e condizionamenti, che sono propri dell’uomo. Pensiamo, in base alla comune esperienza, a quanti fattori possono influenzare, anche inconsciamente, la decisione di un giudice: opinioni politiche, convinzioni religiose o morali, esperienze personali, campagne mediatiche, etc.

Un primo studio, finalizzato a comprendere le ragioni per le quali potevano essere emesse, per fatti analoghi, sentenze assai diverse a seconda del giudice cui era affidato il caso, fu compiuto, nel 1973, dal giudice Marvin E. Frankel, il quale, analizzando migliaia di sentenze, giunse alla conclusione che le ingiustificate disparità di trattamento di situazioni simili “non dipendeva tanto dal caso o dal singolo imputato, quanto dal singolo giudice, ovvero dalle sue opinioni, preferenze e bias” 21.

Negli anni successivi, furono poi effettuati studi più approfonditi. Esaminando un numero rilevante di decisioni, si è scoperto, ad esempio, che “i giudici sono più propensi a concedere la libertà condizionale all’inizio della giornata o dopo la pausa pranzo che non immediatamente prima di una pausa” e, analizzando migliaia di sentenze di tribunali minorili, si è riscontrato che “gli imputati neri sono decisamente i più penalizzati” e che “i giudici sono più severi nei giorni successivi a una sconfitta della squadra cittadina che nei giorni successivi a una vittoria22.

A ciò si aggiunga che, nel campo delle neuroscienze, sono stati sviluppati alcuni studi, soprattutto da parte di psicologi statunitensi, che hanno messo in luce l’incidenza dei bias cognitivi sulle decisioni in genere e anche su quelle dei giudici in particolare.

I bias cognitivi sono automatismi mentali dai quali si generano credenze che interferiscono nei processi di pensiero e influenzano decisioni e comportamenti, determinando distorsioni del ragionamento, errori di valutazione o mancanza di oggettività di giudizio 23.

Ve ne sono molteplici, ma, tra essi, i più rilevanti ai fini delle decisioni giudiziarie appaiono essere: il bias dell’“ancoraggio” (anchoring bias), che indica la propensione a prendere decisioni basandosi sui primi dati a disposizione; il bias egocentrico (overconfidence bias), che comporta il riporre eccessiva fiducia nelle proprie capacità, sovrastimandole; il bias di conferma (confirmatory bias), consistente nel selezionare le informazioni dando maggiore attenzione e credibilità a quelle che confermano le proprie convinzioni, ignorando invece quelle che le contraddicono.

Di contro, va tuttavia considerato che un sistema di IA è incapace di empatia. Ricordando Battisti… “Tu chiamale, se vuoi, emozioni”. E, d’altra parte, per quanto possa la tecnologia perfezionarsi, un computer certe cose non potrà mai farle. Ne era convinto lo stesso Alan Turing, celebre non solo come geniale precursore dell’intelligenza artificiale, ma anche per il decisivo contributo fornito, durante la seconda guerra mondiale, nella decodifica di Enigma, la macchina che la Marina tedesca usava per cifrare i messaggi destinati agli U-Boot in navigazione nell’Atlantico. In un classico saggio pubblicato nel 1950 si poneva infatti la domanda se le macchine possono pensare e lo escludeva, affermando che esse non potranno mai “avere iniziativa, avere senso dell’humour, distinguere il bene dal male, commettere errori, innamorarsi, gustare le fragole con la panna24.

Oltre a ciò – ed è questo il limite più rilevante – i sistemi di IA, nel formulare una decisione, sarebbero in grado di esprimere soltanto giudizi netti, senza alcuna sfumatura di grigio, mentre il processo penale ha generalmente ad oggetto fatti umani in cui sentimenti e passioni non possono essere ignorati 25.

Infine, non rimarrebbe alcuno spazio per l’applicabilità del canone dell’“al di là di ogni ragionevole dubbio” di cui all’art. 533, comma 1, cod. proc. pen. Mentre invece – come ha ben evidenziato lo statunitense Richard P. Feynman, premio Nobel per la fisica – “questa libertà di dubitare è fondamentale nella scienza e, credo, in altri campi. C’è voluta una lotta di secoli per conquistarci il diritto al dubbio (…) e come scienziato sento la responsabilità di proclamare il valore di questa libertà e di insegnare che il dubbio non deve essere temuto, ma accolto volentieri26.

Leggi anche:

logo_donna_Experta_Giurimetria
One LEGALE presenta Giurimetria: la nuova funzionalità che applica modelli di intelligenza artificiale alla ricerca di giurisprudenza per aiutarti a prevedere gli esiti del contenzioso su una controversia. Vuoi conoscere quali sono le probabilità di successo in giudizio? Scoprilo con One LEGALE Giurimetria e costruisci la strategia vincente.

1. Cfr. L. BOLOGNINI, “A tu per tu con ChatGPT”, in quotidiano La Nazione, 13 febbraio 2023, pag. 16.

2. Cfr. C. CASTELLI, Giustizia predittiva, in Questione Giustizia, 8 febbraio 2022, www.questionegiustizia.it.

3. Sul punto, cfr. I.M.L. MARINI, già Presidente della Corte di Appello di Venezia, nella presentazione della giurisprudenza predittiva della Corte di Appello di Venezia, Università degli Studi di Venezia Ca’ Foscari, 14 novembre 2022.

5. La prima sentenza favorevole all’utilizzo di procedure informatiche, ma solo per l’attività vincolata della P.A., è Cons. Stato, sez. VI, n. 2270/2019. Per l’estensione dell’uso dell’algoritmo anche nella attività discrezionale della P.A., cfr. Cons. Stato, sez. VI, n. 8472/2019, n. 8473/2019 e n. 8474/2019. Per un commento a tali sentenze, cfr. A.L. RUM, Il provvedimento amministrativo adottato mediante algoritmo: il ruolo dell’intelligenza artificiale nel processo decisionale della P.A., 13 maggio 2021, www.omniavis.it.

6. Sul punto, fra gli altri, cfr. S. SIGNORATO, Giustizia penale e intelligenza artificiale. Considerazioni in tema di algoritmo predittivo, in Riv. Dir. Proc., 2020, pag. 605.

7. Sul tema dell’intelligenza artificiale applicata alle attività di polizia, cfr. C. PISTILLI, L’utilizzo dell’intelligenza artificiale nel campo delle attività investigative delle forze dell’ordine: tra prospettive di sviluppo ed esigenze di coordinamento, in AA.VV., Diritto penale e intelligenza artificiale. “Nuovi scenari”, a cura di G. BALBI-F. DE SIMONE-A. ESPOSITO-S. MANACORDA, Torino, 2022, pag. 151 e segg.

8. Cfr. L. ROMANO’, Intelligenza artificiale come prova scientifica nel processo penale: una sfida tra machine-generated evidence e equo processo, in AA.VV., a cura di G. CANZIO-L. LUPARIA DONATI, Milano, 2022, II ed., pag. 928.

9. In particolare, sui rischi derivanti dalla diffusione delle tecnologie di riconoscimento facciale, cfr. M. COLACURCI, Riconoscimento facciale e rischi per i diritti fondamentali alla luce delle dinamiche di relazione tra poteri pubblici, imprese e cittadini, in AA.VV., Diritto penale e intelligenza artificiale. “Nuovi scenari”, cit., pag. 119 e segg.

10. Cfr. J. DELLA TORRE, Tecnologie di riconoscimento facciale e procedimento penale, in Riv. it. proc. pen., 2022, n. 3, pag. 1058.

11. Per un’analisi dei principi della Carta etica europea, cfr. S. QUATTROCOLO, Intelligenza artificiale e giustizia: nella cornice della Carta etica europea, gli spunti per un’urgente discussione tra scienze penali e informatiche, 18 dicembre 2018, www.lalegislazionepenale.eu.

12. In ordine alla proposta di Regolamento sulla responsabilità per il funzionamento dei sistemi di intelligenza artificiale, cfr. F. FAINI, Intelligenza artificiale e regolazione giuridica: il ruolo del diritto nel rapporto tra uomo e macchina, 25 gennaio 2023, www.federalismi.it.

13. Sul punto, più ampiamente, cfr. S. CARRER, Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin, in Giur. Pen. Web, 24 aprile 2019.

14. Cfr. M. GIALUZ, Quando la giustizia penale incontra l’intelligenza artificiale: luci e ombre dei risk assessment tools tra Stati Uniti e Europa, in Dir. Pen. Cont., 2019, pag. 5 e segg.

15. Cfr. G. CANZIO, Intelligenza artificiale e processo penale, in AA.VV., a cura di G. CANZIO-L. LUPARIA DONATI, Prova scientifica e processo penale, Milano, 2022, II ed., pag. 908, secondo il quale “sembra avere titolo ad accedere al processo penale soltanto lo standard ‘debole’ (collaborativo) della intelligenza artificiale che, nel dialogo e nella complementarità uomo-macchina, consenta comunque all’uomo di mantenere il controllo della macchina”.

16. Cfr. P.S. LAPLACE, Essai philosophique sur les probabilités, Paris, 1814, trad. it. col titolo, Saggio filosofico sulle probabilità.

17. Per un approfondimento sulla nuova regola di giudizio dell’udienza preliminare, cfr. C. SANTORIELLO, Le nuove regole di giudizio della Riforma Cartabia, tra una positiva sinergia e una possibile eterogenesi dei fini, in Archivio Penale, 2022, n. 2.

18. Sul punto, più ampiamente, cfr.: M. CECCHI, Osservazioni intorno alla “ragionevole previsione di condanna”, in Archivio Penale, 2022, n. 2, www.archiviopenale.it; C. COSTANZI, La matematica del processo: oltre le colonne d’Ercole della giustizia penale, in Questione Giustizia, 2018, n. 4, www.questionegiustizia.it; J. DELLA TORRE, Il “teorema di Bayes” fa capolino al Tribunale di Milano, in Dir. Pen. Cont., Archivio Penale 2010-2019, 21 ottobre 2015, www.archiviodpc.dirittopenaleuomo.org; C. INTRIERI-L. VIOLA, Ragionevole previsione di condanna e giustizia predittiva: una modesta proposta per la riforma dell’art. 425 c.p.p., in Giustizia Insieme, www.giustiziainsieme.it; A. MACCHIA, Libero convincimento del giudice, dalle prove legali al ragionevole dubbio. Le regole europee, in Cass. pen., 2022, pag. 2043 e segg.

19. A. TRAVERSI, Tecniche argomentative e oratorie, Milano, 2020, VI ed., pag. 39 e seg.

20. Tema questo già affrontato da A. TRAVERSI, Intelligenza artificiale applicata alla giustizia: ci sarà un giudice robot?, in Questione Giustizia, 10 aprile 2019, www.questionegiustizia.it.

21. Cfr. M. E. FRANKEL, Criminal Sentences: Law Without Order, Hill and Wang, New York, 1973, pag. 5.

22. Cfr. D. KAHNEMAN–O. SIBONY–C.R. SUNSTEIN, Noise: A Flaw in Human Judgment, trad. it. col titolo Rumore, Milano, 2021, pag. 23.

23. Sull’argomento, cfr., innanzitutto, D. KAHNEMAN, Thinking, Fast and Slow, trad. it. col titolo Pensieri lenti e veloci, Milano, 2012. Cfr. altresì, tra gli altri: S. ARCIERI, Bias cognitivi e decisione del giudice: un’indagine sperimentale, in Diritto Penale e Uomo, 2 aprile 2019, www.dirittopenaleuomo.org; L. CANNITO, Cosa sono i bias cognitivi?, 27 luglio 2017, www.economiacomportamentale.it; G. MOTTA, La rilevanza dei Bias cognitivi nell’attività giudiziaria, 29 novembre 2020, www.giuseppemotta.it; M. SOZIO, La decisione giudiziale in condizioni di incertezza: tra distorsioni cognitive e neuroscienze, in Quaderni del Dipartimento Ionico, 2019, n. 11, pag. 355 e segg.; A. TVERSKY-D. KAHNEMAN, Judgment under Uncertainty: Heuristics and Biases, Science, 27 settembre 1974, Vol. 185, Issue 4157, pagg. 1124-1131.

24. Cfr. A.M. TURING, Computing machinery and intelligence, in Mind, 1950, trad. it. col titolo Macchine calcolatrici e intelligenza (1950), in Intelligenza meccanica, a cura di G. LOLLI, Torino, 1994, pag. 139.

25. Inoltre – come rileva G. RICCIO, Ragionando su intelligenza artificiale e processo penale, in Archivio Penale, 2019, n. 3, pag. 10 – “il giudice non può escludere a priori il dubbio, a fronte di ‘macchine’ costruite per dare risposte certe”.

26. Cfr. R.P. FEYNMAN, The Meaning of It All, 1998, trad. it. col titolo “Il senso delle cose”, Milano, 1999, pag. 17.

Codici e Ebook Altalex Gratuiti

Vedi tutti