IP, IT e Data protection

Intelligenza artificiale e processo tributario: l’algoritmo ''studia'' un milione di sentenze

L’obiettivo del progetto Prodigit è quello di mettere a disposizione dei contribuenti uno strumento che permetta di conoscere l’esito di un’eventuale causa

Il processo tributario continua a evolversi: dopo le novità introdotte dalla recente legge 130/2022 (tra cui ricordiamo la nuova denominazione delle commissioni tributarie in Corti di Giustizia Tributaria, la professionalizzazione del giudice di merito con conseguenti modifiche all’iter per il suo reclutamento e l’introduzione di nuove regole procedurali) il Ministero dell’Economia e delle Finanze, insieme al Consiglio di Presidenza della Giustizia Tributaria (CPGT), ha annunciato il progetto Prodigit.

Finanziato dai fondi del Next Generation EU, il progetto è entrato nella sua fase attuativa lo scorso Giugno, mentre l’inizio dell’operatività è fissata per Dicembre 2023: sono previste diverse misure finalizzate a rendere più efficiente, trasparente e “smart” la giurisdizione tributaria.

Contenuti del progetto e obiettivi

Oltre al modello di giustizia predittiva è prevista una più ampia evoluzione 2.0 della giustizia tributaria, che comprende:

  • la digitalizzazione dei processi interni al CPGT;

  • il restyling del portale istituzionale;

  • il potenziamento della banca dati nazionale della giurisprudenza di merito, accessibile integralmente e gratuitamente da un apposito sito web;

  • la creazione di un laboratorio sperimentale a disposizione del giudice tributario denominato “TribHub”, attivo inizialmente in otto Regioni e che favorirà il confronto e la definizione di best practice tra i diversi attori del processo tributario.

Ma come funziona l’analisi delle sentenze basata sull’Intelligenza Artificiale?

Dopo aver dato un primo set di istruzioni, la macchina “legge” la sentenza e restituisce un abstract; questo viene esaminato da una squadra composta da circa 90 giudici tributari e 10 cultori della materia, reclutati tramite un apposito bando: il loro compito sarà quello di confrontare l’abstract restituito dalla macchina con la sentenza originale, verificando che vi sia coerenza tra la massima “artificiale” e quella predisposta dal giudice.

Man mano che la macchina analizza le sentenze il processo viene sempre più perfezionato, anche in base ai feedback ricevuti dai membri di questa squadra, in modo da raggiungere un livello di affidabilità che permetta di aprire lo strumento al pubblico.

A questo punto il contribuente potrà inserire i principali elementi del proprio caso all’interno di Prodigit, che confronterà le sentenze indicizzate nella propria banca dati con il caso di specie, restituendo il probabile esito della lite. In questo modo il contribuente potrà fare una valutazione “consapevole” e quanto più oggettiva in merito all’opportunità di presentare o meno un eventuale ricorso.

logo_donna_Experta_Giurimetria
One LEGALE presenta Giurimetria: la nuova funzionalità che applica modelli di intelligenza artificiale alla ricerca di giurisprudenza per aiutarti a prevedere gli esiti del contenzioso su una controversia. Vuoi conoscere quali sono le probabilità di successo in giudizio? Scoprilo con One LEGALE Giurimetria e costruisci la strategia vincente.

Problemi e criticità

Nonostante i vantaggi prospettati dall’introduzione di questo sistema, in particolare da un punto di vista di deflazione del contenzioso, emergono degli aspetti di apparente criticità.

In primis, una riflessione va fatta sul dataset e sulle istruzioni che vengono fornite all’algoritmo: è chiaro come questo passaggio sia di fondamentale importanza, perché va a definire quelli che sono i margini all’interno del quale opererà la macchina, indicando infatti quali sentenze debbano essere analizzate e come, sulla base delle istruzioni fornite.

Da questo punto di vista, desta qualche perplessità il fatto che questa valutazione venga lasciata esclusivamente al Ministero dell’Economia (e quindi, di riflesso, all’Agenzia delle Entrate) e al Consiglio di Presidenza della Giustizia Tributaria: c’è il rischio che la credibilità dello strumento possa venire meno qualora non vengano incluse nella fase di “addestramento” dell’algoritmo tutte le parti in gioco.

Tale punto era stato sollevato anche dall’Unione Nazionale delle Camere degli Avvocati Tributaristi con una mozione ad hoc, recepita nel corso del successivo Congresso Nazionale Forense, che ha portato al coinvolgimento, in qualità di partner del progetto, del Consiglio Nazionale Forense (CNF) e del Consiglio nazionale dei dottori commercialisti e degli esperti contabili (CNDCEC).

In ogni caso, va ricordato come il risultato finale della sperimentazione sarà influenzato, nel bene e nel male, da due fattori che non possono essere eliminati dall’equazione:

  1. i soggetti che hanno preso parte al progetto e che hanno scelto determinate impostazioni rispetto ad altre (fattore “umano” dell’IA);

  2. gli strumenti tecnici utilizzati per pervenire a determinati risultati (come il codice del software, i metodi statistici o le istruzioni fornite, che in un’ottica di trasparenza devono essere resi disponibili per la consultazione, meglio se in modalità open source).

Infine, una riflessione va fatta su un bias proprio dell’Intelligenza Artificiale, che può essere visto sia come un limite che come una virtù, ovvero l’assenza del fattore umano.

L’assenza di tale fattore sarebbe positiva dal momento che andrebbe ad eliminare quello che è il cd. “errore umano”, permettendo anche grazie a questo di raggiungere una possibile (e forse utopica) giustizia “perfetta” (intesa come priva di errori).

Tuttavia, appare evidente come tale fattore non sia l’unico ostacolo che nella quotidianità si frappone tra noi e il raggiungimento di un esito processuale privo di errori. Anzi, spesso è proprio il fattore umano che va a intervenire con dei necessari correttivi (ad es. modificando le informazioni errate che sono all’interno del database sui cui il sistema di IA basa la propria decisione, oppure intervenendo in caso di decisioni palesemente sbagliate, come accaduto in questo caso).

Inoltre, un altro limite del sistema di IA è dato dall’incertezza (che verrà magari colmata dai progressi tecnologici dei prossimi anni, ma che ad oggi rimane) relativa alla capacità di ricostruire correttamente l’iter logico-giuridico che ha portato un giudice a prendere una determinata decisione e a cogliere quegli aspetti che solo un umano può intercettare (pensiamo ad es. all’animus del soggetto).

Ultimo tema, più trasversale e che mi limiterò solo a citare, è quello relativo alla responsabilità dell’Intelligenza Artificiale in caso di errore, con la conseguente necessità di prevedere di un sistema efficiente di rimedi e garanzie.

IN COLLABORAZIONE CON

Assodata e Isdifog

>> Scopri il Corso online specialista privacy di Altalex!
>> Scopri il Corso avanzato online per DPO (Responsabile Protezione Dati) di Altalex!

Codici e Ebook Altalex Gratuiti

Vedi tutti