IP, IT e Data protection

Intelligenza artificiale: applicabilità del GDPR e della direttiva sulla responsabilità del produttore

Articolo, 12/03/2019


Sommario
1. Intelligenza artificiale e diritto: uno sguardo iniziale 
2. Inquadramento giuridico dell’I.A.
3. Chi paga? Un prospetto di responsabilità
4. GDPR e I.A.: un rapporto complicato?
5. Responsabilità civile e I.A.: un quadro
6. Conclusioni

1. Intelligenza artificiale e diritto: uno sguardo iniziale

Secondo un autorevole studio del McKinsey Global Institute[1] del maggio 2013, esiste un novero, tendenzialmente aperto di tecnologie potenzialmente dirompenti per il loro impatto su ogni attività umana. Lo studio del McKinsey Institute specifica dunque dodici tipi di tecnologia più dirompenti, di comune e generalizzata applicazione, non essendo limitate a settori specifici ma applicate altresì all’intero spettro del settore economico[2]. Esse sono trasversali per tutti i settori dell’assetto economico odierno, vedendo un elemento molto spesso comune nella componente relativa all’intelligenza artificiale.

Gli apparecchi dotati di meccanismi di intelligenza artificiale sono oggi non soltanto un elemento usuale nella vita dei professionisti, ma anche nella vita quotidiana del consumatore medio. Il progresso tecnologico si unisce ad una continua crescita sia economica che sociale, abbinandosi ad una inconsueta irreversibilità. Essendo tale sviluppo continuo in tutti i campi dello scibile umano, è rilevabile un allungamento della lista delle c.d. disruptive technologies.

I rapidi cambiamenti nella c.d. economia digitale stanno infatti creando un intero settore basato solo su dati e informazioni: le espressioni che richiamano questo cambiamento (Information Age, Information Society, The Communication Revolution, The Information Highway) sono dunque rilevanti per capire la transizione di ere nell’attuale contesto globale. Si è di fronte infatti a beni mobili i cui canoni non rientrano pienamente nelle rispettive definizioni legislative: essi non solo costituiscono elementi di confine tra quest’ultimo concetto e quello di cose[3], ma stridono anche con la categoria di prodotto, in quanto muniti dell’elemento di autonomia ed imprevedibilità che ne sovrasta e distorce l’identità di cosa. Si tratta dunque di un campo estremamente innovativo, come si può facilmente intuire, caratterizzato da una relativamente bassa incidenza sull’economia mondiale ad ora, ma che, secondo studi dell’Istituto Accenture del 2016[4], entro il 2035 potrebbe avere rilevanza per oltre il 40% in tutti i settori conosciuti, innovando pressochè tutti i compartimenti produttivi possibili e spingendo il sistema economico globale verso una nuova rivoluzione industriale, caratterizzata dalla presenza della macchina più che quella dell’uomo.

I canali normativi in cui tale nuova spinta globalizzante e totalizzante dovrebbe essere convogliata sono attualmente pochi ed obsoleti nell’ordinamento italiano, ma così anche nell’ordinamento europeo, che non ha aggiornato le proprie disposizioni di riferimento, pur avendo organizzato numerose audizioni parlamentari in merito[5]. Il legislatore difatti si trova di fronte all’eterno dilemma dell’intervento o meno in un settore ad alta frequenza innovativa, in continua evoluzione e irreversibile processo trasformativo.

2. Inquadramento giuridico dell’I.A.

Si fa in questa sezione riferimento in primis al problema definitorio che pone il sintagma «intelligenza artificiale», anche per individuare il punto di contatto logico con eventuali regimi di responsabilità, attivabili per i potenziali danni che tali dispositivi possono arrecare alla controparte contrattuale o a terzi.

Stando a quanto John McCharty, luminare e pioniere in questo settore, afferma, il concetto di I.A. risiede nella scienza e nell'ingegneria di creare macchine intelligenti, in special modo programmi da computer intelligenti[6]. Il punto dirimente sta però nel fatto che l'I.A. non tiene in nessun conto i limiti cognitivi che invece caratterizzano, biologicamente parlando, l'intelletto umano. La definizione, come si può intuire facilmente, risente di una visione antropocentrica di tale concetto, ritenendo non ancora possibile scollegarsi dalla visione umana dell'intelligenza. Russell e Norvig pensano inoltre che l'I.A. si componga radicalmente di quattro elementi, suddividendo il campo di esistenza degli automi in processi di pensiero e di ragionamento contrapposti alla logica di comportamento: il pensare umanamente, l'agire umanamente, il pensare razionalmente e l'agire razionalmente[7].

A questo punto si definisce ciò che viene inteso come agente, cioè qualsiasi cosa che può percepire l'ambiente circostante attraverso sensori e può agire su di esso mediante attuatori.

Cripticamente poi si ricollega la razionalità di un agente al compimento della «cosa giusta» («right thing»): gli autori sono consci che il concetto di giustizia ha scatenato, e scatena tutt’ora, un’intemperie di diatribe ed è per tale motivo che adottano un approccio consequenzialistico, che consente loro di guardare alla giustizia di un'azione dalle conseguenze del comportamento dell'agente. Quando un agente difatti è posto in un ambiente, genera una sequenza di azioni in base agli input che riceve; tale sequenza di azioni causa una serie di conseguenze sull'ambiente stesso, che, se sono desiderabili, fanno sì che l'agente abbia agito in modo «giusto». L'agente non può essere la base per la valutazione delle sue stesse azioni, per il banale motivo che, qualsiasi azione l’agente abbia compiuto, esse verranno valutate tendenzialmente sempre in modo tale da risultare conformi al concetto di giustizia a disposizione della “coscienza” agenziale. Dovendo l’agente conformarsi all'ambiente di riferimento, e non viceversa, si scopre un modo oggettivo di valutazione della sua condotta, che funga da criterio valutativo dirimente per la relativa razionalità comportamentale. I dispositivi con annessa I.A. sono infatti interattivi in quanto percepiscono l'ambiente e rispondono a stimoli esterni ed interni, cambiando i valori delle loro stesse peculiarità; sono autonomi, in quanto modificano le loro peculiarità ed il loro stato interno senza stimoli esogeni di variazione, esercitando il controllo sulle loro azioni senza intervento umano; sono infine adattabili, poichè possono migliorare la loro funzionalità mediante il cambiamento delle regole che governano il loro stesso funzionamento.

A questi tre elementi se ne deve aggiungere un altro: l’imprevedibilità, dovuta ai recenti sviluppi in tema di machine learning. Esso consiste infatti in una serie di algoritmi che risultano funzionali in termini di capacità predittiva degli automi, in controtendenza con tutte le serie algoritmiche precedenti, che dovevano necessariamente contenere modelli predefiniti ex ante per poter raggiungere lo stesso risultato. Mentre infatti un algoritmo ordinario lavora su una serie predefinita di dati e compie il proprio lavoro di analisi e successiva azione su modelli standardizzati ex ante dal programmatore, comunque riferendosi ad un insieme definito di dati, un algoritmo generato tramite la tecnologia di machine learning è capace di lavorare su una serie di dati in continua evoluzione, in costanza con l’analisi degli input compiuta dal dispositivo stesso. Si tratta dunque di un meccanismo che consente di programmare il dispositivo in modo tale che esso si adatti continuamente ai nuovi input che gli provengono dall’ambiente circostante, ma al tempo stesso di adeguare la propria azione in base ai nuovi dati mano a mano acquisiti, cambiando il proprio modus agendi proprio in relazione ad una sempre nuova analisi. Ma che succede se un dispositivo munito di intelligenza artificiale commette un errore, causando così un danno risarcibile accertato?

Diritto della Blockchain, Intelligenza Artificiale e IoT

Su Shop.Wki.it è disponibile il volume:

Diritto della Blockchain, Intelligenza Artificiale e IoT Sarzana di S. Ippolito Fulvio, Nicotra Massimiliano, IPSOA, 2018

3. Chi paga? Un prospetto di responsabilità

La natura della responsabilità dipende principalmente dal riconoscimento che l'ordinamento conferisce agli automi: è evidente che, qualora non si riconoscesse un dispositivo con I.A. come entità che abbia volontà e autonomia, la responsabilità in termini giuridici dovrebbe ricadere sui partecipanti alla catena d’uso del prodotto, mentre, qualora si riconosca completa autonomia alla macchina, si dovrà raggiungere un maggiore grado di responsabilità gravante sull'automa, al quale si riconoscerebbe imputabilità piena[8].

Il principale problema è porre un accentuato discrimen tra capacità di agire autonomamente o meno del dispositivo, stando attenti a valutare se dietro la macchina vi siano altri agenti che la guidano, e che quindi fornirebbero input eteronomi, nonché a stabilire dei validi criteri di imputazione giuridica dei danni, che in caso di dubbio andrebbero addossati, secondo Vladeck, sul creatore. Si tenga in conto dunque che gli elementi principali degli apparecchi con I.A. sono valutabili in base a tre criteri oggettivi: autonomia, prevedibilità e controllo.

L’autonomia deve essere presa in considerazione in quanto, come già detto in precedenza, è l'elemento principale dell'innovazione dell'intelligenza artificiale, dato che il progresso tecnologico mira a una sempre maggiore automatizzazione dei dispositivi. La prevedibilità entra in gioco invece in quanto l'I.A. deve essere creativa e slegata dagli schemi così come un umano, elemento rintracciabile non tanto per un'intrinseca somiglianza alla mente umana, ma piuttosto per la disumana velocità computazionale, che consente al dispositivo di prendere in considerazione un numero maggiore di ipotesi in un minore lasso temporale rispetto a quanto potrebbe fare un essere umano, ponendo peraltro problemi dal punto di vista della prevedibilità delle azioni[9]. Quello che prima si è detto a proposito del processo di machine learning qui poi risulta di nuovo utile, giacchè il dispositivo così programmato risulta assolutamente slegato dalle logiche causali che invece possono risultare dalla sua mera automatizzazione, elaborando esso innumerevoli quantità di dati e modificando i suoi stessi algoritmi di partenza in base alle successive analisi operate.

Infine è da tenere in conto il controllo dell'apparecchio, che è programmato appunto per essere autonomo: il controllo, una volta perso, infatti, diventa complesso da recuperare[10], ponendo problemi di compatibilità tra intenti e logiche tra I.A. ed esseri umani in prospettiva di un contenimento del rischio pubblico. Tutto si ricollega quindi al quesito su chi paga per le azioni ed omissioni di un automa che abbiano causato danni alla controparte o a terzi. La situazione però può essere esemplificata attraverso il paradosso di Zenone e la tartaruga, con la legge che si trova nella posizione di dover sempre recuperare terreno nei confronti del progresso tecnologico. Pagallo per primo ipotizza la possibilità di un riconoscimento di capacità giuridica, anche non piena, funzionale al conferimento del c.d. digital peculium, invece che regolare l'intero settore con i criteri di imputazione propri della responsabilità per prodotti difettosi. Esso si richiamerebbe alla tradizione romana antica, nel senso di conferire una capacità giuridica limitata alla gestione del patrimonio compreso nel peculium, che risulterebbe separato da qualsiasi altro patrimonio in questione e dunque idoneo a soddisfare le richieste di risarcimento derivanti da eventuali danni del soggetto. Si tratterebbe di una garanzia patrimoniale generica nei confronti dei terzi e delle eventuali controparti contrattuali: l'idea, seppur apparentemente interessante, cela il problema della sufficienza del peculio. Se difatti il peculium fosse insufficiente a garantire il risarcimento pieno di un danno ingente, come può scaturire dalla lesione di un diritto fondamentale, andrebbe trovato un criterio di imputazione che porti all'effettiva soddisfazione della pretesa risarcitoria, senza però gravare iniquamente su una parte solo parzialmente colpevole o addirittura incolpevole[11].

Offerto questo quadro teorico, e in parte anche pratico, ora si tratta di analizzare quale disciplina sia applicabile ai dispositivi con annessa I.A.: posto che essi non sono e non possono essere al momento attuale soggetti giuridici, non resta, oltre al normale regime di responsabilità per colpa, che la disciplina sui beni mobili e sui prodotti difettosi ad essere applicabile, mancando qualsiasi altra sorta di legislazione specifica in tal senso.

4. GDPR e I.A.: un rapporto complicato?

Come è già stato accennato, le tecnologie con intelligenza artificiale necessitano di una connessione stabile ad una rete, dalla quale riescono a carpire informazioni e dati in enorme quantità. Questa prima caratteristica è indice evidente della fonte del funzionamento di questa tipologia di tecnologie: per avere piena cognizione del profilo temporale e modale della propria azione nell’ambiente di implementazione, il dispositivo munito di I.A. è costretto a ricevere, dal punto di vista quantitativo, un gran numero di dati. Più tali dispositivi diventano avanzati, più la sete di dati diventa pressante e vitale, crescendo in parallelo il bisogno di dati migliori sotto il profilo soggettivo, qualitativamente parlando. La velocità di analisi diventa il corollario di tale assunto: alla crescita proporzionale della domanda di dati, corrispondente all’avanzamento tecnologico riscontrabile nei dispositivi, si affianca il fisiologico aumento di capacità analitica ed ermeneutica. I dati provengono da qualsiasi riferimento oggettivo circostante, in risposta ad una crescente richiesta di capacità di agire automaticamente su più campi contemporaneamente, e ne costituiscono la linfa. Il flusso di dati dunque diventa il carburante necessario per animare un corpo di per sé inerte. Nasce dunque l’esigenza di gestire, regolarizzare e normalizzare tali flussi, riconducendoli nell’alveo di una disciplina giuridica precisa, concordante e sistematica: esigenza a cui è stata data risposta dal legislatore europeo con il regolamento 679/2016, entrato in vigore nei territori dell’Unione il 25 maggio 2018. Il GDPR si prefigura come l’esempio più recente del modo in cui una nuova normativa possa incidere sul modo in cui le organizzazioni gestiscono e usano i dati, specificatamente quelli dei consumatori. Il nuovo testo normativo pone particolare rilievo sul trattamento automatizzato dei dati personali, che poi possa sfociare in decisioni e azioni.

È proprio l’art. 22 del testo[12] che ribadisce come principio generale che l’interessato ha il diritto di essere sottoposto a una decisione basata esclusivamente sul trattamento automatizzato dei propri dati, a cominciare dalla profilazione, definita nell’art. 4 GDPR, che produca effetti giuridici che lo riguardano o che incida allo stesso modo sulla sua persona in modo significativo. A proposito del primo paragrafo, sembra chiaro che nessuna tecnologia di intelligenza artificiale è conforme al GDPR senza intervento umano. Ciò che viene infatti richiesto a chi utilizza I.A. per acquisire ed elaborare dati da individui è infatti tenuto a: informare sull’utilizzo che si fa della tecnologia I.A.; valutare l’impatto che l’uso dell’I.A. esercita sugli individui; dare prospetto compiuto e completo del funzionamento della tecnologia, per individuarne i criteri di ragionamento (ed eventualmente anche alcuni biases di partenza); intervenire nel caso in cui si presentino possibili occasioni di violazione dei diritti degli interessati.

Oltre all’art. 22 GDPR, bisogna tenere in considerazione anche quanto prescritto dall’art. 24, il quale prevede che, tenuto conto della natura, del campo applicativo, del contesto e delle finalità di trattamento, nonché dei rischi di varia probabilità e gravità dei diritti e le libertà delle persone fisiche, il titolare del trattamento mette in atto “misure tecniche e organizzative adeguate” per garantire, ed essere in grado di dimostrare, che il trattamento dei dati personali è effettuato conformemente al regolamento. L’art. 24 introduce infatti il c.d. principio di accountability che si connota per due accezioni fondamentali: in primis, la responsabilità verso gli stakeholders del non corretto utilizzo delle risorse e della produzione di risultati in linea con gli scopi istituzionali; in secundis, l’esigenza di introdurre logiche e meccanismi di maggiore responsabilizzazione interne alle aziende e alle reti di aziende relativamente all’impiego di tali risorse e alla produzione dei correlati risultati. Tale principio investe tutte le operazioni concernenti dati personali ed è connotata da un profilo di applicabilità oggettiva, applicandosi in ogni situazione che veda uno scorretto utilizzo di informazioni rilevanti.

Un’altra delle novità più rilevanti del GDPR, ma al tempo stesso più sottovalutate, è l’introduzione del principio di privacy by design (PbD, o protezione dei dati sin dalla progettazione, secondo la traduzione italiana riportata in Gazzetta Ufficiale), di cui all’art. 25 del noto Regolamento Europeo n. 679/2016. Nell’ambito del complesso dibattito in materia di privacy, la PbD (la cui maternità è tecnicamente e storicamente attribuita ad Ann Cavoukian, studiosa e fino al 2014 Garante della privacy dello Stato canadese dell’Ontario[13]) ha fatto emergere posizioni contrastanti. Secondo questo principio, la protezione dei dati dovrebbe essere implementata in ogni processo industriale e tecnologico, che implichi la produzione di beni e servizi, mediante il quale vengano, ovviamente, trattati dati personali. Si tratta di un evidente cambio di prospettiva rispetto allo schema che vede nella tecnologia un elemento che precede logicamente e cronologicamente la regolamentazione, la legge e, nello specifico, la protezione dei dati personali. Secondo il GDPR è la tecnologia stessa a dover essere progettata e preordinata per operare rispettando i diritti fondamentali degli utilizzatori, o meglio degli interessati. L’utopia dell’umanesimo delle macchine, che affonda le sue radici nei pensatori europei del Rinascimento, da Leonardo a Bacone a Vico, trova nell’art. 25 del GDPR il compimento programmatico più avanzato. La norma sulla PbD è tuttavia norma programmatica, ancorché prescriva un obbligo. La PbD traccia una linea di demarcazione profonda tra norme generali e astratte digiune di scienza, mercato e tecnologia, tipiche del passato, anche recente, e norme contemporanee attente alle opportunità, ma anche alle insidie del progresso a discapito delle libertà e dei diritti delle persone. In particolare, il Considerando 78, letto in combinato con l’art. 25, attribuisce alcuni spunti per interpretare estensivamente il suddetto articolo:

“Al fine di poter dimostrare la conformità con il presente regolamento, il titolare del trattamento dovrebbe adottare politiche interne e attuare misure che soddisfino in particolare i principi della protezione dei dati fin dalla progettazione e della protezione dei dati di default. […] I produttori dei prodotti, dei servizi e delle applicazioni dovrebbero essere incoraggiati a tenere conto del diritto alla protezione dei dati allorché sviluppano e progettano tali prodotti, servizi e applicazioni e, tenuto debito conto dello stato dell’arte, a far sì che i titolari del trattamento e i responsabili del trattamento possano adempiere ai loro obblighi di protezione dei dati”.

Più in concreto, l’art. 25 del GDPR attribuisce una speciale attenzione alla pseudonimizzazione e la minimizzazione, individuate quali misure tecniche adeguate al fine di dimostrare di aver rispettato gli obblighi in tema di privacy by design. Altre misure rilevanti, seppur non citate dall’articolo, potrebbero essere l’occultamento, la separazione o l’aggregazione dei dati. Ovviamente, in quanto misura elastica, la PbD non è applicabile allo stesso modo in ogni contesto, ma deve essere adattata alle varie tipologie di trattamento, comportando obblighi differenti a seconda del caso; è necessario tenere conto dello stato dell’arte e dei costi di attuazione, nonché della natura, dell’ambito di applicazione, del contesto e delle finalità del trattamento, come anche dei rischi aventi probabilità e gravità diverse per i diritti e le libertà delle persone fisiche costituiti dal trattamento.

GDPR e Decreto Legislativo 101/2018

Su Shop.Wki.it è disponibile il volume:

GDPR e Decreto Legislativo 101/2018 Marco Martorana, CEDAM, 2019

5. Responsabilità civile e I.A.: un quadro

Si anticipa già che la disciplina europea è obsoleta, risalendo la direttiva di riferimento al 1985, ma che il lavoro della Corte di Giustizia Europea si è fatto sentire nell'adattare tali principi alle esigenze concrete manifestatesi nel corso degli anni[14]. La direttiva CEE n. 374 del 1985 ha una sua ben precisa storia, che la colloca in un contesto socio-economico stravolto dalla vicenda della talidomide. Negli anni ’60 e’70 del secolo scorso infatti si facilitarono le possibilità di ricorso da parte del consumatore riguardo a prodotti difettosi, di qualunque natura essi fossero, nei confronti dei produttori, proprio in seguito al disastro conseguente alla diffusione del farmaco indicato come sedativo, anti-nausea e ipnotico, rivolto in particolar modo alle donne in gravidanza. L’opinione pubblica infatti richiedeva un intervento forte del legislatore per poter dare un segnale chiaro di solidarietà e vicinanza alle vittime, nate e viventi con deformazioni e malfunzioni fisiche, nonché di durezza ed inflessibilità per le modalità produttive del farmaco, condotte irresponsabilmente su larga scala: i legislatori europei dunque approntarono fondi di solidarietà per le vittime che coprissero i danni alla salute causati dal farmaco, ma ci si accorse che i rimedi ex post non erano efficaci alla prevenzione di un danno così grande e grave. Vi sono tuttavia altre problematiche inerenti all’interpretazione dei termini e delle definizioni presenti nella direttiva 374/1985/CE. Il primo dubbio sorge subito all’art. 2, con la definizione di prodotto: la direttiva infatti si applica soltanto per danni causati da beni mobili, tangibili, nonché dall’energia elettrica, indipendentemente dal fatto che il prodotto sia distribuito come prodotto finito o come materia prima da sgrezzare o ancora come componente da incorporare in un altro bene, sia esso mobile o immobile. Si esclude invece l’applicabilità della direttiva per i prodotti agricoli naturali e della caccia. Si capisce fin da subito che i prodotti sono dunque caratterizzati da due caratteristiche, ossia la mobilità e la tangibilità: se per il primo carattere problemi ermeneutici non si presentano, per il secondo aspetto le problematiche si fanno già più corpose. Si discute inoltre per quanto riguarda un’altra peculiarità, cioè il tipo di produzione del prodotto, che per la maggior parte della dottrina deve essere industriale[15]. Oggi in realtà si propende per un’interpretazione più ampia ed aperta del termine prodotto, indipendentemente dal modo di produzione dello stesso, sia esso industriale, artigianale o artistico. Sebbene dunque la direttiva non si esprima mai in questo senso, tutti i beni intangibili sono esclusi seguendo un ragionamento a contrario, negando ad esempio alla proprietà intellettuale la copertura regolativa; inoltre si pone il problema dell’applicabilità della direttiva a prodotti intangibili, come i softwares, che formalmente non rientrano nel canone di tangibilità necessario per l’applicazione della direttiva. Prodotti come i softwares appunto, oggi peraltro molto diffusi, vedono una spaccatura netta della dottrina[16]: seguendo lo stesso ragionamento che si spiegherà in seguito a proposito dei servizi, si classificano i softwares come beni mobili, la cui tangibilità è misurabile dal livello in cui esso è incorporato nel bene mobile in cui opererà. Altro punto sensibile è la provvisione di un servizio, che secondo sempre l’avvocato Colomer nel Veedfald case non dovrebbe rientrare nella nozione di prodotto, visione che tuttavia è stata sostituita da quella della Corte europea di Giustizia, assumendo che anche la fornitura di un servizio potrebbe risentire dell’utilizzo di un prodotto difettoso[17].

Si può ben capire come sia complesso inscrivere prodotti caratterizzati dalla presenza di elementi di intelligenza artificiale all’interno della definizione data all’art. 2 della direttiva 374/1985/CE, in primis perché tali prodotti, pur presentando i caratteri della mobilità, precipui per l’applicazione della direttiva stessa, offrono una prospettiva ibrida dal punto di vista della tangibilità. Essi difatti vedono la mera componente materiale avvicinarsi e sovrapporsi pienamente alla definizione di prodotto data dalla direttiva, mentre per la componente di intelligenza artificiale si torna al prefato problema riguardante i softwares. Si tratta dunque di analizzare se e quanto vi sia prevalenza dell’elemento immateriale ed autonomo sull’attività cui è preposto il prodotto: l’autonomia del prodotto con I.A. è infatti la peculiarità che più lo differenzia dalle restanti tipologie di suoi simili. Va infatti valutata la capacità del prodotto di operare in completa autonomia in relazione alla propria parte formalmente immateriale: più semplicemente di tratta di vedere quanto il prodotto rimanga ancora tale dopo l’implementazione di un elemento di programmazione, oppure si trasformi in qualcos’altro, da non necessariamente definire giuridicamente, che tuttavia elude l’applicabilità della direttiva presa in esame. È altresì evidente che, qualora la componente immateriale abbia preso il sopravvento sulle componenti tangibili del prodotto, che a questo punto si trasforma in qualcosa di più di un mero bene mobile tangibile, ma in qualcosa di meno rispetto ad un essere vivente dotato di raziocinio e di volontà, i problemi di compatibilità con la normativa in esame sorgono numerosi. Lasciando per un attimo eventuali problemi relativi alla graduazione dell’autonomia di un prodotto, che porterebbe gli esempi sopra riportati ad essere solo casi estremi e facendo affiorare invece una innumerevole serie di altri casi limite[18], basta riconoscere che il dispositivo con I.A. rientrerebbe a fatica nella nozione di prodotto ex art. 2, inserendosi in una definizione che è evidentemente incompleta, poiché ne trascura i tratti di autonomia ed imprevedibilità, nonché in un regime di responsabilità che è stato disegnato per prodotti con altre caratteristiche, causando problemi di compatibilità con il presupposto di tangibilità del bene. Se però il problema definitorio di un dispositivo con I.A. può essere apparentemente ridotto a questione puramente nominalistica, i problemi che sorgono da una imprecisa, o addirittura assente, disciplina riguardo a tali prodotti potrebbero essere più gravi dal punto di vista sostanziale, come ad esempio per la questione del difetto, del responsabile e del rispettivo regime di responsabilità.

Si arriva dunque all’art. 3 a definire il produttore, che viene dipinto quale «fabbricante di prodotto finito, di materia prima o di una parte componente, nonché ogni persona che, apponendo il proprio nome, marchio o altro segno distintivo sul prodotto si presenta come produttore dello stesso». Tale disposizione si collega alla norma di apertura della direttiva, l’art. 1, che prevede espressamente la responsabilità del danno causato da prodotto difettoso a carico del produttore o delle altre figure dell’art. 3, qualora il produttore stesso sia esonerato da responsabilità. La scelta del legislatore qui è chiara e decisa: la responsabilità dei danni arrecati ai consumatori deve gravare interamente su chi li causa, anche involontariamente, giacchè il produttore, e soltanto lui, è ritenuto capace di internalizzare tali spese nei suoi normali costi di produzione, spalmandoli sull’intero bacino dei consumatori che formano la domanda del bene.

6. Conclusioni

Si è visto come dunque il settore dell’intelligenza artificiale possa essere importante nello sviluppo futuro della società globale odierna. Tale sviluppo deve essere accompagnato da una regolazione attenta sia al progresso tecnologico che alle istanze sociali di protezione del consumatore e di giustizia sociale. I danni che possono essere causati da dispositivi con I.A. possono essere infatti ingenti e diffusi, dando adito ad un ingente vuoto di responsabilità (civile), istituto da sempre investito del ruolo di assorbire l’impatto proveniente dalle innovazioni tecnologiche[19].

Si è visto come il riconoscimento giuridico dei dispositivi con I.A. sia un elemento importante per qualificare il regime di responsabilità civile compatibile, ponendosi il problema della imputabilità giuridica degli automi. Esso risulta però cristallizzarsi in una speculazione giuridico-filosofica ai fini del risarcimento, sempre e comunque addebitabile ad un essere umano, non avendo gli automi capacità autonoma di guadagno. È però la loro imprevedibilità che costituisce l’elemento più complesso da valutare in termini di responsabilità civile, peculiarità dovuta principalmente ai meccanismi di apprendimento automatico di cui sono dotati. Si è concluso tuttavia che il tipo di responsabilità compatibile in maggior misura con il mondo dell’I.A. sia quello della responsabilità per danni da prodotti difettosi, giacchè entrambe le componenti dei dispositivi, quella del software e quella fisico-corporea, sono qualificabili come prodotti, i cui danni provocati sono riconducibili alla nozione di difetto cui fa cenno la direttiva europea 1985/374/CE.

La responsabilità per danni da prodotti difettosi, pur essendo la più compatibile in tal senso, non è stata delineata per prodotti atipici come i dispositivi con I.A., facendo emergere problematiche di compatibilità tra tale disciplina e gli elementi precipui di tali dispositivi. Il tipo di responsabilità oggettiva poi introdotto dalla direttiva non risulta funzionale agli obiettivi che questa si proponeva in materia di promozione dei meccanismi di mercato, giacchè influisce sia sulla domanda che sull’offerta di tali prodotti, disincentivando la ricerca e lo sviluppo, fattori indispensabili nel settore dell’I.A. Si aggiunga allo stesso modo che qualsiasi tipo di responsabilità crei disincentivi in tal senso, ma che sia impossibile rinunciare ai meccanismi riparatori, senza i quali si produrrebbero esternalità negative rilevanti che graverebbero in larga parte sui consumatori: il meccanismo di prevenzione specifica dunque, cioè affidato alla decisione collettiva, e non al mercato, come invece avviene per la prevenzione generale, risulta pienamente compatibile sia con la funzione di riduzione dei costi, che con quella di giustizia correttiva, addendi che stanno alla base dell’istituto di responsabilità civile nello schema calabresiano[20].

La prevenzione specifica infatti consente un’analisi approfondita della situazione tecnologica, in un’ottica di concertazione tra parti sociali, che consente una corretta e condivisa regolazione del settore dell’intelligenza artificiale. A tale meccanismo di deterrenza va tuttavia riconosciuto un valido supporto normativo ex post, che renda effettive le misure di deterrenza stesse: questo è individuabile in un regime di responsabilità oggettiva corretto in senso più favorevole per i produttori, che devono vedersi sì gravati da oneri di sicurezza maggiori, ma allo stesso tempo poter avere la possibilità di sviluppare i proprio prodotti in un settore capital-intensive e ad alta innovazione come quello dell’intelligenza artificiale.

In conclusione bisogna dire che l’inerzia legislativa che finora ha accompagnato tale settore è motivato dal fatto che anche il nomopoieta ha riconosciuto un’intrinseca indefinitezza nel concetto di intelligenza artificiale stessa, elemento cui tuttavia sopperisce un impianto normativo di responsabilità civile in grado di reggere l’urto delle innovazioni provenienti da tale settore: questi due fattori possono dunque spiegare l’inattività dei legislatori in merito.

Con In Pratica GDPR in pratica sei già pronto Con oltre 30 tipologie di action plan, In Pratica GDPR offre un validissimo strumento di supporto per svolgere una attività o risolvere un caso specifico.

(Altalex, 12 marzo 2019. Articolo di Pier Francesco Zari)
______________

[1]Per approfondire il tema si veda McKinsey & Company, Disruptive techinologies: Advances that will transform life, business, and the global economy, May 2013.

[2] Tra le tecnologie portanti lo studio sottolinea in particolar modo dodici tipi di tecnologia che potrebbero portare ad un generale sconvolgimento delle attività umane in generale, elencate nel seguente ordine: a) mobile Internet b) automazione del lavoro intellettuale c) Internet d) tecnologia Cloud e) Robotica avanzata f) veicoli automatici g) genomica di nuova generazione e medicina rigenerativa h) materiali avanzati i) stoccaggio e conservazione di energia l) esplorazione e recupero avanzati di gas e petrolio m) fonti rinnovabili di energia n) stampa a tre dimensioni. (si veda McKinsey & Company, Disruptive techinologies: Advances that will transform life, business, and the global economy, May 2013, pp. 29-147)

[3]Un bene giuridicamente inteso è una cosa che vede tra le proprie precipue peculiarità quella dell'utilità, cioè adeguatezza a soddisfare le esigenze umane; dell'accessibilità, cioè la possibilità di subire espropriazione; della limitatezza, ossia quale disponibilità limitata ex natura. Tale concezione si distingue notevolmente da quella naturalistica di cosa: è possibile, infatti, che vi siano cose che non sono beni giuridici, basti citare a questo proposito l'aria, e beni giuridici che non siano allo stesso tempo cose. Basti pensare, a tale riguardo, alle opere dell'ingegno. (G. Cian, A. Trabucchi, Commentario breve al codice civile, Padova, 2008, CEDAM, IX ed., 613 e ss.)

[4] Si fa qui riferimento allo studio di Accenture Institute, coordinato da M. Purdy, P. Daugherty, Why Artificial Intelligence is the Future of Growth, 2016 (si può a tal proposito consultare: INTELLIGENZA ARTIFICIALE: LA NUOVA SUPERPOTENZA ECONOMICA.  

[5] In materia di intelligenza artificiale e robotica, si ha l’importante risoluzione del Parlamento europeo del 16 febbraio 2017, che costituisce una mera presa d’atto delle istituzioni europee della necessità di intervenire in un settore come questo: è però un mero riconoscimento, cui per ora non è seguito alcun movimento legislativo.

[6]Si veda in a tal proposito J. McCharty, What is artificial intelligence?, Computer Science Stanford Department, 2, (2007), pp. 1-7.

[7] Si veda a tal proposito S. J. Russell, P. Norvig, Articial Intelligence, A Modern Approach, III ed., Pearson, 2010, cap. 1.1, p. 22.

[8] Si veda D. C. Vladeck, Machines without principals: liability rules and artificial intelligence, 89 Washington L. Rev. 117, 117 (2014), nonché N. Bostrom, When Machines Outsmart Humans, 35, Futures, 2003, pp. 759-763. Per esempi più concreti di questa teorica, si vedano N. Bostrom, M. Cirkovic, Global catastrophic risks, Oxford University Press, I ed., 2008, pp. 78-79; R. Kurzweil, The singularity is near: when humans transcend humanity, Viking, 2005, pp. 135–36; H. Moravec, Robot: mere machines to transcendent humans, Oxford University Press, Oxford, 1999, p. 61.

[9] G. Sartor in realtà a tal proposito obietta che un essere con un fine ben chiaro, e quindi con un orizzonte teleologico preciso non può essere altro che un essere prevedibile, proprio perché munito di intenzione (Cognitive automata and the law, op. cit., 2003, cap. 4, p. 10). Tale obiezione però è da declinare con la velocità computazionale dei dispositivi I.A., che sono certamente immessi in un circuito di soluzioni ed azioni definite numericamente, ma allo stesso tempo sono in grado di analizzarle ad una velocità talmente alta che risulta impossibile prevedere quale di esse sia ritenuta dal dispositivo stesso la migliore a completare il compito assegnatogli. Si tenga inoltre conto che la complessità dei compiti porta ad una maggiore imprevedibilità, dato che il principale rischio è quello dell'esperienza post-design dell'apparecchio, impredittibile perfino dal più attento ed esperto dei partecipanti alla catena produttiva (Scherer, ibidem).

[10] Si par la in tal caso di perdita di controllo locale, se l'apparecchio non è più controllato dall'umano che lo dovrebbe fare, o generale, qualora non sia più recuperabile in toto. È chiaro che la seconda prospettiva, più plausibile vista l'autonomia con cui deve agire l'intelligenza artificiale, può portare ad un rischio pubblico enorme, nonché ad eventuali danni inestimabili, conditi con un'incertezza normativa in materia di responsabilità che aumenta il rischio di allocazione inefficiente dei costi provenienti dai danni. (Si veda Scherer, op. cit., ibidem; W. Wallach, C. Allen, Moral machines: teaching robots right from wrong, Indiana University Press, Indianapolis, 2009, pp. 197–214)

[11] Si veda Herbert Simon, Models of bounded rationality, Cambridge, Mass., MIT Press, 1982, pp. 243-246, per le conseguenze economiche che un tale approccio può avere sul settore regolato. Se difatti una cattiva e sproporzionata allocazione dei costi dovuti ai risarcimenti dovesse gravare un settore estremamente innovativo, si rischia di tarpare le ali ad un potenziale strumento di progresso inutilmente e a causa di un'ignoranza delle cause dannose. Si raccomanda perciò un'attenta e precisa valutazione del criterio di imputazione, per un abbinamento di istanze sociali di giustizia e di progresso tecnologico ed economico.

[12] Art. 22 co. 1-2:”L'interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona.Il paragrafo 1 non si applica nel caso in cui la decisione:a)sia necessaria per la conclusione o l'esecuzione di un contratto tra l'interessatoe un titolare del trattamento;b)sia autorizzata dal diritto dell'Unione o dello Stato membro cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell'interessato;c)si basi sul consenso esplicito dell'interessato.”.

[13] Si veda  Privacy by Design. "Privacy by Design (Ann Cavoukian)". Office of the Information and Privacy Commissioner. Archived from the original on 2011-08-10.

[14] Si fa qui riferimento all'attività della Corte Europea di Giustizia soprattutto e in particolar modo riguardo all'art. 13 della direttiva, di cui poi si parlerà, che lascia impregiudicati i diritti derivanti dalle discipline anteriori alla legislazione nazionale che fossero in favore del danneggiato, sia esso controparte contrattuale o terzo. Si possono prendere come esempi due delle sentenze più famose a tal proposito, come la sentenza María Victoria Sanchez vs Medicina Asturiana SA (C-183/00) e la Henning Veedfald vs Århus Amtskommune (C-203/99).

[15] Secondo l’avvocato generale Colomer infatti la direttiva dovrebbe applicarsi solo a casi di beni mobili prodotti industrialmente. Questa opinione è stata confermata da vari studiosi (M. Faure, W.Van Buggenhout, Produktenaansprakelijkheid. De Europese Richtlijn: harmonisatie en consumenten bescherming (deel 1)?, R. W., 1987-1988, cap. 1, 6, nonché dallo stesso avvocato generale Colomer nel celebre caso Henning Veedfald, reperibile in Case C-203/99, Veedfald v Arhus Amstkommune (2001) ECR I-3569, considerando 8-13.

[16] Tra i molti studiosi che discutono a tal proposito se ne segnalano tre: N. Birnbaum, Strict products liability and computer software, 12 Computer L. J. 135, 143-55 (1988); M. C. Gemignani, Product liability and software, 3 Rutgers Computer & Tech. L. J. 173, 189-99 (1981); L. B. Levy, S. Y. Bell, Software product liability: understanding and minimizing the risks, 1 High Tech L. J. 1, 8-15 (1990), nonché per ultimo S. J. Childers, Don't Stop the Music: No Strict Products Liability for Embedded Software, 19 U. Fla. J. L. & Pub. Pol'y 125, 134-135 (2008).

[17] Vi è comunque la problematica di distinguere la causa del danno nella incorretta provvisione del servizio oppure nell’utilizzo di un prodotto difettoso di per sé stante: si tratta infatti di due ipotesi che si distinguono per l’incolpevolezza di chi fornisce il servizio, dato che nel primo caso l’inadeguatezza del servizio è attribuibile proprio al fornitore di esso, mentre nel secondo è il prodotto di per se stesso la causa della manchevolezza del servizio.

[18] È noto come difatti le automobili conoscono cinque gradi di automatizzazione, dal grado zero, che corrisponde ad una totale assenza di automatizzazione, al grado cinque, che invece ne costituirebbe il grado massimo. Graduando in tal modo i livelli di automazione, è evidente che la categoria "automobili" si divide in tante sottocategorie quanti sono i diversi gradi, loro corrispondendo una diversa disciplina giuridica, dalla soggettività fino al criterio di imputazione della responsabilità. (Directorate-General for internal policies policy department B: structural and cohesion policies, Research for TRAN Committee – Self-piloted cars: The future of road transport?, March 2016, pp. 20-22)

[19]Si veda S. Rodotà, Il problema della responsabilità civile, Giuffrè editore, Milano, 1967, pp. 16-18.

[20] Si veda a proposito G. Calabresi, Costo degli incidenti e responsabilità civile, Analisi economico-giuridica, Giuffrè editore, Milano, 1975, che affronta molto analiticamente i problemi di giustizia ed imponibilità del danno in una prospettiva astratta, utile da declinare nei casi concreti.

Codici e Ebook Altalex Gratuiti

Vedi tutti