IP, IT e Data protection

Il LOADinG Act per una maggiore regolazione nei sistemi decisionali automatizzati

Lo Stato di New York vuole assicurare trasparenza, imparzialità e responsabilità

Il disegno di legge S7543A (LOADinG Act) del Senato dello Stato di New York intende disciplinare l'utilizzo dei sistemi automatizzati nelle decisioni delle agenzie statali, assicurando che siano adottati con trasparenza, imparzialità e responsabilità. Il provvedimento stabilisce l'obbligo di effettuare valutazioni d'impatto per prevenire discriminazioni e garantisce la pubblica divulgazione delle informazioni sui sistemi in uso, affinché i cittadini possano essere adeguatamente informati sui processi automatizzati che influenzano le loro vite.

La crescente diffusione e l'adozione dell'Intelligenza Artificiale in numerosi settori ed applicazioni, insieme alla velocità esponenziale con cui questa tecnologia sta evolvendo, sollevano importanti interrogativi riguardo agli effetti sull'occupazione, sull'economia e sulla privacy.

Sebbene l'IA abbia il potenziale per diventare uno strumento fondamentale in molti contesti, è essenziale che il suo sviluppo ed il suo impiego avvengano in maniera responsabile e con un chiaro impegno a preservare il ruolo e la dignità del lavoro umano.

Non si deve, infatti, considerare l'IA come un sostituto dei lavoratori o del processo decisionale umano, ma come un alleato che, se gestito in modo etico e trasparente, può contribuire a migliorare l'efficienza, l'accessibilità dei servizi e l'innovazione.

Per garantire che l'adozione dell'IA abbia un impatto positivo sulla nostra economia e sulla società nel suo complesso, è necessario implementare politiche di trasparenza, divulgazione e regolamentazione chiare. Questo include l'adozione di misure legislative che tutelino i lavoratori e proteggano la privacy dei cittadini. Le agenzie governative, in particolare, devono essere esempi di buone pratiche nell'uso dell'IA, dimostrando come essa possa essere integrata nei servizi pubblici in maniera equa, efficace e rispettosa dei diritti dei cittadini.

A tal fine, è bene sollecitare l'approvazione della legge S7543A/A9430, che modifica la legislazione statale sulle tecnologie, promuovendo l'adozione del Legislative Oversight of Automated Decision-making in Government Act (LOADinG Act).

Questo provvedimento è essenziale per garantire che l'IA venga utilizzata in modo responsabile dalle agenzie statali, dato il suo crescente utilizzo nell'erogazione dei servizi pubblici e nel determinare l'accesso a vari programmi governativi.

La legge propone un meccanismo di supervisione legislativa sull'uso dell'IA da parte dello Stato, imponendo che ogni applicazione automatizzata venga approvata da una commissione legislativa. Inoltre, la legge prevede l'obbligo di informare il pubblico sui sistemi di IA adottati dalle agenzie statali e sugli scopi per cui vengono utilizzati.

Un aspetto fondamentale di questa normativa è il monitoraggio costante dei processi di acquisizione ed implementazione delle tecnologie IA, nonché la revisione periodica dei sistemi in uso per evitare possibili esiti negativi, discriminatori o distorti.

Il LOADinG Act assicura che l'IA venga utilizzata solo dopo una valutazione approfondita dei suoi impatti e dei rischi associati.

L’obiettivo è garantire che l'uso di questa tecnologia non riduca il numero di posti di lavoro disponibili, non generi disuguaglianze e non faccia crescere discriminazioni in nessuna delle sue applicazioni, che siano di natura sociale, economica o amministrativa.

In sintesi, questa proposta legislativa cerca di proteggere i diritti dei cittadini e dei lavoratori, prevenendo abusi e sfruttamenti legati all'uso delle tecnologie automatizzate nelle decisioni pubbliche.

In parallelo, vi è anche l'approvazione della legge S7623A/A9315A, nota come BOT Act, che ha l'obiettivo di proteggere i lavoratori dalle decisioni automatizzate in ambito occupazionale.

L'uso crescente dell'IA da parte dei datori di lavoro per monitorare, selezionare, assegnare compiti, valutare la performance, disciplinare e raccogliere dati sui lavoratori ha suscitato preoccupazioni legate alla trasparenza, all'equità ed alla tutela dei diritti dei dipendenti.

Il BOT Act propone di stabilire un quadro normativo per regolare l'uso di strumenti di IA in contesti lavorativi, con l'intento di evitare discriminazioni basate su pregiudizi algoritmici e di garantire una supervisione umana adeguata nel processo decisionale automatizzato.

Ciò include il monitoraggio dell'uso dell'IA per il reclutamento, la valutazione delle prestazioni, la distribuzione dei compiti e le pratiche disciplinari.

Un altro elemento chiave della proposta è l'obbligo di un controllo umano significativo sui sistemi di IA, che deve essere costantemente monitorato ed aggiornato per prevenire qualsiasi forma di discriminazione, errore o pregiudizio nei risultati.

Inoltre, la legge regolamenta la raccolta di dati elettronici dai lavoratori, imponendo che siano informati in merito all’utilizzo di questi dati e che abbiano diritto di accesso alle informazioni raccolte su di loro.

Sommario:

  1. Contenuto del Senate Bill S7543A (LOADinG Act)
  2. Analisi e considerazioni giuridiche
  3. Riflessioni ed approfondimenti conclusivi

Sitografia

Bibliografia

Master online L'intelligenza artificiale applicata al diritto, 18 ore - 6 incontri in aula virtuale, Altalex Formazione. Il Master ha l’obiettivo di trasmettere le conoscenze giuridico- informatiche, gli strumenti pratici e il linguaggio specialistico adatti ad affrontare le questioni giuridiche connesse all’utilizzo e allo sviluppo di sistemi di Intelligenza Artificiale.
Scopri subito programma e relatori

1. Contenuto del Senate Bill S7543A (LOADinG Act)

Negli ultimi anni, sia nello Stato di New York che a livello globale, l’IA, gli algoritmi ed i servizi di modellazione computazionale hanno conosciuto una rapida espansione, divenendo strumenti fondamentali che spesso sostituiscono il processo decisionale umano per aumentare l'efficienza e la produttività.

Con l'evoluzione rapida di queste tecnologie, l'espansione dei loro ambiti di applicazione e la riduzione dei costi di implementazione, diventa essenziale che il governo riaffermi i propri doveri nei confronti del pubblico, in particolare quando sono in gioco i diritti costituzionali e legali degli individui.

La legislazione proposta risponde a queste preoccupazioni. Inoltre, qualora l'uso di tali sistemi sia autorizzato, la legge impone l’obbligo di pubblicare una valutazione d’impatto dettagliata, che descriva lo sviluppo della tecnologia ed esamini in modo approfondito la presenza di pregiudizi e discriminazioni.

La valutazione dovrà considerare fattori come razza, colore, etnia, religione, origine nazionale, sesso, identità di genere, orientamento sessuale, stato familiare, informazioni biometriche, fonte legale di reddito e disabilità, al fine di garantire che il sistema non produca risultati discriminatori o ingiusti.

Questo intervento legislativo non solo vieta l’uso di sistemi che perpetuano discriminazioni, ma stabilisce anche un quadro di supervisione che promuove l'equità e la trasparenza nell’utilizzo delle tecnologie da parte dello Stato.

Per evitare discontinuità nelle operazioni statali, che già dipendono da tecnologie di decisione automatizzata, è previsto che i sistemi esistenti vengano divulgati alla legislatura entro un anno dall'adozione della legge.

Dopo tale periodo, tutte le applicazioni in corso dovranno rispettare gli stessi requisiti di trasparenza e valutazione previsti per i nuovi sistemi. In questo modo, si garantirà che l’adozione di tecnologie automatizzate avvenga in modo responsabile, trasparente e conforme ai principi di giustizia ed uguaglianza.

Questo progetto di legge, dunque, mira ad introdurre l'obbligo di divulgare i sistemi di decisione automatizzata già in uso, proibire l'uso non autorizzato di sistemi di decisione automatizzata da parte delle agenzie statali o da entità che agiscono per conto di un'agenzia, senza una revisione umana significativa, e, quando autorizzato, richiedere la pubblicazione di una valutazione d'impatto.

Il Senate Bill S7543A introduce una serie di disposizioni finalizzate a garantire la supervisione legislativa sull'uso dei sistemi di decisione automatizzata da parte delle agenzie governative.

La Sezione 2 aggiunge una nuova Sezione 4 alla legge sulle tecnologie, stabilendo che nessuna agenzia statale o entità operante per conto di un'agenzia possa utilizzare sistemi di decisione automatizzata in relazione alla fornitura di benefici pubblici o in situazioni che influenzano i diritti, le libertà civili, la sicurezza o il benessere di un individuo, a meno che tali sistemi non siano sottoposti ad una revisione umana significativa. Inoltre, viene introdotto un divieto sull’acquisizione o sull’utilizzo di sistemi automatizzati senza una revisione adeguata da parte di un operatore umano.

Quando l'uso di un sistema automatizzato è autorizzato, l'agenzia dovrà completare una valutazione d'impatto ogni due anni, che dovrà includere la descrizione degli obiettivi, dello sviluppo tecnologico e dei test sull'accuratezza, sull’imparzialità e sui potenziali pregiudizi del sistema.

Qualora la valutazione rilevi risultati discriminatori o distorti, l'agenzia sarà obbligata a sospendere l’utilizzo del sistema. La valutazione dovrà essere pubblicata sul sito web dell'agenzia ed inviata al Governatore, al Presidente temporaneo del Senato e al Presidente dell'Assemblea almeno 30 giorni prima dell'adozione o dell’implementazione del sistema, con la possibilità di oscurare alcune informazioni sensibili.

La Sezione 3 stabilisce l’obbligo per le agenzie statali di divulgare informazioni dettagliate riguardo ai sistemi di decisione automatizzata già in uso, comprese le descrizioni dei sistemi, i fornitori di software, la data di inizio, gli scopi e le modalità di applicazione, nonché eventuali valutazioni d'impatto realizzate.

Questo meccanismo di trasparenza ha lo scopo di permettere ai cittadini, ai legislatori e ad altri attori di comprendere appieno l’utilizzo delle tecnologie automatizzate da parte del governo. Infine, la Sezione 4 definisce la data di entrata in vigore della legge, che sarà immediata, fatta eccezione per la Sezione 2, che avrà effetto un anno dopo l’adozione della legge, dando così tempo alle agenzie di adeguarsi alle nuove disposizioni ed avviare le necessarie procedure di revisione.

2. Analisi e considerazioni giuridiche

Dal punto di vista giuridico, il Senate Bill S7543A (LOADinG Act) affronta una serie di tematiche fondamentali relative alla protezione dei diritti civili e costituzionali degli individui ed all'uso etico delle tecnologie di IA nelle agenzie governative.

La crescente adozione di sistemi automatizzati da parte del settore pubblico solleva preoccupazioni circa l'equità, la trasparenza e la protezione dei diritti fondamentali, in particolare quando queste tecnologie influiscono su decisioni vitali come l'accesso ai benefici pubblici o la gestione di altre risorse governative.

Questo progetto di legge cerca di bilanciare l'innovazione tecnologica con la salvaguardia dei diritti individuali, promuovendo la responsabilità e l'accountability nelle operazioni governative.

Uno degli aspetti più significativi dal punto di vista giuridico è l'enfasi sulla trasparenza e la partecipazione pubblica.

Il principio della trasparenza è un elemento fondamentale del diritto amministrativo moderno e si riflette nell'obbligo delle agenzie statali di pubblicare le valutazioni d'impatto dei sistemi di decisione automatizzati.

Tali valutazioni devono includere dettagli sullo sviluppo della tecnologia, sui suoi impatti sui cittadini e sui rischi associati all'uso di tali sistemi.

La legge affronta anche una delle questioni più urgenti dal punto di vista giuridico: la discriminazione algoritmica.

I sistemi di Intelligenza Artificiale, se non adeguatamente monitorati, possono riprodurre ed amplificare i pregiudizi esistenti nei dati. La legge risponde a queste preoccupazioni stabilendo che, nel caso in cui una valutazione d'impatto rilevi l'esistenza di pregiudizi o discriminazioni, l'uso di un sistema di decisione automatizzata deve essere interrotto.

Questo rafforza la protezione giuridica contro violazioni dei diritti costituzionali, come il diritto alla parità di trattamento (art. 14 della Costituzione degli Stati Uniti) ed il divieto di discriminazione. L'approccio garantisce che l'adozione di tecnologie non comprometta i diritti fondamentali degli individui e promuove un sistema equo di assegnazione di risorse governative.

Un altro aspetto giuridicamente rilevante del bill riguarda la privacy. L'uso di sistemi automatizzati da parte del governo implica la raccolta e l'elaborazione di enormi volumi di dati sensibili, che potrebbero violare il diritto alla privacy se non adeguatamente regolamentati.

La legge stabilisce che le agenzie devono monitorare ed informare i cittadini sull'uso dei loro dati, in conformità con le normative statali e federali, come il California Consumer Privacy Act (CCPA). Inoltre, la pubblicazione delle valutazioni d'impatto e la necessità di garantire che l'uso dei dati non violi i diritti degli individui contribuiscono a proteggere i diritti alla privacy di ciascun cittadino.

Dal punto di vista giuridico, una delle caratteristiche distintive del Senate Bill S7543A è il rafforzamento del principio di legalità.

In base a questo principio, nessun sistema di decisione automatizzato può essere utilizzato dalle agenzie governative senza un'approvazione legislativa esplicita.

Ogni utilizzo di tale tecnologia deve essere sottoposto ad un rigoroso processo di autorizzazione e monitoraggio, conforme alle procedure stabilite dalla legge.

La supervisione umana rappresenta una garanzia di equità e giustizia, evitando che le decisioni vengano interamente delegate ad algoritmi senza alcun controllo esterno. Questo principio è in linea con il diritto ad una giustizia equa (art. 6 della Dichiarazione Universale dei Diritti Umani), che implica che le decisioni che influenzano i diritti fondamentali non debbano essere lasciate all'automazione, ma sempre soggette ad un esame umano che ne verifichi la correttezza e l'imparzialità. Tale controllo è essenziale per garantire che l'uso di tecnologie automatizzate non comprometta la dignità ed i diritti umani degli individui.

Il Senate Bill S7543A rappresenta, pertanto, una risposta giuridica concreta alle preoccupazioni crescenti riguardo l'uso dell'IA nel settore pubblico.

Attraverso un ampio sistema di regolamentazione, che include la trasparenza, la protezione dai pregiudizi, la tutela della privacy ed una supervisione legislativa ed umana, il bill mira a garantire che l'adozione di tecnologie automatizzate da parte delle agenzie governative rispetti i diritti fondamentali e contribuisca ad una gestione equa e responsabile dei dati e delle decisioni che influiscono sulla vita dei cittadini.

L'approccio giuridico del bill promuove un equilibrio tra innovazione tecnologica e tutela dei diritti umani, rispondendo alle esigenze di un mondo sempre più digitale, ma senza compromettere i principi di giustizia ed equità che costituiscono il fondamento del diritto statunitense.

3. Riflessioni ed approfondimenti conclusivi

Il 15 maggio 2024, il gruppo di lavoro bipartisan del Senato degli Stati Uniti sull’Intelligenza Artificiale, composto dai leader politici Chuck Schumer (D-NY), Mike Rounds (R-SD), Todd Young (R-IN) e Martin Heinrich (D-NM), ha presentato un rapporto intitolato "Driving U.S. Innovation in Artificial Intelligence: A Roadmap for Artificial Intelligence Policy in the United States Senate". Questo documento traccia un quadro completo per affrontare le sfide e le opportunità derivanti dall'adozione e dallo sviluppo delle tecnologie di IA, con un focus particolare sull'equilibrio tra innovazione e responsabilità etica.

La roadmap è il risultato di una serie di briefing educativi e nuove AI Insight Forum che hanno coinvolto esperti, ricercatori ed attori del settore pubblico e privato, promuovendo un approccio collaborativo ed intersettoriale alla gestione dell'IA.

L'investimento continuo in ricerca e sviluppo in tale ambito è importante per mantenere la competitività degli Stati Uniti.

Il rapporto propone l'allocazione di almeno 32 miliardi di dollari annui per l'innovazione nell'IA non legata alla difesa, per sostenere progressi tecnologici e scientifici in vari settori.

Questo investimento è visto come fondamentale per consolidare la leadership americana nell'ambito delle tecnologie emergenti.

La trasformazione del mercato del lavoro, dovuta all'introduzione dell'Intelligenza Artificiale, richiede l'adozione di programmi di formazione che dotino i lavoratori delle competenze necessarie per adattarsi ad un'economia sempre più automatizzata.

L'obiettivo di queste iniziative è mitigare gli effetti negativi della dislocazione occupazionale e garantire che i cittadini siano pronti a sfruttare le nuove opportunità offerte dalla tecnologia stessa.

Per garantire la sicurezza e l'affidabilità dei sistemi IA, la roadmap propone lo sviluppo di metodologie standardizzate per la gestione dei rischi. Tra le pratiche suggerite ci sono il red-teaming (test di vulnerabilità) e gli audit commerciali, che sono strumenti fondamentali per identificare difetti e vulnerabilità nei sistemi di IA e per garantirne che siano utilizzati in modo sicuro.

Il gruppo di lavoro bipartisan del Senato sull'Intelligenza Artificiale ha enfatizzato l'importanza di integrare la regolamentazione dell'IA all'interno delle leggi esistenti, garantendo che i principi di protezione dei consumatori e diritti civili siano adeguatamente riflessi nelle nuove legislazioni.

In particolare, la regolamentazione dell'IA dovrà fare riferimento a principi fondamentali come la trasparenza e la spiegabilità delle decisioni automatizzate, al fine di proteggere gli utenti da potenziali danni derivanti da sistemi opachi e difficili da comprendere.

Inoltre, un altro elemento sottolineato è l'importanza di test e valutazioni regolari dei sistemi di IA, specialmente quelli utilizzati per applicazioni ad alto rischio, come nelle decisioni legali o nei settori della salute e della sicurezza pubblica.

Questi test dovrebbero garantire che i sistemi automatizzati non abbiano impatti discriminatori o dannosi e che possano essere controllati attraverso valutazioni indipendenti.

La necessità di una supervisione costante e di un sistema di audit regolare è vista come una misura preventiva per evitare che l'IA venga utilizzata in modi che possano compromettere i diritti dei cittadini o danneggiare la società in generale.

Infine, il gruppo ha affermato che questi principi non solo dovrebbero essere integrati nella legislazione, ma dovrebbero anche essere applicati attraverso meccanismi di supervisione e responsabilità che includono sia il settore pubblico che quello privato.

In questo modo, l'adozione dell'IA potrebbe avvenire in modo etico e responsabile, con un forte focus sulla protezione dei diritti civili e sul rispetto della privacy.

IN COLLABORAZIONE CON

Assodata e Isdifog

>> Scopri il Corso online specialista privacy di Altalex!
>> Scopri il Corso online la tutela della privacy e l'attività ispettiva del Garante di Altalex!


Sitografia

Bibliografia

  1. Support Memorandum - AI employment decisions - rif. Bot Act

  2. Report Driving U.S. Innovation in Artificial Intelligence: A Roadmap for Artificial Intelligence Policy in the United States Senate.

Codici e Ebook Altalex Gratuiti

Vedi tutti