Giustizia, Nordio sconfessa Nordio. Dalla destra più reati nei codici, meno sicurezza per i cittadini
7 Febbraio 2024DemoLibri 17 febbraio 2024
13 Febbraio 2024di Lucia Valente
Per gentile concessione dell’autrice pubblichiamo questo articolo apparso su lavoce.info
L’AI ha già conquistato spazi nell’organizzazione del lavoro
L’intelligenza artificiale coniugata con l’automazione ha già cambiato il modo di lavorare in molti settori. Pensiamo all’uso dei robot intelligenti nella logistica o in campo sanitario; o ad applicazioni come ChatGpt nell’editoria, nel design e negli altri lavori creativi. Si ripete quanto è già accaduto con la digitalizzazione in settori storicamente presidiati dal lavoro umano: come le banche, il pagamento dei pedaggi autostradali o le casse dei supermercati. Nessuno, credo, rimpiange le file agli sportelli, alle casse o ai caselli.
Ora si dà il caso che robot e sistemi, sempre più autonomi e intelligenti e sistemi sviluppati per garantire l’interazione uomo-macchina, incomincino a eseguire funzioni finora svolte esclusivamente dalle persone umane in settori come la diagnostica medica, la redazione di pareri, (parti di) atti giudiziari e altri snodi essenziale per la vita delle persone e dei sistemi democratici.
L’importanza della classificazione “ad alto rischio”
Si occupa anche di questi aspetti l’Artificial Intelligence Act, il regolamento proposto dalla Commissione Ue nel 2021 giunto alle battute finali dopo il negoziato tra Consiglio e Parlamento europeo del dicembre scorso. Non c’è ancora un testo definitivo, ma si tratta del primo regolamento al mondo che detta le regole per l’uso dell’intelligenza artificiale. Il regolamento propone di considerare ad alto rischio (art. 6 e allegato III) tutti i sistemi di intelligenza artificiale utilizzati dal datore di lavoro/committente per l’assunzione o la selezione del personale, per redigere annunci mirati, per analizzare o filtrare le candidature o valutare i candidati a una determinata posizione o per assegnare compiti in base al comportamento della persona o ai tratti o alle caratteristiche personali. Sono considerati ad alto rischio anche i sistemi di AI utilizzati per monitorare e valutare le prestazioni o il comportamento delle persone ingaggiate con un contratto di lavoro autonomo, o subordinato, o tramite una piattaforma digitale e quelli utilizzati per decidere se cessare o no un rapporto di lavoro.
Il regolamento europeo intende bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali, della salute e della sicurezza della persona anche quando l’AI è utilizzata sui luoghi di lavoro o per il controllo a distanza. Per esempio, modelli di AI possono essere utilizzati come componenti di sistemi per la sicurezza dei lavoratori (come le tute ergonomiche per la prevenzione e il controllo delle malattie muscolo-scheletriche) o di sistemi di monitoraggio della prestazione (come nel caso dell’uso di algoritmi per il controllo a distanza) e possono fornire in tempo reale moltissimi dati che vengono costantemente raccolti ed elaborati per prendere decisioni. I sistemi di AI possono poi essere utilizzati nell’istruzione o nella formazione professionale, per esempio per determinare l’accesso o l’assegnazione delle persone a istituti o programmi d’istruzione e formazione professionale a tutti i livelli, o per valutare i risultati dell’apprendimento delle persone (così il considerando 35). Questi sistemi possono violare il diritto all’istruzione e alla formazione, negandone l’accesso, oppure possono violare il diritto a una occupazione o a una progressione nella carriera o alla prosecuzione di un rapporto di lavoro, se sono progettati senza tener conto dei divieti di discriminazione nei confronti delle donne, delle persone disabili o delle persone con un determinato orientamento sessuale, o anziane. Inoltre, i sistemi di AI utilizzati per monitorare le prestazioni o il comportamento dei lavoratori possono ledere la protezione dei dati personali incidendo indebitamente sulla vita privata: restano impregiudicati gli obblighi derivanti dal regolamento europeo per la privacy n. 2016/679.
Gli obblighi da rispettare per la tutela dei diritti e delle libertà fondamentali
La proposta, frutto di un articolato compromesso politico, segue un approccio basato sul rischio e mira a garantire la certezza del diritto. Prevede una serie di obblighi di trasparenza da rispettare per la commercializzazione e l’utilizzo di questi sistemi, inclusa l’AI generativa (come ChatGpt, che inizialmente non era compresa nelle fattispecie disciplinate). Per l’utilizzo dei sistemi ad alto rischio è necessaria una valutazione d’impatto preventiva sui diritti fondamentali delle persone (art. 29), anche quando l’utilizzatore è una piattaforma digitale; è inoltre obbligatoria la sorveglianza umana prima dell’immissione di un’AI sul mercato (art. 14), volta ad assicurare che i sistemi ad alto rischio non provochino danni anche involontari; e una sorveglianza umana in corso d’opera da parte di personale specializzato per prevenirne l’uso improprio e garantire che l’operatore non faccia automaticamente affidamento sull’output generato dall’AI ad alto rischio (cosiddetta distorsione dell’automazione).
È poi previsto l’obbligo d’informazione nei confronti delle persone soggette a un sistema di AI e il loro diritto di ricevere spiegazioni sull’eventuale decisione del sistema; il rispetto di standard di sicurezza da parte sia degli sviluppatori, sia degli utilizzatori; il diritto di presentare un ricorso, anche collettivo, o un reclamo contro le decisioni prese da sistemi di AI ad altro rischio errate o illegittime. Sempre per la fornitura e l’utilizzo di sistemi ad alto rischio sono previsti obblighi di registrazione in una apposita banca dati europea (art. 51). Obblighi di trasparenza sono previsti anche per i sistemi di intelligenza artificiale che generano o producono immagini, video o audio che potrebbero sembrare autentici come nel caso di deep fake, chatbot o contenuti generati da un’AI. Ed è previsto l’obbligo di informare le persone fisiche del fatto che stanno interagendo con un sistema di AI ad alto rischio anche nei casi in cui i sistemi consentono il riconoscimento delle emozioni (che, stando all’ultima versione dell’accordo, dovrebbe essere vietato sui luoghi di lavoro e negli istituti d’istruzione).
L’obiettivo del regolamento è rendere questi meccanismi, sempre più utilizzati, affidabili e accurati, perché sono capaci di incidere pesantemente sui diritti fondamentali delle persone protetti dalla Carta dell’Ue come la dignità umana, il rispetto della vita privata, della famiglia, dei dati personali, della libertà di espressione e d’informazione, della libertà di riunione e di associazione, della non discriminazione, della protezione dei lavoratori, dei consumatori, delle persone con disabilità e dei minori.
Per l’approvazione definitiva del regolamento mancano alcuni passaggi formali. Il voto finale è previsto per aprile, mentre per l’entrata in vigore ci vorranno altri due anni. Nel frattempo, le aziende possono continuare a sperimentare soluzioni di AI con l’unico limite, che vale solo per il caso italiano (art. 1-bis Dlgs 104/2022 come modificato dal decreto n. 48/2023), di rispettare gli obblighi di informazione ai lavoratori o ai sindacati sul funzionamento dei sistemi decisionali o di monitoraggio, ma solo nel caso in cui siano interamente automatizzati.