Nel 2021 la Commissione Europea ha pubblicato la prima proposta di Regolamento sull’Intelligenza Artificiale (AI Act), che deve la sua struttura all’analisi dei rischi che i sistemi di intelligenza artificiale (IA) possono comportare per diritti fondamentali, salute e sicurezza.

 

Nei documenti prodromici alla bozza di Regolamento, infatti, si evidenziava proprio quanto la natura dei rischi derivanti dai sistemi di AI sia notevolmente diversa rispetto alle tecnologie precedenti perché i possibili effetti sul diritto alla dignità umana, alla privacy, alla non discriminazione e all’effettiva tutela giuridica dei cittadini e delle cittadine potrebbero subire compressioni senza precedenti.


L’Europa sembra decisa a prendersi la responsabilità di proteggere i diritti umani fondamentali proprio come sancito dalla Carta dei Diritti Fondamentali.

 

Da queste fondamenta muove quindi l’impianto stesso dell’AI ACT, che non solo suddivide le varie applicazioni di IA in categorie rispetto al grado di rischio in termini di salute, sicurezza e diritti umani, ma introduce anche l’obbligo di una pre-valutazione del sistema, in grado di identificare possibili impatti sociali e ambientali, per supportare lo sviluppo di tecnologie che siano guidate da principi etici, di responsabilità e sicurezza.  

 

Proprio in questi giorni si apre la fase dei triloghi europei sull’AI ACT, in cui Parlamento, Commissione e Consiglio negozieranno il testo finale da adottare, sulla base di quanto formalmente approvato dal Parlamento nella sua ultima votazione di giugno 2023 che (e ciò non stupisce, alla luce delle evidenze identificate dalla Commissione) ispessisce profondamente i meccanismi di salvaguardia dei diritti fondamentali – introducendo, in particolare, l’obbligo di includere una valutazione verticale sugli impatti che i sistemi di IA più rischiosi possono avere sui diritti umani fondamentali.

 

Proprio le modifiche all’articolo 29, infatti, sono di estrema importanza, in quanto mirano a rafforzare la responsabilità (nel senso di accountability) e la trasparenza dei soggetti distributori del sistema di IA ad alto rischio, attraverso meccanismi che garantiscano la qualità di tutti gli attori della value chain e una governance effettiva e ‘umana’ del sistema di IA.

Ma la novità più rilevante è il nuovo articolo 29 a), che introduce – per la prima volta nella legislazione europea – l’obbligo di condurre, prima della messa in uso di un sistema di IA ad alto rischio, una dettagliata valutazione d’impatto sui diritti fondamentali, ponendo particolare attenzione ai gruppi di persone marginalizzate e all’ambiente: tale valutazione dovrà non solo analizzare rischi e impatti, ma anche delineare chiare misure di governance del sistema di IA e mitigazione dei rischi mappati.


La valutazione dovrà essere, inoltre, contestuale, e cioè includere una precisa descrizione dello scopo per il quale il sistema sarà utilizzato, nonché una chiara descrizione del contesto territoriale e temporale dell’uso del sistema e le categorie di persone fisiche e gruppi maggiormente interessati dalla sua applicazione.


Il nuovo articolo, poi, richiede che nello svolgimento della valutazione d’impatto i distributori europei, con alcune eccezioni, informino l’autorità di vigilanza nazionale e coinvolgano attivamente gruppi di interesse rilevanti e rappresentanti delle persone potenzialmente impattate come, per esempio, organizzazioni per i diritti umani, consumatori, stakeholders sociali; e che rendano disponibili i risultati di tale valutazione in un documento di sintesi da depositare presso l’apposito registro UE.


In un’ottica di sostenibilità delle risorse, però, l’articolo specifica come, qualora una valutazione d’impatto sui diritti umani fosse già stata condotta precedentemente dallo sviluppatore del sistema di IA, questa possa essere considerata valida ai fini di compliance con la normativa, a meno che non vi siano nuovi elementi per considerarla superata. La possibilità di richiamare una valutazione d’impatto sui diritti umani precedente mira chiaramente a spingere chi sviluppa sistemi di IA ad affrontare il tema già adesso (e non solo quando la normativa sarà in vigore) per poter proporre tecnologie già complete e godere di un solido vantaggio competitivo in questa fase di trasformazione.

 

Si può dire, quindi, che alla luce degli obblighi introdotti dai recenti emendamenti, approvati dal Parlamento europeo, le aziende europee che sviluppano o utilizzano sistemi di intelligenza artificiale classificati ad alto rischio dovranno garantire la piena conformità non solo normativa e tecnica, ma anche etica, delle loro soluzioni.


Quanto qui ci interessa maggiormente evidenziare, infatti, è l’accento posto dai policy-maker europei sul tema dei diritti fondamentali quali veri e propri protagonisti e driver di un ecosistema d’innovazione che espanda – e non comprima – lo spazio democratico di una società in cui la tecnologia si fonde sempre più spesso con la dimensione politica e di indirizzo valoriale.


Immanence si prende cura già da oggi dei vostri sistemi di IA e vi accompagna in un processo di compliance disegnato sulle singole esigenze, per permettervi di affrontare un mercato volatile come quello attuale attraverso una visione, e una pianificazione, di lungo periodo.