In un periodo storico altamente incerto, in rapida evoluzione, e nel quale è necessario tener conto della complessità che lo caratterizza, il rischio è un elemento costante, la cui gestione risulta vincente nella misura in cui permette di interpretare i segnali di pericolo con anticipo e, pertanto, identificare le minacce prima che esse si presentino.  

Il risk management è, infatti, uno dei pilastri di ogni organizzazione, proprio perché, da una parte, partecipa alla tutela del business da impatti potenzialmente devastanti (e non adeguatamente previsti); dall’altra supporta un processo d’innovazione più sicuro nel medio e lungo periodo – proprio in quanto capace di sistematizzare i possibili impatti futuri di una specifica scelta di business nel contesto di riferimento.  

In quest’ottica è chiaro come, in una società basata sul rischio, sia fondamentale interpretare la lista dei rischi aziendali come un documento vivente, capace di integrare rapidamente le nuove categorie che possono emergere dai continui cambiamenti in atto, inclusi – in primis – quelli tecnologici. 

Così, oggi, la rapida diffusione dell’intelligenza artificiale all’interno di molte organizzazioni impone alle aziende d’integrare ‘il rischio algoritmico’ all’interno della loro strategia aziendale di gestione del rischio: non solo per esigenze di compliance con il regolamento europeo sull’intelligenza artificiale (in arrivo nelle prossime settimane), ma proprio perché si tratta di una delle aree più scivolose per organizzazioni che, spesso, non sono consapevoli dei rischi effettivi che possono derivare da un’implementazione “a tappeto” dell’AI. 

La natura socio-tecnica dell’intelligenza artificiale, tuttavia, richiede che il rischio algoritmico, oltre che nei classici termini reputazionali, finanziari e legali, sia valutato anche rispetto al rischio etico che può produrre.
È ormai consolidato, infatti, come modelli e sistemi di intelligenza artificiale interagiscano con l’essere umano e la società in ogni fase del loro sviluppo e fruizione; e come plasmino, altresì, il contesto sociale in cui sono inseriti, producendo rischi immediati e concreti: come discriminazione, sorveglianza e disinformazione. 

È evidente come questa visione abbia dato forma al risk based approach – adottato, per esempio, dall’AI ACT, che mira a responsabilizzare produttori e utilizzatori rispetto in quanto a governance dei sistemi di IA, classificando le applicazioni di intelligenza artificiale in quattro categorie; in base al rischio che possono comportare in termini si salute, sicurezza e diritti umani, per attivare conseguenti livelli di compliance. 

Sotto il profilo etico, pertanto, il rischio algoritmico richiede, in prima istanza, un’identificazione, analisi e valutazione degli impatti, che l’applicazione di un singolo modello o sistema di IA (in quello specifico contesto di utilizzo) potrà avere sulla società e sui diritti umani fondamentali.  
In seconda battuta si potrà misurare l’effettivo rischio etico emergente che, se inserito all’interno di un più strutturato sistema di gestione del rischio, permetterà di prioritizzare le attività d’intervento e mitigazione, monitorando costantemente il modello/sistema di IA – per individuare eventuali nuovi impatti, e conseguenze precedentemente non prevedibili.

A differenza di altre aree di rischio, che possono seguire in molti casi un metodo prettamente quantitativo, la valutazione degli impatti e dei rischi etici dovrà essere capace di accorpare l’analisi qualitativa con quella quantitativa, proprio perché se misurare “quantitativamente” la tutela dei diritti è un esercizio che confligge con il concetto stesso di diritto umano fondamentale, dall’altra – se non si fa un esercizio di traduzione della misura qualitativa in una misura quantitativa – sarà quasi impossibile gestire realmente i rischi emergenti.

Tra le principali sfide del rischio algoritmico, infatti, si pone quella del suo impatto: che può manifestarsi in varie forme, molte delle quali ancora a noi sconosciute e/o poco note, urtando non solo valori come la salute e la sicurezza, ma anche principi come quello della non discriminazione e altri diritti fondamentali di cui dobbiamo – e vogliamo – garantire il rispetto. 

L’obiettivo di questo approccio risk-based alla tecnologia (ormai diffuso in molte regolamentazioni – anche al di fuori dell’Unione Europea) non è certo di ostacolare l’innovazione o colpevolizzare la tecnologia, ma, al contrario, è studiato per essere flessibile, e quindi funzionale all’attuale periodo storico; nonché per portare alla diffusione di un modello di sviluppo tecnologico riflessivo, governato e human-driven.