Per Shadow AI si intende la pratica diffusa, e spesso inconsapevole, di team o persone che utilizzano strumenti di intelligenza artificiale (es. ChatGPT, Copilot) senza autorizzazione, policy o formazione aziendale.

Questi strumenti vengono utilizzati in modo frammentato e silenzioso dalle persone dell’azienda, spesso senza conoscenza di rischi e implicazioni. Operando senza alcuna integrazione nei processi aziendali ufficiali rendendo difficile, se non impossibile, avere un quadro chiaro dei dati trattati, delle finalità d’uso, dei rischi associati e delle reali potenzialità.

Secondo un recente report del Capgemini Research Institute, il 65% delle aziende europee ammette che i propri dipendenti utilizzano strumenti di IA senza che esista una policy chiara o controlli da parte del reparto IT. In Italia, la percentuale sale al 72%, evidenziando una maggiore fragilità nella gestione del fenomeno.

“In un’indagine, Microsoft ha rilevato che il 75% dei lavoratori di tutto il mondo utilizza la GenIA (intelligenza artificiale generativa) al lavoro e che il 78% degli utenti porta la propria AI sul lavoro (strumenti non forniti e non gestiti dall’organizzazione). La nostra ultima ricerca sulla GenIA ha rivelato che l’uso non autorizzato da parte dei dipendenti è relativamente comune. Tra il 39% delle organizzazioni che hanno una politica di divieto o limitazione, la metà afferma che c’è ancora un uso non autorizzato della GenIA sul posto di lavoro. Inoltre, la nostra recente ricerca sulla GenIA per l’ingegneria informatica riporta che il 63% dei professionisti che utilizzano la GenIA la usano in modo non autorizzato, mentre solo il 37% utilizza uno strumento con licenza fornito dalla propria organizzazione.”  Capgemini Research Institute 2024

I rischi 

Ma quali sono quindi i rischi che si nascondono dietro questo utilizzo non guidato?

L’articolo 4 del regolamento europeo AI Act impone infatti ai fornitori e agli utilizzatori di sistemi di intelligenza artificiale di “adottare misure per garantire, nella migliore misura possibile, un livello sufficiente di alfabetizzazione in AI tra il proprio personale e le altre persone coinvolte nell’operazione e nell’uso dei sistemi AI per loro conto, tenendo conto delle loro conoscenze tecniche, esperienza, istruzione e formazione, nonché del contesto in cui i sistemi AI verranno utilizzati e delle persone o gruppi di persone su cui i sistemi AI avranno un impatto”.

Qui ci sono due informazioni importanti su cui fare particolare attenzione:

Il potenziale innovativo dell’implementazione di IA nei processi aziendali è chiaro. La maggior parte degli utenti che utilizza questi strumenti afferma che l’IA migliora la produttività,  perciò l’obiettivo è regolare, non vietare. Proibire l’utilizzo dell’AI generativa rischia di frenare l’innovazione interna e la competitività. La sfida, quindi, è: da una parte ridurre i rischi, dall’altra valorizzare il potenziale trasformativo e strategico dell’IA attraverso un uso responsabile e consapevole.

Il nostro servizio Education risponde a questa esigenza

Il nostro percorso modulare mira a:

Adesso, aiutaci a comprendere la tua situazione per offrirti una proposta su misura, ti invitiamo a compilare la nostra breve survey.

Ti contatteremo con una proposta strategica gratuita e personalizzata per iniziare a governare consapevolmente la tua IA.

Il cambiamento parte da qui.


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *