Cos’è l’AI spiegabile e perché sarà sempre più importante nelle aziende
L’Intelligenza Artificiale è un argomento d’enorme attualità.
Secondo Anitec-Assinform, l’associazione di Confindustria che raggruppa le aziende del settore IT e della comunicazione, in Italia il mercato dell’AI raggiungerà i 700 milioni di euro nel 2025, segnando una crescita media annua del 22%. Sono dunque sempre di più le aziende che utilizzano attivamente l’AI o intendono implementarla negli anni a venire.
Tutto ciò si traduce nella necessità di fare chiarezza nel “dietro le quinte” dell’Intelligenza Artificiale: è la cosiddetta “Explainable AI”, o “AI spiegabile”, un insieme di tecniche e di strumenti che aiutano a capire perché un modello di intelligenza artificiale ha preso una certa decisione.
Cos’è l’AI spiegabile (e perché è importante)
L’AI spiegabile è una combinazione di best practice, principi di design e strumenti efficienti, il cui obiettivo è quello di fornire una risposta all’uomo: come fanno i modelli di Intelligenza Artificiale a trarre le loro conclusioni? Quali dati usano? Possiamo fidarci?
Le best practice sono basate su tecniche da tempo utilizzate dai Data Scientist per capire come un modello impara dai dati che gli vengono forniti. I principi di design servono a spiegare e motivare una decisione, ma anche a progettare modelli più semplici di AI. Gli strumenti più evoluti permettono infine di ottenere modelli d’apprendimento raffinati, anche grazie alla partecipazione della community.
Perché l’AI spiegabile è tanto importante?
Perché l’Intelligenza Artificiale è caratterizzata da tecniche d’apprendimento automatico difficili da comprendere, da cui derivano applicazioni sempre più diffuse in ambiti rilevanti del sistema socio-economico. La scarsa trasparenza è tipica di quella che convenzionalmente viene definita la “scatola nera” dell’intelligenza artificiale, in cui convergono dati e algoritmi funzionali alla creazione di un modello capace di apprendere e decidere in autonomia. Con l’AI spiegabile, si va a ricostruire il processo decisionale dall’input all’output, ottenendo così una spiegazione sulla logica che governa l’Intelligenza Artificiale.
In che modo l’AI spiegabile più aiutare le aziende
Secondo un’indagine globale condotta da McKinsey & Company nel 2020, il 50% delle imprese utilizza l’Intelligenza Artificiale in almeno una funzione aziendale, considerandola un valore aggiunto e arrivando ad attribuirle percentuali di fatturato fino al 22%2. Una seconda indagine, più recente, ha approfondito il legame tra AI e profitti: le imprese che generano il 20% del fatturato grazie all’Intelligenza Artificiale sono quelle che introducono le migliori best practice di AI spiegabile.
Ma come può l’AI spiegabile aiutare l’impresa?
Aumento della produttività
Il primo effetto dell’Intelligenza Artificiale spiegabile è l’aumento della produttività. A dimostrarlo sono diversi studi. Ogni ora, gli addetti all’assistenza che fanno uso dell’Intelligenza Artificiale riescono a gestire il 13,8% di richieste in più, i professionisti che la utilizzano possono scrivere il 59% di documenti aziendali in più. Mentre, i programmatori, riescono a codificare il 126% di progetti in più a settimana.
Costruzione della fiducia
La spiegabilità è fondamentale per costruire la fiducia dei clienti, delle autorità di regolamentazione e del pubblico in generale: le persone vogliono essere sicure che i modelli di intelligenza artificiale che prendono decisioni consequenziali lo facciano in modo accurato ed equo. I team di vendita, ad esempio, tendono a fidarsi più del loro istinto che di un’applicazione di intelligenza artificiale, le cui azioni sembrano provenire da una scatola nera. Sapere perché l’AI ha formulato la sua raccomandazione aumenta la loro fiducia, rendendoli più inclini a seguirla.
Generazione di valore
L’AI spiegabile può far emergere la necessità di interventi aziendali che altrimenti non verrebbero attuati. Ad esempio, una previsione del tasso di abbandono dei clienti può essere utile di per sé, ma una spiegazione del motivo per cui i clienti lasciano l’azienda può aiutare i dirigenti a intervenire per invertire il trend.
Attenuazione dei rischi
La spiegabilità aiuta le aziende a mitigare i rischi. I sistemi di Intelligenza Artificiale che entrano in conflitto con le norme etiche, anche se inavvertitamente, possono innescare un intenso controllo pubblico, mediatico e normativo. I team legali e di valutazione del rischio possono utilizzare la spiegazione fornita dal team tecnico per confermare che il sistema è conforme alle leggi e ai regolamenti applicabili, ed è in linea con le politiche e i valori aziendali interni.