Cos'è l'AI spiegabile o XAI?
Cos'è l'AI spiegabile o XAI?
L'AI spiegabile è un insieme di processi e metodi che consente agli utenti di comprendere e considerare attendibili i risultati e l'output creati dagli algoritmi di machine learning (ML) dell'AI. Le spiegazioni a corredo dell'output dell'AI/ML sono rivolte a utenti, operatori o sviluppatori e intendono risolvere problemi e sfide che vanno dall'adozione da parte degli utenti alla governance e allo sviluppo dei sistemi. Questa "spiegabilità" è fondamentale per la capacità dell'AI di ottenere la fiducia e la credibilità necessarie sul mercato per stimolare la sua adozione su larga scala e apportare i conseguenti vantaggi. Altre iniziative collegate ed emergenti sono l'AI affidabile e l'AI responsabile.
Come viene implementata l'AI spiegabile?
Il National Institute of Standards and Technology (NIST) degli Stati Uniti ha dichiarato che quattro principi guidano la XAI:
- Spiegazione: i sistemi forniscono prove o ragioni giustificative per tutti gli output.
- Significativo: i sistemi forniscono spiegazioni comprensibili ai singoli utenti.
- Accuratezza delle spiegazioni: La spiegazione svela precisamente il processo di generazione dell'output da parte del sistema.
- Limiti della conoscenza: il sistema è operativo soltanto nelle condizioni per cui è stato progettato o quando il suo output ha raggiunto livelli di fiducia sufficienti.
Il NIST sottolinea che le spiegazioni possono variare da quelle semplici a quelle complesse e dipendono dal fruitore in questione. L'agenzia descrive alcuni tipi di spiegazione ricorrendo alle seguenti cinque categorie esemplificative e non esaustive di "spiegabilità":
- Vantaggio per l'utente
- Accettazione da parte della società
- Normative e conformità
- Sviluppo dei sistemi
- Vantaggio per il proprietario
Perché è importante l'AI spiegabile?
L'AI spiegabile è un componente determinante per sviluppare, conquistare e mantenere la fiducia nei sistemi automatizzati. Senza fiducia, l'AI, e in particolare l'AI for IT Operations (AIOps), non sarà pienamente adottata e di conseguenza la portata e la complessità dei sistemi moderni supereranno ciò che è possibile ottenere con le operazioni manuali e l'automazione tradizionale.
Quando si instaura la fiducia, la pratica dell'"AI washing", che sottintende come un prodotto o un servizio sia basato sull'AI quando il suo ruolo è invece debole o assente, diventa evidente, aiutando sia gli operatori che i clienti nella loro due diligence sull'AI. Promuovere la credibilità e la fiducia nell'AI influisce sulla portata e sulla velocità della sua adozione, e questo a sua volta determina quanto velocemente e ampiamente i suoi benefici possano essere ottenuti.
Quando si assegna a un sistema il compito di trovare risposte o prendere decisioni, in particolare quelle che incidono sul mondo reale, è indispensabile poter spiegare come il sistema è giunto a una decisione, come influenza un risultato o perché le azioni sono state ritenute necessarie.
Vantaggi dell'AI spiegabile
I vantaggi dell'AI spiegabile sono multidimensionali. Essi riguardano il processo decisionale consapevole, la riduzione dei rischi, l'aumento della fiducia e dell'adozione da parte degli utenti, una migliore governance, un miglioramento più rapido dei sistemi e l'evoluzione complessiva e l'utilità dell'AI nel mondo.
Quale/i problema/i risolve l'AI spiegabile?
Molti modelli di AI e ML sono opachi e i loro output non spiegabili. La capacità di mostrare e spiegare perché sono stati seguiti determinati percorsi o come sono stati generati i risultati è fondamentale per la credibilità, l'evoluzione e l'adozione delle tecnologie di AI.
Fare luce sui dati, sui modelli e sui processi consente agli operatori e agli utenti di ottenere informazioni utili e osservare questi sistemi al fine di ottimizzarli grazie a un ragionamento chiaro e fondato. E, soprattutto, la "spiegabilità" permette di comunicare più facilmente eventuali difetti, pregiudizi e rischi e, successivamente, di mitigarli o eliminarli.
Come l'AI spiegabile crea trasparenza e sviluppa la fiducia
Per essere utili, i dati grezzi iniziali devono alla fine tradursi in un'azione consigliata o eseguita. Chiedere a un utente di fidarsi di un flusso di lavoro completamente autonomo fin dal principio equivale spesso a un salto nel buio; quindi, è consigliabile consentirgli di procedere attraverso i vari livelli di supporto iniziando dal basso verso l'alto. Indagando gli eventi, livello dopo livello, il flusso di lavoro dell'interfaccia utente (UI) permette di scorrerli, uno dopo l'altro, risalendo fino agli input grezzi. Questo favorisce la trasparenza e la fiducia.
Un framework che permetta agli esperti del settore di superare il loro scetticismo scavando più a fondo e al tempo stesso ai principianti di effettuare delle ricerche spinti dalla curiosità, stimola la fiducia sia nei neofiti che nei veterani navigati, aumentando la loro produttività e le opportunità di apprendimento. Questo coinvolgimento crea anche un circolo virtuoso in grado di addestrare e perfezionare ulteriormente gli algoritmi AI/ML per un miglioramento continuo del sistema.
Come utilizzare l'AI spiegabile per valutare e ridurre il rischio
Grazie al networking di dati, con i suoi protocolli e le sue strutture di dati ben definiti, l'AI può compiere incredibili progressi senza temere le discriminazioni o i pregiudizi umani. Quando devono affrontare ambiti di problemi neutrali, come la risoluzione dei problemi e la service assurance, le applicazioni dell'AI possono essere ben delimitate e adottate in modo responsabile.
È fondamentale che il fornitore risponda ad alcune domande tecniche e operative di base per riuscire a smascherare ed evitare l'"AI washing". Come in tutte le attività di due diligence e reperimento di servizi, il livello di dettaglio delle risposte può fornire indicazioni importanti. Le risposte possono necessitare di un'interpretazione tecnica, ma è comunque preferibile chiederle per accertarsi che le affermazioni dei fornitori siano realizzabili.
Come per qualsiasi tecnologia, i team di tecnici e dirigenti stabiliscono i criteri per valutare gli acquisti proposti e le relative decisioni si basano su prove. Per ridurre i rischi e agevolare la due diligence, di seguito sono riportati alcuni esempi di domande alle quali i proprietari e gli utenti di AI/ML dovrebbero trovare una risposta:
- Quali sono gli algoritmi che compongono e contribuiscono alla soluzione?
- Quali dati vengono inseriti e come vengono puliti?
- Da dove provengono i dati (e sono personalizzati per tenancy, account o utente)?
- Come vengono progettati i parametri e le funzionalità dello spazio della rete?
- Come vengono addestrati, riaddestrati e mantenuti aggiornati e pertinenti i modelli?
- Il sistema stesso è in grado di spiegare il suo ragionamento, le sue raccomandazioni o le sue azioni?
- Come vengono eliminati o ridotti i pregiudizi?
- In che modo la soluzione o la piattaforma migliorano e si evolvono automaticamente?
Inoltre, si raccomanda sempre di effettuare test o prove per avvalorare le promesse o le affermazioni in merito ai servizi o ai sistemi di AI.
L'AI spiegabile in azione presso Juniper
L'uso responsabile ed etico dell'AI è un argomento complesso, ma è necessario che le organizzazioni lo affrontino. Il nostro utilizzo dell'AI nei nostri servizi e prodotti si fonda sui Principi di innovazione di Juniper Mist AI. Inoltre, abbiamo ampiamente scritto sull'AI/ML e sul nostro approccio AIOps, che comprende dati e primitive AI, risoluzione dei problemi basata su AI, interfacce e chatbot intelligenti, tutti elementi che contribuiscono a rilevare e correggere le anomalie della rete e a migliorare al contempo le operazioni grazie a una serie di strumenti più avanzati.
XAI può assumere molte forme. Ad esempio, le funzionalità di Juniper AIOps includono l'esecuzione automatica della Radio Resource Management (RRM) nelle reti Wi-Fi e il rilevamento dei problemi, come un cavo di rete difettoso. Alcuni strumenti XAI di Juniper sono disponibili nell'interfaccia del prodotto Mist, di cui puoi vedere una demo nel nostro tour liberamente disponibile. Iscriviti qui per ottenere l’accesso oggi stesso.
Dal punto di vista dell'utente e dell'operatore, è prevista una serie di nuove funzionalità nei prodotti basati sul nostro motore Mist AI™ e sul Marvis Virtual Network Assistant, che offriranno una maggiore "spiegabilità" riguardo ai metodi, ai modelli e alle decisioni e più elevati livelli di affidabilità per aumentare la fiducia e la trasparenza.
Domande frequenti sull'AI spiegabile
Che cosa significa AI spiegabile?
L'AI spiegabile è un insieme di processi e metodi che consente agli utenti di comprendere e considerare attendibili i risultati e l'output creati dagli algoritmi di AI/ML. Le spiegazioni a corredo dell'output dell'AI/ML sono rivolte a utenti, operatori o sviluppatori e intendono risolvere problemi e sfide che vanno dall'adozione da parte degli utenti alla governance e allo sviluppo dei sistemi.
Che cos'è un modello di AI spiegabile?
Un modello di AI spiegabile presenta caratteristiche o proprietà che facilitano la trasparenza, la comprensibilità e la possibilità di interrogare o eseguire query sugli output dell'AI.
Perché è importante l'AI spiegabile?
L'AI spiegabile illustra in dettaglio i fondamenti logici degli output di un sistema di AI e quindi consente la comprensione, la governance e la fiducia che le persone devono avere per implementare i sistemi di AI e considerare attendibili i loro output e risultati. Senza l'XAI che contribuisce a creare fiducia e sicurezza, è improbabile che esse implementino o traggano diffusamente vantaggio da questa tecnologia.
Quali sono i vantaggi dell'AI spiegabile?
L'AI spiegabile offre molti vantaggi. Essi riguardano il processo decisionale consapevole, la riduzione dei rischi, l'aumento della fiducia e dell'adozione dell'AI, una migliore governance, un miglioramento più rapido dei sistemi e l'evoluzione complessiva e l'utilità dell'AI nel mondo.
Esiste l'AI spiegabile?
Sì, anche se è in una fase iniziale a causa di definizioni ancora in evoluzione. Sebbene sia più difficile implementarla su modelli AI/ML complessi o misti con un gran numero di funzionalità o fasi, l'XAI si sta rapidamente diffondendo nei prodotti e nei servizi per sviluppare la fiducia negli utenti e contribuire ad accelerare lo sviluppo.
Che cos'è la "spiegabilità" nell'apprendimento profondo?
L'apprendimento profondo è talvolta considerato una "scatola nera" e pertanto può essere difficile comprendere il comportamento del modello di deep learning e come giunge alle sue decisioni. La "spiegabilità" cerca di facilitare le spiegazioni in merito all'apprendimento profondo. Una tecnica utilizzata per spiegare i modelli di deep learning è Shapley. I valori SHAP possono spiegare previsioni specifiche evidenziando le funzionalità coinvolte nella previsione. Sono in corso delle ricerche per valutare diversi metodi esplicativi.
Quali funzionalità dell'AI spiegabile offre Juniper?
XAI può assumere molte forme. Ad esempio, Juniper propone blog e video che descrivono gli algoritmi di ML utilizzati in diverse funzionalità AIOps, come l'esecuzione automatica della Radio Resource Management (RRM) nelle reti Wi-Fi o il rilevamento di un cavo di rete difettoso (consulta le risorse VIDEO qui di seguito). La dashboard Marvis Application Experience Insights utilizza i valori SHAP per individuare le condizioni (funzionalità) di rete che causano esperienze applicative scadenti, come ad esempio un video su Zoom non fluido. Alcuni di questi strumenti XAI sono disponibili nell'interfaccia del prodotto Mist, di cui puoi vedere una demo nel nostro tour liberamente disponibile. Iscriviti qui per ottenere l'accesso oggi stesso.