Wat is explainable AI of XAI?

Wat is explainable AI of XAI?

Explainable AI is een reeks processen en methoden waarmee gebruikers de resultaten en output van AI's algoritmen voor machinaal leren (ML) kunnen begrijpen en vertrouwen. De toelichtingen bij AI/ML-resultaten kunnen gericht zijn op gebruikers, exploitanten of ontwikkelaars en zijn bedoeld om problemen en uitdagingen aan te pakken, variërend van gebruikersacceptatie tot systeembeheer en systeemontwikkeling. Deze "verklaarbaarheid" is essentieel voor het vermogen van AI om het vertrouwen te winnen dat in de markt nodig is om AI breed te introduceren en er de vruchten van te plukken. Andere verwante en opkomende initiatieven zijn betrouwbare AI en verantwoorde AI.

 

1Hoe wordt explainable AI geïmplementeerd?

Volgens het Amerikaanse National Institute of Standards and Technology (NIST) zijn er vier principes die XAI bepalen:

  • Toelichting: Systemen leveren begeleidend bewijs of reden(en) voor alle outputs.
  • Betekenisvol: Systemen geven uitleg die begrijpelijk is voor individuele gebruikers.
  • Nauwkeurige toelichting: De toelichting geeft het proces van het systeem voor het genereren van de output correct weer.
  • Kennisbeperkingen: Het systeem werkt alleen onder de omstandigheden waarvoor het is ontworpen of wanneer zijn output voldoende betrouwbaar is.

NIST merkt op dat toelichtingen kunnen variëren van eenvoudig tot complex en dat zij afhankelijk zijn van de consument in kwestie. Het bureau illustreert enkele soorten uitleg aan de hand van de volgende vijf niet volledige voorbeeldcategorieën:

  • Gebruikersvoordeel
  • Maatschappelijke acceptatie
  • Regelgeving en naleving
  • Systeemontwikkeling
  • Voordeel voor eigenaar

 

Waarom is explainable AI belangrijk?

Explainable AI is een cruciaal onderdeel voor het opbouwen, winnen en behoud van vertrouwen in geautomatiseerde systemen. Zonder vertrouwen zal AI - en specifiek AI for IT operations (AIOps) - niet volledig worden omarmd, waardoor de schaal en complexiteit van moderne systemen groter worden dan wat haalbaar is met handmatige operaties en traditionele automatisering.

Als er vertrouwen is, wordt de praktijk van "AI-washing" - suggereren dat een product of dienst door AI wordt aangedreven terwijl de rol van AI zwak of afwezig is - duidelijk, wat zowel vakmensen als klanten helpt bij hun AI-onderzoek. Vertrouwen hebben in AI beïnvloedt de reikwijdte en snelheid van de invoering ervan, wat vervolgens bepaalt hoe snel en op welke schaal de voordelen ervan kunnen worden gerealiseerd.

Wanneer we een systeem opdragen antwoorden te vinden of beslissingen te nemen, in het bijzonder die met reële gevolgen, is het noodzakelijk dat we kunnen uitleggen hoe een systeem tot een beslissing komt, hoe het een resultaat beïnvloedt, of waarom acties noodzakelijk werden geacht.

 

Voordelen van explainable AI

De voordelen van explainable AI zijn multidimensionaal. Deze hebben betrekking op besluitvorming met kennis van zaken, risicobeperking, meer vertrouwen en acceptatie door gebruikers, beter bestuur, snellere systeemverbetering en de algemene evolutie en het nut van AI in de wereld. 

 

Welke problemen lost explainable AI op?

Veel AI- en ML-modellen worden als ondoorzichtig beschouwd, met onverklaarbare output. Het vermogen om aan te tonen en uit te leggen waarom bepaalde paden werden gevolgd of hoe resultaten werden gegenereerd, is van cruciaal belang voor het vertrouwen, de evolutie en de toepassing van AI-technologieën.

Door duidelijkheid te verschaffen over de gegevens, modellen en processen kunnen exploitanten en gebruikers inzicht krijgen in deze systemen en ze observeren om ze te optimaliseren met behulp van transparante en steekhoudende redeneringen. Het belangrijkste is dat eventuele gebreken, vooroordelen en risico's gemakkelijker kunnen worden gecommuniceerd en vervolgens kunnen worden beperkt of weggenomen.

 

Hoe explainable AI transparantie creëert en vertrouwen wekt

Om nuttig te zijn, moeten de eerste ruwe gegevens uiteindelijk resulteren in een voorgestelde of uitgevoerde actie. Een gebruiker vragen om vanaf het begin te vertrouwen op een volledig autonome workflow is vaak een te grote sprong, dus is het raadzaam om een gebruiker van onderaf de ondersteunende lagen te laten volgen. Door de gebeurtenissen niveau per niveau te bekijken, kunt u met de workflow van de user interface (UI) de lagen terugbrengen tot aan de ruwe input. Dit vergemakkelijkt transparantie en vertrouwen.

Een kader dat domeinexperts in staat stelt hun scepsis te bevredigen door dieper te graven, terwijl het ook een beginneling in staat stelt zo ver te zoeken als zijn nieuwsgierigheid reikt, stelt zowel beginners als doorgewinterde veteranen in staat vertrouwen op te bouwen terwijl ze hun productiviteit verhogen en leervermogen vergroten. Met deze betrokkenheid wordt ook een opwaartse spiraal gecreëerd die de AI/ML-algoritmen verder kan trainen en aanscherpen voor voortdurende systeemverbeteringen.

Van input tot actie data trechterdiagram

De datastroom in een AI-gestuurde gebruikersinterface

Hoe explainable AI te gebruiken om risico's te evalueren en te beperken

Datanetwerken, met hun goed gedefinieerde protocollen en datastructuren, betekenen dat AI ongelooflijke vooruitgang kan boeken zonder angst voor discriminatie of menselijke vooroordelen. Wanneer AI wordt belast met neutrale probleemgebieden zoals probleemoplossing en service assurance, kunnen de applicaties van AI goed worden afgebakend en op verantwoorde wijze worden ingezet.

Het is van vitaal belang dat uw leverancier een aantal technische en operationele basisvragen beantwoordt om AI-washing te helpen ontmaskeren en voorkomen. Zoals bij elk due diligence- en aanbestedingsonderzoek kan de gedetailleerdheid van de antwoorden belangrijke inzichten opleveren. De antwoorden kunnen enige technische interpretatie vereisen, maar worden toch aanbevolen om ervoor te zorgen dat de claims van de verkopers uitvoerbaar zijn.

Zoals bij elke technologie stellen engineering- en leidinggevende teams criteria vast om voorgestelde aankopen te evalueren, en de desbetreffende beslissingen zijn gebaseerd op bewijzen. Om het risico te beperken en te helpen bij due diligence, volgen hieronder enkele voorbeeldvragen die eigenaars en gebruikers van AI/ML kunnen stellen:

  • Welke algoritmen omvatten en dragen bij tot de oplossing?
  • Welke gegevens worden verwerkt, en hoe worden ze opgeschoond?
  • Waar komen de gegevens vandaan (en zijn ze aangepast per tenant, account of gebruiker)?
  • Hoe worden parameters en kenmerken van de netwerkruimte ontworpen?
  • Hoe worden modellen getraind, bijgeschoold en fris en relevant gehouden?
  • Kan het systeem zelf zijn redenering, aanbevelingen of acties uitleggen?
  • Hoe wordt vooroordelen voorkomen of verminderd?
  • Hoe verbetert en evolueert de oplossing of het platform automatisch?

Daarnaast worden altijd pilots of trials aanbevolen om de beloften of beweringen over AI-services of -systemen te valideren.

Explainable AI in actie Juniper

Het verantwoord en ethisch gebruik van AI is een complex onderwerp, maar wel een dat organisaties moeten aanpakken. Juniper Mist AI Innovation Principles begeleiden ons gebruik van AI in onze services en producten. We hebben ook uitgebreid geschreven over AI/ML en onze AIOps-aanpak, inclusief AI-gegevens en -primitieven, probleemoplossing, interfaces en intelligente chatbots, die allemaal helpen bij het opsporen en corrigeren van netwerkanomalieën en tegelijkertijd de activiteiten verbeteren met behulp van een betere set tools.

XAI kan vele vormen aannemen. De mogelijkheden van Juniper AIOps omvatten bijvoorbeeld het uitvoeren van automatisch radio resource management (RRM) in wifinetwerken en het detecteren van problemen, zoals een defecte netwerkkabel. Sommige Juniper XAI-tools zijn beschikbaar via de Mist- productinterface, die u kunt demonstreren in onze selfservice tour. Meld u hier aan om vandaag nog toegang te krijgen.

Vanuit het oogpunt van gebruikers en aanbieders kunt u uitkijken naar een reeks nieuwe functies in producten op basis van onze Mist AI™ -engine en Marvis Virtual Network Assistant, die meer uitleg geven over de methoden, modellen, beslissingen en betrouwbaarheidsniveaus om het vertrouwen en de transparantie te vergroten.

Veelgestelde vragen over explainable AI

Wat wordt bedoeld met explainable AI?

Explainable AI is een reeks processen en methoden waarmee gebruikers de resultaten en output van AI/ML-algoritmen kunnen begrijpen en vertrouwen. De toelichtingen bij AI/ML-resultaten kunnen gericht zijn op gebruikers, exploitanten of ontwikkelaars en zijn bedoeld om problemen en uitdagingen aan te pakken, variërend van gebruikersacceptatie tot systeembeheer en systeemontwikkeling. 

Wat is een explainable AI-model?

Een explainable AI-model is een model met kenmerken of eigenschappen die transparantie, begrijpelijkheid en de mogelijkheid om vragen te stellen bij AI-resultaten vergemakkelijken.

Waarom is explainable AI belangrijk?

Omdat explainable AI de redenen voor de resultaten van een AI-systeem uitlegt, maakt dit het begrip, het bestuur en het vertrouwen mogelijk dat nodig is om AI-systemen in te zetten en vertrouwen te hebben in de resultaten ervan. Zonder XAI om vertrouwen te helpen opbouwen, is het onwaarschijnlijk dat mensen de technologie breed zullen inzetten of ervan zullen profiteren. 

Wat zijn de voordelen van explainable AI?

Explainable AI heeft veel voordelen. Deze hebben betrekking op besluitvorming met kennis van zaken, minder risico, meer vertrouwen in en toepassing van AI, beter bestuur, snellere systeemverbetering en de algemene evolutie en het nut van AI in de wereld. 

Bestaat explainable AI?

Ja, hoewel het in een ontluikende vorm is als gevolg van steeds in ontwikkeling zijnde concepten. Hoewel het moeilijker is om XAI toe te passen op complexe of gemengde AI/ML-modellen met een groot aantal functies of fasen, vindt XAI snel zijn weg in producten en diensten om vertrouwen op te bouwen bij gebruikers en om de ontwikkeling te versnellen.

Wat is explainability in deep learning?

Deep learning wordt soms beschouwd als een "zwarte doos", wat betekent dat het moeilijk kan zijn om het gedrag van het deep learning-model te begrijpen en hoe het tot zijn beslissingen komt. Explainability streeft naar het vergemakkelijken van verklaringen voor deep learning. Er wordt voortdurend onderzoek gedaan naar de evaluatie van verschillende toelichtingsmethoden.

Welke explainable AI-functies biedt Juniper?

XAI kan vele vormen aannemen. Juniper biedt bijvoorbeeld blogs en video's die de ML-algoritmen beschrijven die worden gebruikt in verschillende AIOps-mogelijkheden, zoals het uitvoeren van automatisch radio resource management (RRM) in wifinetwerken of het detecteren van een defecte netwerkkabel (zie VIDEO-bronnen hieronder). Sommige van deze XAI-tools zijn beschikbaar via de Mist-productinterface, die u kunt demonstreren in onze selfservice tour. Meld u hier aan om vandaag nog toegang te krijgen.