Was ist Explainable AI oder XAI?

Was ist Explainable AI oder XAI?

Explainable AI umfasst eine Reihe von Prozessen und Methoden, die es den Nutzern ermöglichen, die von den Algorithmen des maschinellen Lernens (ML) erzeugten Ergebnisse und Ausgaben zu verstehen und ihnen zu vertrauen. Die Erklärungen, die das KI/ML-Ergebnis begleiten, können sich an Benutzer, Betreiber oder Entwickler richten und sollen Bedenken und Herausforderungen ansprechen, die von der Benutzerakzeptanz bis hin zu Governance und Systementwicklung reichen. Diese „Erklärbarkeit“ ist entscheidend für die Fähigkeit der KI, das Vertrauen zu gewinnen, das auf dem Markt erforderlich ist, um die breite Akzeptanz und den Nutzen von KI zu fördern. Weitere verwandte und neue Initiativen sind vertrauenswürdige KI und verantwortungsvolle KI.

 

Wie wird Explainable AI implementiert?

Das amerikanische National Institute of Standards and Technology (NIST) erklärt, dass vier Prinzipien XAI antreiben:

  • Erklärung: Systeme liefern begleitende Beweise oder Gründe für alle Ergebnisse.
  • Bedeutsamkeit: Systeme geben Erklärungen, die für den einzelnen Benutzer verständlich sind.
  • Genauigkeit der Erklärung: Die Erklärung gibt den Prozess des Systems zur Generierung des Ergebnisses korrekt wieder.
  • Wissensgrenzen: Das System funktioniert nur unter Bedingungen, für die es entwickelt wurde oder wenn seine Leistung ausreichend Vertrauensniveau erreicht hat.

NIST stellt fest, dass Erklärungen von einfach bis komplex reichen können und dass sie vom jeweiligen Verbraucher abhängig sind. Die Agentur veranschaulicht einige Erklärungstypen anhand der folgenden fünf nicht erschöpfenden Beispielkategorien für Erklärbarkeit:

  • Nutzen für den Anwender
  • Gesellschaftliche Akzeptanz
  • Gesetz und Compliance
  • Systementwicklung
  • Nutzen des Eigentümers

 

Warum ist Explainable AI wichtig?

Explainable AI ist eine entscheidende Komponente, um Vertrauen in automatisierte Systeme aufzubauen, zu gewinnen und zu erhalten. Ohne Vertrauen wird KI – und insbesondere KI für den IT-Betrieb (AIOps) – nicht in vollem Umfang angenommen werden, so dass der Umfang und die Komplexität moderner Systeme das übersteigen, was mit manuellen Vorgängen und traditioneller Automatisierung erreicht werden kann.

Wenn das Vertrauen hergestellt ist, wird die Praxis der „KI-Vortäuschung“ – die Behauptung, dass ein Produkt oder eine Dienstleistung KI-gesteuert ist, obwohl die Rolle der KI nur schwach oder gar nicht vorhanden ist – offensichtlich und hilft sowohl Fachleuten als auch Kunden bei der sorgfältigen Prüfung der KI. Der Aufbau von Vertrauen in die KI wirkt sich auf den Umfang und die Geschwindigkeit ihrer Einführung aus, was wiederum bestimmt, wie schnell und weitreichend ihre Vorteile realisiert werden können.

Wenn wir ein System damit beauftragen, Antworten zu finden oder Entscheidungen zu treffen, insbesondere solche, die Auswirkungen auf die reale Welt haben, müssen wir unbedingt erklären können, wie ein System zu einer Entscheidung kommt, wie es ein Ergebnis beeinflusst oder warum Aktionen für notwendig erachtet wurden.

 

Vorteile von Explainable AI

Die Vorteile von Explainable AI sind mehrdimensional. Sie beziehen sich auf fundierte Entscheidungsfindung, Risikominderung, größeres Vertrauen und Benutzerakzeptanz, bessere Governance, schnellere Systemverbesserung und die allgemeine Entwicklung und den Nutzen von KI in der Welt. 

 

Welche(s) Problem(e) löst erklärbare KI?

Viele KI- und ML-Modelle gelten als undurchsichtig und ihre Ergebnisse als unerklärbar. Die Fähigkeit, darzulegen und zu erklären, warum bestimmte Wege eingeschlagen wurden oder wie Ergebnisse erzeugt wurden, ist entscheidend für das Vertrauen, die Entwicklung und die Annahme von KI-Technologien.

Die Beleuchtung von Daten, Modellen und Prozessen ermöglicht es Betreibern und Nutzern, Einblicke in diese Systeme zu gewinnen und sie zu beobachten, um sie mit transparenten und validen Argumenten zu optimieren. Am wichtigsten ist, dass die Erklärbarkeit es ermöglicht, Fehler, Voreingenommenheit und Risiken leichter zu kommunizieren und anschließend zu mindern oder zu beseitigen.

 

Wie Explainable AI Transparenz schafft und Vertrauen aufbaut

Um nützlich zu sein, müssen die anfänglichen Rohdaten schließlich entweder zu einer vorgeschlagenen oder ausgeführten Aktion führen. Von einem Benutzer zu verlangen, dass er von Anfang an einem völlig autonomen Arbeitsablauf vertraut, ist oft ein zu großer Sprung. Daher ist es ratsam, dem Benutzer zu erlauben, die unterstützenden Ebenen von unten nach oben zu durchlaufen. Der Workflow der Benutzeroberfläche (UI) ermöglicht es Ihnen, die einzelnen Ebenen der Ereignisse bis hin zu den Roheingaben zu durchdringen. Dies erleichtert Transparenz und Vertrauen.

Ein Framework, das es Domänenexperten erlaubt, ihre Skepsis zu befriedigen, indem sie tiefer graben, und das es gleichzeitig Anfängern ermöglicht, so weit zu suchen, wie ihre Neugier reicht, ermöglicht es sowohl Anfängern als auch erfahrenen Veteranen, Vertrauen aufzubauen, während sie ihre Produktivität und ihr Lernen steigern. Dieses Engagement bildet auch einen positiven Kreislauf, der KI/ML-Algorithmen für kontinuierliche Systemverbesserungen weiter trainieren und verfeinern kann.

Datentrichterdiagramm von Eingaben zu Aktionen

Der Datenfluss in einer KI-gesteuerten Benutzeroberfläche

 

Wie man Explainable AI nutzt, um Risiken zu bewerten und zu reduzieren

Die Datenvernetzung mit ihren genau definierten Protokollen und Datenstrukturen bedeutet, dass KI unglaubliche Fortschritte machen kann, ohne Angst vor Diskriminierung oder menschlicher Voreingenommenheit. Wenn es um neutrale Problembereiche geht, wie z. B. Fehlerbehebung und Service Assurance, können Anwendungen der KI gut begrenzt und verantwortungsvoll eingesetzt werden.

Es ist wichtig, dass Ihr Anbieter einige grundlegende technische und betriebliche Fragen beantwortet, um KI-Vortäuschung zu entlarven und zu vermeiden. Wie bei jeder Sorgfaltsprüfung („Due Dilligence“) und Beschaffungsmaßnahme kann der Detaillierungsgrad der Antworten wichtige Erkenntnisse liefern. Die Antworten können eine gewisse technische Interpretation erfordern, werden aber dennoch empfohlen, um sicherzustellen, dass die Ansprüche der Anbieter realisierbar sind.

Wie bei jeder Technologie legen Technik- und Führungsteams Kriterien fest, um vorgeschlagene Anschaffungen zu bewerten, und die entsprechenden Entscheidungen basieren auf Fakten. Um das Risiko zu verringern und die Sorgfaltsprüfung („Due Dilligence“) zu unterstützen, finden Sie im Folgenden einige Beispielfragen, die Eigentümer und Nutzer von KI/ML stellen sollten:

  • Welche Algorithmen enthalten die Lösung und tragen zu ihr bei?
  • Welche Daten werden aufgenommen, und wie werden sie bereinigt?
  • Woher stammen die Daten (und sind sie pro Mietverhältnis, Konto oder Benutzer angepasst)?
  • Wie werden Parameter und Funktionen aus dem Netzwerkraum entwickelt?
  • Wie werden die Modelle geschult und umgeschult und wie werden sie frisch und relevant gehalten?
  • Kann das System selbst seine Argumentation, Empfehlungen oder Aktionen erklären?
  • Wie werden Verzerrungen beseitigt oder reduziert?
  • Wie wird die Lösung oder Plattform automatisch verbessert und weiterentwickelt?

Darüber hinaus sind Pilotprojekte oder Tests immer empfehlenswert, um die Versprechen oder Behauptungen über KI-Dienste oder -Systeme zu überprüfen.

 

Explainable AI in Aktion bei Juniper

Der verantwortungsvolle und ethische Einsatz von KI ist ein komplexes Thema, mit dem sich Unternehmen jedoch auseinandersetzen müssen. Juniper Mist AI Innovationsprinzipien leiten unsere Nutzung der KI in unseren Services und Produkten. Wir haben auch ausführlich über KI/ML und unseren AIOps-Ansatz geschrieben, einschließlich KI-Daten und Primitiven, Problemlösung, Schnittstellen und intelligente Chatbots, die alle helfen, Netzwerkanomalien zu erkennen und zu korrigieren und gleichzeitig den Betrieb mit einem besseren Werkzeugsatz

XAI kann in vielen Formen auftreten. Zu den Funktionen von Juniper AIOps gehören beispielsweise die automatische Verwaltung von Funkressourcen (RRM) in Wi-Fi-Netzwerken und die Erkennung von Problemen, wie z. B. ein defektes Netzwerkkabel. Einige Juniper XAI-Tools sind über die Mist-Produktschnittstelle verfügbar, die Sie in unserer Self-Service-Tour ausprobieren können. Melden Sie sich hier an, um noch heute Zugang zu erhalten.

Halten Sie aus Sicht der Nutzer und Betreiber Ausschau nach einer Reihe neuer Funktionen in Produkten, die auf unserer Mist AI™-Engine und dem virtuellen Netzwerkassistent Marvis basieren und die Methoden, Modelle, Entscheidungen und Konfidenzniveaus besser erklären, um Vertrauen und Transparenz zu erhöhen.

Erklärbare KI FAQs

Was ist mit Explainable AI gemeint?

Erklärbare KI ist eine Reihe von Prozessen und Methoden, die es den Nutzern ermöglichen, die von den KI/ML-Algorithmen erzeugten Ergebnisse und Ausgaben zu verstehen und ihnen zu vertrauen. Die Erklärungen, die das KI/ML-Ergebnis begleiten, können sich an Benutzer, Betreiber oder Entwickler richten und sollen Bedenken und Herausforderungen ansprechen, die von der Benutzerakzeptanz bis hin zu Governance und Systementwicklung reichen. 

Was ist ein Explainable AI-Modell?

Ein Explainable AI-Modell ist ein Modell mit Merkmalen oder Eigenschaften, die Transparenz, einfaches Verständnis und die Möglichkeit, KI-Ergebnisse in Frage zu stellen oder abzufragen, erleichtern.

Warum ist Explainable AI wichtig?

Da erklärbare KI die Gründe für die Ergebnisse eines KI-Systems detailliert darlegt, ermöglicht sie das Verständnis, die Steuerung und das Vertrauen, das die Menschen haben müssen, um KI-Systeme einzusetzen und Vertrauen in ihre Ergebnisse zu haben. Ohne XAI, die dabei hilft, Vertrauen zu schaffen, ist es unwahrscheinlich, dass die Menschen die Technologie auf breiter Front einsetzen oder von ihr profitieren. 

Was sind die Vorteile von Explainable AI?

Es gibt viele Vorteile für Explainable AI. Sie beziehen sich auf fundierte Entscheidungsfindung, reduziertes Risiko, größeres KI-Vertrauen und Akzeptanz, bessere Governance, schnellere Systemverbesserung und die allgemeine Entwicklung und den Nutzen von KI in der Welt. 

Gibt es Explainable AI überhaupt?

Ja, obwohl es sich aufgrund der sich noch entwickelnden Definitionen noch im Anfangsstadium befindet. Es ist zwar schwieriger, XAI bei komplexen oder gemischten KI/ML-Modellen mit einer großen Anzahl von Funktionen oder Phasen zu implementieren, aber XAI findet schnell ihren Weg in Produkte und Dienstleistungen, um Vertrauen bei den Benutzern aufzubauen und die Entwicklung zu beschleunigen.

Was ist Erklärbarkeit in Deep Learning?

Deep Learning wird manchmal als „Black Box“ betrachtet, was bedeutet, dass es schwierig sein kann, das Verhalten des Deep-Learning-Modells und die Art und Weise, wie es seine Entscheidungen trifft, zu verstehen. Erklärbarkeit soll Erklärungen mit Tiefgang erleichtern. Die Forschung zur Bewertung verschiedener Erklärungsmethoden ist im Gange.

Welche erklärbaren KI Funktionen bietet Juniper an?

XAI kann in vielen Formen auftreten. Juniper bietet beispielsweise Blogs und Videos an, in denen die ML-Algorithmen beschrieben werden, die in verschiedenen AIOps-Funktionen wie der automatischen Verwaltung von Funkressourcen (RRM) in Wi-Fi-Netzwerken oder der Erkennung eines defekten Netzwerkkabels verwendet werden (siehe die VIDEO-Ressourcen unten). Einige dieser XAI-Tools sind über die Mist-Produktschnittstelle verfügbar, die Sie in unserer Self-Service-Tour ausprobieren können. Melden Sie sich hier an, um noch heute Zugang zu erhalten.