Qu'est-ce que l'IA explicable (ou XAI) ?
Qu'est-ce que l'IA explicable (ou XAI) ?
L'IA explicable est un ensemble de processus et de méthodes qui permettent aux utilisateurs de comprendre et de se fier aux résultats et aux informations générés par les algorithmes de machine learning (ML) de l'IA. Les explications qui accompagnent les résultats de l'IA/ML peuvent être destinées aux utilisateurs, aux opérateurs ou aux développeurs. Elles sont conçues pour résoudre des problèmes et relever des défis tels que l'adoption par les utilisateurs, la gouvernance et le développement de systèmes. Ce caractère « explicable » est essentiel pour permettre à l'IA de susciter la confiance indispensable sur le marché afin d'encourager une large adoption de l'IA et d'en tirer profit. Parmi les initiatives connexes et émergentes, on peut citer l'IA fiable et l'IA responsable.
Comment l'IA explicable est-elle implémentée ?
Le National Institute of Standards and Technology (NIST) des États-Unis affirme que quatre principes régissent la XAI :
- Explication : Les systèmes fournissent des preuves ou des motifs qui accompagnent tous les résultats.
- Compréhensible : Les systèmes fournissent des explications que les utilisateurs peuvent comprendre.
- Précision des explications : Les explications traduisent parfaitement le processus du système pour produire les résultats.
- Limites des connaissances : Le système ne fonctionne que dans les conditions prévues ou lorsque ses résultats ont atteint un niveau de confiance suffisant.
Le NIST fait remarquer que les explications peuvent être simples comme complexes en fonction du consommateur. L'agence illustre certains types d'explications en se servant des cinq catégories d'explication non exhaustives suivantes :
- Avantages pour les utilisateurs
- Acceptation sociale
- Réglementation et conformité
- Développement de systèmes
- Avantages pour les propriétaires
Pourquoi l'IA explicable est-elle importante ?
L'IA explicable est essentielle pour développer, gagner et garantir la confiance dans les systèmes automatisés. Faute de confiance, l'IA, et plus particulièrement l'AIOps (AI for IT Operations), ne sera pas pleinement adoptée, si bien que la portée et la complexité des systèmes modernes dépasseront ce qu'il est possible de réaliser avec des opérations manuelles et l'automatisation traditionnelle.
Lorsque la confiance est installée, la pratique de l'« AI washing » (dire qu'un produit ou un service s'appuie sur l'IA alors que son rôle est limité, voire inexistant) devient une évidence. Les utilisateurs et les clients peuvent ainsi faire preuve de diligence raisonnable en matière d'IA. La confiance dans l'IA a un impact sur l'ampleur et la rapidité de son adoption, qui détermine à son tour la rapidité et la portée de ses avantages.
Lorsque vous demandez à un système de trouver des réponses ou de prendre des décisions, notamment celles qui ont un impact sur le monde réel, vous devez pouvoir expliquer comment il parvient à une décision, comment il influence un résultat ou pourquoi des actions ont été jugées nécessaires.
Avantages de l'IA explicable
Les avantages de l'IA explicable sont nombreux. L'IA informe la prise de décisions, réduit les risques, améliore le niveau de confiance et l'adoption par les utilisateurs, renforce la gouvernance, accélère l'amélioration des systèmes et, en évoluant, devient de plus en plus utile de manière générale.
À quel(s) problème(s) l'IA explicable apporte-t-elle une solution ?
De nombreux modèles d'IA et de ML sont opaques, et leurs résultats sont inexplicables. Il est essentiel de pouvoir exposer et expliquer les raisons pour lesquelles certains chemins sont suivis ou la façon dont les résultats sont générés, car la confiance, l'évolution et l'adoption des technologies d'IA en dépendent.
La transparence des données, des modèles et des processus permet aux opérateurs et aux utilisateurs de mieux comprendre et d'observer ces systèmes. Ils peuvent ainsi les optimiser grâce à un raisonnement clair et valide. Plus important encore, l'explicabilité permet de signaler plus facilement les défauts, les biais et les risques, puis de les atténuer ou les supprimer.
Comment l'IA explicable favorise-t-elle la transparence et la confiance ?
Pour être exploitables, les données brutes initiales doivent déboucher sur une action suggérée ou exécutée. Bien souvent, il est exagéré de demander à un utilisateur de faire confiance à un workflow entièrement autonome dès le départ. Il vaut donc mieux lui permettre de parcourir ses différentes couches de bas en haut. En analysant les événements niveau par niveau, le workflow de l'interface utilisateur (IU) permet d'éplucher les couches jusqu'aux données brutes. Cela favorise la transparence et suscite la confiance.
Un framework dans lequel les experts du secteur peuvent apaiser leurs doutes grâce à des analyses plus poussées, tandis que les novices peuvent satisfaire leur curiosité, permet d'établir une relation de confiance tout en gagnant en productivité et en connaissances. Cet engagement constitue également un cycle vertueux qui peut entraîner et perfectionner davantage les algorithmes de l'IA et du ML pour améliorer continuellement le système.
Comment utiliser l'IA explicable pour évaluer et réduire les risques ?
La mise en réseau des données, avec ses protocoles et ses structures de données bien définis, signifie que l'IA peut faire des progrès spectaculaires sans craindre la discrimination ou les préjugés humains. Face à des problèmes neutres tels que le dépannage et l'assurance des services, l'application de l'IA peut être clairement définie et adoptée de manière responsable.
Votre fournisseur doit impérativement répondre à certaines questions techniques et opérationnelles de base afin de démasquer et éviter l'AI washing. Comme toujours lorsqu'il s'agit de vérification et d'approvisionnement, le niveau de détail des réponses peut révéler des informations importantes. Les réponses nécessiteront peut-être une interprétation technique, mais elles vous permettront de vous assurer que les réclamations des vendeurs sont viables.
Comme pour toute technologie, les équipes d'ingénierie et de direction définissent des critères pour évaluer les propositions d'achat, qui permettent d'étayer les décisions correspondantes. Pour réduire les risques et dissiper les doutes, voici quelques exemples de questions que les propriétaires et les utilisateurs de l'IA et du ML doivent poser :
- Quels algorithmes forment la solution et y contribuent ?
- Quelles données sont ingérées et comment sont-elles nettoyées ?
- D'où proviennent les données (et sont-elles personnalisées par tenant, compte ou utilisateur) ?
- Comment sont conçus les paramètres et les fonctionnalités à partir de l'espace réseau ?
- Comment les modèles sont-ils entraînés, ré-entraînés et maintenus à jour pour garantir leur pertinence ?
- Le système est-il capable d'expliquer ses raisonnements, ses recommandations ou ses actions ?
- Comment les biais sont-ils éliminés ou réduits ?
- Comment la solution ou la plateforme s'améliore-t-elle et évolue-t-elle automatiquement ?
En outre, les pilotes ou les essais sont toujours recommandés pour valider les engagements ou les affirmations relatives aux services ou aux systèmes d'IA.
L'IA explicable en action chez Juniper
L'utilisation responsable et éthique de l'IA est un sujet certes complexe, mais les entreprises doivent l'aborder. Les principes d'innovation de Juniper Mist AI orientent l'utilisation de l'IA dans nos services et produits. Nous avons également produit de nombreux documents sur l'IA/ML et notre approche AIOps, y compris sur les données et les primitives de l'IA, la résolution de problèmes par l'IA, les interfaces et les chatbots intelligents qui permettent de détecter et de corriger les anomalies du réseau tout en améliorant les opérations grâce à un ensemble d'outils plus performants.
La XAI peut se présenter sous de nombreuses formes. Par exemple, les fonctionnalités de Juniper AIOps incluent la gestion automatique des ressources radio (RRM) dans les réseaux Wi-Fi et la détection de problèmes, comme un câble réseau défectueux. Certains des outils Juniper XAI sont disponibles à partir de l'interface du produit Mist que vous pouvez tester dans notre visite libre. Inscrivez-vous ici pour y accéder dès aujourd'hui.
Si vous êtes un utilisateur ou un opérateur, préparez-vous à une série de nouvelles fonctionnalités dans les produits basés sur notre moteur Mist AI™ et l'assistant de réseau virtuel Marvis : elles expliqueront mieux les méthodes, les modèles, les décisions et les niveaux de confiance pour renforcer la confiance et la transparence.
IA explicable : questions fréquentes
Qu'entend-on par IA explicable ?
L'IA explicable est un ensemble de processus et de méthodes qui permettent aux utilisateurs de comprendre et de se fier aux résultats et aux informations générés par les algorithmes de l'IA/du ML. Les explications qui accompagnent les résultats de l'IA/ML peuvent être destinées aux utilisateurs, aux opérateurs ou aux développeurs. Elles sont conçues pour résoudre des problèmes et relever des défis tels que l'adoption par les utilisateurs, la gouvernance et le développement de systèmes.
Qu'est-ce qu'un modèle d'IA explicable ?
Un modèle d'IA explicable possède des caractéristiques ou des propriétés qui favorisent la transparence, la facilité de compréhension et la possibilité de remettre en question ou d'interroger les résultats de l'IA.
Pourquoi l'IA explicable est-elle importante ?
Parce que l'IA explicable détaille la logique des résultats d'un système d'IA, elle favorise la compréhension, la gouvernance et la confiance dont les utilisateurs ont besoin pour déployer des systèmes d'IA et avoir confiance dans leurs résultats. Si la XAI ne contribue pas à instaurer la confiance, il est peu probable que les utilisateurs déploient cette technologie à grande échelle ou en tirent profit.
Quels sont les avantages de l'IA explicable ?
L'IA explicable présente de nombreux avantages. L'IA informe la prise de décisions, réduit les risques, améliore le niveau de confiance et l'adoption par les utilisateurs, renforce la gouvernance, accélère l'amélioration des systèmes et, en évoluant, devient de plus en plus utile de manière générale.
L'IA explicable existe-t-elle ?
Oui, bien qu'il s'agisse d'une forme primitive due à des définitions encore en évolution. Bien qu'il soit plus difficile de mettre en œuvre l'IA sur des modèles complexes ou mixtes d'IA/ML comportant un grand nombre de fonctions ou de phases, l'IA trouve rapidement sa place au niveau des produits et des services. Elle permet de renforcer la confiance des utilisateurs et d'accélérer le développement.
Qu'est-ce que l'explicabilité du deep learning ?
Le deep learning est parfois considéré comme une « boîte noire », ce qui signifie qu'il peut être difficile de comprendre le comportement de son modèle et la façon dont il prend ses décisions. L'explicabilité a pour but de faciliter les explications du deep learning. L'une des techniques utilisées pour expliquer les modèles de deep learning s'appelle Shapley. Les valeurs SHAP peuvent expliquer des prévisions spécifiques en mettant en évidence les caractéristiques impliquées dans la prévision. Des recherches sont en cours pour évaluer les différentes méthodes d'explication.
Quelles sont les fonctionnalités d'IA explicable que Juniper propose ?
La XAI peut se présenter sous de nombreuses formes. Par exemple, Juniper propose des blogs et des vidéos qui décrivent les algorithmes de ML utilisés dans plusieurs fonctionnalités AIOps, comme la gestion automatique des ressources radio (RRM) dans les réseaux Wi-Fi ou la détection d'un câble réseau défectueux (voir les ressources VIDÉO ci-dessous). Le tableau de bord Marvis Application Experience Insights utilise les valeurs SHAP pour identifier les conditions (les caractéristiques) du réseau responsables des expériences applicatives suboptimales (par exemple, une vidéo Zoom saccadée). Certains de ces outils XAI sont disponibles à partir de l'interface du produit Mist, que vous pouvez tester dans notre visite libre. Inscrivez-vous ici pour y accéder dès aujourd'hui.