¿Qué es IA explicable o XAI?

¿Qué es IA explicable o XAI?

La IA explicable es un conjunto de procesos y métodos que permite a los usuarios entender y confiar en los resultados y producción creados por los algoritmos del aprendizaje automático (ML) de la IA. Las explicaciones que acompañan la producción de IA o ML pueden dirigirse a los usuarios, operadores o desarrolladores, y tienen la intención de abordar las preocupaciones y los desafíos que van desde la adopción de los usuarios hasta la gobernanza y el desarrollo de sistemas. Esta "explicabilidad" es central en la capacidad de la IA de obtener la confianza y seguridad necesarias en el mercado para fomentar una amplia adopción y beneficios de la IA. Otras iniciativas relacionadas y emergentes incluyen una IA confiable y responsable. 

 

¿Cómo se implementa la IA explicable?

El Instituto Nacional de Estándares y Tecnología (NIST) de los Estados Unidos establece que cuatro principios impulsan la XAI:

  • Explicación: Los sistemas ofrecen evidencia o razón de todo lo que se produce.
  • Significado: Los sistemas proporcionan explicaciones que son comprensibles para los usuarios individuales.
  • Precisión de las explicaciones: Las explicaciones reflejan correctamente el proceso del sistema para generar la producción.
  • Límites del conocimiento: El sistema solo funciona bajo condiciones para las que fue diseñado o cuando su producción ha alcanzado un nivel suficiente de confianza.

NIST señala que las explicaciones pueden ser desde simples hasta complejas y que dependen de los consumidores en cuestión. La agencia ilustra algunos tipos de explicación mediante el uso de las siguientes cinco categorías no exhaustivas de explicabilidad de muestras:

  • Beneficio del usuario
  • Aceptación social
  • Regulación y cumplimiento
  • Desarrollo del sistema
  • Beneficio del propietario

 

¿Por qué es importante la IA explicable?

La IA explicable es un componente crucial para crecer, ganar y mantener la confianza en los sistemas automatizados. Sin confianza, la IA y, específicamente, la AI for IT Operations (AIOps), no se adoptará completamente, lo que deja la escala y la complejidad de los sistemas modernos para superar lo que se puede lograr mediante operaciones manuales y automatización tradicional.

Cuando se establece la confianza, la práctica del "lavado de la IA" (que implica que un producto o servicio se basa en la IA cuando el papel de la IA es tenue o ausente) se vuelve aparente, lo que ayuda a los profesionales y a los clientes con su debida diligencia de IA. Establecer la confianza y un sentido de seguridad en la IA afecta el alcance y la velocidad de su adopción, lo que a su vez determina la rapidez y la amplitud de los beneficios que se pueden lograr en la práctica.

Cuando encarga a cualquier sistema que encuentre respuestas o tome decisiones, especialmente las que tienen impacto en el mundo real, es imperativo que podamos explicar cómo un sistema llega a una decisión, cómo influye en un resultado o por qué ciertas acciones se consideraron necesarias.

 

Beneficios de la IA explicable

Los beneficios de IA explicable son multidimensionales. Se relacionan con la toma de decisiones informada, la reducción de riesgos, una mayor confianza, más adopciones del usuario, una mejor gobernanza, una mejora de sistemas más rápida y la evolución y utilidad generales de la IA en el mundo. 

 

¿Cuáles problemas resuelve la IA explicable?

Muchos modelos de IA y ML son opacos y sus resultados inexplicables. La capacidad de exponer y explicar por qué se siguieron ciertas rutas o cómo se generaron los resultados es fundamental para la confianza, la evolución y la adopción de tecnologías de IA.

Revelar aspectos de los datos, modelos y procesos les permite a los operadores y usuarios obtener información y observabilidad de estos sistemas para optimizar mediante un razonamiento transparente y válido. Lo más importante es que la explicabilidad permite que cualquier error, sesgo o riesgo sea comunicado más fácilmente y, consecuentemente, mitigado o eliminado.

 

Cómo la IA explicable crea transparencia y confianza

Para que sean útiles, los datos crudos iniciales eventualmente deben resultar en una acción sugerida o ejecutada. Pedirle a un usuario que confíe en un flujo de trabajo totalmente autónomo suele ser un paso muy grande, por lo que se aconseja que un usuario pase a través de las capas de soporte desde cero. Al profundizar en los eventos nivel por nivel, el flujo de trabajo de la interfaz de usuario (UI) le permite pasar por las capas hasta llegar a los insumos crudos. Esto facilita la transparencia y la confianza.

Un marco que le permita a los expertos en dominios satisfacer su escepticismo al profundizar a la vez que le permite a un novato buscar según los límites de su curiosidad les permite tanto a principiantes como veteranos experimentados establecer la confianza a medida que aumentan su productividad y aprendizaje. Este compromiso también forma un ciclo virtuoso que puede entrenar y perfeccionar los algoritmos de la IA o el ML todavía más para mejorar el sistema de manera continua.

Diagrama de embudo de datos desde los insumos hasta las acciones

Flujo de datos en una interfaz de usuario basada en la IA


Cómo usar la IA explicable para evaluar y reducir el riesgo

Las redes de datos, con sus protocolos y estructuras de datos bien definidos, implican que la IA puede avanzar increíblemente sin miedo a la discriminación o al sesgo humano. Cuando se le encargan espacios problemáticos neutrales, como la resolución de problemas y la garantía de servicio, las aplicaciones de la IA pueden estar bien consolidadas y pueden ser aceptadas responsablemente.

Es vital que su proveedor responda a algunas preguntas técnicas y operativas básicas para ayudar a desenmascarar la IA y evitar imitaciones. Como con cualquier esfuerzo de diligencia debida y adquisición, el nivel de detalle de las respuestas puede proporcionar información importante. Las respuestas pueden requerir cierta interpretación técnica, pero todavía están recomendadas para ayudar a garantizar que las afirmaciones de los proveedores sean viables.

Al igual que con cualquier tecnología, los equipos de ingeniería y liderazgo fijan criterios para evaluar las compras propuestas y asegurarse de que las decisiones relacionadas estén basadas en la evidencia. Para reducir el riesgo y asistir con la diligencia debida, a continuación se presentan algunas preguntas de ejemplo que los propietarios de IA o ML y los usuarios hacen:

  • ¿Cuáles algoritmos constituyen y contribuyen a la solución?
  • ¿Cuáles datos se ingieren y cómo se limpian?
  • ¿Dónde están los datos obtenidos? ¿Son personalizados por arrendamiento, cuenta o usuario?
  • ¿Cómo se diseñan los parámetros y las funciones desde el espacio de la red?
  • ¿Cómo se entrenan y reentrenan los modelos, y cómo se mantienen actualizados y relevantes?
  • ¿Puede el sistema explicar su razonamiento, sus recomendaciones o sus acciones?
  • ¿Cómo se elimina o reduce el sesgo?
  • ¿Cómo mejora y evoluciona la solución o la plataforma automáticamente?

Además, los pilotos o las pruebas siempre están recomendados para validar las promesas o afirmaciones acerca de los servicios o sistemas de la IA.

 

La IA explicable en acción en Juniper

El uso responsable y ético de la IA es un tema complejo, pero las organizaciones deben abordarlo.Los principios de innovación de Mist AI de Juniper guían nuestro uso de la IA en nuestros servicios y productos. También hemos escrito extensamente sobre la IA, el ML y nuestro enfoque de AIOps, incluyendo datos y primitivos de la IA, la resolución de problemas, las interfaces y los chatbots inteligentes, todos los cuales ayudan a detectar y corregir las anomalías de la red a la vez que mejoran las operaciones mediante un conjunto optimizado de herramientas. 

La XAI puede tomar muchas formas. Por ejemplo, las capacidades de Juniper AIOps incluyen hacer una gestión de recursos de radio (RRM) automática en las redes Wi-Fi y detectar problemas, como un cable de red defectuoso. Las herramientas de la XAI de Juniper están disponibles en la interfaz de productos de Mist; puedes ver una demostración en nuestro tour de autoservicio. Regístrese aquí para obtener acceso hoy mismo.

Desde la perspectiva de un usuario y un operador, se busca una gama de nuevas funciones en productos basadas en nuestro motor de Mist AI™ y en Marvis Virtual Network Assistant, que mostrarán una mayor explicabilidad en torno a los métodos, modelos, decisiones y niveles de confianza, con el propósito de aumentar la confianza y la transparencia.

Preguntas frecuentes de la IA explicable

¿Qué se entiende por IA explicable?

La IA explicable es un conjunto de procesos y métodos que permite a los usuarios entender y confiar en los resultados y producción creados por los algoritmos de la IA y del aprendizaje automático (ML). Las explicaciones que acompañan la producción de IA o ML pueden dirigirse a los usuarios, operadores o desarrolladores, y tienen la intención de abordar las preocupaciones y los desafíos que van desde la adopción de los usuarios hasta la gobernanza y el desarrollo de sistemas. 

¿Qué es un modelo de IA explicable?

Un modelo de IA explicable es uno que cuenta con características o propiedades que facilitan la transparencia, la facilidad de comprensión y la capacidad de cuestionar o consultar los resultados de la IA.

¿Por qué es importante la IA explicable?

Debido a que la IA explicable detalla la razón de los resultados de un sistema de IA, permite la comprensión, la gobernanza y la confianza que las personas necesitan para implementar sistemas de IA y confiar en sus resultados. Sin la XAI para ayudar a construir confianza y seguridad, es poco probable que las personas implementen o se beneficien de la tecnología en general. 

¿Cuáles son los beneficios de la IA explicable?

La IA explicable tiene muchos beneficios. Se relacionan con la toma de decisiones informada, la reducción de riesgos, una mayor confianza, más adopciones del usuario, una mejor gobernanza, una mejora de sistemas más rápida y la evolución y utilidad generales de la IA en el mundo. 

¿Existe la IA explicable?

Sí, aunque está en una forma naciente debido a definiciones que aún están en evolución. Aunque es más difícil implementar la XAI en modelos de IA o ML complejos o combinados con una gran cantidad de funciones o fases, la XAI está encontrando rápidamente su camino hacia productos y servicios para desarrollar confianza con los usuarios y ayudar a acelerar el desarrollo.

¿Qué es la explicabilidad en el aprendizaje profundo?

El aprendizaje profundo a veces se considera una “caja negra”, lo que significa que puede ser difícil entender el comportamiento del modelo del aprendizaje profundo y cómo toma sus decisiones. La explicabilidad busca facilitar las explicaciones del aprendizaje profundo. Una técnica utilizada para explicar los modelos de aprendizaje profundo es Shapley. Los valores SHAP pueden explicar predicciones específicas al resaltar las características involucradas en la predicción. Hay investigaciones en curso acerca de la evaluación de diferentes métodos de explicación.

¿Cuáles características de la IA explicable ofrece Juniper?

La XAI puede tomar muchas formas. Por ejemplo, Juniper ofrece blogs y videos que describen los algoritmos de ML utilizados en varias capacidades de AIOps, como la realización de gestión de recursos de radio (RRM) automática en redes Wi-Fi o la detección de un cable de red defectuoso (ver los recursos de VIDEO a continuación). El panel de Marvis Application Experience Insights utiliza valores SHAP para identificar las condiciones de red (características) que están causando experiencias pobres de aplicaciones, como un video de Zoom entrecortado. Algunas de estas herramientas de XAI están disponibles en la interfaz de productos de Mist, de la cual puedes ver una demostración en nuestro tour de autoservicio. Regístrese aquí para obtener acceso hoy mismo.