설명을 제공하는 AI 또는 XAI란 무엇입니까?

설명을 제공하는 AI 또는 XAI란 무엇입니까?

설명을 제공하는 AI는 사용자가 AI 머신러닝(ML) 알고리즘으로 생성된 결과와 출력물을 이해하고 신뢰할 수 있게 만드는 일련의 프로세스 및 방법입니다. AI 및 ML 출력을 수반하는 설명은 사용자, 운영자 또는 개발자를 대상으로 할 수 있으며, 사용자 도입부터 거버넌스 및 시스템 개발에 이르는 문제와 과제 해결을 목적으로 합니다. 이러한 "설명 가능성"은 광범위한 AI 도입과 혜택을 촉진하기 위해 시장에서 필요한 신뢰와 신임을 확보하는 데 필요한 AI의 핵심 능력입니다. 기타 관련 있고 새롭게 떠오르는 이니셔티브에는 신뢰할 수 있는 AI와 책임감 있는 AI가 있습니다.

 

설명을 제공하는 AI는 어떻게 구현됩니까?

미국 NIST(국립표준기술연구소)는 XAI가 다음 네 가지 원칙으로 작동한다고 설명합니다.

  • 설명: 시스템은 모든 출력에 대해 수반되는 증거 또는 이유를 제공합니다.
  • 의미 전달: 시스템은 개별 사용자에게 이해할 수 있는 설명을 제공합니다.
  • 설명 정확성: 설명은 출력 생성을 위한 시스템의 프로세스를 올바르게 반영합니다.
  • 지식 제한: 시스템은 설계된 조건 또는 출력이 충분한 신뢰 수준을 달성한 경우에만 운영됩니다.

NIST설명이 단순한 것부터 복잡한 것까지 다양할 수 있으며, 해당 고객에 따라 달라질 수 있다고 설명합니다. 에이전시는 다음 5가지 불완전 샘플 설명 가능성 범주를 이용하여 일부 설명 유형을 표현합니다.

  • 사용자 이점
  • 사회적 수락
  • 규제 및 준수
  • 시스템 개발
  • 소유자 이점

 

설명을 제공하는 AI가 중요한 이유는 무엇입니까?

설명을 제공하는 AI는 자동화된 시스템에서 성장, 승리 및 신뢰를 유지하기 위한 중요한 구성 요소입니다. 신뢰 없이는 AI, 특히 AIOps(AI for IT operations)는 완전히 수용되기 힘들 것이며, 현대 시스템의 규모와 복잡성이 수동 설정 운영과 전통적인 자동화로 달성할 수 있는 부분을 능가하게 될 것입니다.

신뢰가 쌓인 경우, AI의 역할이 보잘것없거나 없지만 제품 또는 서비스가 AI 기반이라고 암시하는 'AI 세탁' 관행이 명백하게 보이기 때문에 실무자와 고객 모두의 AI 실사에 도움이 됩니다. AI에 대한 신뢰와 신임을 확립하는 것은 도입 범위와 속도에 영향을 미치며, 이는 결과적으로 그 이점이 얼마나 빠르고 널리 실현될 수 있는가를 결정합니다.

해답을 찾거나 결정을 내리기 위해 어떤 시스템(특히, 현실 세계에 영향을 미치는 시스템)에 작업을 수행할 경우, 우리는 시스템이 결정에 어떻게 도달하였는지, 결과에 어떤 영향을 미치는지 또는 해당 조치가 왜 필요하다고 판단하였는지 설명할 수 있어야 합니다.

 

설명을 제공하는 AI의 이점

설명을 제공하는 AI의 이점은 다차원이라는 점입니다. 설명을 제공하는 AI는 정보에 입각한 의사 결정, 위험 감소, 신임 및 사용자 도입 증가, 더 나은 거버넌스, 더욱 빠른 시스템 개선 그리고 세계 AI의 전반적인 진화 및 유용성과 관련이 있습니다. 

 

설명을 제공하는 AI가 해결하는 문제에는 어떤 것이 있습니까?

많은 AI 및 ML 모델들은 이해하기 힘들고 그 결과물을 설명할 수 없다고 간주됩니다. 특정 경로를 따르게 된 이유나 결과물이 생성된 방법을 공개하고 설명하는 능력은 신뢰, 진화 및 AI 기술 도입에 중심이 되는 부분입니다.

데이터, 모델, 프로세스에 대한 자세한 설명을 통해 운영자와 사용자는 투명하고 유효한 추론을 사용하여 최적화를 위해 이러한 시스템에 인사이트와 관찰 가능성을 확보할 수 있습니다. 가장 중요한 것은 설명 가능성을 통해 모든 결함, 편향 및 위험이 더욱 쉽게 전달되고 추후에 완화 또는 제거될 수 있다는 점입니다.

 

설명을 제공하는 AI가 투명성을 만들고 신뢰를 구축하는 방법

초기 원시 데이터가 유용하려면 결국 제안되거나 실행된 작업이어야 합니다. 처음부터 사용자에게 완전히 자율적인 워크플로를 신뢰하라고 요구하는 것은 쉽지 않은 경우가 많아서 사용자가 시작부터 지원 레이어를 통해 단계적으로 받아들일 수 있도록 할 것을 권장합니다. 이벤트를 다시 등급별로 조사하여 사용자는 UI(사용자 인터페이스) 워크플로를 통해 원시 입력까지 레이어를 벗겨낼 수 있습니다. 이는 투명성과 신뢰를 촉진합니다.

도메인 전문가가 더 깊게 파고드는 동시에 초보자도 그들의 호기심이 닿는 곳까지 확인할 수 있도록 하여 자신들의 회의론을 만족하게 하는 프레임워크를 통해 초보자와 노련한 베테랑은 모두 자신의 생산성과 학습이 증가함에 따라 신뢰를 확립할 수 있습니다. 이러한 참여는 또한 지속적인 시스템 개선을 위해 향후에 AI/ML 알고리즘을 훈련 및 개발할 수 있는 선순환을 형성합니다.

입력부터 작업 데이터 깔때기 다이어그램

AI 기반 사용자 인터페이스의 데이터 플로우

설명을 제공하는 AI를 위험 평가 및 경감에 사용하는 방법

잘 정의된 프로토콜과 데이터 구조를 통해 데이터 네트워킹은 AI가 차별이나 인간의 편견에 대한 두려움 없이 멋진 진전을 만들어 낼 수 있다는 의미입니다. 문제 해결 및 서비스 보증과 같은 중립적인 문제 영역을 담당하는 경우, AI 애플리케이션은 경계를 명확하게 나누고 책임감 있게 수용할 수 있습니다.

AI 세척의 정체를 밝히고 이를 피하는 데 도움을 주는 일부 기본적인 기술 및 운영 관련 질문에 사용자 벤더의 답변을 듣는 것은 중요합니다. 모든 실사 및 조달 노력과 마찬가지로 답변의 세부 정보 수준은 중요한 인사이트를 제공할 수 있습니다. 응답에는 일부 기술적인 해설이 필요할 수 있으나 벤더의 클레임이 실행 가능한지 확인하는 데 도움이 되도록 여전히 권장합니다.

모든 기술과 마찬가지로 엔지니어링 및 리더십 팀은 제안된 구매를 평가하기 위해 기준을 설정하며 관련 결정은 증거를 기반으로 합니다. 실사를 통해 위험을 줄이고 도움을 주기 위해 AI/ML 소유자 및 사용자가 물어볼 몇 가지 질문은 아래 요약된 바와 같습니다.

  • 해당 솔루션을 구성하고 그에 기여하는 알고리즘은 무엇인가요?
  • 어떤 데이터가 수집되며, 어떻게 삭제되나요?
  • 데이터의 출처는 어디인가요(그리고 테넌시, 계정 또는 사용자에 따라 맞춤화되나요)?
  • 매개 변수와 기능은 네트워크 공간에서 어떻게 설계되나요?
  • 모델은 어떻게 훈련 및 재훈련되며, 최신이자 관련성이 유지되나요?
  • 시스템은 자체의 추론, 권장 또는 작업을 스스로 설명할 수 있나요?
  • 편견은 어떻게 제거 또는 경감되나요?
  • 솔루션이나 플랫폼은 어떻게 자동으로 개선 및 진화하나요?

또한 시제품이나 평가판은 AI 서비스 또는 시스템에 대한 약속이나 주장을 검증하라고 항상 권장합니다.

 

주니퍼에서 가동 중인 설명을 제공하는 AI

AI의 책임감 있고 윤리적인 사용은 복잡한 주제이지만 조직들이 해결해야만 하는 부분입니다. 주니퍼 Mist AI 혁신 원칙은 주니퍼 서비스와 제품에서 AI의 사용을 안내합니다. 또한 주니퍼는 전부 네트워크 변칙의 탐지 및 교정에 도움이 되는 동시에 더 좋은 일련의 도구를 사용하여 운영을 개선하는 AI 데이터 및 프리미티브, 문제 해결, 인터페이스 및 지능형 챗봇을 포함하여 AI/ML과 주니퍼 AIOps 접근 방식에 대해 광범위하게 글을 작성하였습니다. 

XAI는 여러 형태로 발견할 수 있습니다. 예를 들어, Juniper AiOps 기능에는 RRM (Wi-Fi network)에서 자동 무선 자원 무선 리소스 관리 (RRM)를 수행하고 잘못된 네트워크 케이블과 같은 문제를 탐지하는 것이 포함됩니다. 일부 주니퍼 XAI 도구는 Mist 제품 인터페이스에서 제공되며, 주니퍼 셀프서비스 투어에서 체험하실 수 있습니다. 오늘 액세스를 받으려면 여기에서 등록하세요.

사용자 및 운영자의 관점에서 신뢰성과 투명성을 향상시키기 위해 방법, 모델, 결정 및 신뢰 수준에 대해 더욱 뛰어난 설명 가능성을 선보이는 주니퍼의 Mist AI™ 엔진 및 Marvis Virtual Network Assistant을 기반으로 한 제품의 다양한 새로운 기능을 확인하세요.

설명을 제공하는 AI 관련 FAQ

설명을 제공하는 AI는 어떤 의미인가요?

설명을 제공하는 AI는 사용자가 AI/ML 알고리즘으로 생성된 결과와 출력물을 이해하고 신뢰할 수 있게 만드는 일련의 프로세스 및 방법입니다. AI 및 ML 출력을 수반하는 설명은 사용자, 운영자 또는 개발자를 대상으로 할 수 있으며, 사용자 도입부터 거버넌스 및 시스템 개발에 이르는 문제와 과제 해결을 목적으로 합니다. 

설명을 제공하는 AI 모델은 무엇입니까?

설명을 제공하는 AI 모델은 투명성, 쉬운 이해 및 AI 출력에 대한 질문 또는 질의하는 능력을 가능하게 만드는 특성이나 속성을 지니고 있습니다.

설명을 제공하는 AI가 중요한 이유는 무엇입니까?

설명을 제공하는 AI는 AI 시스템의 출력 근거를 상세히 설명하기 때문에 이를 통해 사람들이 AI 시스템을 구축해야 하며 AI 시스템의 출력과 결과를 믿을 수 있어야 한다는 이해, 관리 및 신뢰를 가능하게 합니다. 신뢰와 신임 형성에 도움이 되는 XAI 없이 사람들은 해당 기술을 폭넓게 구축하거나 이익을 얻을 가능성이 낮습니다. 

설명을 제공하는 AI의 이점은 무엇인가요?

설명을 제공하는 AI에는 많은 이점이 있습니다. 설명을 제공하는 AI는 정보에 입각한 의사 결정, 위험 감소, AI 신임 및 도입 증가, 더 나은 거버넌스, 더욱 빠른 시스템 개선 그리고 세계 AI의 전반적인 진화 및 유용성과 관련이 있습니다. 

설명을 제공하는 AI는 존재합니까?

네, 여전히 진화 중인 정의 때문에 초기 형태이긴 하지만요. 수많은 기능이나 면모를 가진 복잡하거나 혼합된 AI/ML 모델에 XAI를 구현하는 것은 더욱 어렵지만 XAI는 제품과 서비스에 사용자와의 신뢰를 형성하고 개발을 신속히 처리하는 데 도움이 되는 방법을 빠르게 발견하고 있습니다.

딥 러닝에서 설명 가능성이란 무엇인가요?

딥러닝은 종종 "블랙 박스"라고도 하는데 이는 딥 러닝 모델의 행위와 그 결정에 도달하게 된 경위를 이해하는 게 어려울 수 있음을 의미합니다. 설명 가능성은 딥 러닝 설명을 용이하게 하고자 합니다. 다양한 설명 방법을 평가하는 연구가 진행되고 있습니다.

주니퍼가 제공하는 설명을 제공하는 AI 기능은 무엇이 있나요?

XAI는 여러 형태로 발견할 수 있습니다. 예를 들어, 주니퍼는 Wi-Fi 네트워크 내 자동 RRM(무선 리소스 관리) 수행이나 네트워크 케이블 결함 탐지와 같은 여러 AIOps 기능에 사용된 ML 알고리즘을 설명하는 블로그와 동영상을 제공합니다(아래 동영상 리소스를 확인하세요). 이러한 XAI 도구 중 일부는 Mist 제품 인터페이스에서 제공되며, 이는 주니퍼 셀프서비스 투어에서 체험할 수 있습니다. 오늘 액세스를 받으려면 여기에서 등록하세요.