Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

LLMコネクタの設定

このトピックを使用して、ルーティングディレクターでLLMコネクターを設定します。

LLM コネクターは、大規模言語モデル(LLM)をルーティング ディレクター インフラストラクチャに接続します。この接続により、ユーザーは、従来のCLIコマンドを使用することなく、英会話を用いて、ルーティングディレクターを介してネットワークにトラブルシューティングや監視のクエリーを行うことができます。例えば、 device-aのOSPFネイバーのステータスはどうなっていますか?

Routing Director を介してネットワークをクエリーできるようにするには、Routing Director で LLM コネクターを設定する必要があります。

LLM コネクタを設定するには:
  1. バナーの [設定] メニュー > [システム設定] をクリックします。

    [組織の設定] ページが表示されます。

  2. [Configure LLM Connector] タイルで、[+](追加)アイコンをクリックします。

    [LLM Connector Configuration] ページが表示されます。

  3. 1 を参照して値を入力します。

    *印のフィールドは必須です。

  4. 「作成」をクリックします。
    値は [LLM コネクターの構成] タイルに一覧表示されます。
表 1: LLM コネクタを構成するためのフィールド

形容

名前*

LLM モデルの名前を入力します。名前は組織内で一意である必要はありません。たとえば、demo-llm です。

供給者*

LLMのプロバイダーを選択します。たとえば、Azure Open AI、Open AI、Ollama などです。

Open AIは、このリリースで推奨されるLLMプロバイダーです。

モデル*

選択したプロバイダーから使用する LLM を選択します。たとえば、GPT-3.5、GPT-4、GPT-4o、Llama3.1 などです。

GPT-4 と GPT4o は、このリリースで使用する推奨モデルです。

APIキー*

LLM の API キーを入力します。

LLM は API キーを使用して LLM コネクタからの要求を認証します。

ベースURL*

使用する Azure Open AI モデルまたは Ollama モデルのベース URL 値を入力します。

ベース URL は、LLM のデプロイ時に取得します。これは、LLM プロバイダーとして Azure または Ollama を使用する場合の必須フィールドです。

例えば

https://demo-openai-azure.com/

APIバージョン*

AI モデルの API バージョンを入力します。

ベース URL は、LLM のデプロイ時に取得します。このフィールドは Azure に必須です。

能動

クリックすると、LLM を有効(デフォルト)または無効にできます。

一度にアクティブにできる LLM 設定は 1 つだけです。