LLMコネクタの設定
このトピックを使用して、ルーティングディレクターでLLMコネクターを設定します。
LLM コネクターは、大規模言語モデル(LLM)をルーティング ディレクター インフラストラクチャに接続します。この接続により、ユーザーは、従来のCLIコマンドを使用することなく、英会話を用いて、ルーティングディレクターを介してネットワークにトラブルシューティングや監視のクエリーを行うことができます。例えば、 device-aのOSPFネイバーのステータスはどうなっていますか?
Routing Director を介してネットワークをクエリーできるようにするには、Routing Director で LLM コネクターを設定する必要があります。
| 畑 |
形容 |
|---|---|
| 名前* |
LLM モデルの名前を入力します。名前は組織内で一意である必要はありません。たとえば、demo-llm です。 |
| 供給者* |
LLMのプロバイダーを選択します。たとえば、Azure Open AI、Open AI、Ollama などです。 Open AIは、このリリースで推奨されるLLMプロバイダーです。 |
| モデル* |
選択したプロバイダーから使用する LLM を選択します。たとえば、GPT-3.5、GPT-4、GPT-4o、Llama3.1 などです。 GPT-4 と GPT4o は、このリリースで使用する推奨モデルです。 |
| APIキー* |
LLM の API キーを入力します。 LLM は API キーを使用して LLM コネクタからの要求を認証します。 |
| ベースURL* |
使用する Azure Open AI モデルまたは Ollama モデルのベース URL 値を入力します。 ベース URL は、LLM のデプロイ時に取得します。これは、LLM プロバイダーとして Azure または Ollama を使用する場合の必須フィールドです。 例えば |
| APIバージョン* |
AI モデルの API バージョンを入力します。 ベース URL は、LLM のデプロイ時に取得します。このフィールドは Azure に必須です。 |
| 能動 |
クリックすると、LLM を有効(デフォルト)または無効にできます。 一度にアクティブにできる LLM 設定は 1 つだけです。 |