このページの内容
LDP の設定
最小 LDP 設定
最小設定でLDPを有効にするには:
ファミリー MPLS で関連するすべてのインターフェイスを有効にします。ディレクテッドLDPの場合、ループバックインターフェイスをファミリーMPLSで有効にする必要があります。
(オプション)
[edit protocol mpls]階層レベルで関連するインターフェイスを設定します。単一のインターフェイスでLDPを有効にし、
ldpステートメントを含め、interfaceステートメントを使用してインターフェイスを指定します。
これがLDPの最小設定です。他のすべての LDP 設定ステートメントはオプションです。
ldp { interface interface-name; }
すべてのインターフェイスでLDPを有効にするには、interface-nameにallを指定します。
これらのステートメントを含めることができる階層レベルの一覧については、ステートメント概要セクションを参照してください。
LDPの有効化および無効化
LDPはルーティングインスタンスを認識しています。特定のインターフェイスでLDPを有効にするには、以下のステートメントを含めます。
ldp { interface interface-name; }
これらのステートメントを含めることができる階層レベルの一覧については、ステートメント概要セクションを参照してください。
すべてのインターフェイスでLDPを有効にするには、interface-nameにallを指定します。
インターフェイスのグループでインターフェイスのプロパティを設定し、そのうちの1つのインターフェイスでLDPを無効にする場合は、disableオプションにinterfaceステートメントを使用します。
interface interface-name { disable; }
このステートメントを含めることができる階層レベルの一覧については、ステートメント概要セクションを参照してください。
Hello メッセージ用の LDP タイマーの設定
LDP Helloメッセージにより、LDPノードはお互いを発見し、ネイバーの障害やネイバーへのリンクを検出できます。Helloメッセージは、LDPが有効になっているすべてのインターフェイスで定期的に送信されます。
LDP Hello メッセージには 2 種類あります。
リンク Hello メッセージ - LDP インターフェィスを介して、LDP ディスカバリー ポートに宛てた UDP パケットとして送信されます。インターフェイスでLDPリンクhelloメッセージを受信すると、LDPピアルーターとの隣接関係が識別されます。
ターゲット Hello メッセージ - 特定のアドレスの LDP ディスカバリー ポートに宛てた UDP パケットとして送信されます。ターゲット Hello メッセージは、直接接続されていないルーター間の LDP セッションをサポートするために使用されます。ターゲット ルーターは、ターゲット Hello メッセージに応答するか無視するかを決定します。応答を選択したターゲットルーターは、ターゲットhelloメッセージを定期的に送信することによって応答しますルーター。
デフォルトでは、LDP は、リンク Hello メッセージは 5 秒ごとに、ターゲット Hello メッセージは 15 秒ごとに送信します。LDP タイマーを設定して、両方のタイプの Hello メッセージを送信する頻度を変更できます。ただし、LDP 保留時間よりも長く LDP タイマーの設定はできません。詳細については、 『Configuring the Delay Before LDP Neighbors Are Considered Down』を参照してください。
リンク Hello メッセージ用の LDP タイマーの設定
LDP がリンク Hello メッセージを送信する頻度を変更するには、 hello-interval ステートメントを使用して LDP タイマーに新しいリンク Hello メッセージの間隔を指定します。
hello-interval seconds;
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
ターゲット Hello メッセージ用の LDP タイマーの設定
LDP がターゲット Hello メッセージを送信する頻度を変更するには、targeted-hello ステートメントのオプションとして hello-interval ステートメントを設定し、LDP タイマーに新しいターゲット Hello メッセージの間隔を指定します。
targeted-hello { hello-interval seconds; }
これらのステートメントを含めることができる階層レベルの一覧については、これらのステートメントのステートメント概要セクションを参照してください。
LDP ネイバーがダウンしたと判断される前に遅延を設定する
保留時間は、ネイバーがダウンしたと宣言する前に、LDP ノードが Hello メッセージを待つ時間を決定します。この値は、各 LDP ノードがネイバーに待ち時間を伝えるために、hello メッセージの一部として送信されます。各ネイバーから送信される値は一致しなくても構いません。
保留時間は、通常、hello 間隔の少なくとも 3 倍にする必要があります。デフォルトでは、リンク Hello メッセージは 15 秒、ターゲット Hello メッセージは 45 秒です。ただし、hello 間隔の値に近い LDP 保留時間を設定することは可能です。
LDP の保留時間を hello 間隔に近い値(hello 間隔の 3 倍以下)に設定することで、LDP ネイバーの障害をより早く検出できる可能性があります。しかし、この方法では、まだ正常に機能しているLDPネイバーを、ルーターがダウンと宣言する可能性も高くなります。詳細については、Hello メッセージ用の LDP タイマーの設定を参照してください。
また、LDP の保留時間は、LDP ピア間で自動的にネゴシエートされます。2 つの LDP ピアが互いに異なる LDP 保留時間をアドバタイズする場合は、小さい方の値を使用します。LDP ピアルーターが設定した値よりも短い保留時間をアドバタイズした場合、ピアルーターのアドバタイズされた保留時間が使用されます。このネゴシエーションは、LDP のキープアライブ間隔にも影響します。
LDP ピアネゴシエーション中にローカル LDP の保留時間が短縮されない場合、ユーザーが設定したキープアライブ間隔は変更されません。ただし、ピアネゴシエーション中にローカル保留時間が短縮されると、キープアライブ間隔が再計算されます。ピアネゴシエーション中にLDPの保留時間が短縮された場合、キープアライブ間隔は新しい保留時間の値の3分の1に短縮されます。例えば、新しい保留時間の値が 45 秒の場合、キープアライブ間隔は 15 秒に設定されます。
このキープアライブ間隔の自動計算により、各ピアルーターで異なるキープアライブ間隔を設定できます。これにより、LDP ピアネゴシエーションにより、LDP の保留時間よりも頻繁にキープアライブメッセージが送信されるため、ルーターはキープアライブメッセージの送信頻度を柔軟に変更することができます。
ホールドタイムの間隔を再設定しても、セッションがリセットされるまで変更は反映されません。保留時間は、LDP ピアリングセッションの開始時にネゴシエートされ、セッションが稼働している間は再ネゴシエートできません(RFC 5036、 LDP仕様で要求されています)。LDP セッションを手動で強制的にリセットするには、 clear ldp session コマンドを発行します。
リンク Hello メッセージ用の LDP 保留時間を設定する
ネイバーダウンを宣言する前に、LDP ノードがリンク Hello メッセージを待つ時間を変更するには、 hold-time ステートメントを使用して、新しい時間を秒単位で指定します。
hold-time seconds;
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
ターゲット Hello メッセージ用の LDP 保留時間を設定する
ネイバーダウンを宣言する前に、LDP ノードがターゲット Hello メッセージを待つ時間を変更するには、targeted-hello ステートメントのオプションとして hold-time ステートメントを使用して、新しい時間を秒単位で指定します。
targeted-hello { hold-time seconds; }
これらのステートメントを含めることができる階層レベルの一覧については、これらのステートメントのステートメント概要セクションを参照してください。
LDPの厳密なターゲットhelloメッセージの有効化
厳密にターゲットされたHelloメッセージを使用して、特に設定されていないリモートネイバーとLDPセッションが確立されないようにします。 strict-targeted-hellos ステートメントを設定すると、LDPピアは、設定されたリモートネイバーではないソースから来るターゲットhelloメッセージに応答しません。設定されたリモートネイバーには、以下が含まれます。
LDPトンネリングが設定されているRSVPトンネルの終点
レイヤー2回線ネイバー
未構成のネイバーが Hello メッセージを送信した場合、LDP ピアはそのメッセージを無視し、送信元を示すエラー( error trace フラグ付き)を記録します。例えば、LDPピアがインターネットアドレス10.0.0.1からターゲットハローを受信し、このアドレスを持つネイバーが特に設定されていない場合、LDPログファイルに次のメッセージが出力されます。
LDP: Ignoring targeted hello from 10.0.0.1
厳密にターゲットを絞ったHelloメッセージを有効にするには、 strict-targeted-hellos ステートメントを含めます。
strict-targeted-hellos;
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
LDP キープアライブ メッセージの間隔を設定する
キープアライブ間隔は、キープアライブのタイムアウトを超えないように、セッション上でメッセージを送信する頻度を決定します。この時間内に他の LDP トラフィックがセッションを介して送信されない場合、キープアライブ メッセージが送信されます。デフォルトは 10 秒です。最小値は 1 秒です。
ピアルーターのLDPホールドタイムに設定された値がローカルに設定された値よりも低い場合、LDPセッションネゴシエーション中にキープアライブ間隔に設定された値を変更することができます。詳細については、 『Configuring the Delay Before LDP Neighbors Are Considered Down』を参照してください。
キープアライブ間隔を変更するには、 keepalive-interval ステートメントを含めます。
keepalive-interval seconds;
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
LDPキープアライブタイムアウトの設定
LDP セッションの確立後は、セッションが正常に動作していることを確認するために、定期的にメッセージ交換を行う必要があります。キープアライブタイムアウトは、ネイバーLDPノードがセッションの失敗を判断するまでに待機する時間を定義します。この値は通常、キープアライブ間隔の少なくとも3倍に設定されます。デフォルトは30秒です。
キープアライブ間隔を変更するには、 keepalive-timeout ステートメントを含めます。
keepalive-timeout seconds;
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
keepalive-timeoutステートメントに設定された値は、show ldp session detailコマンドを発行したときの保留時間として表示されます。
LDPのロンゲストマッチの設定
LDPがドメイン間のOSPFエリアまたはIS-ISレベルで集約または要約されたルートを学習できるようにするため、Junos OSでは、 RFC5283に基づいてLDPのロンゲストマッチを設定することができます。
LDPのロンゲストマッチを設定する前に、以下のことを行う必要があります。
デバイスインターフェイスを設定します。
MPLSプロトコルを設定します。
OSPFプロトコルを設定します。
LDPのロンゲストマッチを設定するには、次のようにする必要があります。
例:LDPのロンゲストマッチの設定
この例では、 RFC5283に基づいてLDPのロンゲストマッチを設定する方法を示しています。これにより、LDPは、ドメイン間のOSPFエリアまたはIS-ISレベルで集約または要約されたルートを学習できます。ロンゲストマッチポリシーは、プレフィックス単位の詳細を提供します。
要件
この例では、以下のハードウェアおよびソフトウェアコンポーネントを使用しています。
OSPFプロトコルを備えた6台のMXシリーズルーターと、接続されたインターフェイスで有効にされたLDP。
すべてのデバイスで実行されている Junos OS リリース 16.1 以降。
始める前に:
デバイスインターフェイスを設定します。
OSPFを設定します。
概要
LDPは、OSPFやIS-ISなどのIGPを使用して、完全なネットワークドメイン全体でMPLSラベルスイッチパス(LSP)を確立するためによく使用されます。このようなネットワークでは、ドメイン内のすべてのリンクには、IGP隣接関係とLDP隣接関係があります。LDP は、IP 転送によって決定され、宛先までの最短パスで LSP を確立します。Junos OSでは、LDP実装は、ラベルマッピングの目的で、RIBまたはIGPルート内のFECのIPアドレス上で完全一致検索を行います。この正確なマッピングには、すべてのLERでMPLSエンドツーエンドのLDPエンドポイントIPアドレスを設定する必要があります。これにより、IP 階層設計やアクセスデバイスのデフォルトルーティングの目的が果たせなくなります。 longest-match を設定することで、完全一致の動作を抑制し、プレフィックス単位で最長一致ルートに基づいてLSPを設定することで、これを解決できます。
設定
CLIクイックコンフィグレーション
この例をすばやく設定するには、以下のコマンドをコピーしてテキスト ファイルに貼り付け、改行を削除し、ネットワーク設定に一致させる必要がある詳細情報を変更し、コマンドを [edit] 階層レベルでCLIにコピー アンド ペーストして、設定モードから commit を入力します。
R0
set interfaces ge-0/0/0 unit 0 family inet address 22.22.22.1/24 set interfaces ge-0/0/1 unit 0 family inet address 15.15.15.1/24 set interfaces ge-0/0/2 unit 0 family inet address 11.11.11.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.112.1/32 primary set interfaces lo0 unit 0 family inet address 10.255.112.1/32 preferred set interfaces lo0 unit 0 family iso address 49.0002.0192.0168.0001.00 set routing-options router-id 10.255.112.1 set protocols mpls interface ge-0/0/2.0 set protocols ospf area 0.0.0.1 interface ge-0/0/2.0 set protocols ospf area 0.0.0.1 interface lo0.0 passive set protocols ldp longest-match set protocols ldp interface ge-0/0/2.0 set protocols ldp interface lo0.0
R1
set interfaces ge-0/0/0 unit 0 family inet address 11.11.11.2/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 12.12.12.1/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.112.2/32 primary set interfaces lo0 unit 0 family inet address 10.255.112.2/32 preferred set interfaces lo0 unit 0 family iso address 49.0002.0192.0168.0002.00 set routing-options router-id 10.255.112.2 set protocols mpls interface ge-0/0/0.0 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ospf area 0.0.0.1 interface ge-0/0/0.0 set protocols ldp longest-match set protocols ldp interface ge-0/0/0.0 set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R2
set interfaces ge-0/0/0 unit 0 family inet address 24.24.24.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 12.12.12.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 23.23.23.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces ge-0/0/3 unit 0 family inet address 22.22.22.2/24 set interfaces ge-0/0/4 unit 0 family inet address 25.25.25.1/24 set interfaces ge-0/0/4 unit 0 family iso set interfaces ge-0/0/4 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.4/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.4/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0003.00 set routing-options router-id 10.255.111.4 set protocols mpls interface ge-0/0/1.0 set protocols mpls interface ge-0/0/2.0 set protocols mpls interface ge-0/0/0.0 set protocols mpls interface ge-0/0/4.0 set protocols ospf area 0.0.0.0 interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ospf area 0.0.0.2 area-range 10.255.111.0/24 set protocols ospf area 0.0.0.2 interface ge-0/0/2.0 set protocols ospf area 0.0.0.2 interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface ge-0/0/4.0 set protocols ldp interface ge-0/0/0.0 set protocols ldp interface ge-0/0/1.0 set protocols ldp interface ge-0/0/2.0 set protocols ldp interface ge-0/0/4.0 set protocols ldp interface lo0.0
R3
set interfaces ge-0/0/0 unit 0 family inet address 35.35.35.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 23.23.23.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 34.34.34.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.1/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.1/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0004.00 set routing-options router-id 10.255.111.1 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R4
set interfaces ge-0/0/0 unit 0 family inet address 45.45.45.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 24.24.24.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 34.34.34.2/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.2/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.2/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0005.00 set routing-options router-id 10.255.111.2 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R5
set interfaces ge-0/0/0 unit 0 family inet address 25.25.25.2/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 15.15.15.2/24 set interfaces ge-0/0/2 unit 0 family inet address 35.35.35.2/24 set interfaces ge-0/0/3 unit 0 family inet address 45.45.45.2/24 set interfaces ge-0/0/3 unit 0 family iso set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.3/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.3/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0006.00 set routing-options router-id 10.255.111.3 set protocols mpls interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/0.0 set protocols ldp interface lo0.0
デバイスR0の設定
ステップバイステップの手順
次の例では、設定階層内のさまざまなレベルに移動する必要があります。CLIのナビゲーションについては、『CLIユーザーガイド』の「設定モードでのCLIエディターの使用」を参照してください。
デバイスR0を設定するには:
インターフェイスを設定します。
[edit interfaces] set ge-0/0/0 unit 0 family inet address 22.22.22.1/24 set ge-0/0/1 unit 0 family inet address 15.15.15.1/24 set ge-0/0/2 unit 0 family inet address 11.11.11.1/24 set ge-0/0/2 unit 0 family iso set ge-0/0/2 unit 0 family mpls
デバイスにループバックアドレスを割り当てます。
[edit interfaces lo0 unit 0 family] set inet address 10.255.112.1/32 primary set inet address 10.255.112.1/32 preferred set iso address 49.0002.0192.0168.0001.00
ルーターIDを設定します。
[edit routing-options] set router-id 10.255.112.1
インターフェイスに MPLS プロトコルを設定します。
[edit protocols mpls] set interface ge-0/0/2.0
インターフェイスに OSPF プロトコルを設定します。
[edit protocols ospf] set area 0.0.0.1 interface ge-0/0/2.0 set area 0.0.0.1 interface lo0.0 passive
LDPプロトコルのロンゲストマッチを設定します。
[edit protocols ldp] set longest-match
インターフェイスにLDPプロトコルを設定します。
[edit protocols ldp] set interface ge-0/0/2.0 set interface lo0.0
結果
設定モードから、 show interfaces、 show protocols、 show routing-options コマンドを入力して設定を確認します。出力に意図した設定が表示されない場合は、この例の手順を繰り返して設定を修正します。
user@R0# show interfaces
ge-0/0/0 {
unit 0 {
family inet {
address 22.22.22.1/24;
}
}
}
ge-0/0/1 {
unit 0 {
family inet {
address 15.15.15.1/24;
}
}
}
ge-0/0/2 {
unit 0 {
family inet {
address 11.11.11.1/24;
}
family iso;
family mpls;
}
}
lo0 {
unit 0 {
family inet {
address 10.255.112.1/32 {
primary;
preferred;
}
}
family iso {
address 49.0002.0192.0168.0001.00;
}
}
}
user@R0# show protocols
mpls {
interface ge-0/0/2.0;
}
ospf {
area 0.0.0.1 {
interface ge-0/0/2.0;
interface lo0.0 {
passive;
}
}
}
ldp {
longest-match;
interface ge-0/0/2.0;
interface lo0.0;
}
user@R0# show routing-options router-id 10.255.112.1;
デバイスの設定が完了したら、設定モードから commit を入力します。
検証
設定が正常に機能していることを確認します。
ルートの検証
目的
期待ルートが学習されていることを確認します。
アクション
デバイスR0では、運用モードから show route コマンドを実行して、ルーティングテーブル内のルートを表示します。
user@R0> show route
inet.0: 62 destinations, 62 routes (62 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.4.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.5.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.6.128.0/17 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.9.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.10.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.13.4.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.13.10.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.82.0.0/15 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.84.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.85.12.0/22 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.92.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.92.16.0/20 *[Direct/0] 10:08:01
> via fxp0.0
10.92.20.175/32 *[Local/0] 10:08:01
Local via fxp0.0
10.94.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.99.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.102.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.150.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.155.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.157.64.0/19 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.160.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.204.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.205.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.206.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.207.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.209.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.212.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.213.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.214.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.215.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.216.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.13.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.14.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.16.0/20 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.32.0/20 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.227.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.255.111.0/24 *[OSPF/10] 09:52:14, metric 3
> to 11.11.11.2 via ge-0/0/2.0
10.255.111.4/32 *[OSPF/10] 09:54:10, metric 2
> to 11.11.11.2 via ge-0/0/2.0
10.255.112.1/32 *[Direct/0] 09:55:05
> via lo0.0
10.255.112.2/32 *[OSPF/10] 09:54:18, metric 1
> to 11.11.11.2 via ge-0/0/2.0
11.11.11.0/24 *[Direct/0] 09:55:05
> via ge-0/0/2.0
11.11.11.1/32 *[Local/0] 09:55:05
Local via ge-0/0/2.0
12.12.12.0/24 *[OSPF/10] 09:54:18, metric 2
> to 11.11.11.2 via ge-0/0/2.0
15.15.15.0/24 *[Direct/0] 09:55:05
> via ge-0/0/1.0
15.15.15.1/32 *[Local/0] 09:55:05
Local via ge-0/0/1.0
22.22.22.0/24 *[Direct/0] 09:55:05
> via ge-0/0/0.0
22.22.22.1/32 *[Local/0] 09:55:05
Local via ge-0/0/0.0
23.23.23.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
24.24.24.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
25.25.25.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.17.45/32 *[OSPF/10] 09:54:05, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.20.175/32 *[Direct/0] 10:08:01
> via lo0.0
128.92.21.186/32 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.25.135/32 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.27.91/32 *[OSPF/10] 09:54:18, metric 1
> to 11.11.11.2 via ge-0/0/2.0
128.92.28.70/32 *[OSPF/10] 09:54:10, metric 2
> to 11.11.11.2 via ge-0/0/2.0
172.16.0.0/12 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
192.168.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
192.168.102.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.136.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.136.192/32 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.137.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
224.0.0.5/32 *[OSPF/10] 09:55:05, metric 1
MultiRecv
inet.3: 5 destinations, 5 routes (5 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.255.111.1/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300128
10.255.111.2/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300144
10.255.111.3/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300160
10.255.111.4/32 *[LDP/9] 09:54:10, metric 2, tag 0
> to 11.11.11.2 via ge-0/0/2.0, Push 300000
10.255.112.2/32 *[LDP/9] 09:54:48, metric 1, tag 0
> to 11.11.11.2 via ge-0/0/2.0
iso.0: 2 destinations, 2 routes (2 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
47.0005.80ff.f800.0000.0108.0001.1280.9202.0175/152
*[Direct/0] 10:08:01
> via lo0.0
49.0002.0192.0168.0001/72
*[Direct/0] 09:55:05
> via lo0.0
mpls.0: 10 destinations, 10 routes (10 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
0 *[MPLS/0] 09:55:05, metric 1
Receive
1 *[MPLS/0] 09:55:05, metric 1
Receive
2 *[MPLS/0] 09:55:05, metric 1
Receive
13 *[MPLS/0] 09:55:05, metric 1
Receive
300064 *[LDP/9] 09:54:48, metric 1
> to 11.11.11.2 via ge-0/0/2.0, Pop
300064(S=0) *[LDP/9] 09:54:48, metric 1
> to 11.11.11.2 via ge-0/0/2.0, Pop
300112 *[LDP/9] 09:54:10, metric 2, tag 0
> to 11.11.11.2 via ge-0/0/2.0, Swap 300000
300192 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300128
300208 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300144
300224 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300160
inet6.0: 2 destinations, 2 routes (2 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
abcd::128:92:20:175/128
*[Direct/0] 10:08:01
> via lo0.0
fe80::5668:a50f:fcc1:1f9c/128
*[Direct/0] 10:08:01
> via lo0.0
意味
出力は、デバイスR0のルーティングテーブル内のすべてのルートを示しています。
LDPの概要情報の検証
目的
LDPの概要情報を表示します。
アクション
デバイスR0では、運用モードから show ldp overview コマンドを実行し、LDPの概要を表示します。
user@R0> show ldp overview
Instance: master
Reference count: 2
Router ID: 10.255.112.1
Message id: 8
Configuration sequence: 6
Deaggregate: disabled
Explicit null: disabled
IPv6 tunneling: disabled
Strict targeted hellos: disabled
Loopback if added: yes
Route preference: 9
Unicast transit LSP chaining: disabled
P2MP transit LSP chaining: disabled
Transit LSP statistics based on route statistics: disabled
LDP route acknowledgement: enabled
LDP mtu discovery: disabled
Longest Match: enabled
Capabilities enabled: none
Egress FEC capabilities enabled: entropy-label-capability
Downstream unsolicited Sessions:
Operational: 1
Retention: liberal
Control: ordered
Auto targeted sessions:
Auto targeted: disabled
Timers:
Keepalive interval: 10, Keepalive timeout: 30
Link hello interval: 5, Link hello hold time: 15
Targeted hello interval: 15, Targeted hello hold time: 45
Label withdraw delay: 60, Make before break timeout: 30
Make before break switchover delay: 3
Link protection timeout: 120
Graceful restart:
Restart: disabled, Helper: enabled, Restart in process: false
Reconnect time: 60000, Max neighbor reconnect time: 120000
Recovery time: 160000, Max neighbor recovery time: 240000
Traffic Engineering:
Bgp igp: disabled
Both ribs: disabled
Mpls forwarding: disabled
IGP:
Tracking igp metric: disabled
Sync session up delay: 10
Session protection:
Session protection: disabled
Session protection timeout: 0
Interface addresses advertising:
11.11.11.1
10.255.112.1
128.92.20.175
Label allocation:
Current number of LDP labels allocated: 5
Total number of LDP labels allocated: 11
Total number of LDP labels freed: 6
Total number of LDP label allocation failure: 0
Current number of labels allocated by all protocols: 5
意味
出力で、デバイスR0のLDPの概要情報が表示されます。
内部トポロジーテーブル内のLDPエントリーの検証
目的
ラベル配布プロトコル(LDP)内部トポロジーテーブル内のルートエントリーを表示します。
アクション
デバイスR0では、運用モードから show ldp route コマンドを実行して、LDPの内部トポロジーテーブルを表示します。
user@R0> show ldp route
Destination Next-hop intf/lsp/table Next-hop address
10.4.0.0/16 fxp0.0 10.92.31.254
10.5.0.0/16 fxp0.0 10.92.31.254
10.6.128.0/17 fxp0.0 10.92.31.254
10.9.0.0/16 fxp0.0 10.92.31.254
10.10.0.0/16 fxp0.0 10.92.31.254
10.13.4.0/23 fxp0.0 10.92.31.254
10.13.10.0/23 fxp0.0 10.92.31.254
10.82.0.0/15 fxp0.0 10.92.31.254
10.84.0.0/16 fxp0.0 10.92.31.254
10.85.12.0/22 fxp0.0 10.92.31.254
10.92.0.0/16 fxp0.0 10.92.31.254
10.92.16.0/20 fxp0.0
10.92.20.175/32
10.94.0.0/16 fxp0.0 10.92.31.254
10.99.0.0/16 fxp0.0 10.92.31.254
10.102.0.0/16 fxp0.0 10.92.31.254
10.150.0.0/16 fxp0.0 10.92.31.254
10.155.0.0/16 fxp0.0 10.92.31.254
10.157.64.0/19 fxp0.0 10.92.31.254
10.160.0.0/16 fxp0.0 10.92.31.254
10.204.0.0/16 fxp0.0 10.92.31.254
10.205.0.0/16 fxp0.0 10.92.31.254
10.206.0.0/16 fxp0.0 10.92.31.254
10.207.0.0/16 fxp0.0 10.92.31.254
10.209.0.0/16 fxp0.0 10.92.31.254
10.212.0.0/16 fxp0.0 10.92.31.254
10.213.0.0/16 fxp0.0 10.92.31.254
10.214.0.0/16 fxp0.0 10.92.31.254
10.215.0.0/16 fxp0.0 10.92.31.254
10.216.0.0/16 fxp0.0 10.92.31.254
10.218.13.0/24 fxp0.0 10.92.31.254
10.218.14.0/24 fxp0.0 10.92.31.254
10.218.16.0/20 fxp0.0 10.92.31.254
10.218.32.0/20 fxp0.0 10.92.31.254
10.227.0.0/16 fxp0.0 10.92.31.254
10.255.111.0/24 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
11.11.11.0/24 ge-0/0/2.0
11.11.11.1/32
12.12.12.0/24 ge-0/0/2.0 11.11.11.2
15.15.15.0/24 ge-0/0/1.0
15.15.15.1/32
22.22.22.0/24 ge-0/0/0.0
22.22.22.1/32
23.23.23.0/24 ge-0/0/2.0 11.11.11.2
24.24.24.0/24 ge-0/0/2.0 11.11.11.2
25.25.25.0/24 ge-0/0/2.0 11.11.11.2
128.92.17.45/32 ge-0/0/2.0 11.11.11.2
128.92.20.175/32 lo0.0
128.92.21.186/32 ge-0/0/2.0 11.11.11.2
128.92.25.135/32 ge-0/0/2.0 11.11.11.2
128.92.27.91/32 ge-0/0/2.0 11.11.11.2
128.92.28.70/32 ge-0/0/2.0 11.11.11.2
172.16.0.0/12 fxp0.0 10.92.31.254
192.168.0.0/16 fxp0.0 10.92.31.254
192.168.102.0/23 fxp0.0 10.92.31.254
207.17.136.0/24 fxp0.0 10.92.31.254
207.17.136.192/32 fxp0.0 10.92.31.254
207.17.137.0/24 fxp0.0 10.92.31.254
224.0.0.5/32
意味
出力で、デバイスR0のラベル配布プロトコル(LDP)内部トポロジーテーブル内のルートエントリーが表示されます。
LDPルートのFEC情報のみの検証
目的
LDPルートのFEC情報のみを表示します。
アクション
デバイスR0では、運用モードから show ldp route fec-only コマンドを実行して、ルーティングテーブル内のルートを表示します。
user@R0> show ldp route fec-only
Destination Next-hop intf/lsp/table Next-hop address
10.255.111.1/32 ge-0/0/2.0 11.11.11.2
10.255.111.2/32 ge-0/0/2.0 11.11.11.2
10.255.111.3/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
意味
出力には、デバイスR0で利用可能なLDPプロトコルのFECルートのみが表示されます。
LDPのFECおよびシャドウルートの検証
目的
ルーティングテーブル内のFECとシャドウルートを表示します。
アクション
デバイスR0では、運用モードから show ldp route fec-and-route コマンドを実行し、ルーティングテーブル内のFECとシャドウルートを表示します。
user@R0> show ldp route fec-and-route
Destination Next-hop intf/lsp/table Next-hop address
10.4.0.0/16 fxp0.0 10.92.31.254
10.5.0.0/16 fxp0.0 10.92.31.254
10.6.128.0/17 fxp0.0 10.92.31.254
10.9.0.0/16 fxp0.0 10.92.31.254
10.10.0.0/16 fxp0.0 10.92.31.254
10.13.4.0/23 fxp0.0 10.92.31.254
10.13.10.0/23 fxp0.0 10.92.31.254
10.82.0.0/15 fxp0.0 10.92.31.254
10.84.0.0/16 fxp0.0 10.92.31.254
10.85.12.0/22 fxp0.0 10.92.31.254
10.92.0.0/16 fxp0.0 10.92.31.254
10.92.16.0/20 fxp0.0
10.92.20.175/32
10.94.0.0/16 fxp0.0 10.92.31.254
10.99.0.0/16 fxp0.0 10.92.31.254
10.102.0.0/16 fxp0.0 10.92.31.254
10.150.0.0/16 fxp0.0 10.92.31.254
10.155.0.0/16 fxp0.0 10.92.31.254
10.157.64.0/19 fxp0.0 10.92.31.254
10.160.0.0/16 fxp0.0 10.92.31.254
10.204.0.0/16 fxp0.0 10.92.31.254
10.205.0.0/16 fxp0.0 10.92.31.254
10.206.0.0/16 fxp0.0 10.92.31.254
10.207.0.0/16 fxp0.0 10.92.31.254
10.209.0.0/16 fxp0.0 10.92.31.254
10.212.0.0/16 fxp0.0 10.92.31.254
10.213.0.0/16 fxp0.0 10.92.31.254
10.214.0.0/16 fxp0.0 10.92.31.254
10.215.0.0/16 fxp0.0 10.92.31.254
10.216.0.0/16 fxp0.0 10.92.31.254
10.218.13.0/24 fxp0.0 10.92.31.254
10.218.14.0/24 fxp0.0 10.92.31.254
10.218.16.0/20 fxp0.0 10.92.31.254
10.218.32.0/20 fxp0.0 10.92.31.254
10.227.0.0/16 fxp0.0 10.92.31.254
10.255.111.0/24 ge-0/0/2.0 11.11.11.2
10.255.111.1/32 ge-0/0/2.0 11.11.11.2
10.255.111.2/32 ge-0/0/2.0 11.11.11.2
10.255.111.3/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
11.11.11.0/24 ge-0/0/2.0
11.11.11.1/32
12.12.12.0/24 ge-0/0/2.0 11.11.11.2
15.15.15.0/24 ge-0/0/1.0
15.15.15.1/32
22.22.22.0/24 ge-0/0/0.0
22.22.22.1/32
23.23.23.0/24 ge-0/0/2.0 11.11.11.2
24.24.24.0/24 ge-0/0/2.0 11.11.11.2
25.25.25.0/24 ge-0/0/2.0 11.11.11.2
128.92.17.45/32 ge-0/0/2.0 11.11.11.2
128.92.20.175/32 lo0.0
128.92.21.186/32 ge-0/0/2.0 11.11.11.2
128.92.25.135/32 ge-0/0/2.0 11.11.11.2
128.92.27.91/32 ge-0/0/2.0 11.11.11.2
128.92.28.70/32 ge-0/0/2.0 11.11.11.2
172.16.0.0/12 fxp0.0 10.92.31.254
192.168.0.0/16 fxp0.0 10.92.31.254
192.168.102.0/23 fxp0.0 10.92.31.254
207.17.136.0/24 fxp0.0 10.92.31.254
207.17.136.192/32 fxp0.0 10.92.31.254
207.17.137.0/24 fxp0.0 10.92.31.254
224.0.0.5/32
意味
出力には、デバイスR0のFECとシャドウルートが表示されます。
LDPルート設定の構成
複数のプロトコルが同じ宛先へのルートを計算する場合、ルート設定を使用して、転送テーブルにインストールするルートを選択します。優先度の最も低いルートが選択されます。優先度は、0〜255の数値を指定することができます。デフォルトでは、LDPルートの優先度は9です。
ルート設定を変更するには、 preference ステートメントを含めます。
preference preference;
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
LDPグレースフルリスタート
LDPグレースフルリスタートにより、LDPコントロールプレーン再起動中のルーターは、隣接ルーターからその状態を回復しながらも、トラフィックの転送を継続できます。また、ヘルパーモードが有効になっているルーターが、LDP再起動を試みている隣接ルーターを補助することを可能にします。
セッション初期中に、ルーターは、LDPグレースフルリスタートを実行する機能、またはグレースフルリスタートTLVを送信することによって、LDPグレースフルリスタートを実行しているネイバーを利用する機能をアドバタイズします。このTLVには、LDPグレースフルリスタートに関連する2つのフィールド(再接続時間と回復時間)が含まれています。再接続および回復時間の値は、ルーターでサポートされているグレースフル リスタート機能を示しています。
隣接するルーターの再起動を検出したルーターは、回復時間の終了まで待機してから再接続を試みます。回復時間は、LDPが正常に再起動するまでルーターが待機する時間です。回復時間は、初期化メッセージが送信または受信されると開始します。また、この時間帯は、通常、隣接するルーターが再起動ルーターに関する情報を維持する時間で、これによりトラフィックの転送を継続できるようにします。
LDPグレースフルリスタートは、LDPプロトコルのマスターインスタンスと特定のルーティングインスタンスの両方で設定できます。グレースフルリスタートは、すべてのプロトコルのグローバルレベル、LDPのみのプロトコルレベル、特定のルーティングインスタンスで無効にすることができます。グローバルレベルではグレースフルリスタートがデフォルトで無効になっているため、LDPグレースフルリスタートはデフォルトで無効になっています。ただし、ヘルパーモード(グレースフルリスタートを試みる隣接ルーターを支援する機能)はデフォルトで有効になっています。
以下は、LDPグレースフルリスタートに関連する動作の一部です。
送信ラベルは再起動時に維持されません。新しい送信ラベルが割り当てられます。
ルーターが再起動すると、再起動中のルーターが安定するまでグレースフルリスタートをサポートする隣接ルーターにラベルマップメッセージは送信されません(ラベルマップメッセージは、グレースフルリスタートをサポートしない隣接ルーターには直ちに送信されます)。ただし、その他のメッセージ(キープアライブ、アドレスメッセージ、通知、リリース)は通常通りに送信されます。これらのその他のメッセージを配信することで、ルーターが不完全な情報を配信するのを防ぎます。
ヘルパーモードとグレースフルリスタートは独立したものです。グレースフルリスタートを設定で無効にしても、グレースフルリスタートを試みようとする隣接するものにルーターが協力することは可能です。
LDPグレースフルリスタートの設定
[edit routing-options graceful-restart]または[edit protocols ldp graceful-restart]階層レベルでグレースフルリスタート設定を変更すると、実行中のLDPセッションが自動的に再起動され、グレースフルリスタート設定が適用されます。この動作は、グレースフルリスタート設定を変更したときのBGPの動作を反映しています。
デフォルトでは、グレースフルリスタートヘルパーモードは有効になっていますが、グレースフルリスタートは無効になっています。したがって、ルーターのデフォルトの動作は、隣接ルーターがグレースフルリスタートを試行するのを支援することですが、グレースフルリスタート自体を試行することはありません。
LDPグレースフルリスタートを設定するには、次のセクションを参照してください。
グレースフル リスタートの有効化
LDPグレースフルリスタートを有効にするには、ルーターでもグレースフルリスタートを有効にする必要があります。グレースフル リスタートを有効にするには、 graceful-restart ステートメントを含めます。
graceful-restart;
以下の階層レベルでこのステートメントを含めることができます。
[edit routing-options][edit logical-systems logical-system-name routing-options]
ACXシリーズルーターは[edit logical-systems logical-system-name routing-options]階層レベルをサポートしていません。
graceful-restartステートメントは、ルーター上でこの機能をサポートするすべてのプロトコルのグレースフルリスタートを有効にします。グレースフル リスタートの詳細については、ルーティング デバイス用 Junos OS ルーティング プロトコル ライブラリを参照してください。
デフォルトでは、LDPプロトコルレベルとすべてのルーティングインスタンスの両方でグレースフルリスタートを有効にすると、LDPグレースフルリスタートが有効になります。ただし、LDPグレースフルリスタートとLDPグレースフルリスタートヘルパーモードの両方を無効にすることができます。
LDPグレースフルリスタートまたはヘルパーモードの無効化
LDPグレースフルリスタートと回復を無効にするには、 disable ステートメントを含めます。
ldp {
graceful-restart {
disable;
}
}
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
LDPプロトコルレベルでのみヘルパーモードを無効にできます。特定のルーティングインスタンスではヘルパーモードを無効にすることはできません。LDPヘルパーモードを無効にするには、 helper-disable ステートメントを含めます。
ldp {
graceful-restart {
helper-disable;
}
}
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
LDPグレースフルリスタートの設定は、次のものが可能です。
LDPグレースフルリスタートとヘルパーモードの両方が有効です。
LDPグレースフルリスタートは無効ですが、ヘルパーモードは有効です。このように設定されたルーターは正常に再起動できませんが、ネイバーの再起動には役立ちます。
LDPグレースフルリスタートとヘルパーモードの両方が無効です。ルーターは、LDPグレースフルリスタート、または初期化メッセージで送信されたグレースフルリスタートのタイプ、長さ、および値(TLV)を使用しません。ルーターは、LDPグレースフルリスタートをサポートできないルーターとして動作します。
グレースフルリスタートを有効にし、ヘルパーモードを無効にしようとすると、設定エラーが発行されます。
再接続時間の設定
ネイバー間のLDP接続に障害が発生した後、ネイバーは、正常に再起動しているルーターがLDPメッセージの送信を再開するまで一定時間待機します。待機時間が経過すると、LDPセッションを再確立できます。待機時間は秒単位で設定できます。この値は、LDPグレースフルリスタートが有効になっている場合にLDP初期化メッセージで送信される耐障害性セッションTLVに含まれます。
ルーターAとルーターBがLDPネイバーであると仮定します。ルーターAは、再起動ルーターです。再接続時間は、ルーターBがルーターAの再起動を検出した後、ルーターAがルーターBに待機するように指示する時間です。
再接続時間を設定するには、 reconnect-time ステートメントを含めます。
graceful-restart { reconnect-time seconds; }
再接続時間は30〜300秒の範囲で設定できます。デフォルトでは、60秒です。
これらのステートメントを設定できる階層レベルの一覧については、これらのステートメントのステートメント概要セクションを参照してください。
回復時間と最大回復時間の設定
回復時間は、LDPが正常に再起動するまでルーターが待機する時間です。回復時間は、初期化メッセージが送信または受信されると開始します。また、この期間は、通常、隣接するルーターが再起動ルーターに関する情報を維持する時間で、これによりトラフィックの転送を継続できます。
再起動しているルーターから回復時間の誤った値を受け取った場合に隣接ルーターが悪影響を受けるのを防ぐために、隣接ルーターで最大回復時間を設定できます。隣接するルーターは、2つの時間のうち短い方の時間でその状態を維持します。例えば、ルーターAはLDPグレースフルリスタートを実行しています。隣接するルーターBに900秒の回復時間を送信しました。ただし、ルーターBの最大回復時間は400秒に設定されています。ルーターBは、ルーターAからLDP情報を削除する前に400秒だけ待機します。
回復時間を設定するには、 recovery-time ステートメントと maximum-neighbor-recovery-time ステートメントを含めます。
graceful-restart { maximum-neighbor-recovery-time seconds; recovery-time seconds; }
これらのステートメントを設定できる階層レベルの一覧については、これらのステートメントのステートメント概要セクションを参照してください。
インバウンドLDPラベルバインディングのフィルタリング
受信したLDPラベルバインディングをフィルタリングし、近隣のルーターからアドバタイズされたバインディングを受け入れるか拒否するかのポリシーを適用することができます。受信ラベルフィルタリングを設定するには、 import ステートメントを含めます。
import [ policy-names ];
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
指定されたポリシー( [edit policy-options] 階層レベルで設定)は、すべてのLDPネイバーから受信したすべてのラベルバインディングに適用されます。すべてのフィルタリングは、 from ステートメントで行われます。 表1 は、LDP受信ラベルフィルタリングに適用される from 演算子のみを示しています。
from オペレーター |
説明 |
|---|---|
|
指定されたインターフェイス上で隣接するネイバーから受信したバインディングにマッチする |
|
指定されたLDPルーターIDから受信したバインディングにマッチする |
|
指定したインターフェースアドレスをアドバタイズしているネイバーから受信したバインディングにマッチする |
|
指定されたプレフィックスを持つバインディングに一致します |
バインディングがフィルタリングされた場合、LDP データベースには表示されますが、ラベル スイッチ パス(LSP)の一部としてインストールされることは考慮されません。
一般に、LDP でのポリシー適用は、LSP の確立を阻止するためにのみ使用でき、そのルーティングを制御するために使用できるわけではありません。これは、LSP がたどる経路は、LDP ではなく、ユニキャストルーティングによって決定されるためです。しかし、異なるネイバーを経由して宛先へのイコールコストパスが複数存在する場合、LDPフィルタリングを使用して、可能性のあるネクストホップの一部を考慮から除外することができます。(それ以外の場合、LDPはネクストホップの候補の中からランダムに1つを選択します)。
LDPセッションは、インターフェイスやインターフェイスアドレスにバインドされません。LDPは、ルーター単位(インターフェイス単位ではなく)のラベルのみをアドバタイズします。そのため、2つのルーター間に複数のパラレルリンクが存在する場合、1つのLDPセッションのみが確立され、単一のインターフェイスにバインドされません。ルーターが同じネイバーに複数の隣接関係を持つ場合、フィルターが期待通りの働きをするように注意してください。(一般的に、この場合、 next-hop と interface の使用は適切ではありません)。
ラベルがフィルタリングされた場合(ポリシーによって拒否され、LSPの構築に使用されないことを意味する)、データベース内でフィルタリング済みとしてマークされます。
user@host> show ldp database Input label database, 10.10.255.1:0-10.10.255.6:0 Label Prefix 3 10.10.255.6/32 (Filtered) Output label database, 10.10.255.1:0-10.10.255.6:0 Label Prefix 3 10.10.255.1/32 (Filtered)
LDPのポリシーを設定する方法についての詳細は 、ルーティングポリシー、ファイアウォールフィルター、トラフィックポリサーユーザーガイドを参照してください。
例:インバウンドLDPラベルバインディングのフィルタリング
すべてのネイバーから/32プレフィックスのみを受け入れます。
[edit]
protocols {
ldp {
import only-32;
...
}
}
policy-options {
policy-statement only-32 {
term first {
from {
route-filter 0.0.0.0/0 upto /31;
}
then reject;
}
then accept;
}
}
ルーター ID 10.10.255.2からは 131.108/16 以上を受け入れ、他のすべてのネイバーからはすべてのプレフィックスを受け入れます。
[edit]
protocols {
ldp {
import nosy-neighbor;
...
}
}
policy-options {
policy-statement nosy-neighbor {
term first {
from {
neighbor 10.10.255.2;
route-filter 131.108.0.0/16 orlonger accept;
route-filter 0.0.0.0/0 orlonger reject;
}
}
then accept;
}
}
アウトバウンドLDPラベルバインディングのフィルタリング
エクスポートポリシーを設定して、LDPアウトバウンドラベルをフィルタリングできます。ルーティングポリシーを適用することで、アウトバウンドラベルバインディングをフィルタリングし、バインディングが隣接ルーターにアドバタイズされることをブロックできます。アウトバウンドラベルフィルタリングを設定するには、 export ステートメントを含めます。
export [policy-name];
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
指名されたエクスポートポリシー( [edit policy-options] 階層レベルで設定)は、すべてのLDPネイバーに送信されるすべてのラベルバインディングに適用されます。LDPアウトバウンドラベルフィルタリングに適用される唯一の from 運用担当者は route-filterで、指定されたプレフィックスのバインディングに一致します。アウトバウンドラベルフィルタリングに適用できる唯一の to 演算子は、 表2の演算子です。
to演算子 |
説明 |
|---|---|
|
指定されたインターフェイス上に隣接するネイバーに送信されたバインディングに一致 |
|
指定されたLDPルーターIDに送信されたバインディングに一致 |
|
指定されたインターフェイスアドレスをアドバタイズするネイバーに送信されたバインディングに一致 |
バインディングがフィルター処理されると、そのバインディングは隣接するルーターにはアドバタイズされませんが、ローカルルーターのLSPの一部としてインストールすることは可能です。LDPにポリシーを適用して、LSPの確立をブロックすることはできますが、そのルーティングを制御することはできません。LSPがたどるパスは、LDPではなく、ユニキャストルーティングによって決定されます。
LDPセッションは、インターフェイスやインターフェイスアドレスにバインドされません。LDPは、ルーター単位(インターフェイス単位ではなく)のラベルのみをアドバタイズします。2つのルーター間に複数のパラレルリンクが存在する場合、1つのLDPセッションのみが確立され、単一のインターフェイスにはバインドされません。
ルーターが同じネイバーに複数の隣接関係がある場合、 next-hop 演算子と interface 演算子は使用しないでください。
フィルターされたラベルは、データベースでマークされています。
user@host> show ldp database Input label database, 10.10.255.1:0-10.10.255.3:0 Label Prefix 100007 10.10.255.2/32 3 10.10.255.3/32 Output label database, 10.10.255.1:0-10.10.255.3:0 Label Prefix 3 10.10.255.1/32 100001 10.10.255.6/32 (Filtered)
LDPのポリシーを設定する方法についての詳細は 、ルーティングポリシー、ファイアウォールフィルター、トラフィックポリサーユーザーガイドを参照してください。
例:アウトバウンドLDPラベルバインディングのフィルタリング
すべてのネイバーへの 10.10.255.6/32 のルートの送信をブロックします。
[edit protocols]
ldp {
export block-one;
}
policy-options {
policy-statement block-one {
term first {
from {
route-filter 10.10.255.6/32 exact;
}
then reject;
}
then accept;
}
}
131.108/16 以上だけを ID 10.10.255.2 に送信し、すべてのプレフィックスを他のすべてのルータールーター送信します。
[edit protocols]
ldp {
export limit-lsps;
}
policy-options {
policy-statement limit-lsps {
term allow-one {
from {
route-filter 131.108.0.0/16 orlonger;
}
to {
neighbor 10.10.255.2;
}
then accept;
}
term block-the-rest {
to {
neighbor 10.10.255.2;
}
then reject;
}
then accept;
}
}
LDPで使用するトランスポートアドレスの指定
ルーターは、まずLDPセッションを確立する前に、互いにTCPセッションを確立する必要があります。TCPセッションでは、ルーターがLDPセッションに必要なラベルアドバタイズを交換できます。TCPセッションを確立するには、各ルーターがもう一方のルーターのトランスポートアドレスを学習する必要があります。トランスポートアドレスは、LDPセッションが実行されるTCPセッションを特定するのに使用されるIPアドレスです。
LDPトランスポートアドレスを設定するには、transport-addressステートメントを含めます。
transport-address (router-id | interface);
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
router-idオプションを指定した場合、ルーター識別子のアドレスがトランスポートアドレスとして使用されます(特に設定されていない限り、ルーター識別子は通常、ループバックアドレスと同じです)。interfaceオプションを指定した場合、インターフェイスアドレスは、そのインターフェイス上で到達できるネイバーへのLDPセッションのトランスポートアドレスとして使用されます。デフォルトでは、ルーター識別子がトランスポートアドレスとして使用されることに注意してください。
正しく動作するためには、LDPトランスポートアドレスに到達できる必要があります。ルーターIDは識別子であり、ルーティング可能なIPアドレスではありません。このため、ループバックアドレスと一致するようにルーターIDを設定し、ループバックアドレスをIGPでアドバタイズすることを推奨します。
LDP仕様では、同じネイバーへのすべてのインターフェイスで同じトランスポートアドレスをアドバタイズする必要があるため、同じLDPネイバーに複数のパラレルリンクがある場合、 interface オプションを指定することができません。LDPが同じネイバーへの複数のパラレルリンクを検出した場合、インターフェイス上のネイバーを切断するか、 router-id オプションを指定することにより条件がクリアされるまで、そのネイバーへのインターフェイスを1つずつ無効にします。
ターゲット LDP セッションに使用されるトランスポートアドレスを制御する
2 つのデバイス間に TCP セッションを確立するには、各デバイスがもう一方のデバイスのトランスポートアドレスを学習する必要があります。トランスポートアドレスは、LDPセッションが動作するTCPセッションを特定するのに使用されるIPアドレスです。以前は、このトランスポートアドレスはルーター ID またはインターフェイスアドレスに限定されていました。LDP トランスポートアドレス機能を使用すると、レイヤー 2 回線、MPLS、VPLS 隣接関係のターゲット LDP ネイバーのトランスポートアドレスとして IP アドレスを明示的に設定できます。これにより、トランスポートアドレス設定を使用してターゲット LDP セッションを制御できます。
- ターゲット LDP セッションに使用されるトランスポートアドレスを制御するメリット
- ターゲット LDP トランスポートアドレスの概要
- トランスポートアドレスの優先度
- トランスポートアドレス設定のトラブルシューティング
ターゲット LDP セッションに使用されるトランスポートアドレスを制御するメリット
ターゲット LDP セッションを確立するためにトランスポートアドレスを設定することには、次のような利点があります。
Flexible interface configurations—ターゲットLDPネイバー間のLDPセッションの作成を中断することなく、1つのループバックインターフェイスに複数のIPアドレスを設定できる柔軟性を提供します。
Ease of operation—インターフェイスレベルで設定されたトランスポートアドレスにより、LDPのIGPバックボーンで複数のプロトコルを使用できます。これにより、スムーズで簡単な操作が可能になります。
ターゲット LDP トランスポートアドレスの概要
Junos OSリリース19.1R1以前は、LDPはすべてのLDPインターフェイスのトランスポートアドレスとしてのルーターIDまたはインターフェイスアドレスのみをサポートしていました。そのインターフェイスで形成された隣接関係は、インターフェイスまたはルーター ID に割り当てられた IP アドレスの 1 つを使用しました。ターゲットの隣接関係がある場合、インターフェイスはループバックインターフェイスです。デバイスに複数のループバックアドレスが設定されていた場合、インターフェイスのトランスポートアドレスを派生させることができず、その結果、LDPセッションを確立できません。
Junos OS リリース 19.1R1 以降、ターゲット LDP セッションのトランスポートアドレスに使用されるデフォルト IP アドレスに加えて、 session、 session-group、 interface 設定ステートメントの下で他の IP アドレスをトランスポートアドレスとして設定できるようになりました。トランスポートアドレス設定は、レイヤー2回線、MPLS、VPLS隣接関係を含む設定されたネイバーにのみ適用されます。この設定は、検出された隣接関係(ターゲットかどうかは関係ない)には適用されません。
トランスポートアドレスの優先度
セッション、セッショングループ、およびインターフェイスレベルで、ターゲット LDP セッションのトランスポートアドレスを設定できます。
トランスポートアドレスが設定された後、LDP のトランスポートアドレス設定に基づいてターゲット LDP セッションが確立されます。
ターゲットネイバー(レイヤー 2 回線、MPLS、VPLS、LDP 設定で設定)のトランスポートアドレスの優先順位は次のとおりです。
[edit protocols ldp session]階層の下。[edit protocols ldp session-group]階層の下。[edit protocols ldp interfcae lo0]階層の下。[edit protocols ldp]階層の下。デフォルトのアドレス。
検出されたネイバーのトランスポートアドレスの優先度は、次のような順序になっています。
[edit protocols ldp interfcae]階層の下。[edit protocols ldp]階層の下。デフォルトのアドレス。
LDPがhelloパケットを受け入れるように設定されている自動ターゲットネイバーのトランスポートアドレスの優先順位は、以下のとおりです。
[edit protocols ldp interfcae lo0]階層の下。[edit protocols ldp]階層の下。デフォルトのアドレス。
トランスポートアドレス設定のトラブルシューティング
次の表示コマンド出力を使用して、ターゲット LDP セッションのトラブルシューティングを行うことができます。
show ldp sessionshow ldp neighborshow ldp neighborコマンドの出力のdetailレベルには、helloメッセージでターゲットネイバーに送信されたトランスポートアドレスが表示されます。このアドレスがネイバーから到達できない場合、LDP セッションは立ち上がりません。show configuration protocols ldp
また、LDP トレースオプションを有効にして、さらなるトラブルシューティングを行うこともできます。
無効なトランスポートアドレス(到達不可能)の使用から、有効なトランスポートアドレスの使用に設定が変更された場合、次の形跡が観察されます:
May 29 10:47:11.569722 Incoming connect from 10.55.1.4 May 29 10:47:11.570064 Connection 10.55.1.4 state Closed -> Open May 29 10:47:11.570727 Session 10.55.1.4 state Nonexistent -> Initialized May 29 10:47:11.570768 Session 10.55.1.4 state Initialized -> OpenRec May 29 10:47:11.570799 LDP: Session param Max PDU length 4096 from 10.55.1.4, negotiated 4096 May 29 10:47:11.570823 Session 10.55.1.4 GR state Nonexistent -> Operational May 29 10:47:11.669295 Session 10.55.1.4 state OpenRec -> Operational May 29 10:47:11.669387 RPD_LDP_SESSIONUP: LDP session 10.55.1.4 is up
有効なトランスポートアドレスの使用から、無効なトランスポートアドレス(到達不可能)使用に設定が変更された場合、次の形跡が観察されます。
May 29 10:42:36.317942 Session 10.55.1.4 GR state Operational -> Nonexistent May 29 10:42:36.318171 Session 10.55.1.4 state Operational -> Closing May 29 10:42:36.318208 LDP session 10.55.1.4 is down, reason: received notification from peer May 29 10:42:36.318236 RPD_LDP_SESSIONDOWN: LDP session 10.55.1.4 is down, reason: received notification from peer May 29 10:42:36.320081 Connection 10.55.1.4 state Open -> Closed May 29 10:42:36.322411 Session 10.55.1.4 state Closing -> Nonexistent
設定がうまくいかない場合は、次のトラブルシューティングタスクを実行してください。
address familyを確認してください。sessionステートメントの下で設定されたトランスポートアドレスは、ネイバーまたはセッションと同じアドレスファミリーに属している必要があります。neighborまたはsessionステートメントの下のトランスポートアドレスとして設定されたアドレスは、ターゲットのhelloメッセージが起動するルーターに対してローカルである必要があります。アドレスが設定されているかどうかを確認できます。どのインターフェイスの下でもアドレスが設定されていない場合、設定は拒否されます。
ルーティングテーブルからLDPにアドバタイズされるプレフィックスの設定
LDP にアドバタイズされる一連のプレフィックスを制御し、ルーターをそれらのプレフィックスのegressルーターにすることができます。デフォルトでは、ループバックアドレスのみがLDPにアドバタイズされます。LDP にアドバタイズするルーティングテーブルのプレフィックスのセットを設定するには、 egress-policy ステートメントを含めます。
egress-policy policy-name;
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
ループバックアドレスを含まない LDP 用のエグレスポリシーを設定した場合、LDP でアドバタイズされなくなります。ループバックアドレスのアドバタイズを継続するには、LDP のエグレスポリシーの一部として明示的に設定する必要があります。
指定されたポリシー( [edit policy-options] または [edit logical-systems logical-system-name policy-options] 階層レベルで設定)は、ルーティングテーブル内のすべてのルートに適用されます。ポリシーに一致するルートは、LDP にアドバタイズされます。 export ステートメントを使用して、これらのプレフィックスがアドバタイズされるネイバーのセットを制御できます。演算子 のみ が考慮されます。有効な 送信元 運用担当者を使用することができます。詳細については、「 ルーティングデバイス用 Junos OS ルーティングプロトコルライブラリ」を参照してください。
ACXシリーズルーターは[edit logical-systems]階層レベルをサポートしていません。
例:LDP にアドバタイズされるプレフィックスの設定
すべての接続されたルートを LDP にアドバタイズします。
[edit protocols]
ldp {
egress-policy connected-only;
}
policy-options {
policy-statement connected-only {
from {
protocol direct;
}
then accept;
}
}
FEC Deaggregationの設定
LDP のegressルーターが複数のプレフィックスをアドバタイズする場合、プレフィックスは1つのラベルにバインドされ、1つのFEC(forwarding equivalence class)に集約されます。デフォルトでは、LDP はアドバタイズがネットワークを通過する際にこのアグレゲーショ ンを維持します。
通常、LSPは複数のネクストホップに分割されず、プレフィックスが単一のLSPに束ねられるため、等コストパス間の負荷分散は発生しません。ただし、ロードバランシングポリシーを設定し、FECを縮退させれば、等コストパス間でロードバランシングを行うことができます。
FEC をデアグリゲーションすると、各プレフィックスが別々のラベルにバインドされ、別々の LSP になります。
デアグリゲーション FEC を設定するには、 deaggregate ステートメントを含めます。
deaggregate;
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
すべての LDP セッションについて、グローバルにのみデアグリゲーション FEC を設定できます。
FECを縮退することで、結果として得られる複数のLSPを複数のイコールコストパスに分散させ、イグレスセグメント上の複数のネクストホップにLSPを分散させますが、LSPごとにネクストホップを1つだけインストールすることができます。
FECを集計するには、 no-deaggregate ステートメントを含めます。
no-deaggregate;
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
すべての LDP セッションについて、グローバルにのみ集約 FEC を設定できます。
LDP FEC のポリシーの設定
LDP FEC のトラフィックを追跡して規制するように Junos OS を設定できます。LDP FECポリサーは、以下のいずれかの方法で実行できます。
LDP FEC のイングレストラフィックを追跡または規制する。
LDP FEC のトランジットトラフィックを追跡または規制する。
特定の転送クラスから発信された LDP FEC トラフィックを追跡または規制します。
特定の仮想ルーティングおよび転送(VRF)サイトから発信された LDP FEC トラフィックを追跡または規制します。
特定のLDP FECに対してバインドされた偽トラフィックを廃棄する。
LDP FEC のトラフィックを規制するには、まずフィルターを設定する必要があります。具体的には、 interface ステートメントまたは interface-set ステートメントのいずれかを [edit firewall family protocol-family filter filter-name term term-name from] 階層レベルで設定する必要があります。 interface ステートメントでは、フィルターを単一のインターフェイスに一致させることができます。 interface-set ステートメントでは、フィルターを複数のインターフェイスに一致させることができます。
LDP FEC の interface ステートメント、 interface-set ステートメント、およびポリサーの設定方法については、 ルーティング ポリシー、ファイアウォール フィルター、およびトラフィック ポリサー ユーザー ガイドを参照してください。
フィルターを設定したら、LDP の policing ステートメント設定に含める必要があります。LDP FEC のポリシーを設定するには、 policing ステートメントを含めます。
policing { fec fec-address { ingress-traffic filter-name; transit-traffic filter-name; } }
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
policingステートメントには、以下のオプションが含まれます。
fec—規制するLDP FECのFECアドレスを指定します。ingress-filter—イングレストラフィックフィルターの名前を指定します。transit-traffic—トランジットトラフィックフィルターの名前を指定します。
LDP IPv4 FECフィルタリングの設定
デフォルトでは、ターゲットLDPセッションが確立されると、Junos OSは常にIPv4転送等価クラス(FEC)とレイヤー2回線FECの両方をターゲットLDPセッション上で交換します。間接的に接続されたネイバーへのLDPセッションの場合、セッションがレイヤー2回線またはVPLSをサポートするように特別に設定されている場合にのみ、レイヤー2回線FECをネイバーにエクスポートすることができます。
すべての非BGPプレフィックスがLDPにアドバタイズされる混合ベンダーネットワークでは、LDPデータベースが大きくなる可能性があります。このタイプの環境では、レイヤー 2 回線または LDP VPLS 設定が原因で形成された LDP セッションを介した IPv4 FEC のアドバタイズを防止することが有効な場合があります。同様に、このような環境で受信したIPv4 FECをフィルタリングすることも有用です。
LDPセッションに関連するすべてのLDPネイバーがレイヤー2のみである場合、 l2-smart-policy ステートメントを設定することで、レイヤー2回線FECのみをアドバタイズするようにJunos OSを設定できます。また、この機能は、このセッションで受信したIPv4 FECを自動的にフィルタリングします。 l2-smart-policy に対して有効化される明示的なエクスポートまたはインポートポリシーを設定すると、対応する方向でこの機能が無効になります。
検出された隣接関係が原因でLDPセッションのネイバーの1つが形成された場合、または1つ以上のRSVP LSPのLDPトンネリング設定が原因で隣接関係が形成された場合、IPv4 FECはデフォルトの動作を使用してアドバタイズおよび受信されます。
LDPがレイヤー2ネイバーとのLDPセッションでのみIPv4 FECをエクスポートしないようにし、そのようなセッションで受信したIPv4 FECを除外するには、 l2-smart-policy ステートメントを含めます。
l2-smart-policy;
このステートメントを設定できる階層レベルの一覧については、このステートメントの概要を参照してください。
LDP LSPに対してBFDを設定する
LDP LSPに対して、Bidirectional Forwarding Detection(BFD)を設定できます。BFDプロトコルは、ネットワーク内の障害を検出するための単純なhelloメカニズムです。Helloパケットは、指定された、定期的な間隔で送信されます。指定した時間経過後にルーターが応答を受信しなくなった場合に、ネイバー障害が検出されます。BFDは、さまざまなネットワーク環境とトポロジーで動作します。BFDの障害検出タイマーは、静的ルートの障害検出メカニズムよりも制限時間が短く、より高速に検出できます。
パスのBFDセッションが失敗するたびにエラーがログに記録されます。以下は、LDP LSPに対するBFDのログメッセージの表示方法を示しています。
RPD_LDP_BFD_UP: LDP BFD session for FEC 10.255.16.14/32 is up RPD_LDP_BFD_DOWN: LDP BFD session for FEC 10.255.16.14/32 is down
また、RSVP信号付きLSPに対してBFDを設定するに記載されているように、RSVP LSPに対してBFDを設定することもできます。
BFDの障害検出タイマーは適応型であり、より厳格に、またはよりゆるめに調整することができます。例えば、隣接関係に障害が発生した場合にタイマーをより高い値に適応したり、ネイバーが設定された値よりも高い値のタイマーをネゴシエートしたりすることができます。BFDセッションのフラップが15秒間に3回以上発生すると、タイマーはより高い値に適応します。バックオフアルゴリズムは、ローカルBFDインスタンスがセッションフラップの原因である場合に、受信(Rx)の間隔を2つ増加させます。リモートBFDインスタンスがセッションフラップの原因である場合、送信(Tx)間隔は2つ増加します。 clear bfd adaptation コマンドを使用すると、BFD間隔タイマーを設定した値に戻すことができます。 clear bfd adaptation コマンドはヒットレスであり、コマンドがルーティングデバイスのトラフィックフローに影響を与えないことを意味します。
LDP LSPに対してBFDを有効にするには、 oam および bfd-liveness-detection ステートメントを含めます。
oam { bfd-liveness-detection { detection-time threshold milliseconds; ecmp; failure-action { remove-nexthop; remove-route; } holddown-interval seconds; ingress-policy ingress-policy-name; minimum-interval milliseconds; minimum-receive-interval milliseconds; minimum-transmit-interval milliseconds; multiplier detection-time-multiplier; no-adaptation; transmit-interval { minimum-interval milliseconds; threshold milliseconds; } version (0 | 1 | automatic); } fec fec-address { bfd-liveness-detection { detection-time threshold milliseconds; ecmp; failure-action { remove-nexthop; remove-route; } holddown-interval milliseconds; ingress-policy ingress-policy-name; minimum-interval milliseconds; minimum-receive-interval milliseconds; minimum-transmit-interval milliseconds; multiplier detection-time-multiplier; no-adaptation; transmit-interval { minimum-interval milliseconds; threshold milliseconds; } version (0 | 1 | automatic); } no-bfd-liveness-detection; periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; } } lsp-ping-interval seconds; periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; } }
特定の転送等価クラス(FEC)に関連するLDP LSPに対してBFDを有効にするには、[edit protocols ldp]階層レベルでfecオプションを使用してFECアドレスを設定します。または、Operation Administration and Management(OAM)イングレスポリシーを設定して、FECアドレスの範囲でBFDを有効にすることもできます。詳細については、LDPのOAMイングレスポリシーの設定を参照してください。
BFD LDP LSPは、同等のFECアドレスが明示的に設定されているか、OAMイングレスポリシーを使用してFECでOAMが有効になっていなければ、有効にすることはできません。FECアドレスに対してBFDが有効になっていない場合、BFDセッションは立ち上がりません。
以下の階層レベルで oam ステートメントを設定することができます。
[edit protocols ldp][edit logical-systems logical-system-name protocols ldp]
ACXシリーズルーターは[edit logical-systems]階層レベルをサポートしていません。
oamステートメントには、以下のオプションが含まれます。
fec—FECアドレスを指定します。BFDセッションを立ち上げるためには、FECアドレスを指定するかOAMイングレスポリシーを設定する必要があります。lsp-ping-interval—LSP ping 間隔の期間を秒単位で指定します。LDPシグナル化されたLSPでpingを発行するには、ping mpls ldpコマンドを使用します。詳細については、 CLIエクスプローラを参照してください。
bfd-liveness-detectionステートメントには、以下のオプションが含まれます。
ecmp—指定されたFECに設定されたすべてのECMPパスに対して、LDPがBFDセッションを確立するようにします。ecmpオプションを設定する場合、指定したFECに対してperiodic-tracerouteステートメントも設定する必要があります。設定しなかった場合、コミット操作は失敗します。periodic-tracerouteステートメントをグローバル階層レベル([edit protocols ldp oam])で設定しながら、特定のFEC([edit protocols ldp oam fec address bfd-liveness-detection])に対してのみecmpオプションを設定することができます。ホールドダウン間隔—ルートまたはネクストホップを追加する前に、BFDセッションが稼働した状態を維持しておく長さを指定します。0 秒を指定すると、BFD セッションが復旧するとすぐに、ルートまたはネクスト ホップが追加されます。
minimum-interval—最小の送受信間隔を指定します。minimum-intervalオプションを設定する場合、minimum-receive-intervalオプションやminimum-transmit-intervalオプションを設定する必要はありません。minimum-receive-interval—最小の受信間隔を指定します。範囲は1〜255,000ミリ秒です。minimum-transmit-interval—最小の送信間隔を指定します。範囲は1〜255,000ミリ秒です。multiplier—検出時間の倍率を指定します。範囲は1から255です。バージョン—BFDバージョンを指定します。オプションは、BFDバージョン0またはBFDバージョン1です。デフォルトでは、Junos OSソフトウェアが自動的にBFDのバージョンを判断しようと試みます。
LDP LSP 向け ECMP-Aware BFD の設定
FEC に BFD を設定すると、ルーターのアクティブ ローカル ネクストホップ 1 つのみに対して BFD セッションが確立されます。ただし、複数の BFD セッションを設定することができ、特定の ECMP(イコールコスト マルチパス)パスに関連する FEC ごとに 1 つずつ設定できます。これが正常に機能するためには、LDP LSP の定期的なトレースルートも設定する必要があります。( LDP LSP トレースルートの設定を参照してください)。LDP LSP トレースルートは、ECMP パスを検出するために使用されます。検出された各 ECMP パスに対して BFD セッションが開始されます。ECMP パスの 1 つに対する BFD セッションが失敗するたびに、エラーがログに記録されます。
LDP LSP トレースルートを定期的に実行し、ECMP パスの整合性を確認します。問題が発見された場合、以下のようなことが発生する可能性があります。
ある FEC の最新の LDP LSP トレースルートが前回のトレースルートと異なる場合、その FEC に関連する BFD セッション(前回の実行から変更されたアドレス範囲の BFD セッション)はダウンし、変更された範囲の宛先アドレスに対して新しい BFD セッションが開始されます。
LDP LSP トレースルートがエラー(タイムアウトなど)を返す場合、その FEC に関連するすべての BFD セッションは破棄されます。
指定されたFECに設定されたすべてのECMPパスに対してBFDセッションを確立するようにLDPを設定するには、 ecmp ステートメントを含めます。
ecmp;
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
ecmpステートメントとともに、グローバルLDP OAM設定([edit protocols ldp oam]または[edit logical-systems logical-system-name protocols ldp oam]階層レベル)または指定されたFECの設定([edit protocols ldp oam fec address]または[edit logical-systems logical-system-name protocols ldp oam fec address]階層レベル)にperiodic-tracerouteステートメントを含める必要があります。それ以外の場合、コミット操作は失敗します。
ACXシリーズルーターは[edit logical-systems]階層レベルをサポートしていません。
LDP LSP での BFD セッションの障害アクションの設定
LDP LSP で BFD セッション障害イベントが発生した場合に、ルートとネクストホップのプロパティを設定できます。障害イベントは、ダウンした既存の BFD セッションまたは起動しない BFD セッションです。LDP は、関連する BFD セッションが復帰すると、ルートまたはネクスト ホップを追加します。
LDP LSP で BFD セッション障害が発生した場合の failure-action ステートメントの障害アクション オプションの 1 つを設定できます。
remove-nexthop—BFDセッション障害イベントが検出された場合、イングレスノードでのLSPルートのネクストホップに対応するルートを削除します。remove-route—BFDセッション障害イベントが検出された場合、適切なルーティングテーブルからLSPに対応するルートを削除します。LSP が ECMP で設定されており、いずれかのパスに対応する BFD セッションがダウンした場合、ルートは削除されます。
LDP LSP で BFD セッション障害が発生した場合の障害アクションを設定するには、failure-action ステートメントに remove-nexthop オプションまたは remove-route オプションを含めます。
failure-action { remove-nexthop; remove-route; }
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
BFD セッションのホールドダウン間隔を設定する
ルートやネクストホップを追加するまでのBFDセッションの稼働時間を指定するには、[edit protocols ldp oam bfd-livenesss-detection]階層レベルまたは[edit protocols ldp oam fec address bfd-livenesss-detection]階層レベルのいずれかでholddown-intervalステートメントを設定します。0 秒を指定すると、BFD セッションが復旧するとすぐに、ルートまたはネクスト ホップが追加されます。
holddown-interval seconds;
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
LDPリンク保護の設定
ユニキャストおよびマルチキャストLDPラベルスイッチパス(LSP)に対して、ラベル配布プロトコル(LDP)リンク保護を設定し、リンクまたはノードの障害時に耐障害性を提供できます。
始める前に:
デバイスインターフェイスを設定します。
デバイスのルーターIDと自律システム番号を設定します。
以下のプロトコルを設定します。
出欠確認
トラフィック制御機能を備えた MPLS。
トラフィック制御機能を備えた OSPF。
注:ループフリーオルタナティブ(LFA)を使用したマルチキャストLDPリンク保護の場合は、リンク保護を有効にします。
[edit protocols] user@R0# set ospf area 0 interface all link-protection
LDPリンク保護を設定するには:
例:LDPリンク保護の設定
LDPリンク保護の概要
- LDPの概要
- Junos OS LDP プロトコルの実装
- LDPへのマルチポイント拡張を理解する
- ターゲット LDP セッションでの LDP へのマルチポイント拡張の使用
- LDPリンク保護の現在の制限
- RSVP LSPをソリューションとして使用
- マルチキャストLDPリンク保護について
- LDPリンク保護を提供するためのさまざまなモード
- LDPリンク保護のためのラベル操作
- マルチキャストLDPリンク保護設定の例
- メークビフォアブレーク
- 注意事項と制限事項
LDPの概要
LDP(Label Distribution Protocol)は、トラフィックエンジニアリングを行っていないアプリケーションでラベルを配布するためのプロトコルです。LDP は、ネットワーク層の経路情報をデータリンク LSP に直接マッピングすることで、ルーターがネットワークを介した LSP(ラベルスイッチ パス)を確立することを可能にします。
これらのLSPは、直接接続されたネイバー(IPホップバイホップ転送に相当)またはネットワークの出口ノードにエンドポイントがある場合があり、すべての中間ノードを介した切り替えを可能にします。LDP で確立した LSP は、RSVP で作成したトラフィックエンジニアリング LSP も通過できます。
LDP は、作成する各 LSP に FEC(Forwarding Equivalence Class)を関連付けます。LSP に関連する FEC は、どのパケットがその LSP にマッピングされるかを指定します。各ルーターは、ネクスト ホップが FEC 用にアドバタイズするラベルを選択し、他のすべてのルーターにアドバタイズするラベルにスプライスすることで、LSP はネットワークを介して拡張されます。このプロセスは、egressルーターに収束するLSPのツリーを形成します。
Junos OS LDP プロトコルの実装
LDPのJunos OS実装は、LDPバージョン1をサポートしています。Junos OSは、内部ゲートウェイプロトコル(IGP)のルーター間でトンネリングするためのシンプルなメカニズムをサポートしており、コア内での外部ルートの必要な配布を排除しています。Junos OSでは、ネットワーク内のすべてのエグレスルーターへのMPLSトンネルネクストホップが許可され、コアで実行されているIGPのみでエグレスルーターにルートを分配できます。エッジルーターはBGPを実行しますが、外部ルートをコアに配信しません。代わりに、エッジでの再帰的なルート検索では、egressルーターに切り替えられたLSPに解決されます。トランジット LDP ルーターには外部ルートは必要ありません。
LDPへのマルチポイント拡張を理解する
LDP は、ネットワーク内にポイントツーポイント、マルチポイントツーポイント、ポイントツーマルチポイント、およびマルチポイントツーマルチポイント LSP を設定するためのメカニズムを定義します。ポイントツーマルチポイントおよびマルチポイントツーマルチポイントLSPは、総称してマルチポイントLSPと呼ばれ、トラフィックはそれぞれ単一の送信元から複数の宛先へ、および複数の送信元から複数の宛先へトラフィックが流れます。宛先ルーターまたは出口ルーターはリーフノードと呼ばれ、送信元からのトラフィックはリーフノードに到達する前に1つ以上のトランジットノードを通過します。
Junos OS は、マルチポイントツーマルチポイント LSP をサポートしていません。
マルチポイントLSPは、ネットワークのMPLSパケットレプリケーション機能を利用することで、ingressルーターでの不要なパケットレプリケーションを回避します。パケットレプリケーションは、異なるネットワークパスを必要とする2つ以上の異なる宛先にパケットが転送された場合にのみ行われます。
ターゲット LDP セッションでの LDP へのマルチポイント拡張の使用
LDPへのマルチポイント拡張の仕様では、LDPセッションの2つのエンドポイントがレイヤー2メディアで直接接続されているか、ネットワークのIGPによってネイバーと見なされていることが求められています。これは、LDPリンクセッションと呼ばれます。LDPセッションの2つのエンドポイントが直接接続されていない場合、そのセッションはターゲットLDPセッションと呼ばれます。
過去の Junos OS 実装では、リンク セッションに対してのみマルチキャスト LDP がサポートされています。LDPリンク保護機能の導入により、マルチキャストLDP機能がターゲットLDPセッションに拡張されます。 図2 は、サンプルのトポロジーを示しています。
に対するマルチキャストLDPサポート
ルーターR7およびR8は、それぞれアップストリーム(LSR-U)およびダウンストリーム(LSR-D)のラベルスイッチルーター(LSR)であり、マルチキャストLDPを導入します。コアルーターであるルーターR5では、RSVP-TEが有効になっています。
LSR-DがルートおよびLSP ID属性でポイントツーマルチポイントLSPを設定する場合、アップストリームのLSR-Uをルートへの最適パスのネクストホップとして決定します(現在、このネクストホップはIGPネクストホップと見なされています)。
ターゲットLDPセッションでのマルチキャストLDPサポートにより、LSR-DとLSR-Uが直接接続されたネイバーではなく、ターゲットLDPピアであるLSR-Dのルートへのパス上にあるLSR-UへのLSPネクストホップがあるかどうかを判断できます。LSR-DとLSR-U間のターゲットLDPセッションでアドバタイズされるポイントツーマルチポイントラベルは、LSR-DとLSR-Uの間にLSPがない限り使用されません。そのため、LSR-UからLSR-Dへの逆方向に対応するLSPが必要です。
データは、パケットのユニキャストレプリケーションを使用してポイントツーマルチポイントLSPで送信され、LSR-UはポイントツーマルチポイントLSPの各ダウンストリームLSRに1つのコピーを送信します。
データ転送は、以下の方法で実装されます。
ターゲットLDPセッションのポイントツーマルチポイント機能がネゴシエートされます。
アップストリームLSRを選択するアルゴリズムが変更され、IGPネクストホップが利用できない場合、つまり、LSR-DとLSR-Uの間にLDPリンクセッションがない場合、RSVP LSPがLSR-Uに到達するネクストホップとして使用されます。
ターゲットLDPセッションで受信した受信ラベルは、LDPラベルを内側ラベル、RSVPラベルを外側ラベルとして、このポイントツーマルチポイントFECルートのブランチネクストホップとしてインストールされます。
LDPリンク保護の現在の制限
LDPネットワークの導入でリンクまたはノード障害が発生した場合、ミッションクリティカルなサービスで影響を受けたトラフィックフローを復旧するために、迅速なトラフィック復旧を提供する必要があります。マルチポイントLSPの場合、ポイントツーマルチポイントツリーのリンクの1つに障害が発生すると、IGPが再収束し、ダウンストリームルーターから新しいアップストリームルーターへの最適なパスを使用してマルチポイントLSPが確立されるまで、サブツリーが切り離される可能性があります。
LDPトラフィックのローカル修復を使用した高速再ルートでは、バックアップパス(修復パス)がパケット転送エンジンに事前インストールされています。プライマリパスに障害が発生すると、トラフィックはルーティングプロトコルが収束するのを待つことなく、バックアップパスに迅速に移動します。ループフリー代替(LFA)は、コアおよびサービスプロバイダネットワークにIP高速再ルート機能を提供するために使用される方法の1つです。
LFAを使用しない場合、リンクまたはルーターに障害が発生したり、サービスに復帰したりすると、分散ルーティングアルゴリズムがネットワークの変化に基づいて新しいルートを計算します。新しいルートが計算される時間をルーティング遷移と呼びます。ルーティング遷移が完了するまで、障害に隣接するルーターが、代替パスが特定されるまで障害コンポーネントを介してデータパケットを転送し続けるため、ネットワーク接続は中断されます。
ただし、LFAはIGPメトリックのため、すべてのネットワーク展開を完全にカバーできるわけではありません。その結果、これは現在のLDPリンク保護方式の制限となります。
図3 は、トラフィックが送信元ルーター(S)からルーターR1を経由して宛先ルーター(D)に流れる、不完全なLFAカバレッジを持つサンプルネットワークを示しています。ネットワーク内の各リンクのメトリックが同じであると仮定すると、ルーターSとルーターR1の間のリンクに障害が発生すると、ルーターR4はS-R1リンクを保護するLFAではないため、トラフィックの耐障害性が失われます。したがって、プレーンLFAを使用していては、完全なカバレッジを実現できません。一般的なネットワークでは、プレーン LFA とは常にある程度の割合の LFA カバレッジ ギャップが存在します。
による不完全なカバレッジ問題
RSVP LSPをソリューションとして使用
LDP LSP を通過するトラフィックを保護する鍵は、リンクまたはノードに障害が発生した場合にトラフィックを再ルーティングするための明示的なトンネルを用意することです。明示的パスは、次のダウンストリーム ルーターで終了し、RPF チェックに合格する必要がある明示的パスでトラフィックを受け入れる必要があります。
RSVP LSP は、以下の方法で LFA カバレッジを拡張することで、ポイントツーポイントおよびポイントツーマルチポイントの両方の LDP LSP におけるループフリー代替(LFA)の現在の制限を克服するのに役立ちます。
手動設定されたRSVP LSP
図 3 で使用した例を考慮すると、S-R1 リンクに障害が発生し、ルーター R4 がその特定のリンクの LFA ではない場合、手動で作成した RSVP LSP がパッチとして使用され、LFA を完全にカバーします。RSVP LSP は、ルーター S のパケット転送エンジンに事前にシグナリングされ、事前にインストールされているため、ルーター S がリンクの障害を検出するとすぐに使用できます。
この場合、 図4に示すように、ルーターS、R4、R3の間でRSVP LSPが作成されます。ルーターSとルーターR3の間でターゲットLDPセッションが作成され、その結果、S-R1リンクに障害が発生すると、トラフィックはルーターR3に到達します。ルーターR3は、宛先であるルーターDに到達するまでの最短パスであるため、トラフィックをルーターR2に転送します。
動的に設定されたRSVP LSP
この方法では、RSVP LSP が自動的に作成され、システムに事前インストールされるため、リンク障害が発生した場合にすぐに使用できます。ここでは、egressは保護対象のリンクの反対側のノードであるため、LFAカバレッジが向上します。
Benefits of Enabling Dynamic RSVP LSPs
設定のしやすさ。
保護対象のリンクの遠端への代替パスがある限り、リンク障害に対して100%カバーします。
RSVP バイパス LSP の設定と破棄は自動的に行われます。
RSVP LSPはリンク保護にのみ使用され、保護対象のリンクが稼働している間はトラフィックの転送には使用されません。
システムに必要なRSVP LSPの総数を減らします。
図 3 で使用した例を考慮すると、S-R1 リンクの潜在的な障害からトラフィックを保護するために、ルーター R4 はその特定のリンクの LFA ではないため、図 5 に示すように、保護されたリンクの向こう側のノードであるルーター R1 に RSVP バイパス LSP が自動的に作成されます。ルーターR1から、トラフィックは元の宛先であるルーターDに転送されます。
RSVP LSP は、ルーター S のパケット転送エンジンに事前にシグナリングされ、事前にインストールされているため、ルーター S がリンクの障害を検出するとすぐに使用できます。
別の動作モードは、LFA をまったく使用せず、すべてのリンク障害をカバーするために常に RSVP LSP を作成することです。
動的RSVP LSPを有効にするには、適切なインターフェイスでRSVPプロトコルを有効にすることに加えて、[edit protocols ldp interface interface-name link-protection]階層レベルにdynamic-rsvp-lspステートメントを含めます。
マルチキャストLDPリンク保護について
ポイントツーマルチポイントLDPラベルスイッチパス(LSP)は、ポイントツーマルチポイントであるLDP信号LSPであり、マルチキャストLDPと呼ばれます。
マルチキャストLDP LSPを使用して、単一のルートノードまたはイングレスノードから、1つ以上のトランジットノードを通過する多数のリーフノードまたはエグレスノードにトラフィックを送信できます。マルチキャストLDPリンク保護により、リンク障害が発生した場合に、ポイントツーマルチポイントLDP LSPを介して転送されたトラフィックの高速再ルートが可能になります。ポイントツーマルチポイント ツリーのリンクの 1 つに障害が発生すると、IGP が再収束し、ダウンストリーム ルーターから新しいアップストリーム ルーターへの最適なパスを使用してマルチポイント LSP が確立されるまで、サブツリーが切り離される可能性があります。
マルチキャストLDP LSPを通過するトラフィックを保護するために、リンク障害が発生した場合にトラフィックを再ルーティングするように明示的なトンネルを設定することができます。明示的パスは、次のダウンストリームルーターで終了する必要があります。トラフィックのリバースパスフォワーディングが成功しているはずです。
マルチキャストLDPリンク保護には、以下の特徴と機能が導入されています。
バイパストンネルとしての動的RSVP LSPの使用
RSVP LSPの明示的なルートオブジェクト(ERO)は、回避するリンクとして制約付き最短パスファースト(CSPF)を使用して計算されます。LSP は、リンク保護が必要なたびに動的にシグナリングおよび破棄されます。
事前対応
事前対応機能により、マルチキャストLDP LSPの古いLSPパスを破棄する前に、新しいLSPパスをシグナリングしようとする際のパケット損失が最小限に抑えられます。
ターゲット LDP セッション
ダウンストリームのラベルスイッチングルーター(LSR)へのターゲット隣接関係は、次の 2 つの理由で作成されます。
リンク障害後もセッションを稼働させ続けるため。
セッションから受信したポイントツーマルチポイントラベルを使用して、RSVP LSPバイパストンネル上のダウンストリームLSRにトラフィックを送信するには。
ダウンストリーム LSR がルート ノードと LSP ID を持つマルチキャスト LDP LSP を設定する場合、ルートへの最適なパスにあるそのアップストリーム LSR を使用します。
ダウンストリームLSRに複数のリンク隣接関係(パラレルリンク)がある場合、マルチキャストLDPリンク保護は必要ありません。
LDPリンク保護を提供するためのさまざまなモード
ユニキャストおよびマルチキャストLDPリンク保護で使用できる3つの動作モードを以下に示します。
Case A: LFA only
この動作モードでは、既存の有効なループフリーの代替(LFA)を使用して、マルチキャスト LDP リンク保護が提供されます。有効なLFAがない場合、マルチキャストLDP LSPに対してリンク保護は提供されません。
Case B: LFA and Dynamic RSVP LSP
この動作モードでは、既存の有効なLFAを使用してマルチキャストLDPリンク保護が提供されます。有効なLFAが存在しない場合、RSVPバイパスLSPが自動的に作成され、マルチキャストLDP LSPにリンク保護を提供します。
Case C: Dynamic RSVP LSP only
この動作モードでは、LFA はリンク保護には使用されません。マルチキャストLDPリンク保護は、自動的に作成されたRSVPバイパスLSPを使用して提供されます。
図6 は、マルチキャストLDPリンク保護のさまざまな動作モードを示すトポロジーの例です。ルーターR5は、ルーターR3およびR4の2つのリーフノードに接続するルートです。ルーターR0とルーターR1は、それぞれアップストリームとダウンストリームのLSR(ラベルスイッチルーター)です。マルチキャストLDP LSPは、ルートノードとリーフノード間を走ります。
例
R0-R1リンクに障害が発生した場合に、ルーターR0がマルチキャストLDP LSPを保護する必要があることを考慮して、リンク保護のさまざまなモードは次のように動作します。
Case A: LFA only
ルーターR0は、R0-R1リンクを回避してルーターR1に到達できる有効なLFAパスが存在するかどうかを確認します。メトリックに基づくと、ルーターR2はR0-R1リンクの有効なLFAパスであり、ユニキャストLDPトラフィックの転送に使用されます。複数のマルチキャストLDP LSPがR0-R1リンクを使用する場合、同じLFA(ルーターR2)がマルチキャストLDPリンク保護に使用されます。
R0-R1リンクに障害が発生すると、マルチキャストLDP LSPトラフィックはルーターR0によってLFAパスに移動され、ルーターR1(L100)に到達するユニキャストLDPラベルがマルチキャストLDPラベル(L21)の上にプッシュされます。
Case B: LFA and Dynamic RSVP LSP
ルーターR0は、R0-R1リンクを回避してルーターR1に到達できる有効なLFAパスが存在するかどうかを確認します。メトリックに基づくと、ルーターR2はR0-R1リンクの有効なLFAパスであり、ユニキャストLDPトラフィックの転送に使用されます。複数のマルチキャストLDP LSPがR0-R1リンクを使用する場合、同じLFA(ルーターR2)がマルチキャストLDPリンク保護に使用されます。R0-R1リンクに障害が発生すると、マルチキャストLDP LSPトラフィックはルーターR0によってLFAパスに移動します。
ただし、R2-R1リンクのメトリックが10ではなく50であった場合、ルーター2はR0-R1リンクに対して有効なLFAではありません。この場合、ルーターR0とR1の間を移動するマルチキャストLDPトラフィックを保護するためにRSVP LSPが自動的に作成されます。
Case C: Dynamic RSVP LSP only
RSVP LSP は、インターフェイス ge-1/1/0 を避けて、ルーター R0 からルーター R2 を経由してルーター R1 に自動的にシグナリングされます。複数のマルチキャスト LDP LSP が R0-R1 リンクを使用する場合、同じ RSVP LSP がマルチキャスト LDP リンク保護に使用されます。
R0-R1 リンクに障害が発生すると、マルチキャスト LDP LSP トラフィックはルーター R0 によって RSVP LSP に移動され、ルーター R1(L100)に到達するための RSVP ラベルがマルチキャスト LDP ラベル(L21)の上にプッシュされます。
LDPリンク保護のためのラベル操作
図 5 と同じネットワーク トポロジーを使用して、 図 7 は、ユニキャストおよびマルチキャスト LDP リンク保護のラベル操作を示しています。
例
ルーターR5は、ルーターR3およびR4の2つのリーフノードに接続するルートです。ルーターR0とルーターR1は、それぞれアップストリームとダウンストリームのLSR(ラベルスイッチルーター)です。マルチキャストLDP LSPは、ルートノードとリーフノード間を走ります。ユニキャスト LDP パスは、ルーター R1 からルーター R5 に接続します。
ラベル操作は、以下のLDPリンク保護モードでの実行が異なります。
ケースA:LFAのみ
ルーターR0の show route detail コマンド出力を使用して、ユニキャストLDPトラフィックとマルチキャストLDPトラフィックを導き出すことができます。
user@R0> show route detail
299840 (1 entry, 1 announced)
*LDP Preference: 9
Next hop type: Router
Address: 0x93bc22c
Next-hop reference count: 1
Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1, selected
Label operation: Swap 299824
Session Id: 0x1
Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0xf000
Label operation: Swap 299808
Session Id: 0x3
State: <Active Int>
Age: 3:16 Metric: 1
Validation State: unverified
Task: LDP
Announcement bits (1): 0-KRT
AS path: I
Prefixes bound to route: 192.168.0.4/32
299856 (1 entry, 1 announced)
*LDP Preference: 9
Next hop type: Flood
Address: 0x9340e04
Next-hop reference count: 3
Next hop type: Router, Next hop index: 262143
Address: 0x93bc3dc
Next-hop reference count: 2
Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1
Label operation: Swap 299888
Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0xf000
Label operation: Swap 299888, Push 299776(top)
Label TTL action: prop-ttl, prop-ttl(top)
State: <Active Int AckRequest>
Age: 3:16 Metric: 1
Validation State: unverified
Task: LDP
Announcement bits (1): 0-KRT
AS path: I
FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
ラベル299840は、ルーターR0に到着するトラフィックで、ルーターR1へのユニキャストLDPトラフィックに対応します。ラベル299856は、ルートノードR5からリーフエグレスノードR3およびR4へのマルチキャストLDPトラフィックに対応する、ルーター0に到着するトラフィックです。
ユニキャストおよびマルチキャストLDP LSPのメインパスは、インターフェイスge-0/0/1(ルーターR1へのリンク)を経由し、LFAパスはインターフェイスge-0/0/2(ルーターR2へのリンク)を経由します。ge-0/0/1インターフェイスがダウンしない限り、LFAパスは使用されません。
ケースAのラベル操作では、LFAのみの動作モードがユニキャストとマルチキャストLDPトラフィックで異なります。
ユニキャストラベル操作
ユニキャストLDPトラフィックの場合、FECおよび関連するラベルは、LDPが有効になっているネットワーク内のすべてのリンクにアドバタイズされます。つまり、ルーターR4にユニキャストLDPトラフィックに対するLFAアクションを提供するために、ルーターR0は、受信ラベルをルーターR1がFEC R4に対してアドバタイズしたラベル299824に交換する代わりに、ルーターR0は、受信ラベルをルーターR2がFEC R4に対してアドバタイズしたラベル299808と交換するだけです。これは、ユニキャストLDPトラフィックに対する標準的なJunos OS LFA操作です。
図8 は、R0-R1リンクに障害が発生した場合のユニキャストトラフィックのラベル操作を示しています。灰色のボックスは、通常条件下でのユニキャストLDPトラフィックのラベル操作を示し、点線のボックスは、R0-R1リンクに障害が発生した場合のユニキャストLDPトラフィックのラベル操作を示しています。
図8:ユニキャストLDPラベル動作
マルチキャストラベル操作
マルチポイントLSPラベルは、リーフノードからイングレスノードへの最適なパスに沿ってのみアドバタイズされるため、マルチキャストLDPトラフィックのラベル操作は、ユニキャストLDPラベル操作とは異なります。その結果、ルーターR2はマルチキャストLDPを認識しません。これを克服するために、マルチキャスト LDP LSP トラフィックは、ルーター R1 で終端するルーター R2 を経由するユニキャスト LDP LSP パス内に単純にトンネリングされます。
これを実現するために、ルーターR0はまず、受信マルチキャストLDP LSPラベル299856をルーターR1によってアドバタイズされたラベル299888にスワップします。次に、ラベル 299776 が最上位にプッシュされますが、これはルーター R2 が FEC R1 に対してアドバタイズした LDP ラベルです。パケットがルーターR2に到着すると、最後から2番目のホップポッピングによりトップラベルがポップアウトされます。これは、パケットが、ルーター R1 が最初にルーター R0 にアドバタイズした マルチキャスト LDP ラベル299888を使用してルーター R1 に到着することを意味します。
図9 は、R0-R1リンクに障害が発生した場合のマルチキャストLDPトラフィックのラベル操作を示しています。青いボックスは、通常条件下のマルチキャストLDPトラフィックのラベル操作を示し、点線のボックスは、R0-R1リンクに障害が発生した場合のマルチキャストLDPトラフィックのラベル操作を示しています。
図9:マルチキャストLDPラベル動作
R2-R1リンクのメトリックが1ではなく1000に設定されている場合、ルーターR2はルーターR0に対して有効なLFAではありません。この場合、ルーターR2がIGPが収束する前にルーターR1、R3、またはR4宛のパケットを受信すると、パケットはルーターR0に送り返され、ループパケットになります。
ルーターR0には有効なLFAがないため、パケット転送エンジンにバックアップパスはインストールされません。R0-R1リンクに障害が発生すると、IGPとLDPが収束し、影響を受けるルーターに新しいエントリーがインストールされるまで、トラフィックフローが中断されます。
show route detailコマンドは、リンク保護に使用できるLFAがない場合の状態を表示します。
user@host> show route detail
299840 (1 entry, 1 announced)
*LDP Preference: 9
Next hop type: Router, Next hop index: 578
Address: 0x9340d20
Next-hop reference count: 2
Next hop: 11.0.0.6 via ge-0/0/1.0, selected
Label operation: Swap 299824
Session Id: 0x1
State: <Active Int>
Age: 5:38 Metric: 1
Validation State: unverified
Task: LDP
Announcement bits (1): 0-KRT
AS path: I
Prefixes bound to route: 192.168.0.4/32
299856 (1 entry, 1 announced)
*LDP Preference: 9
Next hop type: Flood
Address: 0x9340e04
Next-hop reference count: 3
Next hop type: Router, Next hop index: 579
Address: 0x93407c8
Next-hop reference count: 2
Next hop: 11.0.0.6 via ge-0/0/1.0
Label operation: Swap 299888
State: <Active Int AckRequest>
Age: 5:38 Metric: 1
Validation State: unverified
Task: LDP
Announcement bits (1): 0-KRT
AS path: I
FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
ケースB:LFAと動的RSVP LSP
この動作モードでは、有効なLFAネイバーが存在する場合、ラベル操作の動作はケースAのLFAのみモードと同様です。ただし、有効なLFAネイバーがない場合は、RSVPバイパストンネルが自動的に作成されます。
リンクR2-R1のメトリックが1ではなく1000に設定されている場合、ルーターR2はルーターR0のLFAではありません。R0-R1 リンク障害を保護する LFA パスがないことが判明すると、ルーター R1 をエグレス ノードとする RSVP バイパス トンネルが自動的に作成され、R0-R1 リンクを回避するパス(例:R0-R2-R1)をたどります。
R0-R1リンクに障害が発生した場合、ユニキャストLDPおよびマルチキャストLDPトラフィックはRSVPバイパストンネルを介してトンネリングされます。RSVP バイパス トンネルは通常の転送には使用されず、R0-R1 リンク障害が発生した場合に LDP トラフィックにリンク保護を提供する目的にのみ使用されます。
show route detailコマンドを使用すると、ユニキャストとマルチキャストLDPトラフィックを導き出すことができます。
user@host> show route detail
299840 (1 entry, 1 announced)
*LDP Preference: 9
Next hop type: Router
Address: 0x940c3dc
Next-hop reference count: 1
Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1, selected
Label operation: Swap 299824
Session Id: 0x1
Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0x8001
Label-switched-path ge-0/0/1.0:BypassLSP->192.168.0.1
Label operation: Swap 299824, Push 299872(top)
Label TTL action: prop-ttl, prop-ttl(top)
Session Id: 0x3
State: <Active Int NhAckRequest>
Age: 19 Metric: 1
Validation State: unverified
Task: LDP
Announcement bits (1): 0-KRT
AS path: I
Prefixes bound to route: 192.168.0.4/32
299856 (1 entry, 1 announced)
*LDP Preference: 9
Next hop type: Flood
Address: 0x9340e04
Next-hop reference count: 3
Next hop type: Router, Next hop index: 262143
Address: 0x940c154
Next-hop reference count: 2
Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1
Label operation: Swap 299888
Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0x8001
Label-switched-path ge-0/0/1.0:BypassLSP->192.168.0.1
Label operation: Swap 299888, Push 299872(top)
Label TTL action: prop-ttl, prop-ttl(top)
State: < Active Int AckRequest>
Age: 20 Metric: 1
Validation State: unverified
Task: LDP
Announcement bits (1): 0-KRT
AS path: I
FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
ユニキャストおよびマルチキャストLDP LSPのメインパスは、インターフェイスge-0/0/1(ルーターR1へのリンク)を経由し、LFAパスはインターフェイスge-0/0/2(ルーターR2へのリンク)を経由します。ge-0/0/1インターフェイスがダウンしない限り、LFAパスは使用されません。
ラベル299840は、ルーターR0に到着するトラフィックで、ルーターR4へのユニキャストLDPトラフィックに対応します。ラベル299856は、ルートノードR5からリーフエグレスノードR3およびR4へのマルチキャストLDPトラフィックに対応する、ルーター0に到着するトラフィックです。
show route detailコマンド出力に見られるように、保護パスのラベル操作は、ユニキャストLDPトラフィックとマルチキャストLDPトラフィックで同じです。ルーターR0で受信するLDPラベルは、ルーターR1からルーターR0にアドバタイズされたLDPラベルに交換されます。次に、バイパストンネル用に299872されたRSVPラベルがパケットにプッシュされます。バイパストンネルで最後から 2 番目のホップポッピングが使用され、ルーター R2 がそのラベルをポップします。したがって、パケットは、最初にルーターR0にアドバタイズされたLDPラベルとともに、ルーターR1に到着します。
図10 は、RSVPバイパストンネルで保護されたユニキャストLDPおよびマルチキャストLDPトラフィックのラベル操作を示しています。灰色と青色のボックスは、ユニキャスト LDP トラフィックとマルチキャスト LDP トラフィックにそれぞれ通常の条件下で使用されるラベル値を表しています。点線のボックスは、R0-R1 リンクに障害が発生した場合に使用されるラベル値を表しています。
ケースC:動的RSVP LSPのみ
この動作モードでは、LFAはまったく使用されません。リンク保護を提供するために、動的RSVPバイパスLSPが自動的に作成されます。 show route detail コマンドからの出力とラベル操作は、ケースB、LFAおよび動的RSVP LSPモードと似ています。
マルチキャストLDPリンク保護設定の例
マルチキャストLDPリンク保護を有効にするには、ルーターR0で以下の設定が必要です。
このサンプルでは、ルーター R1 に接続するルーター R0 の ge-1/0/0 インターフェイスでマルチキャスト LDP リンク保護が有効になっていますが、通常はすべてのインターフェイスをリンク保護用に設定する必要があります。
ルーターR0
protocols {
rsvp {
interface all;
interface ge-0/0/0.0 {
disable;
}
}
mpls {
interface all;
interface ge-0/0/0.0 {
disable;
}
}
ospf {
traffic-engineering;
area 0.0.0.0 {
interface lo0.0;
interface ge-0/0/1.0 {
link-protection;
}
interface ge-0/0/2.0;
interface ge-0/0/3.0;
}
}
ldp {
make-before-break {
timeout seconds;
switchover-delay seconds;
}
interface ge-1/1/0.0 {
link-protection {
disable;
dynamic-rsvp-lsp;
}
}
}
}
以下の設定ステートメントは、以下のように、マルチキャストLDP保護の異なるモードに適用されます。
link-protectionでのステートメント[edit protocols ospf interface ge-0/0/1.0]この設定は、マルチキャストLDPリンク保護のケースA(LFAのみ)およびケースB(LFAおよび動的RSVP LSP)モードにのみ適用されます。ケースCでは、IGPの下でのリンク保護の設定は必要ありません(動的RSVP LSPのみ)。
link-protectionでのステートメント[edit protocols ldp interface ge-0/0/1.0]この設定は、マルチキャストLDP保護のすべてのモードで必要です。ただし、LDP トラフィックが ユニキャスト のみ存在し、動的 RSVP バイパスが不要な場合は、
[edit protocols ospf interface ge-0/0/1.0]階層レベルのlink-protectionステートメントが LDP ユニキャスト トラフィックに対して LFA アクションを実行するため、この設定は不要です。dynamic-rsvp-lspでのステートメント[edit protocols ldp interface ge-0/0/1.0 link-protection]この設定は、LDPリンク保護のケースB(LFAおよび動的RSVP LSP)およびケースC(動的RSVP LSPのみ)モードにのみ適用されます。動的 RSVP LSP 設定は、ケース A には適用されません(LFA のみ)。
メークビフォアブレーク
Junos OSでは、事前対応機能がデフォルトで有効になっており、ポイントツーマルチポイントLSPにいくつかのメリットがあります。
ポイントツーマルチポイント LSP の場合、LSR(ラベルスイッチ ルーター)は、LSP のルートへのネクスト ホップである LSR をアップストリーム LSR として選択します。ルートに到達する最適なパスが変更されると、LSR は新しいアップストリーム LSR を選択します。この期間中、LSP が一時的に切断され、LSP が新しいアップストリーム LSR に再収束するまでパケット損失が発生する可能性があります。この場合のメークビフォアブレークの目的は、パケットロスを最小限に抑えることです。LSRからルートへの最適なパスが変更されたにもかかわらず、LSPが以前のネクストホップからルートへのトラフィックを転送し続ける場合、パケット損失の期間を最小限に抑えるために、古いLSPを取り消す前に新しいLSPを確立する必要があります。
例えば、リンク障害後も、ダウンストリームの LSR(例えば、LSR-D)は、ワンホップの RSVP LSP からのパケット受信を継続するため、他のダウンストリームの LSR にパケットを受信および/または転送します。ルーティングが収束すると、LSR-D はこのポイントツーマルチポイント LSP の FEC(FEC-A)用に新しいアップストリーム LSR(LSR-U)を選択します。新しい LSR は、すでに FEC-A 用のパケットを LSR-D 以外のダウンストリーム LSR に転送している可能性があります。LSR-Uは、LSR-DからFEC-Aのラベルを受信した後、LSR-A用LSPがルートから自身に確立されたことを学習すると、LSR-Dに通知します。LSR-Dはこのような通知を受信すると、LSPルートのネクストホップをLSR-Uに変更します。これは、LSR-Dでのルート削除と追加の操作です。この時点で、LSR-DはLSPスイッチオーバーを行い、RSVP LSPまたはLFAを介してトンネリングされたトラフィックはドロップされ、LSR-Uからのトラフィックは受け入れられます。LSR-Uの新しいトランジットルートが追加されました。RPF チェックが、LSR-U からのトラフィックを受け入れ、古いアップストリーム LSR からのトラフィックをドロップするように変更されるか、古いルートが削除されて新しいルートが追加されます。
LSR-Uは、FEC-AポイントツーマルチポイントLSPのアップストリームルーターからメークビフォアブレーク通知を受信し、LSPの転送状態をインストールしていることを前提としています。その時点で、FEC-A によって識別されるツリーの一部になったこと、および LSR-D が LSP への切り替えを開始することを、メークビフォアブレーク通知によって LSR-D に通知する必要があります。それ以外の場合、LSR-Uは、FEC-AのアップストリームLSRからメークビフォアブレーク通知を受信し、このLSPの転送状態をインストールするときに、LSR-Dに通知を送信する必要があることを覚えておく必要があります。LSR-Dは、新しいポイントツーマルチポイントLSPからLSR-Uに切り替えるまで、1ホップのRSVP LSPまたはLFAパスを使用して、古いネクストホップからルートノードへのトラフィックを受信し続けます。
マルチキャストLDPリンク保護によるメークビフォアブレーク機能には、以下の機能があります。
事前対応機能
LSRは、機能アドバタイズメントを使用して、事前対応LSPを処理できることをアドバタイズします。ピアが事前対応でない場合、事前対応パラメーターはこのピアに送信されません。LSRがダウンストリームのLSR(LSR-D)からメークビフォアブレークパラメータを受信したが、アップストリームのLSR(LSR-U)がメークビフォアブレークに対応していない場合、LSRは直ちにメークビフォアブレーク通知をLSR-Dに送信し、メークビフォアブレーク対応LSPは確立されません。代わりに、通常のLSPが確立されます。
事前対応ステータスコード
事前対応ステータスコードには、以下が含まれます。
1 - 事前対応要求
2 - 事前対応確認応答
ダウンストリームの LSR がポイントツーマルチポイント LSP のラベルマッピングメッセージを送信すると、1(リクエスト)として事前対応ステータスコードが含まれます。アップストリームの LSR がポイントツーマルチポイント LSP の転送状態を更新すると、ダウンストリームの LSR に、メークビフォアブレークのステータスコードを含む通知メッセージを 2(確認応答)として通知します。その時点で、ダウンストリームの LSR は LSP スイッチオーバーを行います。
注意事項と制限事項
LDPリンク保護機能のJunos OS実装には、以下の注意点と制限があります。
メークビフォアブレークは、エグレス LSR 上の以下のポイントツーマルチポイント LSP ではサポートされていません。
仮想ルーティングおよび転送(VRF)ラベルを使用した次世代マルチキャスト仮想プライベートネットワーク(MVPN)
静的LSP
以下の機能はサポートされていません。
Junos OSリリース12.3、13.1、13.2におけるポイントツーマルチポイントLSPのノンストップアクティブルーティング
グレースフル リスタート スイッチオーバー ポイントツーマルチポイント LSP
ルーティングインスタンスのリンク保護
例:LDPリンク保護の設定
この例では、ユニキャストおよびマルチキャストLDPラベルスイッチパス(LSP)の両方に対して、ラベル配布プロトコル(LDP)リンクプロテクションを設定する方法を示します。
要件
この例では、以下のハードウェアおよびソフトウェアコンポーネントを使用しています。
M Series、MXシリーズ、またはT Seriesルーターの組み合わせが可能な6台のルーターで、1つのルートノードと2つのリーフノードでポイントツーマルチポイントLDP LSPを実行します。
すべてのルーターで実行されている Junos OS リリース 12.3 以降。
始める前に:
デバイスインターフェイスを設定します。
以下のプロトコルを設定します。
出欠確認
MPLS
OSPFまたはその他のIGP
LDP
概要
LDPリンク保護により、リンク障害が発生した場合にLDP LSPを介して伝送されるトラフィックの高速再ルートが可能になります。LDPポイントツーマルチポイントLSPを使用して、単一のルートまたはイングレスノードから、1つ以上のトランジットノードを通過する多数のリーフノードまたはエグレスノードにトラフィックを送信できます。ポイントツーマルチポイント ツリーのリンクの 1 つに障害が発生すると、IGP が再収束し、マルチキャスト LDP がダウンストリーム ルーターから新しいアップストリーム ルーターへの最適なパスを使用してラベル マッピングを開始するまで、サブツリーが切り離される可能性があります。リンク障害が発生した場合にトラフィックを保護するために、明示的なトンネルを設定して、トンネルを使用してトラフィックを再ルーティングできるようにすることができます。Junos OSは、古いLSPパスを破棄する前に新しいLSPパスに信号を送ろうとする際のパケット損失を最小限に抑えるために、メークビフォアブレーク機能をサポートしています。この機能により、マルチキャストLDPリンク保護のターゲットLDPサポートも追加されます。
LDPリンク保護を設定する際は、以下の点に留意してください。
IGPでトラフィックエンジニアリングを設定し(デフォルトでサポートされていない場合)、MPLSとRSVP用に設定されたインターフェイスを含めて、制約付きベースのリンク保護動的RSVP LSPが、CSPF(制約付き最短パスファースト)を使用してRSVPによってシグナリングされるようにします。この条件が満たされない場合、RSVP LSP が立ち上がらない可能性があり、LDP はそれを保護されたネクストホップとして使用できません。
リンク障害が発生した場合に、2つのLSR(ラベルスイッチルーター)間のパスを設定し、ルーター間でIP接続を提供します。これにより、CSPF はリンク保護の代替パスを計算できます。ルーター間の接続が失われると、LDP ターゲット隣接関係が立ち上がらず、動的 RSVP LSP がシグナリングされないため、ピアがダウンストリーム LSR である LDP 転送等価クラス(FEC)の保護は失われます。
リンク保護が一方のLSRでのみアクティブである場合、もう一方のLSRに
strict-targeted-hellosステートメントを設定しないでください。これにより、リンク保護なしの LSR で、非対称リモートネイバーの検出を可能にし、リモートネイバーを開始した LSR に定期的にターゲット LSR を送信することができます。この条件が満たされない場合、LDPターゲット隣接関係は形成されません。LDPトンネリング、LDPベースの仮想プライベートLANサービス(VPLS)、レイヤー2回線、またはLDPセッション保護に基づいてリモートネイバーを作成するには、LSRのループバックインターフェイスでLDPを有効にする必要があります。この条件が満たされない場合、LDPターゲット隣接関係は形成されません。
ユニキャスト LDP LSP の場合、IGP で LFA(loop-free alternate)を設定する必要があります。
マージポイントへのイングレスルートには、少なくとも1つのネクストホップがあり、マージポイントとユニキャストLDP LSPのローカル修復ポイントとの間のプライマリリンクを回避する必要があります。
ローカル修復ポイントには、バックアップネクストホップがマージポイントに到達するためのユニキャストLDPラベルが必要です。
トポロジー
この例では、ルーターR5は2つのリーフノード、ルーターR3とR4に接続するルートです。ルーターR0は、ローカル修復のポイントです。
設定
CLIクイックコンフィグレーション
この例を迅速に設定するには、以下のコマンドをコピーしてテキストファイルに貼り付け、改行を削除し、ネットワーク設定に一致させる必要がある詳細情報を変更し、コマンドを [edit] 階層レベルでCLIにコピーアンドペーストして、設定モードから commit を入力します。
R5
set interfaces ge-0/0/0 unit 0 family inet address 10.10.10.1/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.5/32 set routing-options router-id 10.255.1.5 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R0
set interfaces ge-0/0/0 unit 0 family inet address 10.10.10.2/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 20.10.10.1/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 30.10.10.1/30 set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.0/32 set routing-options router-id 10.255.1.0 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R1
set interfaces ge-0/0/0 unit 0 family inet address 60.10.10.2/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 40.10.10.1/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 30.10.10.2/30 set interfaces ge-0/0/2 unit 0 family mpls set interfaces ge-0/0/3 unit 0 family inet address 50.10.10.1/30 set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.1/32 set routing-options router-id 10.255.1.1 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R2
set interfaces ge-0/0/0 unit 0 family inet address 60.10.10.1/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 20.10.10.2/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.2/32 set routing-options router-id 10.255.1.2 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R3
set interfaces ge-0/0/1 unit 0 family inet address 40.10.10.2/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.3/32 set routing-options router-id 10.255.1.3 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp root-address 10.255.1.5 lsp-id 1
R4
set interfaces ge-0/0/3 unit 0 family inet address 50.10.10.2/30 set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.4/32 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp root-address 10.255.1.5 lsp-id 1
手順
ステップバイステップの手順
次の例では、設定階層のさまざまなレベルに移動する必要があります。CLIのナビゲーションについては、 設定モードでのCLIエディターの使用を参照してください。
ルーターR0を設定するには:
ルーターR0インターフェイスを設定します。
[edit interfaces]user@R0# set ge-0/0/0 unit 0 family inet address 10.10.10.2/30 user@R0# set ge-0/0/0 unit 0 family mpls user@R0# set ge-0/0/1 unit 0 family inet address 20.10.10.1/30 user@R0# set ge-0/0/1 unit 0 family mpls user@R0# set ge-0/0/2 unit 0 family inet address 30.10.10.1/30 user@R0# set ge-0/0/2 unit 0 family mpls user@R0# set lo0 unit 0 family inet address 10.255.1.0/32ルーターR0のルーターIDと自律システムを設定します。
[edit routing-options]user@R0# set router-id 10.255.1.0 user@R0# set autonomous-system 100(管理インターフェイスを除く)ルーターR0のすべてのインターフェイスでRSVPを有効にします。
[edit protocols]user@R0# set rsvp interface all user@R0# set rsvp interface fxp0.0 disableトラフィック制御機能とともに、ルーターR0のすべてのインターフェイス(管理インターフェイスを除く)でMPLSを有効にします。
[edit protocols]user@R0# set mpls traffic-engineering user@R0# set mpls interface all user@R0# set mpls interface fxp0.0 disableルーターR0のすべてのインターフェイス(管理インターフェイスを除く)でOSPFを有効にし、リンクに等コストメトリックを割り当て、トラフィック制御機能を有効にします。
[edit protocols]user@R0# set ospf traffic-engineering user@R0# set ospf area 0.0.0.0 interface all metric 1 user@R0# set ospf area 0.0.0.0 interface fxp0.0 disable注:ループフリーオルタナティブ(LFA)を使用したLDPリンク保護マルチキャストには、
[edit protocols]階層レベルで以下の設定を有効にします。set ospf area 0 interface all link-protection
ルーターR0のすべてのインターフェイス(管理インターフェイスを除く)でLDPを有効にし、動的RSVPバイパスLSPを使用してリンク保護を設定します。
[edit protocols]user@R0# set ldp interface all link-protection dynamic-rsvp-lsp user@R0# set ldp interface fxp0.0 disable user@R0# set ldp p2mp
結果
設定モードから、 show interfaces、 show routing-options、 show protocols コマンドを入力して設定を確認します。出力に意図した設定が表示されない場合は、この例の手順を繰り返して設定を修正します。
user@R0# show interfaces
ge-0/0/0 {
unit 0 {
family inet {
address 10.10.10.2/30;
}
family mpls;
}
}
ge-0/0/1 {
unit 0 {
family inet {
address 20.10.10.1/30;
}
family mpls;
}
}
ge-0/0/2 {
unit 0 {
family inet {
address 30.10.10.1/30;
}
family mpls;
}
}
lo0 {
unit 0 {
family inet {
address 10.255.1.0/32;
}
}
}
user@R0# show routing-options router-id 10.255.1.0; autonomous-system 100;
user@R0# show protocols
rsvp {
interface all;
interface fxp0.0 {
disable;
}
}
mpls {
traffic-engineering;
interface all;
interface fxp0.0 {
disable;
}
}
ospf {
traffic-engineering;
area 0.0.0.0 {
interface all {
metric 1;
}
interface fxp0.0 {
disable;
}
}
}
ldp {
interface all {
link-protection {
dynamic-rsvp-lsp;
}
}
interface fxp0.0 {
disable;
}
p2mp;
}
検証
設定が正常に機能していることを確認します。
バイパスRSVP LSPパスの検証
目的
バイパスRSVP LSPパスがPLR(Point of Local Repair)で作成されていることを確認します。
アクション
動作モードから、 show route tale mpls.0 コマンドを実行します。
user@R0> show route tale mpls.0
mpls.0: 17 destinations, 17 routes (17 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
0 *[MPLS/0] 05:28:13, metric 1
Receive
1 *[MPLS/0] 05:28:13, metric 1
Receive
2 *[MPLS/0] 05:28:13, metric 1
Receive
13 *[MPLS/0] 05:28:13, metric 1
Receive
299792 *[LDP/9] 00:41:41, metric 1
> to 30.10.10.2 via ge-0/0/2.0, Pop
299792(S=0) *[LDP/9] 00:41:41, metric 1
> to 30.10.10.2 via ge-0/0/2.0, Pop
299808 *[LDP/9] 00:41:41, metric 1
> to 20.10.10.2 via ge-0/0/1.0, Pop
299808(S=0) *[LDP/9] 00:41:41, metric 1
> to 20.10.10.2 via ge-0/0/1.0, Pop
299920 *[RSVP/7/1] 01:51:43, metric 1
> to 30.10.10.2 via ge-0/0/2.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.1
299920(S=0) *[RSVP/7/1] 01:51:43, metric 1
> to 30.10.10.2 via ge-0/0/2.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.1
299936 *[RSVP/7/1] 01:51:25, metric 1
> to 20.10.10.2 via ge-0/0/1.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.2
299936(S=0) *[RSVP/7/1] 01:51:25, metric 1
> to 20.10.10.2 via ge-0/0/1.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.2
299952 *[LDP/9] 00:06:11, metric 1
> to 10.10.10.1 via ge-0/0/0.0, Pop
299952(S=0) *[LDP/9] 00:06:11, metric 1
> to 10.10.10.1 via ge-0/0/0.0, Pop
299968 *[LDP/9] 00:05:39, metric 1
> to 30.10.10.2 via ge-0/0/2.0, Swap 299984
299984 *[LDP/9] 00:05:38, metric 1
> to 30.10.10.2 via ge-0/0/2.0, Swap 300000
300000 *[LDP/9] 00:05:15, metric 1
> to 30.10.10.2 via ge-0/0/2.0, Swap 300016
意味
R0-R1リンクがダウンすると、RSVPバイパスLSPを使用してトラフィックをルーティングします。
ラベル動作の検証
目的
PLRでのラベルスワップを確認します。
アクション
動作モードから、 show route table mpls.0 label label extensive コマンドを実行します。
user@R0> show route table mpls.0 label 300000 extensive
mpls.0: 17 destinations, 17 routes (17 active, 0 holddown, 0 hidden)
300000 (1 entry, 1 announced)
TSI:
KRT in-kernel 300000 /52 -> {Swap 300016}
*LDP Preference: 9
Next hop type: Router, Next hop index: 589
Address: 0x9981610
Next-hop reference count: 2
Next hop: 30.10.10.2 via ge-0/0/2.0, selected
Label operation: Swap 300016
Load balance label: Label 300016: None;
Session Id: 0x2
State: <Active Int>
Local AS: 100
Age: 12:50 Metric: 1
Validation State: unverified
Task: LDP
Announcement bits (1): 1-KRT
AS path: I
Prefixes bound to route: 10.255.1.4/32
意味
ラベルは、リーフノードであるルーターR4に到達するはずです。
マルチキャストのみの高速再ルートについて
MoFRR(マルチキャストのみの高速再ルート)は、リンク障害が発生したときにマルチキャスト配信ツリー内のトラフィックのパケットロスを最小限に抑え、これらの機能をサポートするデバイスで、PIM(プロトコル独立マルチキャスト)やLDP(マルチポイントラベル配信プロトコル)などのマルチキャストルーティングプロトコルを強化します。
スイッチでは、MPLSラベルスイッチパスとマルチポイントLDPを備えたMoFRRはサポートされていません。
MXシリーズルーターの場合、MoFRRはMPCラインカードを備えたMXシリーズルーターでのみサポートされています。前提として、ルーターを network-services enhanced-ip モードに設定し、ルーターのすべてのラインカードがMPCである必要があります。
MoFRR を有効にすると、デバイスはプライマリおよびバックアップのアップストリーム パスでマルチキャスト ソースに向けてジョイン メッセージを送信します。デバイスは、プライマリ パスとバックアップ パスの両方からデータ パケットを受信し、プライオリティ(プライマリ パスとバックアップ パスに割り当てられた重み)に基づいて冗長なパケットを廃棄します。プライマリ パスに障害が発生すると、デバイスは直ちにセカンダリ インターフェイス(バックアップ パス)からのパケットの受け入れを開始します。高速スイッチオーバーにより、プライマリ パスのリンク障害時のコンバージェンス時間が大幅に短縮されます。
MoFRR のアプリケーションの 1 つにIPTV のストリーミングがあります。IPTV ストリームは UDP ストリームとしてマルチキャストされるため、パケットが失われても再送されず、満足のいくユーザー エクスペリエンスが得られませんでした。MoFRR は状況を改善できます。
MoFRR の概要
ユニキャスト ストリームの高速再ルートでは、アップストリームのルーティング デバイスが MPLS LSP(ラベルスイッチ パス)を事前に確立するか、LFA(IP ループフリーの代替ルート)の高速再ルート バックアップ パスを事前に計算して、ダウンストリーム パスのセグメントの障害に対処します。
マルチキャスト ルーティングでは、通常、受信側がトラフィックの配信グラフを作成します。これは、一般的に送信元から受信者へのパスを確立するユニキャストルーティングとは異なります。PIM(IP用)、マルチポイントLDP(MPLS用)、RSVP-TE(MPLS用)は、マルチキャスト配信グラフを構築できるプロトコルです。これらのうち、PIM とマルチポイント LDP 受信機がディストリビューション グラフの設定を開始するため、MoFRR はこれら 2 つのマルチキャスト プロトコルがサポートされている場所で動作できます。
マルチキャストツリーでは、デバイスがネットワークコンポーネントの障害を検出した場合、リアクティブ修復を実行するのに時間がかかり、代替パスを設定する間に大きなトラフィック損失が発生します。MoFRR は、ネットワーク コンポーネントに障害が発生した場合に、マルチキャスト 配信ツリーでのトラフィック ロスを低減します。MoFRR では、ダウンストリームのルーティング デバイスの 1 つが、同じマルチキャスト トラフィックのバックアップ ライブ ストリームを受信するために、ソースに向かう代替パスを設定します。プライマリ ストリームで障害が発生した場合、MoFRR ルーティング デバイスはバックアップ ストリームに素早く切り替えることができます。
MoFRR を有効にすると、各(S,G)エントリーに対して、デバイスは利用可能なアップストリーム インターフェイスのうち 2 つを使用して、ジョイン メッセージを送信し、マルチキャスト トラフィックを受信します。このプロトコルは、2 つのパスが利用可能な場合、2 つのディスジョイント パスを選択しようとします。ディスジョイント パスが利用できない場合、プロトコルは 2 つの非ディスジョイント パスを選択します。2 つの非ディスジョイント パスを利用できない場合、バックアップがないプライマリ パスのみが選択されます。MoFRR は、利用可能なパスのロードバランシングのために、不連続なバックアップを優先します。
MoFRR は、IPv4 と IPv6 の両方のプロトコル ファミリーでサポートされています。
図12 は、マルチキャストレシーバールーティングデバイス(エグレスプロバイダーエッジ(PE)デバイスとも呼ばれています)からマルチキャスト送信元ルーティングデバイス(イングレスPEデバイスとも呼ばれています)への2つのパスを示しています。
MoFRR を有効にすると、エグレス(レシーバー側)ルーティング デバイスは、各 (S,G) のマルチキャスト ソースに向けて、プライマリ パスとバックアップ パスの 2 つのマルチキャスト ツリーを設定します。つまり、エグレス ルーティング デバイスは、同じ(S,G)ジョイン メッセージを 2 つの異なるアップストリーム ネイバーに向けて伝搬することで、2 つのマルチキャスト ツリーを作成します。
図12に示すように、マルチキャストツリーの1つはプレーン1を経由し、もう一方はプレーン2を経由します。各(S,G)について、エグレス ルーティング デバイスは、プライマリ パスで受信したトラフィックを転送し、バックアップ パスで受信したトラフィックをドロップします。
MoFRR は、ECMP(Equal Cost マルチパス)パスと非ECMP パスの両方でサポートされます。デバイスは、非ECMPパスでのMoFRRをサポートするために、ユニキャストループフリーの代替ルート(LFA)を有効化する必要があります。LFA ルートを有効にするには、IGP(Interior Gateway Protocol)設定の link-protection ステートメントを使用します。OSPF または IS-IS インターフェイスでリンク保護を有効にすると、デバイスは保護されたインターフェイスを通過するすべての宛先ルートのプライマリ ネクスト ホップへのバックアップ LFA パスを作成します。
Junos OSは、IP MoFRRの場合はIPネットワークに、マルチポイントLDP MoFRRの場合はMPLSラベルエッジルーティングデバイス(LER)にMoFRRを実装します。
マルチポイントLDP MoFRRは、パケットがIPネットワークに転送されるMPLSネットワークのエグレスデバイスで使用されます。マルチポイントLDP MoFRRでは、デバイスは、LERでMPLSパケットの2つのストリームを受信するために、アップストリームのPEルーティングデバイスに向けて2つのパスを確立します。デバイスは一方のストリーム(プライマリ)を受け入れ、もう一方のストリーム(バックアップ)は LER でドロップされます。プライマリ パスに障害が発生した場合、デバイスは代わりにバックアップ ストリームを受け入れます。インバンド シグナリング サポートは、マルチポイント LDP を使用した MoFRR の前提条件となります( 『ポイントツーマルチポイント LSP のマルチポイント LDP インバンド シグナリングを理解する』を参照してください)。
PIM 機能
Junos OSは、PIM の SSM(ソース固有 マルチキャスト)および ASM(エニー ソース マルチキャスト)の SPT(最短パス ツリー)結合の MoFRR をサポートしています。MoFRRは、SSMとASMの両方の範囲でサポートされています。(*,G)ジョインに対してMoFRRを有効にするには、[edit routing-options multicast stream-protection]階層にmofrr-asm-starg設定ステートメントを含めます。各グループ G について、MoFRR は (S,G) または (*,G) のいずれかで動作しますが、両方ではありません。(S,G) は常に (*,G) よりも優先されます。
MoFRR を有効にすると、PIM ルーティング デバイスは、2 つのアップストリームの RPF(リバースパスフォワーディング)インターフェイスにジョイン メッセージを伝搬し、同じジョイン リクエストに対する両方のリンクでマルチキャスト トラフィックを受信します。MoFRRは、同じすぐにアップストリームのルーティング デバイスに収束しない 2 つのパスを優先します。PIM は、アップストリームの RPF ネクスト ホップを持つ適切なマルチキャスト ルートを 2 つのインターフェイス(プライマリ パスとバックアップ パス用)にインストールします。
プライマリ パスに障害が発生すると、バックアップ パスがプライマリ ステータスにアップグレードされ、デバイスはそれに応じてトラフィックを転送します。利用可能な代替パスがある場合、MoFRR は新しいバックアップ パスを計算し、適切なマルチキャスト ルートを更新またはインストールします。
PIM ジョイン ロードバランシングで MoFRR を有効化できます( join-load-balance automatic ステートメントを参照)。しかし、その場合、リンク間のジョイン メッセージの配信が均等でない可能性があります。新しい ECMP リンクが追加されると、プライマリ パス上のジョイン メッセージが再配信され、ロード バランシングされます。バックアップ パス上のジョイン メッセージは、同じパスをたどる可能性があり、均等に再配配信されない可能性があります。
MoFRR を有効にするには、[edit routing-options multicast]階層の stream-protection 設定ステートメントを使用します。MoFRR は、一連のフィルター ポリシーによって管理されます。
エグレス PIM ルーティング デバイスは、ジョイン メッセージまたは IGMP レポートを受信すると、MoFRR 設定を確認し、以下のように処理を行います。
MoFRR の設定がない場合、PIM は 1 つのアップストリーム ネイバー( 例えば、図 12 のプレーン 2)に向けてジョイン メッセージをアップストリームで送信します。
MoFRR の設定が存在する場合、デバイスはポリシーの設定を確認します。
ポリシーが存在しない場合、デバイスはプライマリ パスとバックアップ パス(アップストリーム インターフェイス)を確認し、以下のように処理を行います。
ポリシーが存在する場合、デバイスはポリシーがこの(S,G)に対してMoFRRを許可しているかどうかを確認し、以下のように処理を進めます。
このポリシーチェックが失敗した場合、PIM は 1 つのアップストリーム ネイバー( 例えば、図 12 のプレーン 2)に向けてジョイン メッセージをアップストリームで送信します。
このポリシーチェックに合格した場合—デバイスはプライマリパスとバックアップパス(アップストリームインターフェイス)をチェックします。
マルチポイント LDP 機能
MPLSトラフィックの重複を避けるため、マルチポイントLDPは通常、1つのアップストリームパスのみを選択します。(セクション 2.4.1.1を参照してください。RFC 6388における『アップストリームLSR』の決定、 『Label Distribution Protocol Extensions for Point-to-Multipoint and Multipoint-to-Multipoint Label Switched Paths』)。
MoFRR を使用したマルチポイント LDP の場合、マルチポイント LDP デバイスは 2 つの別々のアップストリーム ピアを選択し、各アップストリーム ピアに 1 つずつ、2 つの別々のラベルを送信します。デバイスは、RFC 6388に記載されているのと同じアルゴリズムを使用して、プライマリ アップストリーム パスを選択します。デバイスは同じアルゴリズムを使用してバックアップ アップストリーム パスを選択しますが、プライマリ アップストリーム LSR は候補から除外されます。2 つの異なるアップストリーム ピアは、MPLS トラフィックの 2 つのストリームをエグレス ルーティング デバイスに送信します。デバイスは、MPLSトラフィックを受け入れるプライマリパスとして、アップストリームのネイバーパスのうち1つだけを選択します。もう一方のパスはバックアップ パスとなり、デバイスはそのトラフィックをドロップします。プライマリ アップストリーム パスに障害が発生すると、デバイスはバックアップ パスからのトラフィックの受け入れを開始します。マルチポイントLDPデバイスは、内部ゲートウェイプロトコル(IGP)ルートデバイスのネクストホップに基づいて、2つのアップストリームパスを選択します。
FEC(Forwarding Equivalentency Class)とは、同じ方法、同じ経路、同じ転送処理で転送される IP パケットのグループのことです。通常、特定のパケットに貼られるラベルは、そのパケットが割り当てられている FEC を表しています。MoFRR では、各 FEC の mpls.0 テーブルに、プライマリ ラベル用のルートとバックアップ ラベル用のルートの 2 つのルートが配置されます。
同じすぐアップストリームのデバイスに向かうパラレル リンクがある場合、デバイスは両方のパラレル リンクをプライマリとみなします。どの時点でも、アップストリームのデバイスは複数のパラレル リンクのうち 1 つだけにトラフィックを送信します。
bud node とは、エグレス LSR でありながら、1 つ以上の直接接続されたダウンストリーム LSR を持つ LSR のことです。バッド ノードの場合、プライマリ アップストリーム パスからのトラフィックはダウンストリーム LSR に転送されます。プライマリ アップストリーム パスに障害が発生した場合、バックアップ アップストリーム パスからの MPLS トラフィックはダウンストリーム LSR に転送されます。これは、ダウンストリームの LSR ネクスト ホップが、エグレス ネクスト ホップとともに両方の MPLS ルートに追加されることを意味します。
PIM と同様に、[edit routing-options multicast] 階層の stream-protection 設定ステートメントを使用してマルチポイント LDP で MoFRR を有効にし、一連のフィルター ポリシーによって管理します。
MoFRR のマルチポイント LDP ポイントツーマルチポイント FEC を有効にしている場合、デバイスは以下の点を考慮してアップストリーム パスを選択します。
ターゲットとなる LDP セッションは、ターゲットとなる以外の LDP セッションがある場合はスキップされます。ターゲットとなる LDP セッションが 1 つの場合、ターゲットとなる LDP セッションが選択されますが、ターゲットとなる LDP セッションに関連付けられたインターフェイスがないため、対応するポイントツーマルチポイント FEC は MoFRR 機能を失います。
同じアップストリーム LSR に属するすべてのインターフェイスがプライマリ パスと見なされます。
ルートノードのルート更新では、アップストリームパスがIGPからの最新のネクストホップに基づいて変更されます。より良いパスが利用可能な場合、マルチポイント LDP はより良いパスへの切り替えを試みます。
パケット転送
PIM またはマルチポイント LDP の場合、デバイスはイングレス インターフェイスでマルチキャスト ソース ストリームの選択を実行します。これにより、ファブリック帯域幅が維持され、フォワーディングのパフォーマンスが最大化されます。
ファブリック上での重複したストリームの送信を回避
複数のルート ルックアップ(パケットドロップにつながる)を防止します。
PIM の場合、各 IPマルチキャスト ストリームには同じ宛先アドレスが含まれています。パケットがどのインターフェイスに到着しても、パケットは同じルートを通ることになります。デバイスは、各パケットが到着したインターフェイスを確認し、プライマリ インターフェイスからのものだけを転送します。インターフェイスがバックアップ ストリームのインターフェイスと一致する場合、デバイスはパケットをドロップします。インターフェイスがプライマリまたはバックアップのストリームインターフェイスと一致しない場合、デバイスはパケットをコントロールプレーン内の例外として処理します。
図13 は、PIMを搭載したルーターのプライマリおよびバックアップインターフェイスのサンプルを使用して、このプロセスを示しています。 図14 は、PIMを搭載したスイッチについても同様に示しています。
上のパケット転送エンジンにおけるMoFRR IPルート処理
ルーター上のマルチポイント LDP を使用した MoFRR では、デバイスは複数の MPLS ラベルを使用して MoFRR のストリーム選択を制御します。各ラベルは別々のルートを表していますが、それぞれが同じインターフェイス リスト チェックを参照しています。デバイスは、プライマリ ラベルのみを転送し、その他のラベルはすべてドロップします。複数のインターフェイスが同じラベルを使用してパケットを受信できます。
図15 は、マルチポイントLDPを搭載したルーターでのこのプロセスを示しています。
でのMoFRR MPLSルート検索
制限と注意事項
- スイッチングおよびルーティング デバイスに関する MoFRR の制限と注意事項
- MoFRR による PIM 付きスイッチング デバイスの制限
- マルチポイント LDP を搭載したルーティング デバイスでの MoFRR の制限と注意事項
スイッチングおよびルーティング デバイスに関する MoFRR の制限と注意事項
MoFRR では、ルーティング デバイスやスイッチング デバイスについて、以下のような制限および注意点があります。
MoFRR の障害検出は、MoFRR が有効になっているルーティングデバイスの即時リンク保護に対応しており、マルチキャスト トラフィック パスのすべてのリンク(エンドツーエンド)には対応していません。
MoFRRは、ソースに向かって選択された 2 つのディスジョイント パスの高速再ルートをサポートします。選択された 2 つのアップストリーム ネイバーを、同じインターフェイス上に配置することはできません(つまり、LAN セグメント上の 2 つのアップストリーム ネイバー)。アップストリームのインターフェイスがたまたまマルチキャスト トンネル インターフェイスだった場合も同様です。
最大エンドツーエンドのディスジョイントアップストリームパスの検出はサポートされていません。レシーバー側(エグレス)のルーティング デバイスは、ディスジョイントのアップストリーム デバイス(直前のホップ)が存在することのみを確認します。PIM とマルチポイント LDP は、ERO(explicit route object)に相当するものをサポートしていません。そのため、ディスジョイント アップストリーム パスの検出は、直前のホップ デバイスに対する制御に限定されます。この制限のため、プライマリとバックアップに選択された前のホップのアップストリーム デバイスへのパスが共有される場合があります。
以下のシナリオでは、トラフィックの損失が発生する可能性があります。
エグレス デバイスで、より良いアップストリーム パスが利用可能になります。
MoFRRは、アクティブなトラフィックストリームの流れの間、エグレスデバイスで有効または無効になります。
バックアップ パスのジョイン メッセージに対する PIM ジョイン ロードバランシングはサポートされていません。
マルチキャストグループGでは、(S,G) と (*,G) の両方のジョイン メッセージに対して MoFRR は許可されません。(S,G) ジョイン メッセージは、(*,G) に優先します。
MoFRR は、2 つの異なるマルチキャスト グループを使用するマルチキャスト トラフィック ストリームではサポートされていません。各(S,G)の組み合わせは、ユニークなマルチキャストトラフィックストリームとして扱われます。
MoFRR では、双方向の PIM 範囲には対応していません。
MoFRR では PIM デンスモードはサポートされていません。
バックアップ トラフィック ストリームのマルチキャスト統計は PIM では維持されないため、
showコマンドの運用出力では利用できません。レート監視はサポートされていません。
MoFRR による PIM 付きスイッチング デバイスの制限
PIMを用いたMoFRRでは、スイッチングデバイスに以下の制限があります。
アップストリームインターフェースがIRB(Integrated Routing and Bridging)インターフェースの場合、MoFRRはサポートされません。この場合、IGMPv3(Internet Group Management Protocol version 3)スヌーピングなどの他のマルチキャスト機能に影響を与えます。
マルチキャストトラフィックを転送する際のパケットレプリケーションとマルチキャストルックアップにより、パケットがPFEを何度も再循環することがあります。そのため、
show pfe statistics trafficコマンドで表示されるマルチキャストパケット数の値は、Input packetsやOutput packetsなどの出力フィールドに予想以上の数値が表示される場合があります。MoFRR シナリオでは、プライマリ ストリームとバックアップ ストリームが重複すると、一般的にトラフィック フローが増加するため、この動作が頻繁に発生することがあります。
マルチポイント LDP を搭載したルーティング デバイスでの MoFRR の制限と注意事項
MoFRRは、マルチポイントLDPと併用する場合、ルーターに以下のような制限や注意点があります。
RSVP トンネルはどのインターフェイスにも関連付けられていないため、RSVP トンネルで受信したマルチポイント LDP トラフィックには MoFRR は適用されません。
Mixed upstream MoFRR はサポートされていません。これは PIM マルチポイント LDP の帯域内シグナリングのことで、アップストリーム側の 1 つのパスはマルチポイント LDP を経由し、2 つ目のアップストリーム側のパスは PIM を経由しています。
インナー ラベルとしてのマルチポイント LDP ラベルはサポートされていません。
ソースが複数のイングレス(ソース側)のPE(プロバイダ エッジ)ルーティング デバイスを介して到達可能な場合、マルチポイント LDP MoFRR はサポートされません。
ターゲットとなるLDPアップストリームセッションが、MoFRRのアップストリームデバイスとして選択されません。
MoFRR インナー ラベルがサポートされていないため、バックアップ パスでのマルチポイント LDP リンク保護はサポートされていません。
マルチキャストのみの高速再ルートの設定
マルチキャスト専用高速再ルート(MoFRR)を設定して、リンク障害が発生した場合のネットワーク内のパケット ロスを最小限に抑えることができます。
高速再ルートがユニキャスト ストリームに適用されている場合、アップストリーム ルーターは、ダウンストリーム パスのセグメントの障害を処理するために、MPLS ラベルスイッチ パス(LSP)を事前に確立するか、IP ループフリーの代替ルート(LFA)の高速再ルート バックアップ パスを事前に計算します。
マルチキャスト ルーティングでは、トラフィック分散グラフは通常、受信者によって発信されます。これは、通常、送信元から受信者へのパスを確立するユニキャスト ルーティングとは異なります。マルチキャスト配信グラフを確立できるプロトコルは、PIM(IP の場合)、マルチポイント LDP(MPLS の場合)、RSVP-TE(MPLS の場合)です。これらのうち、PIM とマルチポイント LDP 受信機が分散グラフの設定を開始するため、以下のようになります。
QFXシリーズでは、MoFRRがPIMドメインでサポートされています。
MXシリーズおよびSRXシリーズでは、MoFRRはPIMおよびマルチポイントLDPドメインでサポートされています。
設定手順は、別途指示がない限り、この機能をサポートするすべてのデバイスでPIMのMoFRRを有効にする場合も同じです。マルチポイント LDP MoFRR に適用されていない設定手順も示しています。
(MXシリーズルーターのみ)MoFRRは、MPCラインカードを備えたMXシリーズルーターでサポートされています。前提として、ルーター内のすべてのライン カードが MPC である必要があります。
ルーターまたはスイッチで MoFRR を設定するには:
例:マルチポイントLDPドメインにおけるマルチキャスト専用高速再ルートの設定
この例では、リンク障害が発生した場合にネットワーク内のパケットロスを最小限に抑えるために、マルチキャスト専用高速再ルート(MoFRR)を設定する方法を示します。
マルチポイントLDP MoFRRは、パケットがIPネットワークに転送されるMPLSネットワークのエグレスノードで使用されます。マルチポイントLDP MoFRRの場合、アップストリームのプロバイダエッジ(PE)ルーターに向かう2つのパスが確立され、ラベルエッジルーター(LER)でMPLSパケットの2つのストリームを受信します。そのうちの1つのストリーム(プライマリ)が受け入れられ、もう1つ(バックアップ)はLERで破棄されます。プライマリパスに障害が発生した場合、バックアップストリームが受け入れられます。
要件
この例を設定する前に、デバイスの初期化以外の特別な設定を行う必要はありません。
マルチポイントLDPドメインで、MoFRRを機能させるには、MoFRRを有効にするエグレスPEルーターのみが必要です。他のルーターがMoFRRをサポートする必要はありません。
MoFRRは、MPCラインカードを備えたMXシリーズプラットフォームでサポートされています。前提として、ルーターを network-services enhanced-ip モードに設定し、プラットフォームのすべてのラインカードがMPCである必要があります。
この例では、エグレスPEルーターにJunos OSリリース14.1以降が必要です。
概要
この例では、デバイスR3がエグレスエッジルーターです。MoFRR は、このデバイスのみで有効になっています。
接続には OSPF が使用されますが、任意の内部ゲートウェイ プロトコル(IGP)または静的ルートを使用できます。
テスト用に、送信元と受信先をシミュレートするためにルーターが使用されます。デバイスR4とデバイスR8は、 set protocols igmp interface interface-name static group group コマンドを使用して、目的のグループに静的に合流するように設定されています。実際のマルチキャスト受信ホストが利用できない場合、この例のように、この静的IGMP設定が有用です。受信側において、マルチキャストグループアドレスを受信するために、この例では set protocols sap listen groupを使用しています。
MoFRRの設定には、この例には表示されていないポリシーオプションがありますが、これは別途説明されています。オプションは以下のように設定されています。
stream-protection { policy policy-name; }
トポロジー
図16 は、サンプルネットワークを示しています。
CLIクイックコンフィグレーション は、 図16に示すすべてのデバイスのコンフィギュレーションを示しています。
「 構成」 セクションでは、デバイスR3の手順について説明します。
CLIクイックコンフィグレーション
CLIクイックコンフィグレーション
この例をすばやく設定するには、以下のコマンドをコピーしてテキストファイルに貼り付け、改行を削除して、ネットワーク構成に合わせて必要な詳細を変更してから、コマンドを [edit] 階層レベルのCLIにコピー&ペーストします。
デバイスsrc1
set interfaces ge-1/2/10 unit 0 description src1-to-R1 set interfaces ge-1/2/10 unit 0 family inet address 10.5.0.1/30 set interfaces ge-1/2/11 unit 0 description src1-to-R1 set interfaces ge-1/2/11 unit 0 family inet address 192.168.219.11/24 set interfaces lo0 unit 0 family inet address 10.0.1.17/32 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive
デバイスsrc2
set interfaces ge-1/2/24 unit 0 description src2-to-R5 set interfaces ge-1/2/24 unit 0 family inet address 10.5.0.2/30 set interfaces lo0 unit 0 family inet address 10.0.1.18/32 set protocols rsvp interface all set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive
デバイスR1
set interfaces ge-1/2/12 unit 0 description R1-to-R2 set interfaces ge-1/2/12 unit 0 family inet address 10.1.2.1/30 set interfaces ge-1/2/12 unit 0 family mpls set interfaces ge-1/2/13 unit 0 description R1-to-R6 set interfaces ge-1/2/13 unit 0 family inet address 10.1.6.1/30 set interfaces ge-1/2/13 unit 0 family mpls set interfaces ge-1/2/10 unit 0 description R1-to-src1 set interfaces ge-1/2/10 unit 0 family inet address 10.1.0.2/30 set interfaces ge-1/2/11 unit 0 description R1-to-src1 set interfaces ge-1/2/11 unit 0 family inet address 192.168.219.9/30 set interfaces lo0 unit 0 family inet address 10.1.1.1/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.1 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.3 set protocols bgp group ibgp neighbor 10.1.1.7 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/12.0 set protocols ldp interface ge-1/2/13.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp static address 10.1.1.5 set protocols pim interface lo0.0 set protocols pim interface ge-1/2/10.0 set protocols pim interface ge-1/2/11.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.1.7/32 orlonger set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.0/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010
デバイスR2
set interfaces ge-1/2/12 unit 0 description R2-to-R1 set interfaces ge-1/2/12 unit 0 family inet address 10.1.2.2/30 set interfaces ge-1/2/12 unit 0 family mpls set interfaces ge-1/2/14 unit 0 description R2-to-R3 set interfaces ge-1/2/14 unit 0 family inet address 10.2.3.1/30 set interfaces ge-1/2/14 unit 0 family mpls set interfaces ge-1/2/16 unit 0 description R2-to-R5 set interfaces ge-1/2/16 unit 0 family inet address 10.2.5.1/30 set interfaces ge-1/2/16 unit 0 family mpls set interfaces ge-1/2/17 unit 0 description R2-to-R7 set interfaces ge-1/2/17 unit 0 family inet address 10.2.7.1/30 set interfaces ge-1/2/17 unit 0 family mpls set interfaces ge-1/2/15 unit 0 description R2-to-R3 set interfaces ge-1/2/15 unit 0 family inet address 10.2.94.1/30 set interfaces ge-1/2/15 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.2/32 set interfaces lo0 unit 0 family mpls set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
デバイスR3
set chassis network-services enhanced-ip set interfaces ge-1/2/14 unit 0 description R3-to-R2 set interfaces ge-1/2/14 unit 0 family inet address 10.2.3.2/30 set interfaces ge-1/2/14 unit 0 family mpls set interfaces ge-1/2/18 unit 0 description R3-to-R4 set interfaces ge-1/2/18 unit 0 family inet address 10.3.4.1/30 set interfaces ge-1/2/18 unit 0 family mpls set interfaces ge-1/2/19 unit 0 description R3-to-R6 set interfaces ge-1/2/19 unit 0 family inet address 10.3.6.2/30 set interfaces ge-1/2/19 unit 0 family mpls set interfaces ge-1/2/21 unit 0 description R3-to-R7 set interfaces ge-1/2/21 unit 0 family inet address 10.3.7.1/30 set interfaces ge-1/2/21 unit 0 family mpls set interfaces ge-1/2/22 unit 0 description R3-to-R8 set interfaces ge-1/2/22 unit 0 family inet address 10.3.8.1/30 set interfaces ge-1/2/22 unit 0 family mpls set interfaces ge-1/2/15 unit 0 description R3-to-R2 set interfaces ge-1/2/15 unit 0 family inet address 10.2.94.2/30 set interfaces ge-1/2/15 unit 0 family mpls set interfaces ge-1/2/20 unit 0 description R3-to-R6 set interfaces ge-1/2/20 unit 0 family inet address 10.2.96.2/30 set interfaces ge-1/2/20 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.3/32 primary set routing-options autonomous-system 65010 set routing-options multicast stream-protection set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.3 set protocols bgp group ibgp peer-as 10 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols bgp group ibgp neighbor 10.1.1.5 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface lo0.0 set protocols pim interface ge-1/2/18.0 set protocols pim interface ge-1/2/22.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.1/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept
デバイスR4
set interfaces ge-1/2/18 unit 0 description R4-to-R3 set interfaces ge-1/2/18 unit 0 family inet address 10.3.4.2/30 set interfaces ge-1/2/18 unit 0 family mpls set interfaces ge-1/2/23 unit 0 description R4-to-R7 set interfaces ge-1/2/23 unit 0 family inet address 10.4.7.1/30 set interfaces lo0 unit 0 family inet address 10.1.1.4/32 set protocols igmp interface ge-1/2/18.0 version 3 set protocols igmp interface ge-1/2/18.0 static group 232.1.1.1 group-count 2 set protocols igmp interface ge-1/2/18.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface ge-1/2/18.0 static group 232.2.2.2 source 10.2.7.7 set protocols sap listen 232.1.1.1 set protocols sap listen 232.2.2.2 set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface ge-1/2/23.0 set protocols pim interface ge-1/2/18.0 set protocols pim interface lo0.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
デバイスR5
set interfaces ge-1/2/24 unit 0 description R5-to-src2 set interfaces ge-1/2/24 unit 0 family inet address 10.5.0.1/30 set interfaces ge-1/2/16 unit 0 description R5-to-R2 set interfaces ge-1/2/16 unit 0 family inet address 10.2.5.2/30 set interfaces ge-1/2/16 unit 0 family mpls set interfaces ge-1/2/25 unit 0 description R5-to-R6 set interfaces ge-1/2/25 unit 0 family inet address 10.5.6.1/30 set interfaces ge-1/2/25 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.5/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.5 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.7 set protocols bgp group ibgp neighbor 10.1.1.3 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/16.0 set protocols ldp interface ge-1/2/25.0 set protocols ldp p2mp set protocols pim interface lo0.0 set protocols pim interface ge-1/2/24.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010
デバイスR6
set interfaces ge-1/2/13 unit 0 description R6-to-R1 set interfaces ge-1/2/13 unit 0 family inet address 10.1.6.2/30 set interfaces ge-1/2/13 unit 0 family mpls set interfaces ge-1/2/19 unit 0 description R6-to-R3 set interfaces ge-1/2/19 unit 0 family inet address 10.3.6.1/30 set interfaces ge-1/2/19 unit 0 family mpls set interfaces ge-1/2/25 unit 0 description R6-to-R5 set interfaces ge-1/2/25 unit 0 family inet address 10.5.6.2/30 set interfaces ge-1/2/25 unit 0 family mpls set interfaces ge-1/2/26 unit 0 description R6-to-R7 set interfaces ge-1/2/26 unit 0 family inet address 10.6.7.1/30 set interfaces ge-1/2/26 unit 0 family mpls set interfaces ge-1/2/20 unit 0 description R6-to-R3 set interfaces ge-1/2/20 unit 0 family inet address 10.2.96.1/30 set interfaces ge-1/2/20 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.6/30 set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp
デバイスR7
set interfaces ge-1/2/17 unit 0 description R7-to-R2 set interfaces ge-1/2/17 unit 0 family inet address 10.2.7.2/30 set interfaces ge-1/2/17 unit 0 family mpls set interfaces ge-1/2/21 unit 0 description R7-to-R3 set interfaces ge-1/2/21 unit 0 family inet address 10.3.7.2/30 set interfaces ge-1/2/21 unit 0 family mpls set interfaces ge-1/2/23 unit 0 description R7-to-R4 set interfaces ge-1/2/23 unit 0 family inet address 10.4.7.2/30 set interfaces ge-1/2/23 unit 0 family mpls set interfaces ge-1/2/26 unit 0 description R7-to-R6 set interfaces ge-1/2/26 unit 0 family inet address 10.6.7.2/30 set interfaces ge-1/2/26 unit 0 family mpls set interfaces ge-1/2/27 unit 0 description R7-to-R8 set interfaces ge-1/2/27 unit 0 family inet address 10.7.8.1/30 set interfaces ge-1/2/27 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.7/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.7 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.5 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/17.0 set protocols ldp interface ge-1/2/21.0 set protocols ldp interface ge-1/2/26.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface lo0.0 set protocols pim interface ge-1/2/27.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.1/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010 set routing-options multicast stream-protection policy mldppim-ex
デバイスR8
set interfaces ge-1/2/22 unit 0 description R8-to-R3 set interfaces ge-1/2/22 unit 0 family inet address 10.3.8.2/30 set interfaces ge-1/2/22 unit 0 family mpls set interfaces ge-1/2/27 unit 0 description R8-to-R7 set interfaces ge-1/2/27 unit 0 family inet address 10.7.8.2/30 set interfaces ge-1/2/27 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.8/32 set protocols igmp interface ge-1/2/22.0 version 3 set protocols igmp interface ge-1/2/22.0 static group 232.1.1.1 group-count 2 set protocols igmp interface ge-1/2/22.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface ge-1/2/22.0 static group 232.2.2.2 source 10.2.7.7 set protocols sap listen 232.1.1.1 set protocols sap listen 232.2.2.2 set protocols rsvp interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface ge-1/2/27.0 set protocols pim interface ge-1/2/22.0 set protocols pim interface lo0.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
設定
手順
ステップバイステップの手順
次の例では、設定階層内のさまざまなレベルに移動する必要があります。CLIのナビゲーションについては、『Junos OS CLIユーザーガイド』の「設定モードでのCLIエディタの使用」を参照してください。
デバイスR3を設定するには:
拡張IPモードを有効にします。
[edit chassis] user@R3# set network-services enhanced-ip
デバイスインターフェイスを設定します。
[edit interfaces] user@R3# set ge-1/2/14 unit 0 description R3-to-R2 user@R3# set ge-1/2/14 unit 0 family inet address 10.2.3.2/30 user@R3# set ge-1/2/14 unit 0 family mpls user@R3# set ge-1/2/18 unit 0 description R3-to-R4 user@R3# set ge-1/2/18 unit 0 family inet address 10.3.4.1/30 user@R3# set ge-1/2/18 unit 0 family mpls user@R3# set ge-1/2/19 unit 0 description R3-to-R6 user@R3# set ge-1/2/19 unit 0 family inet address 10.3.6.2/30 user@R3# set ge-1/2/19 unit 0 family mpls user@R3# set ge-1/2/21 unit 0 description R3-to-R7 user@R3# set ge-1/2/21 unit 0 family inet address 10.3.7.1/30 user@R3# set ge-1/2/21 unit 0 family mpls user@R3# set ge-1/2/22 unit 0 description R3-to-R8 user@R3# set ge-1/2/22 unit 0 family inet address 10.3.8.1/30 user@R3# set ge-1/2/22 unit 0 family mpls user@R3# set ge-1/2/15 unit 0 description R3-to-R2 user@R3# set ge-1/2/15 unit 0 family inet address 10.2.94.2/30 user@R3# set ge-1/2/15 unit 0 family mpls user@R3# set ge-1/2/20 unit 0 description R3-to-R6 user@R3# set ge-1/2/20 unit 0 family inet address 10.2.96.2/30 user@R3# set ge-1/2/20 unit 0 family mpls user@R3# set lo0 unit 0 family inet address 10.1.1.3/32 primary
自律システム(AS)番号を設定します。
user@R3# set routing-options autonomous-system 6510
ルーティングポリシーを設定します。
[edit policy-options policy-statement mldppim-ex] user@R3# set term B from source-address-filter 192.168.0.0/24 orlonger user@R3# set term B from source-address-filter 192.168.219.11/32 orlonger user@R3# set term B then accept user@R3# set term A from source-address-filter 10.1.0.1/30 orlonger user@R3# set term A then accept [edit policy-options policy-statement static-route-tobgp] user@R3# set term static from protocol static user@R3# set term static from protocol direct user@R3# set term static then accept
PIMを設定します。
[edit protocols pim] user@R3# set mldp-inband-signalling policy mldppim-ex user@R3# set interface lo0.0 user@R3# set interface ge-1/2/18.0 user@R3# set interface ge-1/2/22.0
LDPを設定します。
[edit protocols ldp] user@R3# set interface all user@R3# set p2mp
IGPまたはスタティックルートを設定します。
[edit protocols ospf] user@R3# set traffic-engineering user@R3# set area 0.0.0.0 interface all user@R3# set area 0.0.0.0 interface fxp0.0 disable user@R3# set area 0.0.0.0 interface lo0.0 passive
内部BGPを設定します。
[edit protocols bgp group ibgp] user@R3# set local-address 10.1.1.3 user@R3# set peer-as 65010 user@R3# set neighbor 10.1.1.1 user@R3# set neighbor 10.1.1.5
MPLS と、オプションで RSVP を設定します。
[edit protocols mpls] user@R3# set interface all [edit protocols rsvp] user@R3# set interface all
MoFRRを有効にします。
[edit routing-options multicast] user@R3# set stream-protection
結果
設定モードから、 show chassis、 show interfaces、 show protocols、 show policy-options、 show routing-options コマンドを入力して設定を確認します。出力に意図した設定が表示されない場合は、この例の手順を繰り返して設定を修正します。
user@R3# show chassis network-services enhanced-ip;
user@R3# show interfaces
ge-1/2/14 {
unit 0 {
description R3-to-R2;
family inet {
address 10.2.3.2/30;
}
family mpls;
}
}
ge-1/2/18 {
unit 0 {
description R3-to-R4;
family inet {
address 10.3.4.1/30;
}
family mpls;
}
}
ge-1/2/19 {
unit 0 {
description R3-to-R6;
family inet {
address 10.3.6.2/30;
}
family mpls;
}
}
ge-1/2/21 {
unit 0 {
description R3-to-R7;
family inet {
address 10.3.7.1/30;
}
family mpls;
}
}
ge-1/2/22 {
unit 0 {
description R3-to-R8;
family inet {
address 10.3.8.1/30;
}
family mpls;
}
}
ge-1/2/15 {
unit 0 {
description R3-to-R2;
family inet {
address 10.2.94.2/30;
}
family mpls;
}
}
ge-1/2/20 {
unit 0 {
description R3-to-R6;
family inet {
address 10.2.96.2/30;
}
family mpls;
}
}
lo0 {
unit 0 {
family inet {
address 192.168.15.1/32;
address 10.1.1.3/32 {
primary;
}
}
}
}
user@R3# show protocols
rsvp {
interface all;
}
mpls {
interface all;
}
bgp {
group ibgp {
local-address 10.1.1.3;
peer-as 65010;
neighbor 10.1.1.1;
neighbor 10.1.1.5;
}
}
ospf {
traffic-engineering;
area 0.0.0.0 {
interface all;
interface fxp0.0 {
disable;
}
interface lo0.0 {
passive;
}
}
}
ldp {
interface all;
p2mp;
}
pim {
mldp-inband-signalling {
policy mldppim-ex;
}
interface lo0.0;
interface ge-1/2/18.0;
interface ge-1/2/22.0;
}
user@R3# show policy-options
policy-statement mldppim-ex {
term B {
from {
source-address-filter 192.168.0.0/24 orlonger;
source-address-filter 192.168.219.11/32 orlonger;
}
then accept;
}
term A {
from {
source-address-filter 10.1.0.1/30 orlonger;
}
then accept;
}
}
policy-statement static-route-tobgp {
term static {
from protocol [ static direct ];
then accept;
}
}
user@R3# show routing-options
autonomous-system 65010;
multicast {
stream-protection;
}
デバイスの設定が完了したら、設定モードから commit を入力します。
検証
設定が正常に機能していることを確認します。
LDPポイントツーマルチポイント転送等価クラスの確認
目的
MoFRRが有効になっていることを確認し、どのラベルが使用されているかを判断します。
アクション
user@R3> show ldp p2mp fec LDP P2MP FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 MoFRR enabled Fec type: Egress (Active) Label: 301568 P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 MoFRR enabled Fec type: Egress (Active) Label: 301600
意味
出力では、MoFRRが有効なことを示し、ラベル301568と301600が2つのマルチポイントLDPポイントツーマルチポイントLSPに使用されていることを示しています。
ラベル情報の検証
目的
エグレスデバイスに、マルチキャストグループ参加用のアップストリームインターフェイスが2つあることを確認します。
アクション
user@R3> show route label 301568 detail
mpls.0: 18 destinations, 18 routes (18 active, 0 holddown, 0 hidden)
301568 (1 entry, 1 announced)
*LDP Preference: 9
Next hop type: Flood
Address: 0x2735208
Next-hop reference count: 3
Next hop type: Router, Next hop index: 1397
Address: 0x2735d2c
Next-hop reference count: 3
Next hop: 10.3.8.2 via ge-1/2/22.0
Label operation: Pop
Load balance label: None;
Next hop type: Router, Next hop index: 1395
Address: 0x2736290
Next-hop reference count: 3
Next hop: 10.3.4.2 via ge-1/2/18.0
Label operation: Pop
Load balance label: None;
State: <Active Int AckRequest MulticastRPF>
Local AS: 65010
Age: 54:05 Metric: 1
Validation State: unverified
Task: LDP
Announcement bits (1): 0-KRT
AS path: I
FECs bound to route: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11
Primary Upstream : 10.1.1.3:0--10.1.1.2:0
RPF Nexthops :
ge-1/2/15.0, 10.2.94.1, Label: 301568, weight: 0x1
ge-1/2/14.0, 10.2.3.1, Label: 301568, weight: 0x1
Backup Upstream : 10.1.1.3:0--10.1.1.6:0
RPF Nexthops :
ge-1/2/20.0, 10.2.96.1, Label: 301584, weight: 0xfffe
ge-1/2/19.0, 10.3.6.1, Label: 301584, weight: 0xfffe
user@R3> show route label 301600 detail
mpls.0: 18 destinations, 18 routes (18 active, 0 holddown, 0 hidden)
301600 (1 entry, 1 announced)
*LDP Preference: 9
Next hop type: Flood
Address: 0x27356b4
Next-hop reference count: 3
Next hop type: Router, Next hop index: 1520
Address: 0x27350f4
Next-hop reference count: 3
Next hop: 10.3.8.2 via ge-1/2/22.0
Label operation: Pop
Load balance label: None;
Next hop type: Router, Next hop index: 1481
Address: 0x273645c
Next-hop reference count: 3
Next hop: 10.3.4.2 via ge-1/2/18.0
Label operation: Pop
Load balance label: None;
State: <Active Int AckRequest MulticastRPF>
Local AS: 65010
Age: 54:25 Metric: 1
Validation State: unverified
Task: LDP
Announcement bits (1): 0-KRT
AS path: I
FECs bound to route: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11
Primary Upstream : 10.1.1.3:0--10.1.1.6:0
RPF Nexthops :
ge-1/2/20.0, 10.2.96.1, Label: 301600, weight: 0x1
ge-1/2/19.0, 10.3.6.1, Label: 301600, weight: 0x1
Backup Upstream : 10.1.1.3:0--1.1.1.2:0
RPF Nexthops :
ge-1/2/15.0, 10.2.94.1, Label: 301616, weight: 0xfffe
ge-1/2/14.0, 10.2.3.1, Label: 301616, weight: 0xfffe
意味
出力は、プライマリのアップストリームパスとバックアップのアップストリームパスを示しています。また、RPFネクストホップも表示しています。
マルチキャストルートの確認
目的
IPマルチキャスト転送テーブルを調べて、プライマリインターフェイスとバックアップインターフェイスを含むアップストリームRPFインターフェイスリストがあることを確認します。
アクション
user@R3> show ldp p2mp path
P2MP path type: Transit/Egress
Output Session (label): 10.1.1.2:0 (301568) (Primary)
Egress Nexthops: Interface ge-1/2/18.0
Interface ge-1/2/22.0
RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301568, 1
Interface ge-1/2/20.0, 10.2.96.1, 301584, 65534
Interface ge-1/2/14.0, 10.2.3.1, 301568, 1
Interface ge-1/2/19.0, 10.3.6.1, 301584, 65534
Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 (Active)
P2MP path type: Transit/Egress
Output Session (label): 10.1.1.6:0 (301584) (Backup)
Egress Nexthops: Interface ge-1/2/18.0
Interface ge-1/2/22.0
RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301568, 1
Interface ge-1/2/20.0, 10.2.96.1, 301584, 65534
Interface ge-1/2/14.0, 10.2.3.1, 301568, 1
Interface ge-1/2/19.0, 10.3.6.1, 301584, 65534
Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 (Active)
P2MP path type: Transit/Egress
Output Session (label): 10.1.1.6:0 (301600) (Primary)
Egress Nexthops: Interface ge-1/2/18.0
Interface ge-1/2/22.0
RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301616, 65534
Interface ge-1/2/20.0, 10.2.96.1, 301600, 1
Interface ge-1/2/14.0, 10.2.3.1, 301616, 65534
Interface ge-1/2/19.0, 10.3.6.1, 301600, 1
Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 (Active)
P2MP path type: Transit/Egress
Output Session (label): 10.1.1.2:0 (301616) (Backup)
Egress Nexthops: Interface ge-1/2/18.0
Interface ge-1/2/22.0
RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301616, 65534
Interface ge-1/2/20.0, 10.2.96.1, 301600, 1
Interface ge-1/2/14.0, 10.2.3.1, 301616, 65534
Interface ge-1/2/19.0, 10.3.6.1, 301600, 1
Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 (Active)
意味
出力は、プライマリセッションとバックアップセッション、およびRPFネクストホップを示しています。
LDPポイントツーマルチポイントのトラフィック統計の確認
目的
プライマリとバックアップの両方の統計が表示されていることを確認します。
アクション
user@R3> show ldp traffic-statistics p2mp
P2MP FEC Statistics:
FEC(root_addr:lsp_id/grp,src) Nexthop Packets Bytes Shared
10.1.1.1:232.1.1.1,192.168.219.11, Label: 301568
10.3.8.2 0 0 No
10.3.4.2 0 0 No
10.1.1.1:232.1.1.1,192.168.219.11, Label: 301584, Backup route
10.3.4.2 0 0 No
10.3.8.2 0 0 No
10.1.1.1:232.1.1.2,192.168.219.11, Label: 301600
10.3.8.2 0 0 No
10.3.4.2 0 0 No
10.1.1.1:232.1.1.2,192.168.219.11, Label: 301616, Backup route
10.3.4.2 0 0 No
10.3.8.2 0 0 No
意味
出力には、ラベル付きのプライマリルートとバックアップルートの両方が表示されます。
例:LDP ダウンストリームのオンデマンド設定
この例では、 LDP ダウンストリームをオンデマンドで設定する方法を示しています。LDP は、一般的にダウンストリームの未承諾アドバタイズモードで設定されます。これは、すべてのルートのラベルアドバタイズは、すべての LDP ピアから受信されることを意味します。サービスプロバイダがアクセスネットワークとアグリゲーションネットワークを単一のMPLSドメインに統合する際には、アクセスネットワークとアグリゲーションネットワーク間のバインディングを分散し、コントロールプレーンの処理要件を軽減するために、オンデマンドでのLDPダウンストリームが必要となります。
ダウンストリームノードは、アップストリームのアグリゲーションノードから数万のラベルバインディングを受け取る可能性があります。ダウンストリームのアグリゲーションノードは、MPLSネットワーク内のすべてのループバックアドレスのラベルバインディングを学習して保存する代わりに、オンデマンドでのLDPダウンストリームを使用して、サービスが設定されているエグレスノードのループバックアドレスに対応するFECのラベルバインディングのみを要求するように設定できます。
要件
この例では、以下のハードウェアおよびソフトウェアコンポーネントを使用しています。
-
M Series ルーター
-
Junos OS 12.2
概要
[edit protocols ldp session]階層レベルでダウンストリームオンデマンドステートメントを含めることで、LDPセッションのLDPダウンストリームオンデマンドラベルアドバタイズメントを有効にできます。オンデマンドでダウンストリームを設定した場合、ジュニパーネットワークスルーターはオンデマンドでのダウンストリームリクエストをピアルーターにアドバタイズします。2 つのルーター間でオンデマンドでのダウンストリームセッションを確立するには、LDP セッション確立中に、双方がオンデマンドモードでのダウンストリームをアドバタイズする必要があります。一方のルーターがダウンストリームの未承諾モードをアドバタイズし、他方のルーターがオンデマンドでダウンストリームをアドバタイズする場合、ダウンストリームの未承諾モードが使用されます。
設定
LDP ダウンストリームのオンデマンドでの設定
ステップバイステップの手順
オンデマンドでの LDP ダウンストリームのポリシーを設定し、そのポリシーを設定して LDP セッションでオンデマンドでの LDP ダウンストリームを有効にするには:
-
ダウンストリームオンデマンドポリシー(この例ではDOD-Request-Loopbacks )を設定します。
このポリシーにより、ルーターは、 DOD-Request-Loopbacks ポリシーに一致するFECにのみラベルリクエストメッセージを転送します。
[edit policy-options] user@host# set prefix-list Request-Loopbacks 10.1.1.1/32 user@host# set prefix-list Request-Loopbacks 10.1.1.2/32 user@host# set prefix-list Request-Loopbacks 10.1.1.3/32 user@host# set prefix-list Request-Loopbacks 10.1.1.4/32 user@host# set policy-statement DOD-Request-Loopbacks term 1 from prefix-list Request-Loopbacks user@host# set policy-statement DOD-Request-Loopbacks term 1 then accept
-
[edit protocols ldp]階層レベルのdod-request-policyステートメントを使用して、DOD リクエストループバックポリシーを指定します。dod-request-policyステートメントで指定されたポリシーは、ラベル要求メッセージを送信するプレフィックスを特定するために使用されます。このポリシーは、エグレスポリシーやインポートポリシーと類似しています。inet.0 ルーティングテーブルからのルートを処理する場合、Junos OS ソフトウェアはDOD-Request-Loopbacksポリシーに一致するルートを確認します(この例では)。ルートがポリシーに一致し、LDP セッションが DOD アドバタイズモードでネゴシエートされた場合、ラベル要求メッセージは対応するダウンストリーム LDP セッションに送信されます。[edit protocols ldp] user@host# set dod-request-policy DOD-Request-Loopbacks
-
オンデマンド配信モードのダウンストリームを有効にするために、LDP セッションの設定に
downstream-on-demandステートメントを含めます。[edit protocols ldp] user@host# set session 172.16.1.1 downstream-on-demand
ラベル付き BGP へのオンデマンドルートでの LDP ダウンストリームの配信
ステップバイステップの手順
オンデマンドルートでの LDP ダウンストリームをラベル付き BGP に配信するには、BGP エクスポートポリシーを使用します。
-
LDP ルートポリシー(この例では
redistribute_ldp)を設定します。[edit policy-options] user@host# set policy-statement redistribute_ldp term 1 from protocol ldp user@host# set policy-statement redistribute_ldp term 1 from tag 1000 user@host# set policy-statement redistribute_ldp term 1 then accept
-
BGP設定に
redistribute_ldpLDPルートポリシーを含めます(この例でebgp-to-abrBGPグループ設定の一部として)。BGP は、
redistribute_ldpポリシーに基づく LDP ルートをリモート PE ルーターに転送します[edit protocols bgp] user@host# set group ebgp-to-abr type external user@host# set group ebgp-to-abr local-address 192.168.0.1 user@host# set group ebgp-to-abr peer-as 65319 user@host# set group ebgp-to-abr local-as 65320 user@host# set group ebgp-to-abr neighbor 192.168.6.1 family inet unicast user@host# set group ebgp-to-abr neighbor 192.168.6.1 family inet labeled-unicast rib inet.3 user@host# set group ebgp-to-abr neighbor 192.168.6.1 export redistribute_ldp
ステップバイステップの手順
(オンデマンドでのダウンストリームではなく) ダウンストリームの未承諾モードで設定された他のルーターへのラベル伝送を制限するには、以下のポリシーを設定します。
-
LDPからのルートを受信するように
dod-routesポリシーを設定します。user@host# set policy-options policy-statement dod-routes term 1 from protocol ldp user@host# set policy-options policy-statement dod-routes term 1 from tag 1145307136 user@host# set policy-options policy-statement dod-routes term 1 then accept
-
ネイバー
10.1.1.1、10.2.2.2、10.3.3.3にルートを転送しないようにdo-not-propagate-du-sessionsポリシーを設定します。user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.1.1.1 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.2.2.2 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.3.3.3 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 then reject
-
filter-dod-on-du-sessionsポリシーを設定し、dod-routesポリシーで検査されたルートが、do-not-propagate-du-sessionsポリシーで定義された隣接ルーターに転送されないようにします。user@host# set policy-options policy-statement filter-dod-routes-on-du-sessions term 1 from policy dod-routes user@host# set policy-options policy-statement filter-dod-routes-on-du-sessions term 1 to policy do-not-propagate-du-sessions
-
filter-dod-routes-on-du-sesssionポリシーをBGPグループebgp-to-abrのエクスポートポリシーとして指定します。[edit protocols bgp] user@host# set group ebgp-to-abr neighbor 192.168.6.2 export filter-dod-routes-on-du-sessions
結果
設定モードから、 show policy-options および show protocols ldp コマンドを入力して設定を確認します。出力に意図した設定が表示されない場合は、この例の手順を繰り返して設定を修正します。
user@host#
show policy-options
prefix-list Request-Loopbacks {
10.1.1.1/32;
10.1.1.2/32;
10.1.1.3/32;
10.1.1.4/32;
}
policy-statement DOD-Request-Loopbacks {
term 1 {
from {
prefix-list Request-Loopbacks;
}
then accept;
}
}
policy-statement redistribute_ldp {
term 1 {
from {
protocol ldp;
tag 1000;
}
then accept;
}
}
user@host#
show protocols ldp
dod-request-policy DOD-Request-Loopbacks;
session 172.16.1.1 {
downstream-on-demand;
}
user@host#
show protocols bgp
group ebgp-to-abr {
type external;
local-address 192.168.0.1;
peer-as 65319;
local-as 65320;
neighbor 192.168.6.1 {
family inet {
unicast;
labeled-unicast {
rib {
inet.3;
}
}
}
export redistribute_ldp;
}
}
検証
ラベルアドバタイズモードの検証
目的
設定が正常に機能していることを確認します。
show ldp sessionコマンドを使用して、LDPセッションのラベルアドバタイズモードのステータスを確認します。
アクション
show ldp sessionおよびshow ldp session detailコマンドを発行します。
-
以下の
show ldp sessionコマンドのコマンド出力は、Adv. Mode(ラベルアドバタイズモード)がDOD(オンデマンドセッションの LDP ダウンストリームが動作していることを意味する)であることを示しています。user@host>
show ldp sessionAddress State Connection Hold time Adv. Mode 172.16.1.2 Operational Open 22 DOD -
以下の
show ldp session detailコマンドの出力では、Local Label Advertisement modeがデフォルト値のDownstream unsolicitedになっています(ローカルセッションでオンデマンドのダウンストリームが設定されていないことを意味します)。逆に、Remote Label Advertisement modeとNegotiated Label Advertisement modeは両方とも、リモートセッションでDownstream on demandが設定されていることを示していますuser@host>
show ldp session detailAddress: 172.16.1.2, State: Operational, Connection: Open, Hold time: 24 Session ID: 10.1.1.1:0--10.1.1.2:0 Next keepalive in 4 seconds Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1 Neighbor types: configured-tunneled Keepalive interval: 10, Connect retry interval: 1 Local address: 10.1.1.1, Remote address: 10.1.1.2 Up for 17:54:52 Capabilities advertised: none Capabilities received: none Protection: disabled Local - Restart: disabled, Helper mode: enabled, Remote - Restart: disabled, Helper mode: enabled Local maximum neighbor reconnect time: 120000 msec Local maximum neighbor recovery time: 240000 msec Local Label Advertisement mode: Downstream unsolicited Remote Label Advertisement mode: Downstream on demand Negotiated Label Advertisement mode: Downstream on demand Nonstop routing state: Not in sync Next-hop addresses received: 10.1.1.2
LDPネイティブIPv6サポートの設定
LDPは、IPv6のみのネットワーク、および RFC 7552で説明されているIPv6またはIPv4デュアルスタックネットワークでサポートされます。アドレスファミリーをIPv4の場合は inet 、IPv6の場合は inet6 、またはその両方に設定し、トランスポートプリファレンスを IPv4 または IPv6のいずれかに設定します。 dual-transport ステートメントによりJunos OS LDPは、IPv4とIPv4ネイバー、およびIPv6とIPv6ネイバーを介してシングルスタックLSRとしてTCP接続を確立できます。 inet-lsr-id ID と inet6-lsr-id ID は、IPv4 および IPv6 TCP トランスポート上で LDP セッションを確立するために設定する必要がある 2 つの LSR ID です。これらの 2 つの ID はゼロ以外である必要があり、異なる値で設定する必要があります。
IPv6をデュアルスタックとして設定する前に、ルーティングプロトコルとシグナリングプロトコルを設定してください。
LDPネイティブIPv6サポートを設定するには、次の手順を実行する必要があります。
例:LDPネイティブIPv6サポートの設定
この例では、Junos OSラベル配布プロトコル(LDP)がIPv4とIPv4ネイバー、およびIPv6とIPv6ネイバーを介してシングルスタックLSRとしてTCP接続を確立できるようにする方法を示しています。これにより、IPv4信号化されたMPLSラベルスイッチパス(LSP)を使用してIPv4 MPLSコア上でIPv6のトンネリングを回避できます。
要件
この例では、以下のハードウェアおよびソフトウェアコンポーネントを使用しています。
-
2 つの MXシリーズルーター
-
すべてのデバイスで実行されている Junos OS リリース 16.1 以降
IPv6をデュアルスタックとして設定する前に、ルーティングプロトコルとシグナリングプロトコルを設定してください。
概要
LDPは、IPv6のみのネットワーク、および RFC 7552で説明されているIPv6またはIPv4デュアルスタックネットワークでサポートされます。IPv4の場合は inet 、IPv6の場合は inet6 としてアドレスファミリーを設定します。デフォルトでは、IPv4 と IPv6 の両方が有効になっている場合、IPv6 はピアとの LDP セッションの TCP トランスポートとして使用されます。デュアルトランスポートステートメントにより、Junos LDPは、IPv4とIPv4ネイバー、およびIPv6とIPv6ネイバーを介してシングルスタックLSRとしてTCP接続を確立できます。 inet-lsr-id と inet6-lsr-id は、IPv4およびIPv6 TCPトランスポートでLDPセッションを確立するために設定する必要がある2つのLSR IDです。これらの 2 つの ID はゼロ以外である必要があり、異なる値で設定する必要があります。
設定
- CLIクイックコンフィグレーション
- R1の設定
- transport-preferenceを設定して優先トランスポートを選択します
- IPv4ネイバーとのIPv4およびIPv6ネイバーとのIPv6の個別のセッションを確立するようにデュアルトランスポートを設定します。
CLIクイックコンフィグレーション
この例をすばやく設定するには、以下のコマンドをコピーしてテキストファイルに貼り付け、改行を削除し、ネットワーク設定に一致させる必要がある詳細情報を変更し、コマンドを [edit] 階層レベルでCLIにコピーアンドペーストして、設定モードから commit を入力します。
R1
set interfaces ge-1/0/0 unit 0 family inet address 192.168.12.1/24 set interfaces ge-1/0/0 unit 0 family iso set interfaces ge-1/0/0 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set interfaces ge-1/0/0 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.0.1/32 set interfaces lo0 unit 0 family iso address 49.0001.1720.1600.1010.00 set interfaces lo0 unit 0 family inet6 address 2001:db8::1/128 set protocols isis interface ge-1/0/0.0 set protocols isis interface lo0.0 set protocols mpls interface ge-1/0/0.0 set protocols ldp deaggregate set protocols ldp interface ge-1/0/0.0 set protocols ldp interface lo0.0 set protocols ldp family inet6 set protocols ldp family inet
R2
set interfaces ge-1/0/1 unit 0 family inet address 192.168.12.2/24 set interfaces ge-1/0/1 unit 0 family iso set interfaces ge-1/0/1 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set interfaces ge-1/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.0.2/32 set interfaces lo0 unit 0 family iso address 49.0001.1720.1600.2020.00 set interfaces lo0 unit 0 family inet6 address 2001:db8::2/128 set protocols isis interface ge-1/0/1.0 set protocols isis interface lo0.0 set protocols mpls interface ge-1/0/1.0 set protocols ldp deaggregate set protocols ldp interface ge-1/0/1.0 set protocols ldp interface lo0.0 set protocols ldp family inet6 set protocols ldp family inet
R1の設定
ステップバイステップの手順
次の例では、設定階層内のさまざまなレベルに移動する必要があります。CLIのナビゲーションについては、『Junos OS CLIユーザーガイド』の「設定モードでのCLIエディタの使用」を参照してください。
デバイスR1を設定するには:
-
インターフェイスを設定します。
[edit interfaces] set ge-1/0/0 unit 0 family inet address 192.168.12.1/24 set ge-1/0/0 unit 0 family iso set ge-1/0/0 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set ge-1/0/0 unit 0 family mpls
-
デバイスにループバックアドレスを割り当てます。
[edit interfaces lo0 unit 0] set family inet address 10.255.0.1/32 set family iso address 49.0001.1720.1600.1010.00 set family inet6 address 2001:db8::1/128
-
IS-ISインターフェイスを設定します。
[edit protocols isis] set interface ge-1/0/0.0 set interface lo0.0
-
デバイスでLDPインターフェイスを使用するようにMPLSを設定します。
[edit protocols mpls] set protocols mpls interface ge-1/0/0.0 set interface ge-1/0/0.0 set interface lo0.0
-
異なるアドレスファミリーに異なるラベルを使用するために、転送等価クラス(FEC)のディスアグリゲーションを有効にします。
[edit protocols ldp] set deaggregate
-
LDP アドレスファミリーを設定します。
[edit protocols ldp] set family inet6 set family inet
結果
設定モードから、 show interfaces および show protocols コマンドを入力して設定を確認します。出力に意図した設定が表示されない場合は、この例の手順を繰り返して設定を修正します。
user@R1# show interfaces
ge-1/0/0 {
unit 0 {
family inet {
address 192.168.12.1/24;
}
family iso;
family inet6 {
address 2001:db8:0:12::/64 {
eui-64;
}
}
family mpls;
}
}
lo0 {
unit 0 {
family inet {
address 10.255.0.1/32;
}
family iso {
address 49.0001.1720.1600.1010.00
}
family inet6 {
address 2001:db8::1/128;
}
}
}
user@R1# show protocols
mpls {
interface ge-1/0/0.0;
}
isis {
interface ge-1/0/0.0;
interface lo0.0;
}
ldp {
deaggregate;
interface ge-1/0/0.0;
interface lo0.0;
family {
inet6;
inet;
}
}
transport-preferenceを設定して優先トランスポートを選択します
CLIクイックコンフィグレーション
ステップバイステップの手順
IPv4とIPv6の両方が有効になっている場合に、TCP接続の優先トランスポートを選択するように transport-preference ステートメントを設定できます。デフォルトでは、IPv6はLDP接続を確立するためのTCPトランスポートとして使用されます。
-
(オプション)LDP接続のトランスポート優先度を設定します。
[edit protocols ldp] set transport-preference ipv4
ステップバイステップの手順
結果
設定モードから、 show protocols コマンドを入力して設定を確認します。出力に意図した設定が表示されない場合は、この例の手順を繰り返して設定を修正します。
user@R1# show protocols
mpls {
interface ge-1/0/0.0;
}
isis {
interface ge-1/0/0.0;
interface lo0.0;
}
ldp {
deaggregate;
interface ge-1/0/0.0;
interface lo0.0;
family {
inet6;
inet;
}
transport-preference ipv4;
}
IPv4ネイバーとのIPv4およびIPv6ネイバーとのIPv6の個別のセッションを確立するようにデュアルトランスポートを設定します。
ステップバイステップの手順
dual-transportステートメントを設定して、LDPがIPv4ネイバーとの個別のIPv4セッション、およびIPv6ネイバーとのIPv6セッションを確立できるようにすることができます。そのためには、IPv4のLSR IDとしてinet-lsr-idを設定し、IPv6のLSR IDとしてinet6-lsr-id を設定する必要があります。
-
(オプション)デュアルトランスポートを設定して、LDPがIPv4とIPv4ネイバー、およびIPv6とIPv6ネイバーを介してシングルスタックLSRとしてTCP接続を確立できるようにします。
[edit protocols ldp dual-transport] set inet-lsr-id 10.255.0.1 set inet6-lsr-id 10.1.1.1
結果
設定モードから、 show protocols コマンドを入力して設定を確認します。出力に意図した設定が表示されない場合は、この例の手順を繰り返して設定を修正します。
user@R1# show protocols
mpls {
interface ge-1/0/0.0;
}
isis {
interface ge-1/0/0.0;
interface lo0.0;
}
ldp {
deaggregate;
interface ge-1/0/0.0;
interface lo0.0;
family {
inet6;
inet;
}
dual-transport {
inet-lsr-id 10.255.0.1;
inet6-lsr-id 10.1.1.1;
}
}
検証
設定が正常に機能していることを確認します。
- mpls.0テーブル内のルートエントリーの検証
- inet.3テーブル内のルートエントリーの検証
- inet6.3テーブル内のルートエントリーの検証
- LDP データベースの検証
- LDP ネイバー情報の検証
- LDP セッション情報の検証
mpls.0テーブル内のルートエントリーの検証
目的
mpls.0 ルートテーブル情報を表示します。
アクション
デバイスR1で、運用モードから show route table mpls.0 コマンドを実行して、mpls.0ルートテーブル情報を表示します。
user@R1> show route table mpls.0
mpls.0: 8 destinations, 8 routes (8 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
0 *[MPLS/0] 05:19:58, metric 1
Receive
1 *[MPLS/0] 05:19:58, metric 1
Receive
2 *[MPLS/0] 05:19:58, metric 1
Receive
13 *[MPLS/0] 05:19:58, metric 1
Receive
299824 *[LDP/9] 04:28:45, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0, Pop
299824(S=0) *[LDP/9] 04:28:45, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0, Pop
299888 *[LDP/9] 00:56:12, metric 1
> to 192.168.12.2 via ge-1/0/0.0, Pop
299888(S=0) *[LDP/9] 00:56:12, metric 1
> to 192.168.12.2 via ge-1/0/0.0, Pop
意味
出力は、mpls.0 ルートテーブル情報を示しています。
inet.3テーブル内のルートエントリーの検証
目的
inet.3 ルートテーブル情報を表示します。
アクション
デバイスR1で、運用モードから show route table inet.3 コマンドを実行して、inet.3ルートテーブル情報を表示します。
user@R1> show route table inet.3
inet.3: 1 destinations, 1 routes (1 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.255.0.2/32 *[LDP/9] 00:58:38, metric 1
> to 192.168.12.2 via ge-1/0/0.0
意味
出力は、inet.3 ルートテーブル情報を示しています。
inet6.3テーブル内のルートエントリーの検証
目的
inet6.3 ルートテーブル情報を表示します。
アクション
デバイスR1で、運用モードから show route table inet6.3 コマンドを実行して、inet6.3ルートテーブル情報を表示します。
user@R1> show route table inet6.3
inet6.3: 1 destinations, 1 routes (1 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
2001:db8::2/128 *[LDP/9] 04:31:17, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0
意味
出力は、inet6.3 ルートテーブル情報を示しています。
LDP データベースの検証
目的
LDP データベース情報を表示します。
アクション
デバイスR1で、運用モードから show ldp database コマンドを実行して、LDPデータベース情報を表示します。
user@R1> show ldp database
Input label database, 10.255.0.1:0--10.255.0.2:0
Labels received: 3
Label Prefix
299840 10.255.0.1/32
3 10.255.0.2/32
299808 2001:db8::1/128
3 2001:db8::2/128
Output label database, 10.255.0.1:0--10.255.0.2:0
Labels advertised: 3
Label Prefix
3 10.255.0.1/32
299888 10.255.0.2/32
3 2001:db8::1/128
299824 2001:db8::2/128
意味
出力は、LDP データベース内のエントリーを示しています。
LDP ネイバー情報の検証
目的
LDP ネイバー情報を表示します。
アクション
デバイスR1で、運用モードから show ldp neighbor および show ldp neighbor extensive コマンドを実行して、LDPネイバー情報を表示します。
user@R1>show ldp neighborAddress Interface Label space ID Hold time fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 12 192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11 user@R1>show ldp neighbor extensiveAddress Interface Label space ID Hold time 192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11 Transport address: 10.255.0.2, Transport preference: IPv6, Configuration sequence: 10 Up for 00:04:35 Reference count: 1 Hold time: 15, Proposed local/peer: 15/15 Hello flags: none Neighbor types: discovered Address Interface Label space ID Hold time fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14 Transport address: 2001:db8::2, Transport preference: IPv6, Configuration sequence: 10 Up for 00:04:35 Reference count: 1 Hold time: 15, Proposed local/peer: 15/15 Hello flags: none Neighbor types: discovered
意味
出力は、IPv4 と IPv6 アドレスの両方の LDP ネイバー情報を示しています。
LDP セッション情報の検証
目的
LDP セッション情報を表示します。
アクション
デバイスR1で、運用モードから show ldp session および show ldp session extensive コマンドを実行して、LDPセッション情報を表示します。
user@R1>show ldp sessionsession Address State Connection Hold time Adv. Mode 2001:db8::2 Operational Open 20 DU user@R1>show ldp session extensiveAddress: 2001:db8::2, State: Operational, Connection: Open, Hold time: 29 Session ID: 10.255.0.1:0--10.255.0.2:0 Next keepalive in 9 seconds Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1 Neighbor types: discovered Keepalive interval: 10, Connect retry interval: 1 Local address: 2001:db8::1, Remote address: 2001:db8::2 Up for 00:05:31 Capabilities advertised: none Capabilities received: none Protection: disabled Session flags: none Local - Restart: disabled, Helper mode: enabled Remote - Restart: disabled, Helper mode: enabled Local maximum neighbor reconnect time: 120000 msec Local maximum neighbor recovery time: 240000 msec Local Label Advertisement mode: Downstream unsolicited Remote Label Advertisement mode: Downstream unsolicited Negotiated Label Advertisement mode: Downstream unsolicited MTU discovery: disabled Nonstop routing state: Not in sync Next-hop addresses received: 10.255.0.2 192.168.12.2 2001:db8::2 fe80::21f:1200:cb6:4c8d Queue depth: 0 Message type Total Last 5 seconds Sent Received Sent Received Initialization 1 1 0 0 Keepalive 34 34 0 0 Notification 0 0 0 0 Address 1 1 0 0 Address withdraw 0 0 0 0 Label mapping 3 3 0 0 Label request 0 0 0 0 Label withdraw 0 0 0 0 Label release 0 0 0 0 Label abort 0 0 0 0
意味
出力には、TCPトランスポートとしてIPv6を使用するLDPセッションの情報が表示されます。
検証
設定が正常に機能していることを確認します。
LDP ネイバー情報の検証
目的
LDP ネイバー情報を表示します。
アクション
デバイスR1で、運用モードから show ldp neighbor extensive コマンドを実行して、LDPネイバー情報を表示します。
user@R1> show ldp neighbor extensive
Address Interface Label space ID Hold time
192.168.12.2 ge-1/0/0.0 10.255.0.2:0 14
Transport address: 10.255.0.2, Transport preference: IPv4, Configuration sequence: 9
Up for 00:00:14
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Address Interface Label space ID Hold time
fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14
Transport address: 2001:db8::2, Transport preference: IPv4, Configuration sequence: 9
Up for 00:00:14
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
意味
出力は、IPv4 アドレスと IPv6 アドレスの両方の LDP ネイバー情報を示しています。
LDP セッション情報の検証
目的
LDP セッション情報を表示します。
アクション
デバイスR1で、運用モードから show ldp session extensive コマンドを実行して、LDPセッション情報を表示します。
user@R1> show ldp session extensive
Address: 10.255.0.2, State: Operational, Connection: Open, Hold time: 24
Session ID: 10.255.0.1:0--10.255.0.2:0
Next keepalive in 4 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 2
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 10.255.0.1, Remote address: 10.255.0.2
Up for 00:05:26
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
10.255.0.2
192.168.12.2
2001:db8::2
fe80::21f:1200:cb6:4c8d
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 33 33 1 1
Notification 0 0 0 0
Address 2 2 0 0
Address withdraw 0 0 0 0
Label mapping 6 6 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
意味
出力には、TCPトランスポートとしてIPv6を使用するLDPセッションの情報が表示されます。
検証
設定が正常に機能していることを確認します。
LDP ネイバー情報の検証
目的
LDP ネイバー情報を表示します。
アクション
デバイスR1で、運用モードから show ldp neighbor extensive コマンドを実行して、LDPネイバー情報を表示します。
user@R1> show ldp neighbor extensive
Address Interface Label space ID Hold time
192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11
Transport address: 10.255.0.2, Configuration sequence: 10
Up for 00:04:35
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Address Interface Label space ID Hold time
fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14
Transport address: 2001:db8::2, Configuration sequence: 10
Up for 00:04:35
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
意味
出力は、IPv4 アドレスと IPv6 アドレスの両方の LDP ネイバー情報を示しています。
LDP セッション情報の検証
目的
LDP セッション情報を表示します。
アクション
デバイスR1で、運用モードから show ldp session extensive コマンドを実行して、LDPネイバー情報を表示します。
user@R1> show ldp session extensive
Address: 2001:db8::2, State: Operational, Connection: Open, Hold time: 29
Session ID: 10.1.1.1:0--10.255.0.2:0
Next keepalive in 9 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 2001:db8::1, Remote address: 2001:db8::2
Up for 00:05:31
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
2001:db8::2
fe80::21f:1200:cb6:4c8d
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 34 34 0 0
Notification 0 0 0 0
Address 1 1 0 0
Address withdraw 0 0 0 0
Label mapping 3 3 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
Address: 10.255.0.2, State: Operational, Connection: Open, Hold time: 29
Session ID: 10.255.0.1:0--10.255.0.2:0
Next keepalive in 9 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 10.255.0.1, Remote address: 10.255.0.2
Up for 00:05:31
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
10.255.0.2
192.168.12.2
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 34 34 0 0
Notification 0 0 0 0
Address 1 1 0 0
Address withdraw 0 0 0 0
Label mapping 3 3 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
例:ポイントツーマルチポイント LSP 向けのマルチポイント LDP インバンド シグナリングの設定
ポイントツーマルチポイント LSP のマルチポイント LDP インバンド シグナリングの理解
インバンドシグナリングによるポイントツーマルチポイントラベルスイッチパス(LSP)用のマルチポイントラベル配布プロトコル(M-LDP)は、IPTVなど、マルチキャストトラフィックを伝送する必要がある既存のIP/MPLSバックボーンで導入する場合に役立ちます。
長年にわたり、マルチキャストトラフィックを伝送するための最も広く使用されているソリューションは、サービスプロバイダコアでネイティブIPマルチキャストとマルチポイントIPトンネリングを使用して顧客のトラフィックを分離することでした。マルチキャストルーティングプロトコル、通常はPIM(プロトコル独立マルチキャスト)が導入され、転送パスが設定されます。コアでPIMシグナリングを使用して、転送にはIPマルチキャストルーティングが使用されます。このモデルが機能するためには、コアネットワークがマルチキャスト対応になっている必要があります。これにより、自律システム(AS)のシナリオでも効果的かつ安定した導入が可能になります。
しかし、既存のIP/MPLSネットワークでは、PIMの導入が最初の選択肢ではないかもしれません。一部のサービスプロバイダは、IPトンネリングをMPLSラベルカプセル化に置き換えることに関心を持っています。MPLSラベルスイッチに移行する動機は、MPLSトラフィックエンジニアリングと保護機能を活用し、プロバイダコアの制御トラフィックのオーバーヘッドの量を削減することです。
そのために、サービスプロバイダは、既存の導入の拡張を活用して、マルチキャストトラフィックを通過させることに関心を持っています。IP/MPLS用の既存のマルチキャスト拡張は、RSVP-TE用のポイントツーマルチポイント拡張と、LDP用のポイントツーマルチポイントおよびマルチポイントツーマルチポイント拡張です。これらの導入シナリオについては、RFC 6826、 ポイントツーマルチポイントおよびマルチポイントツーマルチポイントのラベルスイッチパス向けのマルチポイントLDPインバンドシグナリングで説明しています。この機能の概要は、LDP のポイントツーマルチポイント拡張に限定されています。
- M-LDPの仕組み
- 用語
- イングレス参加変換と疑似インターフェイス処理
- イングレススプライシング
- リバースパスフォワーディング
- LSPルート検出
- エグレスジョイン変換と疑似インターフェイス処理
- Egressスプライシング
- サポートされている機能
- サポートされていない機能
- LDP機能
- Egress LER機能
- トランジット LSR 機能
- Ingress LER機能
M-LDPの仕組み
M-LDPシグナリングにおけるラベルバインディング
LDPへのマルチポイント拡張は、ポイントツーマルチポイントおよびマルチポイントツーマルチポイント転送等価クラス(FEC)要素(RFC 5036、 LDP仕様で定義)と、機能アドバタイズメント、ラベルマッピング、シグナリング手順を使用します。FEC の要素には、IP アドレスである LSP ルートと、同じ不透明な値を共有するリーフ ノードをグループ化するセレクターである「不透明」値の考え方が含まれます。不透明な値は、中間ノードに対しては透過的ですが、LSPルートに対しては意味があります。すべてのLDPノードは、FECにあるルートIPアドレスへの最短パス上で、アップストリームLDPノードにローカル受信ラベルバインディングをアドバタイズします。ラベルバインディングを受信するアップストリームノードは、独自のローカルラベルと発信インターフェイスを作成します。このラベル割り当てプロセスでは、複数の発信ブランチがある場合、パケットレプリケーションが発生する可能性があります。 図18に示すように、LDPノードは、同じアップストリームノードを共有するダウンストリームノードを見つけると、同じ不透明な値のラベルバインディングをマージします。これにより、ポイントツーマルチポイントLSPの効果的な構築とラベルの節約が可能になります。
におけるラベル結合
PIM フリー MPLS コアの M-LDP
図19 は、スケールダウンした導入シナリオを示しています。2つの独立したPIMドメインは、PIMフリーのコアサイトによって相互接続されています。このコアサイトのボーダールーターは、ボーダーインターフェイスでPIMをサポートします。さらに、これらの境界ルーターは、隣接するサイトからコアネットワークへのルーティング情報を収集して配信します。サイトCのエッジルーターは、ルートノード検出のためにBGPを実行します。ほとんどの場合、IGPが提供する転送ネクストホップは送信元に向かうイングレスデバイスに関する情報を提供しないため、内部ゲートウェイプロトコル(IGP)ルートはイングレス検出に使用できません。M-LDP インバンド シグナリングは、ポイントツーマルチポイント LSP と(S,G)フローの間に 1 対 1 のマッピングを持っています。インバンドシグナリングでは、PIMメッセージはM-LDP FECバインディングに直接変換されます。対照的に、帯域外シグナリングは手動設定に基づいています。M-LDP インバンド シグナリングのアプリケーションの 1 つは、MPLS バックボーンで IPTV マルチキャスト トラフィックを伝送することです。
におけるサンプルM-LDPトポロジー
設定
ラベルエッジルーター(LER)にmldp-inband-signallingされた設定ステートメントにより、LERがPIMアップストリームネイバーを検出できない場合、PIMはアップストリームネイバーにM-LDPインバンドシグナリングを使用できます。MPLS LSPルートの静的設定は、ポリシーを使用してPIM設定に含まれます。これは、IBGPがコアサイトで利用できない場合や、IBGPベースのLSPルート検出を上書きするために必要です。
次に例を示します。
protocols {
pim {
mldp-inband-signalling {
policy lsp-mapping-policy-example;
}
}
}
policy-options {
policy-statement lsp-mapping-policy-example {
term channel1 {
from {
source-address-filter ip-prefix</prefix-length>; #policy filter for channel1
}
then {
p2mp-lsp-root {
# Statically configured ingress address of edge
# used by channel1
address ip-address;
}
accept;
}
}
}
}
PIM 対応 MPLS コアの M-LDP
Junos OSリリース14.1以降、既存のIPTVサービスをネイティブIPマルチキャストからMPLSマルチキャストに移行するためには、最小限の停止でPIMからM-LDPポイントツーマルチポイントLSPにスムーズに移行する必要があります。 図20 は、 図19と同様のM-LDPトポロジーを示していますが、シナリオは異なります。コアはPIMで有効になっており、1つのソースですべてのIPTVチャンネルをストリーミングしています。TVチャンネルはASMストリームとして送信され、各チャンネルはグループアドレスで識別されます。以前は、これらのチャネルはコア上でIPストリームとしてストリーミングされ、PIMを使用してシグナリングされていました。
におけるM-LDPトポロジーの例
このシナリオで mldp-inband-signaling を設定することにより、M-LDP シグナリングは、送信元に向かう PIM ネイバーがない場合にのみ開始されます。ただし、エグレスPEのアップストリームインターフェイスでPIMが無効化されない限り、ソースに向かうPIMネイバーが常に存在するため、PIMがM-LDPよりも優先され、M-LDPは有効になりません。
設定
M-LDP アップストリームを使用する少数のストリームと、既存の PIM アップストリームを使用する他のストリームで、M-LDP MPLSコアにチャネルごとに段階的に移行するには、M-LDP インバンド シグナリングのポリシー フィルターに、グループベースのフィルターとともに selected-mldp-egress 設定ステートメントを含めます。
M-LDP インバンド シグナリング ポリシー フィルターには、 source-address-filter ステートメントまたは route-filter ステートメントのいずれか、またはその両方の組み合わせを含めることができます。
次に例を示します。
protocols {
pim {
mldp-inband-signalling {
policy lsp-mapping-policy-example;
}
}
}
policy-options {
policy-statement lsp-mapping-policy-example {
term channel1 {
from {
source-address-filter ip-prefix</prefix-length>; #policy filter for channel1
}
then {
selected-mldp-egress;
accept;
}
}
term channel2 {
from {
source-address-filter ip-prefix</prefix-length>; #policy filter for channel2
route-filter ip-prefix</prefix-length>; #policy filter on multicast group address
}
then {
selected-mldp-egress;
p2mp-lsp-root {
# Statically configured ingress address of edge
# used by channel2
address ip-address;
}
accept;
}
}
term channel3 {
from {
route-filter ip-prefix</prefix-length>; #policy filter on multicast group address
}
then {
selected-mldp-egress;
accept;
}
}
}
}
上記の設定の制限の一部を以下に示します。
selected-mldp-egressステートメントは、LER上でのみ設定する必要があります。非エグレスPIMルーターでselected-mldp-egressステートメントを設定すると、パス設定に失敗することがあります。PIMアップストリームからM-LDPアップストリームへ、またはその逆にトラフィックを切り替えるポリシー変更が行われた場合、コントロールプレーンでブレークアンドメークメカニズムが実行されるため、パケットロスが予想される可能性があります。
用語
以下の用語は、マルチキャスト トラフィックの M-LDP 帯域内シグナリングを理解するために重要です。
| Point-to-point LSP | 1 つのイングレス ラベルスイッチ ルーター(LSR)と 1 つのエグレス LSR を持つ LSP。 |
| Multipoint LSP | ポイントツーマルチポイントまたはマルチポイントツーマルチポイントLSPのいずれか。 |
| Point-to-multipoint LSP | 1 つのイングレス LSR と 1 つ以上のエグレス LSR を持つ LSP。 |
| Multipoint-to-point LSP | 1つ以上のイングレスLSRと1つの固有のエグレスLSRを持つLSP。 |
| Multipoint-to-multipoint LSP | LSP 内の任意のノードから送信されたトラフィックが他のすべてのノードに配信されるように、一連のノードを接続する LSP。 |
| Ingress LSR | 特定の LSP のイングレス LSR は、LSP に沿ってデータ パケットを送信できる LSR です。マルチポイントツーマルチポイント LSP は、複数のイングレス LSR を持つことができます。ポイントツーマルチポイント LSP は 1 つしかなく、そのノードはしばしばルート ノードと呼ばれます。 |
| Egress LSR | 特定の LSP のエグレス LSR は、さらに処理するためにその LSP からデータ パケットを削除できる LSR です。ポイントツーポイントおよびマルチポイントツーポイントLSPには、エグレスノードが1つしかありません。ポイントツーマルチポイントおよびマルチポイントツーマルチポイント LSP は、複数のエグレス ノードを持つことができます。 |
| Transit LSR | 直接接続されたアップストリーム LSR と 1 つ以上の直接接続されたダウンストリーム LSR を介してマルチポイント LSP のルートに到達可能な LSR。 |
| Bud LSR | エグレスでありながら、1つ以上の直接接続されたダウンストリームLSRを持つLSR。 |
| Leaf node | ポイントツーマルチポイントLSPのコンテキストにおけるエグレスまたはバッドLSRのいずれか。マルチポイントツーマルチポイント LSP のコンテキストでは、LSR は同じマルチポイントツーマルチポイント LSP のイングレスとエグレスの両方であり、バッド LSR になることもあります。 |
イングレス参加変換と疑似インターフェイス処理
イングレス LER では、LDP はインバンド シグナリングを介して受信した (S,G) メッセージを PIM に通知します。PIM は、各 (S,G) メッセージを疑似インターフェイスに関連付けます。その後、送信元に向けて最短パスツリー(SPT)ジョインメッセージが開始されます。PIM はこれを新しいタイプのローカル受信機として扱います。LSP が破棄されると、PIM は LDP からの通知に基づいてこのローカルレシーバーを削除します。
イングレススプライシング
LDP は、各(S,G)エントリーに関連付けるネクスト ホップを PIM に提供します。PIMは、LDPネクストホップと他のPIMレシーバーとのPIM(S,G)マルチキャストルートをインストールします。ネクストホップは、ローカルレシーバーの複合ネクストホップ + PIMダウンストリームネイバーのリスト + LDPトンネルのサブレベルネクストホップです。
リバースパスフォワーディング
PIMのRPF(リバースパスフォワーディング)計算は、エグレスノードで実行されます。
PIM は、以下の条件がすべて当てはまる場合、M-LDP の帯域内シグナリングを実行します。
送信元に向かうPIMネイバーはありません。
M-LDPインバンドシグナリングステートメントが設定されています。
ネクストホップは、BGPを介して学習されるか、(M-LDPの帯域内シグナリングポリシーで指定されている)静的マッピングに存在します。
それ以外の場合、LSPルート検出に失敗した場合、PIMはRPFの状態が未解決の(S,G)エントリーを保持します。
PIM RPF は、ユニキャスト ルーティング情報が変更されるたびにこの送信元アドレスを登録します。そのため、送信元へのルートが変更された場合、RPF の再計算が繰り返されます。ソースに向かう BGP プロトコルのネクスト ホップも、LSP ルートの変化を監視します。このような変更により、短時間のトラフィックが中断する可能性があります。
LSPルート検出
RPF 操作がアップストリームの M-LDP 帯域内シグナリングの必要性を検出すると、LSP ルート(イングレス)が検出されます。このルートは、LDP LSPシグナリングのパラメーターです。
ルートノードは次のように検出されます。
既存の静的設定で送信元アドレスが指定されている場合、ルートは設定で指定されたとおりに取られます。
ルックアップは、ユニキャストルーティングテーブルで実行されます。送信元アドレスが見つかった場合、送信元に向かうプロトコル ネクスト ホップが LSP ルートとして使用されます。
Junos OSリリース16.1以前では、M-LDPポイントツーマルチポイントLSPは、イングレスLSRのルートアドレスを使用してエグレスからイングレスにシグナリングされます。このルート アドレスは IGP 経由でのみ到達できるため、M-LDP のポイントツーマルチポイント LSP は単一の自律システムに限定されます。ルート アドレスが IGP を介して到達可能ではなく、BGP を介して到達可能であり、その BGP ルートが MPLS LSP 上で再帰的に解決されている場合、ポイントツーマルチポイント LSP は、そのポイントからイングレス LSR ルート アドレスに向けてそれ以上シグナリングされません。
このようなセグメント化されていないポイントツーマルチポイントLSPは、複数の自律システム間でシグナリングされる必要があり、以下のアプリケーションに使用できます。
セグメント化されていないポイントツーマルチポイントLSPを使用したAS間MVPN。
MPLSコアネットワークによって接続されたクライアントネットワーク間のAS間M-LDPインバンドシグナリング。
セグメント化されていないポイントツーマルチポイント LSP(シームレスな MPLS マルチキャスト)によるエリア間 MVPN または M-LDP インバンド シグナリング。
Junos OSリリース16.1以降、ルートアドレスがMPLS LSP上でさらに再帰的に解決されるBGPルートの場合、M-LDPはASBR、トランジット、またはegressでポイントツーマルチポイントLSPをシグナリングできます。
エグレスジョイン変換と疑似インターフェイス処理
エグレス LER では、PIM は LSP ルートとともにシグナリングされる(S,G)メッセージを LDP に通知します。PIM は、この(S,G)メッセージのアップストリーム インターフェイスとして疑似インターフェイスを作成します。(S,G)プルーニングメッセージを受信すると、この関連付けは削除されます。
Egressスプライシング
ダウンストリームサイトから(S,G)ジョインメッセージを受信したコアネットワークのエグレスノードでは、このジョインメッセージがM-LDPの帯域内シグナリングパラメータに変換され、LDPに通知されます。さらに、LSP破棄は、(S,G)エントリが失われた場合、LSPルートが変更された場合、または(S,G)エントリがPIMネイバー経由で到達可能になった場合に発生します。
サポートされている機能
M-LDPインバンドシグナリングでは、Junos OSは以下の機能をサポートしています。
PIMネクストホップのLDPルートによるエグレススプライシング
PIMルートとLDPネクストホップのイングレススプライシング
PIMジョインメッセージのLDPポイントツーマルチポイントLSP設定パラメータへの変換
PIM ジョイン メッセージを設定するための M-LDP インバンド LSP パラメーターの変換
静的に設定されたBGPプロトコルのネクストホップベースのLSPルート検出
PIMのソース固有マルチキャスト(SSM)およびすべてのソースマルチキャスト(ASM)の範囲に含まれるPIM(S、G)の状態
エッジルーターとして機能できるようにするためのイングレスおよびエグレスLERの設定ステートメント
LER上のIGMPジョインメッセージ
IPv6送信元アドレスとグループアドレスを不透明な情報としてIPv4ルートノードに送信
IPv6(S,G)をIPv4ルートアドレスにマッピングするための静的構成
サポートされていない機能
M-LDP インバンド シグナリングの場合、Junos OS は以下の機能をサポートし ていません 。
PIM ASMの完全サポート
(S,G)オプション付き
mpls lsp point-to-multipoint pingコマンドノンストップ アクティブ ルーティング (NSR)
PIM の Make-Before-Break(MBB)
IPv6 LSP ルート アドレス(LDP は IPv6 LSP をサポートしていません)。
直接接続されていないPIMスピーカー間の近隣関係
グレースフル リスタート
PIM デンスモード
PIM双方向モード
LDP機能
PIM(S,G)情報は、M-LDPの不透明なTLV(タイプ長値)エンコーディングとして伝送されます。ポイントツーマルチポイントFEC要素は、ルートノードアドレスで構成されています。次世代マルチキャストVPN(NGEN MVPN)の場合、ポイントツーマルチポイントLSPはルートノードアドレスとLSP IDによって識別されます。
Egress LER機能
エグレス LER では、PIM は以下の情報で LDP をトリガーし、ポイントツーマルチポイント LSP を作成します。
ルートノード
(S、G)
ネクストホップ
PIM は、マルチキャスト ツリーのソースに基づいてルート ノードを検索します。この(S,G)エントリにルートアドレスが設定されている場合、設定されたアドレスがポイントツーマルチポイントLSPルートとして使用されます。それ以外の場合は、ルーティングテーブルを使用して送信元へのルートを検索します。マルチキャスト ツリーの送信元へのルートが BGP で学習されたルートである場合、PIM は BGP ネクスト ホップ アドレスを取得し、ポイントツーマルチポイント LSP のルート ノードとして使用します。
LDP は、ルート ノードに基づいてアップストリーム ノードを検索し、ラベルを割り当てて、ラベル マッピングをアップストリーム ノードに送信します。LDPは、インバンドM-LDPシグナリングに最後から2番目のホップポッピング(PHP)を使用しません。
マルチキャストツリーのソースのルートアドレスが変更された場合、PIMはポイントツーマルチポイントLSPを削除し、新しいポイントツーマルチポイントLSPを作成するようにLDPをトリガーします。この場合、発信インターフェイスリストはNULLになり、PIMはLDPがポイントツーマルチポイントLSPを削除するようにトリガーし、LDPはラベル撤退メッセージをアップストリームノードに送信します。
トランジット LSR 機能
トランジット LSR は、ポイントツーマルチポイント FEC の送信元に向けてアップストリーム LSR にラベルをアドバタイズし、パケットを転送するために必要な転送状態をインストールします。トランジット LSR は、任意の M-LDP 対応ルーターです。
Ingress LER機能
イングレス LER では、LDP はラベルマッピングを受信すると、以下の情報を PIM に提供します。
(S、G)
フラッド ネクスト ホップ
次に、PIM が転送状態をインストールします。新しいブランチが追加または削除されると、フラッドネクストホップもそれに応じて更新されます。ラベルの取り消しによりすべてのブランチが削除された場合、LDPは更新情報をPIMに送信します。アップストリームとダウンストリームのネイバー間に複数のリンクがある場合、ポイントツーマルチポイントLSPはロードバランシングされません。
関連項目
例:ポイントツーマルチポイント LSP 向けのマルチポイント LDP インバンド シグナリングの設定
この例では、プロトコル独立マルチキャスト(PIM)プロトコルの拡張として、またはPIMの代替として、マルチキャストトラフィックのマルチポイントLDP(M-LDP)帯域内シグナリングを設定する方法を示します。
要件
この例では、以下のハードウェアおよびソフトウェアコンポーネントを使用して設定できます。
Junos OSリリース13.2以降
MXシリーズ 5Gユニバーサルルーティングプラットフォーム、プロバイダエッジ(PE)ルーター用のM Seriesマルチサービスエッジルーター
トランジットラベルスイッチルーターとして機能するPTXシリーズパケットトランスポートルーター
コアルーター用のT Seriesコアルーター
PE ルーターは T Series コア ルーターである場合もありますが、それは一般的ではありません。拡張要件に応じて、コアルーターは、MXシリーズの5GユニバーサルルーティングプラットフォームまたはM Seriesマルチサービスエッジルーターにもなります。カスタマーエッジ(CE)デバイスは、ジュニパーネットワークスまたは他のベンダーの他のルーターまたはスイッチである可能性があります。
この例を設定する前に、デバイスの初期化以外の特別な設定を行う必要はありません。
概要
CLIクイックコンフィグレーション は、 図21に示すすべてのデバイスのコンフィギュレーションを示しています。セクション #d372e68__d372e836 では、デバイスEgressPEの手順を説明しています。
例
設定
手順
CLIクイックコンフィグレーション
この例をすばやく設定するには、以下のコマンドをコピーしてテキストファイルに貼り付け、改行を削除して、ネットワーク構成に合わせて必要な詳細を変更してから、コマンドを [edit] 階層レベルのCLIにコピー&ペーストします。
デバイスsrc1
set logical-systems src1 interfaces fe-1/2/0 unit 0 family inet address 10.2.7.7/24 set logical-systems src1 interfaces lo0 unit 0 family inet address 10.1.1.7/32 set logical-systems src1 protocols ospf area 0.0.0.0 interface all
デバイスIngressPE
set interfaces so-0/1/2 unit 0 family inet address 192.168.93.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.2.3.2/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.5.2/24 set interfaces fe-1/2/2 unit 0 family inet address 10.2.6.2/24 set interfaces fe-1/2/2 unit 0 family mpls set interfaces fe-1/2/3 unit 0 family inet address 10.2.7.2/24 set interfaces fe-1/3/1 unit 0 family inet address 192.168.219.9/28 set interfaces lo0 unit 0 family inet address 10.1.1.2/32 set protocols igmp interface fe-1/2/1.0 version 3 set protocols igmp interface fe-1/2/1.0 static group 232.1.1.1 source 192.168.219.11 set protocols bgp group ibgp type internal set protocols bgp group ibgp local-address 10.1.1.2 set protocols bgp group ibgp family inet any set protocols bgp group ibgp family inet-vpn any set protocols bgp group ibgp neighbor 10.1.1.3 set protocols bgp group ibgp neighbor 10.1.1.4 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols ospf area 0.0.0.0 interface all set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/2.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp static address 10.1.1.5 set protocols pim interface fe-1/3/1.0 set protocols pim interface lo0.0 set protocols pim interface fe-1/2/0.21 set protocols pim interface fe-1/2/3.0 set protocols pim interface fe-1/2/1.0 set protocols pim interface so-0/1/2.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.1.7/32 orlonger set policy-options policy-statement mldppim-ex term A from source-address-filter 10.2.7.0/24 orlonger set policy-options policy-statement mldppim-ex term A then accept set routing-options autonomous-system 64510
デバイスエグレスPE
set interfaces so-0/1/3 unit 0 point-to-point set interfaces so-0/1/3 unit 0 family inet address 192.168.92.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.3.1/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.1.4.1/24 set interfaces fe-1/2/2 unit 0 family inet address 10.1.6.1/24 set interfaces fe-1/2/2 unit 0 family mpls set interfaces fe-1/3/0 unit 0 family inet address 192.168.209.9/28 set interfaces lo0 unit 0 family inet address 10.1.1.1/32 set routing-options autonomous-system 64510 set protocols igmp interface fe-1/3/0.0 version 3 set protocols igmp interface fe-1/3/0.0 static group 232.1.1.1 group-count 3 set protocols igmp interface fe-1/3/0.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface fe-1/3/0.0 static group 227.1.1.1 set protocols igmp interface so-0/1/3.0 version 3 set protocols igmp interface so-0/1/3.0 static group 232.1.1.1 group-count 2 set protocols igmp interface so-0/1/3.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface so-0/1/3.0 static group 232.2.2.2 source 10.2.7.7 set protocols mpls interface fe-1/2/0.0 set protocols mpls interface fe-1/2/2.0 set protocols bgp group ibgp type internal set protocols bgp group ibgp local-address 10.1.1.1 set protocols bgp group ibgp family inet any set protocols bgp group ibgp neighbor 10.1.1.2 set protocols msdp local-address 10.1.1.1 set protocols msdp peer 10.1.1.5 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/2.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp local address 10.1.1.1 set protocols pim rp local group-ranges 227.0.0.0/8 set protocols pim rp static address 10.1.1.4 set protocols pim rp static address 10.2.7.7 group-ranges 226.0.0.0/8 set protocols pim interface lo0.0 set protocols pim interface fe-1/3/0.0 set protocols pim interface fe-1/2/0.0 set protocols pim interface fe-1/2/1.0 set protocols pim interface so-0/1/3.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.2.7.0/24 orlonger set policy-options policy-statement mldppim-ex term A then accept
デバイスp6
set interfaces fe-1/2/0 unit 0 family inet address 10.1.6.6/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.6.6/24 set interfaces fe-1/2/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.6/32 set interfaces lo0 unit 0 family mpls set protocols ospf area 0.0.0.0 interface all set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/1.0 set protocols ldp interface lo0.0 set protocols ldp p2mp
デバイスpr3
set interfaces ge-0/3/1 unit 0 family inet address 192.168.215.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.3.3/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.3.3/24 set interfaces fe-1/2/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.3/32 set protocols igmp interface ge-0/3/1.0 version 3 set protocols igmp interface ge-0/3/1.0 static group 232.1.1.2 source 192.168.219.11 set protocols igmp interface ge-0/3/1.0 static group 232.2.2.2 source 10.2.7.7 set protocols bgp group ibgp local-address 10.1.1.3 set protocols bgp group ibgp type internal set protocols bgp group ibgp neighbor 10.1.1.2 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fe-1/2/1.0 metric 2 set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/1.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface fe-0/3/1.0 set protocols pim interface lo0.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 10.2.7.7/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 64510
デバイスpr4
set interfaces ge-0/3/0 unit 0 family inet address 192.168.207.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.4.4/24 set interfaces fe-1/2/0 unit 0 family iso set interfaces lo0 unit 0 family inet address 10.1.1.4/32 set protocols igmp interface ge-0/3/0.0 version 3 set protocols igmp interface ge-0/3/0.0 static group 232.1.1.2 source 192.168.219.11 set protocols igmp interface ge-0/3/0.0 static group 225.1.1.1 set protocols bgp group ibgp local-address 10.1.1.4 set protocols bgp group ibgp type internal set protocols bgp group ibgp neighbor 10.1.1.2 set protocols msdp local-address 10.1.1.4 set protocols msdp peer 10.1.1.5 set protocols ospf area 0.0.0.0 interface all set protocols pim rp local address 10.1.1.4 set protocols pim interface ge-0/3/0.0 set protocols pim interface lo0.0 set protocols pim interface fe-1/2/0.0 set routing-options autonomous-system 64510
デバイスpr5
set interfaces fe-1/2/0 unit 0 family inet address 10.2.5.5/24 set interfaces lo0 unit 0 family inet address 10.1.1.5/24 set protocols igmp interface lo0.0 version 3 set protocols igmp interface lo0.0 static group 232.1.1.1 source 192.168.219.11 set protocols msdp local-address 10.1.1.5 set protocols msdp peer 10.1.1.4 set protocols msdp peer 10.1.1.1 set protocols ospf area 0.0.0.0 interface all set protocols pim rp local address 10.1.1.5 set protocols pim interface all
ステップバイステップの手順
次の例では、設定階層のさまざまなレベルに移動する必要があります。CLIのナビゲーションについては、『CLIユーザーガイド』の「設定モードでのCLIエディターの使用」を参照してください。
Device EgressPEを設定するには:
インターフェイスを設定します。
コアに面するインターフェイスで MPLS を有効にします。エグレスネクストホップでは、MPLSを有効にする必要はありません。
[edit interfaces] user@EgressPE# set fe-1/2/0 unit 0 family inet address 10.1.3.1/24 user@EgressPE# set fe-1/2/0 unit 0 family mpls user@EgressPE# set fe-1/2/2 unit 0 family inet address 10.1.6.1/24 user@EgressPE# set fe-1/2/2 unit 0 family mpls user@EgressPE# set so-0/1/3 unit 0 point-to-point user@EgressPE# set so-0/1/3 unit 0 family inet address 192.168.92.9/28 user@EgressPE# set fe-1/2/1 unit 0 family inet address 10.1.4.1/24 user@EgressPE# set fe-1/3/0 unit 0 family inet address 192.168.209.9/28 user@EgressPE# set lo0 unit 0 family inet address 10.1.1.1/32
エグレスインターフェイスでIGMPを設定します。
テスト用に、この例では静的なグループアドレスと送信元アドレスを含めています。
[edit protocols igmp] user@EgressPE# set interface fe-1/3/0.0 version 3 user@EgressPE# set interface fe-1/3/0.0 static group 232.1.1.1 group-count 3 user@EgressPE# set interface fe-1/3/0.0 static group 232.1.1.1 source 192.168.219.11 user@EgressPE# set interface fe-1/3/0.0 static group 227.1.1.1 user@EgressPE# set interface so-0/1/3.0 version 3 user@EgressPE# set interface so-0/1/3.0 static group 232.1.1.1 group-count 2 user@EgressPE# set interface so-0/1/3.0 static group 232.1.1.1 source 192.168.219.11 user@EgressPE# set interface so-0/1/3.0 static group 232.2.2.2 source 10.2.7.7
コアに面するインターフェイスで MPLS を設定します。
[edit protocols mpls] user@EgressPE# set interface fe-1/2/0.0 user@EgressPE# set interface fe-1/2/2.0
BGPを設定します。
BGPはポリシー駆動型プロトコルであるため、必要なルーティングポリシーを設定して適用することもできます。
例えば、スタティックルートをBGPにエクスポートすることができます。
[edit protocols bgp group ibgp] user@EgressPE# set type internal user@EgressPE# set local-address 10.1.1.1 user@EgressPE# set family inet any user@EgressPE# set neighbor 10.1.1.2
(オプション)異なる PIM ドメインを相互接続して冗長 RP を有効にするために、デバイス pr5 との MSDP ピア接続を設定します。
[edit protocols msdp] user@EgressPE# set local-address 10.1.1.1 user@EgressPE# set peer 10.1.1.5
OSPFを設定します。
[edit protocols ospf area 0.0.0.0] user@EgressPE# set interface all user@EgressPE# set interface fxp0.0 disable
コアに面するインターフェイスとループバック インターフェイスで LDP を設定します。
[edit protocols ldp] user@EgressPE# set interface fe-1/2/0.0 user@EgressPE# set interface fe-1/2/2.0 user@EgressPE# set interface lo0.0
ポイントツーマルチポイント MPLS LSP を有効にします。
[edit protocols ldp] user@EgressPE# set p2mp
ダウンストリームのインターフェイスに PIM を設定します。
[edit protocols pim] user@EgressPE# set interface lo0.0 user@EgressPE# set interface fe-1/3/0.0 user@EgressPE# set interface fe-1/2/1.0 user@EgressPE# set interface so-0/1/3.0
このデバイスは PIM ランデブー ポイント(RP)として機能するため、RP 設定を構成します。
[edit protocols pim] user@EgressPE# set rp local address 10.1.1.1 user@EgressPE# set rp local group-ranges 227.0.0.0/8 user@EgressPE# set rp static address 10.1.1.4 user@EgressPE# set rp static address 10.2.7.7 group-ranges 226.0.0.0/8
M-LDPの帯域内シグナリングを有効にし、関連するポリシーを設定します。
[edit protocols pim] user@EgressPE# set mldp-inband-signalling policy mldppim-ex
ポイントツーマルチポイントLSPのルートアドレスと関連する送信元アドレスを指定するルーティングポリシーを設定します。
[edit policy-options policy-statement mldppim-ex] user@EgressPE# set term B from source-address-filter 192.168.0.0/24 orlonger user@EgressPE# set term B from source-address-filter 192.168.219.11/32 orlonger user@EgressPE# set term B then p2mp-lsp-root address 10.1.1.2 user@EgressPE# set term B then accept user@EgressPE# set term A from source-address-filter 10.2.7.0/24 orlonger user@EgressPE# set term A then accept
自律システム(AS)IDを設定します。
[edit routing-options] user@EgressPE# set autonomous-system 64510
結果
設定モードから、 show interfaces、 show protocols、 show policy-options、および show routing-options コマンドを入力して設定を確認します。出力に意図した設定が表示されない場合は、この例の手順を繰り返して設定を修正します。
デバイスエグレスPE
user@EgressPE# show interfaces
so-0/1/3 {
unit 0 {
point-to-point;
family inet {
address 192.168.92.9/28;
}
}
}
fe-1/2/0 {
unit 0 {
family inet {
address 10.1.3.1/24;
}
family mpls;
}
}
fe-1/2/1 {
unit 0 {
family inet {
address 10.1.4.1/24;
}
}
}
fe-1/2/2 {
unit 0 {
family inet {
address 10.1.6.1/24;
}
family mpls;
}
}
fe-1/3/0 {
unit 0 {
family inet {
address 192.168.209.9/28;
}
}
}
lo0 {
unit 0 {
family inet {
address 10.1.1.1/32;
}
}
}
user@EgressPE# show protocols
igmp {
interface fe-1/3/0.0 {
version 3;
static {
group 232.1.1.1 {
group-count 3;
source 192.168.219.11;
}
group 227.1.1.1;
}
}
interface so-0/1/3.0 {
version 3;
static {
group 232.1.1.1 {
group-count 2;
source 192.168.219.11;
}
group 232.2.2.2 {
source 10.2.7.7;
}
}
}
}
mpls {
interface fe-1/2/0.0;
interface fe-1/2/2.0;
}
bgp {
group ibgp {
type internal;
local-address 10.1.1.1;
family inet {
any;
}
neighbor 10.1.1.2;
}
}
msdp {
local-address 10.1.1.1;
peer 10.1.1.5;
}
ospf {
area 0.0.0.0 {
interface all;
interface fxp0.0 {
disable;
}
}
}
ldp {
interface fe-1/2/0.0;
interface fe-1/2/2.0;
interface lo0.0;
p2mp;
}
pim {
mldp-inband-signalling {
policy mldppim-ex;
}
rp {
local {
address 10.1.1.1;
group-ranges {
227.0.0.0/8;
}
}
static {
address 10.1.1.4;
address 10.2.7.7 {
group-ranges {
226.0.0.0/8;
}
}
}
}
interface lo0.0;
interface fe-1/3/0.0;
interface fe-1/2/0.0;
interface fe-1/2/1.0;
interface so-0/1/3.0;
}
user@EgressPE# show policy-options
policy-statement mldppim-ex {
term B {
from {
source-address-filter 192.168.0.0/24 orlonger;
source-address-filter 192.168.219.11/32 orlonger;
}
then {
p2mp-lsp-root {
address 10.1.1.2;
}
accept;
}
}
term A {
from {
source-address-filter 10.2.7.0/24 orlonger;
}
then accept;
}
}
user@EgressPE# show routing-options
autonomous-system 64510;
同様に、他のエグレスデバイスも設定します。
デバイスの設定が完了したら、設定モードから commit を入力します。
検証
設定が正常に機能していることを確認します。
PIM の参加状態の確認
目的
PIM の参加状態に関する情報を表示して、M-LDP の帯域内アップストリームおよびダウンストリームの詳細を検証します。イングレス デバイスでは、 show pim join extensive コマンドにダウンストリーム インターフェイスの Pseudo-MLDP が表示されます。エグレスでは、 show pim join extensive コマンドはアップストリームインターフェイスの Pseudo-MLDP を表示します。
アクション
動作モードから、 show pim join extensive コマンドを入力します。
user@IngressPE> show pim join extensive
Instance: PIM.master Family: INET
R = Rendezvous Point Tree, S = Sparse, W = Wildcard
Group: 232.1.1.1
Source: 192.168.219.11
Flags: sparse,spt
Upstream interface: fe-1/3/1.0
Upstream neighbor: Direct
Upstream state: Local Source
Keepalive timeout:
Uptime: 1d 23:00:12
Downstream neighbors:
Interface: Pseudo-MLDP
Interface: fe-1/2/1.0
10.2.5.2 State: Join Flags: S Timeout: Infinity
Uptime: 1d 23:00:12 Time since last Join: 1d 23:00:12
Group: 232.1.1.2
Source: 192.168.219.11
Flags: sparse,spt
Upstream interface: fe-1/3/1.0
Upstream neighbor: Direct
Upstream state: Local Source
Keepalive timeout:
Uptime: 1d 22:59:59
Downstream neighbors:
Interface: Pseudo-MLDP
Group: 232.1.1.3
Source: 192.168.219.11
Flags: sparse,spt
Upstream interface: fe-1/3/1.0
Upstream neighbor: Direct
Upstream state: Local Source
Keepalive timeout:
Uptime: 1d 22:07:31
Downstream neighbors:
Interface: Pseudo-MLDP
Group: 232.2.2.2
Source: 10.2.7.7
Flags: sparse,spt
Upstream interface: fe-1/2/3.0
Upstream neighbor: Direct
Upstream state: Local Source
Keepalive timeout:
Uptime: 1d 22:59:59
Downstream neighbors:
Interface: Pseudo-MLDP
user@EgressPE> show pim join extensive
Instance: PIM.master Family: INET
R = Rendezvous Point Tree, S = Sparse, W = Wildcard
Group: 227.1.1.1
Source: *
RP: 10.1.1.1
Flags: sparse,rptree,wildcard
Upstream interface: Local
Upstream neighbor: Local
Upstream state: Local RP
Uptime: 1d 23:14:21
Downstream neighbors:
Interface: fe-1/3/0.0
192.168.209.9 State: Join Flags: SRW Timeout: Infinity
Uptime: 1d 23:14:21 Time since last Join: 1d 20:12:35
Group: 232.1.1.1
Source: 192.168.219.11
Flags: sparse,spt
Upstream protocol: MLDP
Upstream interface: Pseudo MLDP
Upstream neighbor: MLDP LSP root <10.1.1.2>
Upstream state: Join to Source
Keepalive timeout:
Uptime: 1d 23:14:22
Downstream neighbors:
Interface: so-0/1/3.0
192.168.92.9 State: Join Flags: S Timeout: Infinity
Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35
Downstream neighbors:
Interface: fe-1/3/0.0
192.168.209.9 State: Join Flags: S Timeout: Infinity
Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35
Group: 232.1.1.2
Source: 192.168.219.11
Flags: sparse,spt
Upstream protocol: MLDP
Upstream interface: Pseudo MLDP
Upstream neighbor: MLDP LSP root <10.1.1.2>
Upstream state: Join to Source
Keepalive timeout:
Uptime: 1d 23:14:22
Downstream neighbors:
Interface: so-0/1/3.0
192.168.92.9 State: Join Flags: S Timeout: Infinity
Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35
Downstream neighbors:
Interface: fe-1/2/1.0
10.1.4.4 State: Join Flags: S Timeout: 198
Uptime: 1d 22:59:59 Time since last Join: 00:00:12
Downstream neighbors:
Interface: fe-1/3/0.0
192.168.209.9 State: Join Flags: S Timeout: Infinity
Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35
Group: 232.1.1.3
Source: 192.168.219.11
Flags: sparse,spt
Upstream protocol: MLDP
Upstream interface: Pseudo MLDP
Upstream neighbor: MLDP LSP root <10.1.1.2>
Upstream state: Join to Source
Keepalive timeout:
Uptime: 1d 20:12:35
Downstream neighbors:
Interface: fe-1/3/0.0
192.168.209.9 State: Join Flags: S Timeout: Infinity
Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35
Group: 232.2.2.2
Source: 10.2.7.7
Flags: sparse,spt
Upstream protocol: MLDP
Upstream interface: Pseudo MLDP
Upstream neighbor: MLDP LSP root <10.1.1.2>
Upstream state: Join to Source
Keepalive timeout:
Uptime: 1d 20:12:35
Downstream neighbors:
Interface: so-0/1/3.0
192.168.92.9 State: Join Flags: S Timeout: Infinity
Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35
user@pr3> show pim join extensive
Instance: PIM.master Family: INET
R = Rendezvous Point Tree, S = Sparse, W = Wildcard
Group: 232.1.1.2
Source: 192.168.219.11
Flags: sparse,spt
Upstream protocol: MLDP
Upstream interface: Pseudo MLDP
Upstream neighbor: MLDP LSP root <10.1.1.2>
Upstream state: Join to Source
Keepalive timeout:
Uptime: 1d 20:14:40
Downstream neighbors:
Interface: Pseudo-GMP
ge-0/3/1.0
Group: 232.2.2.2
Source: 10.2.7.7
Flags: sparse,spt
Upstream protocol: MLDP
Upstream interface: Pseudo MLDP
Upstream neighbor: MLDP LSP root <10.1.1.2>
Upstream state: Join to Source
Keepalive timeout:
Uptime: 1d 20:14:40
Downstream neighbors:
Interface: Pseudo-GMP
ge-0/3/1.0
user@pr4> show pim join extensive
Instance: PIM.master Family: INET
R = Rendezvous Point Tree, S = Sparse, W = Wildcard
Group: 225.1.1.1
Source: *
RP: 10.1.1.4
Flags: sparse,rptree,wildcard
Upstream interface: Local
Upstream neighbor: Local
Upstream state: Local RP
Uptime: 1d 23:13:43
Downstream neighbors:
Interface: ge-0/3/0.0
192.168.207.9 State: Join Flags: SRW Timeout: Infinity
Uptime: 1d 23:13:43 Time since last Join: 1d 23:13:43
Group: 232.1.1.2
Source: 192.168.219.11
Flags: sparse,spt
Upstream interface: fe-1/2/0.0
Upstream neighbor: 10.1.4.1
Upstream state: Local RP, Join to Source
Keepalive timeout: 0
Uptime: 1d 23:13:43
Downstream neighbors:
Interface: ge-0/3/0.0
192.168.207.9 State: Join Flags: S Timeout: Infinity
Uptime: 1d 23:13:43 Time since last Join: 1d 23:13:43
user@pr5> show pim join extensive
ge-0/3/1.0
Instance: PIM.master Family: INET
R = Rendezvous Point Tree, S = Sparse, W = Wildcard
Instance: PIM.master Family: INET6
R = Rendezvous Point Tree, S = Sparse, W = Wildcard
PIM ソースのチェック
目的
PIM ソースに、予想される M-LDP のインバンド アップストリームおよびダウンストリームの詳細があることを確認します。
アクション
動作モードから、 show pim source コマンドを入力します。
user@IngressPE> show pim source
Instance: PIM.master Family: INET
Source 10.1.1.1
Prefix 10.1.1.1/32
Upstream interface Local
Upstream neighbor Local
Source 10.2.7.7
Prefix 10.2.7.0/24
Upstream protocol MLDP
Upstream interface Pseudo MLDP
Upstream neighbor MLDP LSP root <10.1.1.2>
Source 192.168.219.11
Prefix 192.168.219.0/28
Upstream protocol MLDP
Upstream interface Pseudo MLDP
Upstream neighbor MLDP LSP root <10.1.1.2>
user@EgressPE> show pim source
Instance: PIM.master Family: INET
Source 10.2.7.7
Prefix 1.2.7.0/24
Upstream interface fe-1/2/3.0
Upstream neighbor 10.2.7.2
Source 10.2.7.7
Prefix 10.2.7.0/24
Upstream interface fe-1/2/3.0
Upstream neighbor Direct
Source 192.168.219.11
Prefix 192.168.219.0/28
Upstream interface fe-1/3/1.0
Upstream neighbor 192.168.219.9
Source 192.168.219.11
Prefix 192.168.219.0/28
Upstream interface fe-1/3/1.0
Upstream neighbor Direct
user@pr3> show pim source
Instance: PIM.master Family: INET
Source 10.2.7.7
Prefix 1.2.7.0/24
Upstream protocol MLDP
Upstream interface Pseudo MLDP
Upstream neighbor MLDP LSP root <10.1.1.2>
Source 192.168.219.11
Prefix 192.168.219.0/28
Upstream protocol MLDP
Upstream interface Pseudo MLDP
Upstream neighbor MLDP LSP root <10.1.1.2>
user@pr4> show pim source
Instance: PIM.master Family: INET
Source 10.1.1.4
Prefix 10.1.1.4/32
Upstream interface Local
Upstream neighbor Local
Source 192.168.219.11
Prefix 192.168.219.0/28
Upstream interface fe-1/2/0.0
Upstream neighbor 10.1.4.1
LDP データベースの確認
目的
show ldp databaseコマンドに、予期されるルートツー(S,G)バインディングが表示されていることを確認します。
アクション
user@IngressPE> show ldp database
Input label database, 10.255.2.227:0--10.1.1.3:0
Label Prefix
300096 10.1.1.2/32
3 10.1.1.3/32
299856 10.1.1.6/32
299776 10.255.2.227/32
Output label database, 10.255.2.227:0--10.1.1.3:0
Label Prefix
300144 10.1.1.2/32
299776 10.1.1.3/32
299856 10.1.1.6/32
3 10.255.2.227/32
Input label database, 10.255.2.227:0--10.1.1.6:0
Label Prefix
299936 10.1.1.2/32
299792 10.1.1.3/32
3 10.1.1.6/32
299776 10.255.2.227/32
Output label database, 10.255.2.227:0--10.1.1.6:0
Label Prefix
300144 10.1.1.2/32
299776 10.1.1.3/32
299856 10.1.1.6/32
3 10.255.2.227/32
300432 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7
300288 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11
300160 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11
300480 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11
user@EgressPE> show ldp database
Input label database, 10.1.1.2:0--10.1.1.3:0
Label Prefix
300096 10.1.1.2/32
3 10.1.1.3/32
299856 10.1.1.6/32
299776 10.255.2.227/32
300144 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7
300128 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11
Output label database, 10.1.1.2:0--10.1.1.3:0
Label Prefix
3 10.1.1.2/32
299776 10.1.1.3/32
299808 10.1.1.6/32
299792 10.255.2.227/32
Input label database, 10.1.1.2:0--10.1.1.6:0
Label Prefix
299936 10.1.1.2/32
299792 10.1.1.3/32
3 10.1.1.6/32
299776 10.255.2.227/32
300128 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7
299984 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11
299952 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11
300176 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11
300192 P2MP root-addr 10.1.1.2, grp: ff3e::1:2, src: 2001:db8:abcd::10:2:7:7
Output label database, 10.1.1.2:0--10.1.1.6:0
Label Prefix
3 10.1.1.2/32
299776 10.1.1.3/32
299808 10.1.1.6/32
299792 10.255.2.227/32
-----
logical-system: default
Input label database, 10.255.2.227:0--10.1.1.3:0
Label Prefix
300096 10.1.1.2/32
3 10.1.1.3/32
299856 10.1.1.6/32
299776 10.255.2.227/32
Output label database, 10.255.2.227:0--10.1.1.3:0
Label Prefix
300144 10.1.1.2/32
299776 10.1.1.3/32
299856 10.1.1.6/32
3 10.255.2.227/32
Input label database, 10.255.2.227:0--10.1.1.6:0
Label Prefix
299936 10.1.1.2/32
299792 10.1.1.3/32
3 10.1.1.6/32
299776 10.255.2.227/32
Output label database, 10.255.2.227:0--10.1.1.6:0
Label Prefix
300144 10.1.1.2/32
299776 10.1.1.3/32
299856 10.1.1.6/32
3 10.255.2.227/32
300432 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7
300288 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11
300160 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11
300480 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11
300496 P2MP root-addr 10.1.1.2, grp: ff3e::1:2, src: 2001:db8:abcd::10:2:7:7
user@p6> show ldp database
Input label database, 10.1.1.6:0--10.1.1.2:0
Label Prefix
3 10.1.1.2/32
299776 10.1.1.3/32
299808 10.1.1.6/32
Output label database, 10.1.1.6:0--10.1.1.2:0
Label Prefix
299776 10.1.1.2/32
299792 10.1.1.3/32
3 10.1.1.6/32
user@pr3> show ldp database
Input label database, 10.1.1.3:0--10.1.1.2:0
Label Prefix
3 10.1.1.2/32
299776 10.1.1.3/32
299808 10.1.1.6/32
299792 10.255.2.227/32
Output label database, 10.1.1.3:0--10.1.1.2:0
Label Prefix
300096 10.1.1.2/32
3 10.1.1.3/32
299856 10.1.1.6/32
299776 10.255.2.227/32
300144 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7
300128 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11
Input label database, 10.1.1.3:0--10.255.2.227:0
Label Prefix
300144 10.1.1.2/32
299776 10.1.1.3/32
299856 10.1.1.6/32
3 10.255.2.227/32
Output label database, 10.1.1.3:0--10.255.2.227:0
Label Prefix
300096 10.1.1.2/32
3 10.1.1.3/32
299856 10.1.1.6/32
299776 10.255.2.227/32
MPLSラベルのルート情報を検索する
目的
ポイントツーマルチポイントFEC情報を表示します。
アクション
user@EgressPE> show route label 299808 detail
mpls.0: 14 destinations, 14 routes (14 active, 0 holddown, 0 hidden)
299808 (1 entry, 1 announced)
*LDP Preference: 9
Next hop type: Flood
Address: 0x931922c
Next-hop reference count: 3
Next hop type: Router, Next hop index: 1109
Address: 0x9318b0c
Next-hop reference count: 2
Next hop: via so-0/1/3.0
Label operation: Pop
Next hop type: Router, Next hop index: 1110
Address: 0x93191e0
Next-hop reference count: 2
Next hop: 192.168.209.11 via fe-1/3/0.0
Label operation: Pop
State: **Active Int AckRequest>
Local AS: 10
Age: 13:08:15 Metric: 1
Validation State: unverified
Task: LDP
Announcement bits (1): 0-KRT
AS path: I
FECs bound to route: P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11
LDP トラフィック統計の確認
目的
ポイントツーマルチポイントLSPのデータトラフィック統計を監視します。
アクション
user@EgressPE> show ldp traffic-statistics p2mp
P2MP FEC Statistics:
FEC(root_addr:lsp_id/grp,src) Nexthop Packets Bytes Shared
10.1.1.2:232.2.2.2,10.2.7.7 so-0/1/3.0 0 0 No
10.1.1.2:232.1.1.1,192.168.219.11 so-0/1/3.0 0 0 No
fe-1/3/0.0 0 0 No
10.1.1.2:232.1.1.2,192.168.219.11 so-0/1/3.0 0 0 No
fe-1/3/0.0 0 0 No
lt-1/2/0.14 0 0 No
10.1.1.2:232.1.1.3,192.168.219.11 fe-1/3/0.0 0 0 No
10.1.1.2:ff3e::1:2,2001:db8:abcd::1:2:7:7 fe-1/3/0.0 0 0 No
LDPへのセグメントルーティング相互運用性のためのクライアントとサーバーのマッピング
セグメントルーティングマッピングサーバーとクライアントのサポートにより、LDPおよびセグメントルーティング(SRまたはSPRING)を実行するネットワークアイランド間での相互運用性が可能になります。この相互運用性は、LDPからSRへの移行時に役立ちます。移行中に、LDPのみまたはセグメントルーティングのみをサポートするデバイスを持つ島(またはドメイン)が存在する可能性があります。これらのデバイスを相互運用するためには、LDP セグメント ルーティング マッピング サーバー(SRMS)とセグメント ルーティング マッピング クライアント(SRMC)機能が必要です。これらのサーバーおよびクライアント機能は、セグメントルーティングネットワーク内のデバイスで有効にします。
SRマッピングサーバーとクライアント機能は、OSPFまたはIS-ISのいずれかでサポートされています。
LDPへのセグメントルーティング相互運用性の概要
図 22 は、セグメント ルーティング デバイスと LDP デバイスの相互運用性がどのように行われるかを説明するためのシンプルな LDP ネットワーク トポロジーを示しています。OSPFとIS-ISの両方がサポートされているので、今のところ、IGPに関しては依存関係がないことに留意してください。サンプルトポロジーには、LDPからセグメントルーティングへの移行を行っているネットワークにR1からR6の6つのデバイスがあります。
このトポロジーでは、デバイスR1、R2、R3はセグメントルーティング用にのみ設定されています。デバイスR5およびR6はレガシーLDPドメインの一部であり、現在SRをサポートしていません。デバイスR4はLDPとセグメントルーティングの両方をサポートしています。すべてのデバイスのループバックアドレスが表示されます。これらのループバックは、LDPドメインではegress FECとして、またSRドメインではSRノードIDとしてアドバタイズされます。相互運用性は、LDP FECをSRノードIDに、またSRノードIDにLDP FEDをマッピングすることに基づいています。
へのセグメントルーティング例
R1がR6と相互作用するためには、LDPセグメントルーティングマッピングサーバー(SRMS)とセグメントルーティングマッピングクライアント(SRMC)の両方が必要です。トラフィックフローを一方向に見た方が、SRMSとSRMCの役割は理解しやすいでしょう。 図22に基づくと、左から右にトラフィックフローはSRドメインで発生し、LDPドメインで終了することになります。同様に、右から左に流れるトラフィックは、LDPドメインで発生し、SRドメインで終了します。
SRMSは、トラフィックを左から右方向にステッチするのに必要な情報を提供します。SRMCは、右から左に流れるトラフィックのマッピングを提供します。
- 左から右へのトラフィックフロー:セグメントルーティングマッピングサーバー
SRMSは、SRドメインとLDPドメイン間のLSPステッチを容易にします。サーバーは、LDP FECをSRノードIDにマッピングします。LDP FECを
[edit routing-options source-packet-routing]階層レベルでマッピングするように設定します。通常、完全接続するには、すべてのLDPノードループバックアドレスをマッピングする必要があります。以下に示すように、単一のレンジステートメントで連続プレフィクスをマッピングできます。LDPノードループバックが連続しない場合は、複数のマッピングステートメントを定義する必要があります。SRMSマッピング設定は、
[edit protocols ospf]または[edit protocols isis]階層レベルで適用します。この選択は、どの IGP が使用されているかによって異なります。SRノードとLDPノードの両方が、共通のシングルエリア/レベル、IGPルーティングドメインを共有することに注意してください。SRMSは、拡張プレフィックスリストLSA(あるいはIS-ISの場合はLSP)を生成します。このLSAの情報により、SRノードはLDPプレフィックス(FEC)をSRノードIDにマッピングできます。LDPプレフィックス用のマッピングされたルートは、SRノードの
inet.3およびmpls.0ルーティングテーブルにインストールされ、左から右方向のトラフィックのLSP ingressとステッチ操作を容易にします。拡張LSA(またはLSP)は、(単一の)IGPエリア全体にフラッドされます。つまり、SRドメインのどのルーターにでも自由にSRMS設定を配置できます。SRMSノードは、LDPを実行する必要はありません。
- 右から左のトラフィックフロー:セグメントルーティングマッピングクライアント
右から左方向、つまり、LDPアイランドからSRアイランドへ相互運用するには、SRとLDPの両方と対話するノードでセグメントルーティングマッピングクライアント機能を有効にするだけです。この例では、R4です。SRMC機能を有効にするには、
[edit protocols ldp]階層のmapping-clientステートメントを使用します。SRMC設定は、自動的にLDP egressポリシーを有効にし、SRドメインのノードとプレフィックスSIDをLDP egress FECとしてアドバタイズします。これにより、LDP ノードから SR ドメインのノードへの LSP 到達可能性が提供されます。
- SRMC機能は、SRドメインとLSPドメインの両方に接続するルーターで設定する必要があります。必要に応じて、同じノードをSRMSとして機能させることもできます。
OSPFを使用したLDPへのセグメントルーティング相互運用性
図22を参照し、デバイスR2(セグメントルーティングネットワーク内)がSRMSであると仮定します。
-
SRMS機能を定義します。
[edit routing-options source-packet-routing ] user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s start-prefix 192.168.0.5 user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s start-index 1000 user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s size 2
この設定は、サンプルトポロジー内の両方のLDPデバイスループバックアドレスのマッピングブロックを作成します。R5のループバックにマッピングされた最初のセグメントID(SID)インデックスは
1000です。サイズ2を指定すると、SIDインデックス10001がR6のループバックアドレスにマッピングされます。注:start-prefixとして使用されるIPアドレスは、LDPネットワーク内のデバイスのループバックアドレスです(この例ではR5)。完全接続するには、LDPルーターのすべてのループバックアドレスをSRドメインにマッピングする必要があります。ループバックアドレスが連続している場合は、1つのprefix-segment-rangeステートメントでこれを行うことができます。連続していないループバックでは、複数のプレフィックスマッピングステートメントを定義する必要があります。この例では連続したループバックを使用しているため、1つの
prefix-segment-rangeを上記に示します。ここでは、連続していないループバックアドレスを持つ2つのLDPノードのケースをサポートするための複数マッピングの例を示します。[edit routing-options source-packet-routing] show mapping-server-entry map-server-name { prefix-segment-range lo1 { start-prefix 192.168.0.5/32; start-index 1000; size 1; } prefix-segment-range lo2 { start-prefix 192.168.0.10/32; start-index 2000; size 1; } } } -
次に、マッピングされたプレフィックスをフラッディングするのに使用される拡張LSAのOSPFサポートを設定します。
[edit protocols] user@R2# set ospf source-packet-routing mapping-server ospf-mapping-server
デバイスR2でマッピングサーバー設定がコミットされると、拡張プレフィックス範囲TLVがOSPFエリア全体にフラッディングされます。セグメントルーティング(R1、R2、R3)が可能なデバイスは、セグメントID(SID)インデックスで指定されたループバックアドレス(この例ではR5とR6)のOSPFセグメントルーティングルートをインストールします。SIDインデックスは、セグメントルーティングデバイスによって
mpls.0ルーティングテーブルでも更新されます。 -
SRMC機能を有効にします。サンプルトポロジーでは、R4でSRMC機能を有効にする必要があります。
[edit protocols] user@R4# set ldp sr-mapping-client
デバイスR4でマッピングクライアント設定がコミットされると、SRノードIDとラベルブロックはエグレスFECとしてルーターR5にアドバタイズされ、次にR6に再アドバタイズされます。
Junos OS 19.1R1で、OSPFによるセグメントルーティングとLDPネクストホップのステッチのサポートが開始されました。
Unsupported Features and Functionality for Segment Routing interoperability with LDP using OSPF
-
IPv6 プレフィックスはサポートされていません。
-
AS境界をまたぐOSPF拡張プレフィックス不透明LSAのフラッディング(AS間)はサポートされていません。
-
エリア間LDPマッピングサーバー機能はサポートされていません。
-
拡張プレフィックスOpaque LSAのABR機能はサポートされていません。
-
拡張プレフィックスOpaque LSAのASBR機能はサポートされていません。
-
セグメント ルーティング マッピング サーバー優先度 TLV はサポートされていません。
IS-ISを使用したLDPとのセグメントルーティングの相互運用性
図22を参照し、デバイスR2(セグメントルーティングネットワーク内)がSRMSであると仮定します。マッピング機能に以下の設定が追加されます。
-
SRMS機能を定義します。
[edit routing-options source-packet-routing ] user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s start-prefix 192.168.0.5 user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s start-index 1000 user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s size 2
この設定は、サンプルトポロジー内の両方のLDPデバイスループバックアドレスのマッピングブロックを作成します。R5のループバックにマッピングされた最初のセグメントID(SID)インデックスは
1000です。サイズ2を指定すると、SIDインデックス10001がR6のループバックアドレスにマッピングされます。注:start-prefixとして使用されるIPアドレスは、LDPネットワーク内のデバイスのループバックアドレスです(この例ではR5)。完全接続するには、LDPルーターのすべてのループバックアドレスをSRドメインにマッピングする必要があります。ループバックアドレスが連続している場合は、prefix-segment-rangeステートメントでこれを行うことができます。連続していないループバックでは、複数のマッピングステートメントを定義する必要があります。この例では連続したループバックを使用しているため、1つの
prefix-segment-rangeを上記に示します。ここでは、連続していないループバックアドレスを持つ2つのLDPルーターのケースを処理するためのプレフィックスマッピングの例を示します。[edit routing-options source-packet-routing] show mapping-server-entry map-server-name { prefix-segment-range lo1 { start-prefix 192.168.0.5/32; start-index 1000; size 1; } prefix-segment-range lo2 { start-prefix 192.168.0.10/32; start-index 2000; size 1; } } } -
次に、マッピングされたプレフィックスをフラッディングするために使用される拡張LSPのIS-ISサポートを設定します。
[edit protocols] user@R2# set isis source-packet-routing mapping-server isis-mapping-server
デバイスR2でマッピングサーバー設定がコミットされると、拡張プレフィックス範囲TLVがOSPFエリア全体にフラッディングされます。セグメントルーティングが可能なデバイス(R1、R2、R3)は、セグメントID(SID)インデックスを使用して、指定されたループバックアドレス(この例ではR5とR6)のIS-ISセグメントルーティングルートをインストールします。SIDインデックスは、セグメントルーティングデバイスによって
mpls.0ルーティングテーブルでも更新されます。 -
SRMC機能を有効にします。サンプルトポロジーでは、R4でSRMC機能を有効にする必要があります。
[edit protocols] user@R4# set ldp sr-mapping-client
デバイスR4でマッピングクライアント設定がコミットされると、SRノードIDとラベルブロックはエグレスFECとしてルーターR5にアドバタイズされ、そこからR6にアドバタイズされます。
Junos OS 17.4R1で、IS-ISでのセグメントルーティングとLDPネクストホップのステッチのサポートが開始されました。
Unsupported Features and Functionality for Interoperability of Segment Routing with LDP using IS-IS
-
ラベルバインディングTLVの最後から2番目のホップポッピング動作はサポートされていません。
-
ラベルバインディングTLVのプレフィックス範囲のアドバタイズはサポートされていません。
-
セグメントルーティングの競合解決はサポートされていません。
-
LDPトラフィック統計は機能しません。
-
NSR(ノンストップアクティブルーティング)とGRES(グレースフルルーティングエンジンスイッチオーバー)はサポートされていません。
-
IS-IS 階層間はサポートされていません。
-
RFC 7794、 拡張IPv4のIS-ISプレフィックス属性 はサポートされていません。
-
ステッチノードでのプレフィックスSIDとしてのLDPルートの再配布はサポートされていません。
その他のLDPプロパティ
以下のセクションでは、各種LDPプロパティの設定方法について説明します。
- IGPルートメトリックを使用するようにLDPを設定する
- inet.0ルーティングテーブルへのイングレスルートの追加防止
- 複数インスタンスLDPおよびキャリアオブキャリアVPN
- 最終ホップルーターでラベルをポップするようにMPLSおよびLDPを設定します
- RSVPが確立したLSP上でLDPの有効化
- ヘテロジニアスネットワークでRSVPが確立したLSP上でLDPの有効化
- LDPセッションのTCP MD5シグネチャの設定
- LDPセッション保護の設定
- LDPのSNMPトラップの無効化
- LDPリンク上のIGPとのLDP同期の設定
- ルーターの IGP との LDP 同期の設定
- ラベル取消タイマーの設定
- LDPサブネットチェックの無視
IGPルートメトリックを使用するようにLDPを設定する
デフォルトのLDPルートメトリック(デフォルトのLDPルートメトリックは1)ではなく、interior gateway protocol(IGP)ルートメトリックをLDPルートに使用したい場合は、 track-igp-metric ステートメントを使用します。
IGPルートメトリックを使用するには、 track-igp-metric ステートメントを含めます。
track-igp-metric;
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
inet.0ルーティングテーブルへのイングレスルートの追加防止
no-forwardingステートメントを設定することで、[edit protocols mpls]または[edit logical-systems logical-system-name protocols mpls]階層レベルでtraffic-engineering bgp-igpステートメントを有効にした場合でも、ingressルートがinet.3ルーティングテーブルではなくinet.0ルーティングテーブルに追加されないようにすることができます。デフォルトでは、no-forwardingステートメントは無効になっています。
ACXシリーズルーターは[edit logical-systems]階層レベルをサポートしていません。
inet.0 ルーティングテーブルからイングレスルートを除外するには、 no-forwarding ステートメントを含めます。
no-forwarding;
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
複数インスタンスLDPおよびキャリアオブキャリアVPN
複数のLDPルーティングインスタンスを設定することで、LDPを使用して、サービスプロバイダエッジ(PE)からカスタマーキャリアカスタマーエッジ(CE)ルータールーターまで、キャリアオブキャリアVPNのラベルをアドバタイズできます。これは、キャリアカスタマーが基本的なインターネットサービスプロバイダ(ISP)であり、インターネットのフルルートをPEルーターに制限したい場合に特に役立ちます。BGPの代わりにLDPを使用することで、キャリアカスタマーはインターネットから他の内部ルーターを保護します。また、キャリアカスタマーがレイヤー2またはレイヤー3VPNサービスを顧客に提供したい場合にも、複数インスタンスLDPが便利です。
キャリアオブキャリアVPNに複数のLDPルーティングインスタンスを設定する方法の例については、 ラベル配布プロトコルユーザーガイドの複数インスタンスを参照してください。
最終ホップルーターでラベルをポップするようにMPLSおよびLDPを設定します
デフォルトでアドバタイズされたラベルは、ラベル3(Implicit Nullラベル)です。ラベル3がアドバタイズされると、最後から2番目のホップルーターはラベルを削除し、パケットをegressルーターに送信します。最終ホップのポッピングが有効になっている場合、ラベル0(IPv4 Explicit Nullラベル)がアドバタイズされます。最終ホップのポッピングにより、MPLSネットワークを通過するすべてのパケットにラベルが含まれます。
最終ホップのポッピングを設定するには、 explicit-null ステートメントを含めます。
explicit-null;
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
ジュニパーネットワークスのルーターは、着信ラベルに基づいてパケットをキューに入れます。他のベンダーのルーターは、パケットを個別にキューに入れる場合があります。複数のベンダーのルーターを搭載したネットワークで作業する場合は、この点に留意してください。
ラベルの詳細については、 MPLSラベルの概要 と MPLSラベルの割り当てを参照してください。
RSVPが確立したLSP上でLDPの有効化
RSVPが確立したLSP上でLDPを実行し、RSVPが確立したLSPからLDPが確立したLSPを効果的にトンネリングできます。そのためには、lo0.0インターフェイスでLDPを有効にします(LDPの有効化および無効化を参照してください)。また、[edit protocols mpls label-switched-path lsp-name]階層レベルでldp-tunnelingステートメントを含めて、LDPを動作させるLSPを設定する必要があります。
[edit]
protocols {
mpls {
label-switched-path lsp-name {
from source;
to destination;
ldp-tunneling;
}
}
}
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
LDPは、リンク保護が有効なRSVPセッションをトンネルできます。Junos OSリリース21.1R1以降、LDPトンネルルートに関する詳細を表示すると、プライマリおよびバイパスLSPネクストホップの両方が表示されます。以前の Junos OS リリースでは、バイパス LSP ネクスト ホップはプライマリ LSP のネクスト ホップを表示します。
ヘテロジニアスネットワークでRSVPが確立したLSP上でLDPの有効化
一部のベンダーは、ループバックアドレスにOSPFメトリック1を使用しています。ジュニパーネットワークスルーターは、ループバックアドレスにOSPFメトリック0を使用します。このため、ヘテロジニアスネットワークのRSVP LSP上でLDPトンネリングを展開する場合、RSVPメトリックを手動で設定する必要があるかもしれません。
ジュニパーネットワークスルーターがRSVPトンネルを介して別のベンダーのルーターにリンクされ、LDPトンネリングも有効になっている場合、RSVPパスに物理OSPFパスよりも1大きいメトリックがある場合、ジュニパーネットワークスルーターはデフォルトでRSVPトンネルを使用して他のベンダーのegressルーターのLDP宛先ダウンストリームにトラフィックをルーティングしない可能性があります。
ヘテロジニアスネットワークでLDPトンネリングが正しく機能することを確認するには、 ignore-lsp-metrics ステートメントを含めることで、RSVP LSPメトリックを無視するようにOSPFを設定することができます。
ignore-lsp-metrics;
以下の階層レベルでこのステートメントを設定できます。
-
[edit protocols ospf traffic-engineering shortcuts] -
[edit logical-systems logical-system-name protocols ospf traffic-engineering shortcuts]
ACXシリーズルーターは[edit logical-systems]階層レベルをサポートしていません。
RSVP LSP上でLDPを有効にするには、 RSVPが確立したLSP上でLDPを有効にするセクションの手順も完了する必要があります。
LDPセッションのTCP MD5シグネチャの設定
LDP TCP接続にMD5シグネチャを設定し、LDPセッション接続ストリームに偽装されたTCPセグメントの導入を防止することができます。TCP認証の詳細については、 TCPを参照してください。TCP MD5ではなくTCP認証オプション(TCP-AO)の使用方法については、 TCP認証オプション(TCP-AO)を参照してください。
MD5シグネチャオプションを使用したルーターは、認証が必要な各ピアのパスワードで設定されます。パスワードは暗号化して保存されます。
ピアリングインターフェイスに異なるセキュリティシグネチャが設定されている場合でも、LDP Hello隣接関係を作成できます。ただし、TCPセッションは認証できず、確立されることはありません。
LDPセッションのハッシュメッセージ認証コード(HMAC)およびMD5認証は、セッションごとの構成またはサブネットマッチ(つまり最長プレフィックスマッチ)構成として構成できます。サブネット一致認証のサポートにより、自動ターゲットLDP(TLDP)セッションの認証を柔軟に設定できます。これにより、リモートループフリー代替(LFA)およびFEC 129疑似ワイヤの導入が容易になります。
LDP TCP接続にMD5シグネチャを設定するには、セッショングループの一部として authentication-key ステートメントを含めます。
[edit protocols ldp]
session-group prefix-length {
authentication-key md5-authentication-key;
}
session-groupステートメントを使用して、LDPセッションのリモートエンドのアドレスを設定します。
設定の md5-authentication-key、またはパスワードは、最大69文字です。文字には任意のASCII文字列を含めることができます。スペースを含む場合は、すべての文字を引用符で囲んでください。
また、LDPルーティングプロトコルに認証キー更新メカニズムを設定することもできます。このメカニズムにより、OSPF(Open Shortest Path First)やRSVP(Resource Reservation Setup Protocol)などの関連するルーティングやシグナリングプロトコルを中断することなく、認証キーを更新できます。
認証キー更新メカニズムを設定するには、[edit security authentication-key-chains]階層レベルでkey-chainステートメントを含め、複数の認証キーで構成されるキーチェーンを作成するkeyオプションを指定します。
[edit security authentication-key-chains]
key-chain key-chain-name {
key key {
secret secret-data;
start-time yyyy-mm-dd.hh:mm:ss;
}
}
LDPルーティングプロトコルに認証キー更新メカニズムを設定するには、[edit protocols ldp]階層レベルで authentication-key-chain ステートメントを含め、プロトコルを[edit security suthentication-key-chains]認証キーに関連付けます。また、[edit protocols ldp]階層レベルにauthentication-algorithm algorithmステートメントを含めて、認証アルゴリズムを設定する必要があります。
[edit protocols ldp]
group group-name {
neighbor address {
authentication-algorithm algorithm;
authentication-key-chain key-chain-name;
}
}
認証キー更新機能の詳細については、 BGPおよびLDPルーティングプロトコルの認証キー更新メカニズムの設定を参照してください。
LDPセッション保護の設定
通常、LDPセッションは、1つ以上のリンクで接続されている2つのルーター間で作成されます。ルーターは、各リンクに1つのHello隣接関係を形成し、これによってルーターが接続され、すべての隣接関係が対応するLDPセッションに関連付けられます。LDPセッションの最後のHello隣接関係がなくなると、LDPセッションは終了します。LDPセッションが不必要に終了して再確立されないように、この動作を変更することができます。
session-protectionステートメントを設定することで、2つのルーターを接続するリンクにhello隣接関係がない場合でも、2つのルーター間でLDPセッションを稼動させたままにしておくようにJunos OSを設定することができます。オプションで、timeoutオプションを使用して時間を秒単位で指定できます。ルーターがIPネットワーク接続性を維持する限り、指定された期間中、セッションは稼働を続けます。
session-protection { timeout seconds; }
このステートメントを含めることができる階層レベルの一覧については、ステートメント概要セクションを参照してください。
LDPのSNMPトラップの無効化
LDP LSPが上から下、または下から上に移動するたびに、ルーターはSNMPトラップを送信します。ただし、ルーター、論理システム、またはルーティングインスタンスでLDP SNMPトラップを無効にすることは可能です。
LDP SNMPトラップおよび独自のLDP MIBについては、 SNMP MIBエクスプローラーを参照してください。
LDPのSNMPトラップを無効にするには、log-updownステートメントのtrap disableオプションを指定します。
log-updown { trap disable; }
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
LDPリンク上のIGPとのLDP同期の設定
LDPは、トラフィックエンジニアリングを行っていないアプリケーションでラベルを配信するためのプロトコルです。ラベルは、IGPによって決定される最適パスに沿って配布されます。LDPとIGP間の同期が維持されていない場合、LSPはダウンします。特定のリンクでLDPが完全に動作していない場合(セッションが確立されておらず、ラベルが交換されていない)、IGPは最大コストメトリックでリンクをアドバタイズします。リンクは優先されませんが、ネットワークトポロジーに残ります。
LDP同期は、IGPの下でポイントツーポイントとして設定されたアクティブなポイントツーポイントインターフェイスとLANインターフェイスでのみサポートされています。グレースフル リスタート時には LDP 同期はサポートされていません。
LDPが稼働して同期するまで最大コストメトリックをアドバタイズするには、 ldp-synchronization ステートメントを含めます。
ldp-synchronization { disable; hold-time seconds; }
同期を無効にするには、 disable ステートメントを含めます。フル稼働していないリンクの最大コストメトリックをアドバタイズする期間を設定するには、 hold-time ステートメントを含めます。
このステートメントを設定できる階層レベルの一覧については、このステートメントの概要のセクションを参照してください。
ルーターの IGP との LDP 同期の設定
インターフェイスのLDPネイバーとセッションが動作していることをIGPに通知する前に、LDPの待機時間を設定することができます。多数のFECを搭載した大規模ネットワークの場合、LDPラベルデータベースを交換するのに十分な時間を確保するために、より長い値を設定する必要があるかもしれません。
LDPネイバーおよびセッションが稼働していることをIGPに通知する前にLDPの待機時間を設定するには、 igp-synchronization ステートメントを含め、 holddown-interval オプションの時間を秒単位で指定します。
igp-synchronization holddown-interval seconds;
このステートメントを設定できる階層レベルの一覧については、このステートメントの概要のセクションを参照してください。
ラベル取消タイマーの設定
ラベル取消タイマーは、FECのラベル取消メッセージをネイバーに送信するタイミングを遅らせます。ネイバーがFECのネクストホップの場合、ネイバーへのIGPリンクに障害が発生すると、すべてのアップストリームルーターからFECに関連するラベルを取り消す必要があります。IGPが収束し、新しいネクストホップからラベルを受信した後、ラベルはすべてのアップストリームルーターに再アドバタイズされます。これが典型的なネットワーク動作です。わずかな時間でもラベル取消を遅らせることで(例えば、IGPが収束し、ルーターがダウンストリームのネクストホップからFECの新しいラベルを受信するまで)、ラベルの取消やラベルマッピングの早急な送信を避けることができます。 label-withdrawal-delay ステートメントでは、この遅延時間を設定することができます。デフォルトでは、遅延は60秒です。
タイマーが時間切れになる前にルーターが新しいラベルを受信すると、ラベル取消タイマーはキャンセルされます。ただし、タイマーが時間切れになると、FECのラベルはすべてのアップストリームルーターから取り消されます。
デフォルトでは、LDP はラベルを取り消す前に 60 秒待機してからラベルを取り消すため、IGP が再収束している間に何度も LSP を再シグナリングしないようにします。ラベル取消の遅延時間を秒単位で設定するには、 label-withdrawal-delay ステートメントを含めます。
label-withdrawal-delay seconds;
このステートメントを設定できる階層レベルの一覧については、このステートメントの概要のセクションを参照してください。
LDPサブネットチェックの無視
Junos OSリリース8.4以降のリリースでは、ネイバー確立の手続き中にLDP送信元アドレスサブネットチェックが実行されます。LDPリンクのhelloパケットの送信元アドレスがインターフェイスアドレスと照合されます。これにより、一部のベンダーの機器との相互運用性の問題が発生します。
サブネットチェックを無効にするには、 allow-subnet-mismatch ステートメントを含めます。
allow-subnet-mismatch;
このステートメントは、以下の階層レベルで含めることができます。
-
[edit protocols ldp interface interface-name] -
[edit logical-systems logical-system-name protocols ldp interface interface-name]
ACXシリーズルーターは[edit logical-systems]階層レベルをサポートしていません。
関連項目
LDP LSP トレースルートの設定
LDP シグナル LSP が続くルートをトレースできます。LDP LSP トレースルートは、RFC 4379 マルチ プロトコルラベルスイッチ (MPLS) データプレーン障害の検出に基づいています。この機能により、FEC 内のすべてのパスを定期的にトレースできます。FECトポロジー情報は、CLIからアクセス可能なデータベースに保存されます。
トポロジーを変更しても、LDP LSP のトレースが自動的にトリガーされることはありません。ただし、トレースルートは手動で開始できます。トレースルートリクエストが現在データベースにあるFECに対するものである場合、データベースのコンテンツが結果とともに更新されます。
定期トレースルート機能は、[edit protocols ldp]階層レベルで設定されたoamステートメントで指定されたすべてのFECに適用されます。定期的なLDP LSPトレースルートを設定するには、periodic-tracerouteステートメントを含めます。
periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; }
以下の階層レベルでこのステートメントを設定できます。
periodic-tracerouteステートメントを単独で、または以下のオプションのいずれかを使って設定できます。
exp—プローブを送信する際に使用するサービスのクラスを指定します。fanout—ノードごとに検索するネクストホップの最大数を指定します。frequency—トレースルート試行の間隔を指定します。paths—検索するパスの最大数を指定します。retries—あきらめる前に特定のノードにプローブを送信する試行回数を指定します。source—プローブを送信する際に使用するIPv4送信元アドレスを指定します。ttl—TTL(Time-to-live)の最大値を指定します。この値を超えるノードはトレースされません。wait—プローブパケットを再送する前に、待機間隔を指定します。
LDP 統計の収集
LDP トラフィック統計は、ルーター上の特定の FEC を通過したトラフィックの量を示します。
[edit protocols ldp]階層レベルでtraffic-statisticsステートメントを設定すると、LDPトラフィック統計が定期的に収集され、ファイルに書き込まれます。intervalオプションを使用することで、統計を収集する頻度(秒単位)を設定することができます。デフォルトの収集間隔は 5 分です。LDP 統計ファイルを設定する必要があります。それ以外の場合、LDPトラフィック統計は収集されません。LSP がダウンした場合、LDP 統計はリセットされます。
LDPトラフィック統計を収集するには、 traffic-statistics ステートメントを含めます。
traffic-statistics { file filename <files number> <size size> <world-readable | no-world-readable>; interval interval; no-penultimate-hop; }
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
このセクションでは、以下のトピックについて説明します。
LDP 統計出力
以下のサンプル出力は、LDP 統計ファイルからのものです。
FEC Type Packets Bytes Shared
10.255.350.448/32 Transit 0 0 No
Ingress 0 0 No
10.255.350.450/32 Transit 0 0 Yes
Ingress 0 0 No
10.255.350.451/32 Transit 0 0 No
Ingress 0 0 No
220.220.220.1/32 Transit 0 0 Yes
Ingress 0 0 No
220.220.220.2/32 Transit 0 0 Yes
Ingress 0 0 No
220.220.220.3/32 Transit 0 0 Yes
Ingress 0 0 No
May 28 15:02:05, read 12 statistics in 00:00:00 seconds
LDP 統計ファイルには、以下のデータの列が含まれています。
FEC—LDP トラフィック統計を収集する FEC。Type—ルーターから発信されたトラフィックのタイプ、Ingress(このルーターから発信)またはTransit(このルーターを介して転送される)のいずれか。Packets—LSPの出現以来、FECがパスしたパケット数。Bytes—LSPの出現以来、FECがパスしたデータのバイト数。Shared—Yes値は、複数のプレフィックスが同じラベルにバインドされていることを示します(例えば、複数のプレフィックスがエグレスポリシーでアドバタイズされている場合など)。この場合のLDPトラフィック統計はすべてのプレフィックスに適用され、そのように処理する必要があります。read—この数値(日付と時刻の横に表示されます)は、表示される実際の統計数とは異なる場合があります。一部の統計は、表示される前に要約されています。
最後から 2 番目のホップ ルーターでの LDP 統計の無効化
LDP トラフィック統計を最後から 2 番目のホップ ルーターで収集すると、特にネクストホップ ルートにおいて、過剰なシステム リソースを消費する可能性があります。この問題は、traffic-statisticsステートメントに加えてdeaggregateステートメントを設定していると悪化します。ネクストホップルート使用の限界に達するルーターには、traffic-statisticsステートメントにno-penultimate-hopオプションを設定することをお勧めします。
traffic-statistics { no-penultimate-hop; }
traffic-statisticsステートメントを設定できる階層レベルの一覧については、このステートメントの概要のセクションを参照してください。
no-penultimate-hopオプションを設定する場合、このルーターの最後から 2 番目のホップである FEC の統計は利用できません。
このオプションを設定に含めたり削除したりするたびに、LDP セッションはダウンし再起動されます。
次のサンプル出力は、 no-penultimate-hop オプションが設定されているルーターを示すLDP統計ファイルからのものです。
FEC Type Packets Bytes Shared
10.255.245.218/32 Transit 0 0 No
Ingress 4 246 No
10.255.245.221/32 Transit statistics disabled
Ingress statistics disabled
13.1.1.0/24 Transit statistics disabled
Ingress statistics disabled
13.1.3.0/24 Transit statistics disabled
Ingress statistics disabled
LDP 統計の制限
以下は、 traffic-statistics ステートメントを設定することによるLDP統計の収集に関連する問題です。
LDP 統計のクリアはできません。
指定された間隔を短縮する場合、統計タイマーが新しい間隔よりも遅い場合にのみ、新しいLDP統計リクエストが発行されます。
新しい LDP 統計収集操作は、前の操作が完了するまで開始できません。間隔が短い場合、または LDP 統計の数が大きい場合は、2 つの統計収集のタイム ギャップが間隔よりも長くなることがあります。
LSP がダウンすると、LDP 統計はリセットされます。
LDP プロトコル トラフィックのトレース
以下のセクションでは、LDP プロトコル トラトラフィックを調べるためのトレース オプションを設定する方法について説明します。
プロトコルとルーティングインスタンスレベルでのLDPプロトコルトラフィックのトレース
LDPプロトコルトラフィックをトレースするには、[edit routing-options]階層レベルでグローバルtraceoptionsステートメントでオプションを指定し、traceoptionsステートメントを含めることでLDP固有のオプションを指定することができます。
traceoptions { file filename <files number> <size size> <world-readable | no-world-readable>; flag flag <flag-modifier> <disable>; }
このステートメントを含めることができる階層レベルの一覧については、このステートメントの「ステートメント概要」セクションを参照してください。
file ステートメントを使用して、トレース操作の出力を受信するファイル名を指定します。すべてのファイルが /var/log のディレクトリに置かれます。LDPトレーシングの出力は、ldp-logファイルに置くことをお勧めします。
以下のトレース フラグは、さまざまな LDP メッセージの送受信に関連する動作を表示します。それぞれ、以下の 1 つ以上の修飾子を伝送できます。
address—アドレスおよびアドレス撤回メッセージの動作をトレースします。binding- ラベルバインディング動作をトレースします。error- エラー状態をトレースします。event—プロトコルイベントをトレースします。initialization—初期化メッセージの動作をトレースします。label—ラベルリクエスト、ラベルマップ、ラベル取り消し、ラベルリリースメッセージの動作をトレースします。notification—通知メッセージの動作をトレースします。packets—アドレス、アドレス取り消し、初期化、ラベル要求、ラベルマップ、ラベル取り消し、ラベルリリース、通知、および周期メッセージの動作をトレースします。この修飾子は、address、initialization、label、notification、およびperiodicの修飾子を設定することと同じです。また、
filterフラグ修飾子にpacketsフラグのmatch-on addressサブオプションを設定することもできます。これにより、パケットの送信元アドレスと宛先アドレスに基づいてトレースできます。path- ラベルスイッチ パス動作をトレースします。path- ラベルスイッチ パス動作をトレースします。periodic—helloとキープアライブメッセージの動作をトレースします。route—ルート メッセージの動作をトレースします。state—プロトコル状態遷移をトレースします。
FEC 内で LDP プロトコル トラフィックをトレース
LDP は、作成する各 LSP に FEC(Forwarding Equivalence Class)を関連付けます。LSP に関連する FEC は、どのパケットがその LSP にマッピングされるかを指定します。各ルーターは、ネクスト ホップが FEC 用にアドバタイズするラベルを選択し、他のすべてのルーターにアドバタイズするラベルにスプライスすることで、LSP はネットワークを介して拡張されます。
特定のFEC内のLDPプロトコルトラフィックをトレースし、FECに基づいてLDPトレースステートメントをフィルタリングできます。これは、FEC に関連する LDP プロトコルのトラフィックをトレースしたり、トラブルシューティングしたりする場合に便利です。この目的には、 route、 path、 binding のトレース フラグを使用できます。
次の例は、FEC に基づいて LDP トレース ステートメントをフィルタリングするために LDP traceoptions ステートメントを設定する方法を示しています。
[edit protocols ldp traceoptions] set flag route filter match-on fec policy "filter-policy-for-ldp-fec";
この機能には以下の制限があります。
このフィルタリング機能は、IPv4(IPバージョン4)のプレフィックスで構成されたFECでのみ使用できます。
レイヤー 2 回線 FEC はフィルタリングできません。
ルート トレースとフィルタリングの両方を設定した場合、MPLS ルートは表示されません(フィルタによってブロックされます)。
フィルタリングは、ポリシーと
match-onオプションの設定値によって決定されます。ポリシーを設定するときは、デフォルトの動作が常にrejectであることを確認してください。唯一の
match-onオプションはfecです。そのため、含めるべきポリシーの種類は、ルートフィルターポリシーのみとなります。
例:LDP プロトコル トラフィックのトレース
LDP パス メッセージを詳細にトレースします。
[edit]
protocols {
ldp {
traceoptions {
file ldp size 10m files 5;
flag path;
}
}
}
すべての LDP の発信メッセージをトレースします。
[edit]
protocols {
ldp {
traceoptions {
file ldp size 10m files 5;
flag packets;
}
}
}
すべてのLDPエラー状態をトレースします。
[edit]
protocols {
ldp {
traceoptions {
file ldp size 10m files 5;
flag error;
}
}
}
すべての LDP 受信メッセージとすべてのラベルバインディング動作をトレースします。
[edit]
protocols {
ldp {
traceoptions {
file ldp size 10m files 5 world-readable;
flag packets receive;
flag binding;
}
interface all {
}
}
}
LSP に関連する FEC の LDP プロトコルトラフィックをトレースします。
[edit]
protocols {
ldp {
traceoptions {
flag route filter match-on fec policy filter-policy-for-ldp-fec;
}
}
}
変更履歴テーブル
サポートされる機能は、使用しているプラットフォームとリリースによって決まります。 機能エクスプローラー を使用して、機能がお使いのプラットフォームでサポートされているかどうかを確認します。

