Monitoring and Troubleshooting
SUMMARY 이 섹션에서는 Junos OS의 네트워크 모니터링 및 문제 해결 기능에 대해 설명합니다.
Ping 호스트
목적
CLI ping
명령을 사용하여 네트워크를 통해 호스트에 연결할 수 있는지 확인합니다. 이 명령은 호스트 및 네트워크 연결 문제를 진단하는 데 유용합니다. 디바이스는 일련의 ICMP(Internet Control Message Protocol) 에코(ping) 요청을 지정된 호스트에 보내고 ICMP 에코 응답을 수신합니다.
작업
명령을 사용하여 ping
host3에 4개의 요청(ping 수)을 보내려면 다음을 수행합니다.
ping host count number
샘플 출력
command-name
ping host3 count 4 user@switch> ping host3 count 4 PING host3.site.net (192.0.2.111): 56 data bytes 64 bytes from 192.0.2.111: icmp_seq=0 ttl=122 time=0.661 ms 64 bytes from 192.0.2.111: icmp_seq=1 ttl=122 time=0.619 ms 64 bytes from 192.0.2.111: icmp_seq=2 ttl=122 time=0.621 ms 64 bytes from 192.0.2.111: icmp_seq=3 ttl=122 time=0.634 ms --- host3.site.net ping statistics --- 4 packets transmitted, 4 packets received, 0% packet loss round-trip min/avg/max/stddev = 0.619/0.634/0.661/0.017 ms
의미
결과에는
ping
다음 정보가 표시됩니다.ping 응답 패킷의 크기(바이트)입니다.
응답이 전송된 호스트의 IP 주소입니다.
ping 응답 패킷의 시퀀스 번호입니다. 이 값을 사용하여 ping 응답을 해당 ping 요청과 일치시킬 수 있습니다.
ping 응답 패킷의 TTL(Time-to-Live) 홉 카운트 값입니다.
ping 요청 패킷 전송과 ping 응답 패킷 수신 사이의 총 시간(밀리초)입니다. 이 값을 왕복 시간이라고도 합니다.
호스트로 전송된 ping 요청(프로브) 수입니다.
호스트로부터 받은 ping 응답 수입니다.
패킷 손실률.
왕복 시간 통계: 왕복 시간의 최소값, 평균값, 최대값 및 표준편차입니다.
라우터 또는 스위치를 통한 트래픽 모니터링
문제 진단을 위해 라우터 또는 스위치의 물리적 인터페이스를 통과하는 트래픽에 대한 실시간 통계를 표시합니다.
물리적 인터페이스에 대한 실시간 통계를 표시하려면 다음 작업을 수행하십시오.
라우터 또는 스위치의 모든 인터페이스에 대한 실시간 통계 표시
목적
라우터 또는 스위치의 모든 인터페이스를 통과하는 트래픽에 대한 실시간 통계를 표시합니다.
작업
라우터 또는 스위치의 모든 인터페이스를 통과하는 트래픽에 대한 실시간 통계 표시:
user@host> monitor interface traffic
샘플 출력
command-name
user@host> monitor interface traffic host name Seconds: 15 Time: 12:31:09 Interface Link Input packets (pps) Output packets (pps) so-1/0/0 Down 0 (0) 0 (0) so-1/1/0 Down 0 (0) 0 (0) so-1/1/1 Down 0 (0) 0 (0) so-1/1/2 Down 0 (0) 0 (0) so-1/1/3 Down 0 (0) 0 (0) t3-1/2/0 Down 0 (0) 0 (0) t3-1/2/1 Down 0 (0) 0 (0) t3-1/2/2 Down 0 (0) 0 (0) t3-1/2/3 Down 0 (0) 0 (0) so-2/0/0 Up 211035 (1) 36778 (0) so-2/0/1 Up 192753 (1) 36782 (0) so-2/0/2 Up 211020 (1) 36779 (0) so-2/0/3 Up 211029 (1) 36776 (0) so-2/1/0 Up 189378 (1) 36349 (0) so-2/1/1 Down 0 (0) 18747 (0) so-2/1/2 Down 0 (0) 16078 (0) so-2/1/3 Up 0 (0) 80338 (0) at-2/3/0 Up 0 (0) 0 (0) at-2/3/1 Down 0 (0) 0 (0) Bytes=b, Clear=c, Delta=d, Packets=p, Quit=q or ESC, Rate=r, Up=^U, Down=^D
의미
샘플 출력은 활성 인터페이스에 대한 트래픽 데이터와 명령이 시작된 이후 또는 키를 사용하여 C
카운터가 지워진 이후 각 필드가 변경된 양을 표시합니다. 이 예제에서는 monitor interface
명령이 실행된 이후 또는 카운터가 마지막으로 0으로 반환된 이후 명령이 15초 동안 실행되었습니다.
라우터 또는 스위치의 인터페이스에 대한 실시간 통계 표시
목적
라우터 또는 스위치의 인터페이스를 통과하는 트래픽에 대한 실시간 통계를 표시합니다.
작업
라우터 또는 스위치의 인터페이스를 통과하는 트래픽을 표시하려면 다음 Junos OS CLI 운영 모드 명령을 사용합니다.
user@host> monitor interface interface-name
샘플 출력
command-name
user@host> monitor interface so-0/0/1 Next='n', Quit='q' or ESC, Freeze='f', Thaw='t', Clear='c', Interface='i' R1 Interface: so-0/0/1, Enabled, Link is Up Encapsulation: PPP, Keepalives, Speed: OC3 Traffic statistics: Input bytes: 5856541 (88 bps) Output bytes: 6271468 (96 bps) Input packets: 157629 (0 pps) Output packets: 157024 (0 pps) Encapsulation statistics: Input keepalives: 42353 Output keepalives: 42320 LCP state: Opened Error statistics: Input errors: 0 Input drops: 0 Input framing errors: 0 Input runts: 0 Input giants: 0 Policed discards: 0 L3 incompletes: 0 L2 channel errors: 0 L2 mismatch timeouts: 0 Carrier transitions: 1 Output errors: 0 Output drops: 0 Aged packets: 0 Active alarms : None Active defects: None SONET error counts/seconds: LOS count 1 LOF count 1 SEF count 1 ES-S 77 SES-S 77 SONET statistics: BIP-B1 0 BIP-B2 0 REI-L 0 BIP-B3 0 REI-P 0 Received SONET overhead: F1 : 0x00 J0 : 0xZ
의미
샘플 출력은 특정 SONET 인터페이스()에 대한 입력 및 출력 패킷을 보여줍니다.so-0/0/1
이 정보에는 SONET/SDH 및 T3 알람, 감지된 루프백, 프레이밍 오류 증가와 같은 일반적인 인터페이스 장애가 포함될 수 있습니다. 자세한 내용은 추적 오류 조건 검사 목록을 참조하십시오.
실행 중에 명령의 출력을 제어하려면 에 표 1표시된 키를 사용합니다.
작업 |
key |
---|---|
다음 인터페이스에 대한 정보를 표시합니다. |
|
다른 인터페이스에 대한 정보를 표시합니다. 명령은 특정 인터페이스의 이름을 입력하라는 메시지를 표시합니다. |
|
디스플레이를 중지하여 업데이트된 통계 표시를 중지합니다. |
|
디스플레이를 해제하고 업데이트된 통계 표시를 다시 시작합니다. |
|
시작된 이후의 |
|
명령을 중지합니다 |
|
명령과 함께 일치 조건을 사용하는 방법에 대한 자세한 내용은 CLI 탐색기 를 monitor traffic
참조하십시오.
Dynamic Ternary Content Addressable Memory 개요
ACX 시리즈 라우터에서 TCAM(Ternary Content Addressable Memory)은 방화벽, 연결 장애 관리, PTPoE, RFC 2544 등과 같은 다양한 애플리케이션에서 사용됩니다. ACX 시리즈 라우터의 패킷 전달 엔진(PFE)은 정의된 TCAM 공간 제한이 있는 TCAM을 사용합니다. 다양한 필터 애플리케이션에 대한 TCAM 리소스 할당은 정적으로 분산됩니다. 이러한 정적 할당은 모든 필터 애플리케이션이 이 TCAM 리소스를 동시에 사용하지 않을 수 있는 경우 TCAM 리소스의 비효율적인 활용으로 이어집니다.
ACX 라우터에서 TCAM 공간을 동적으로 할당하면 다양한 필터 애플리케이션에 사용 가능한 TCAM 리소스를 효율적으로 할당할 수 있습니다. 동적 TCAM 모델에서는 다양한 필터 애플리케이션(예: inet-firewall, bridge-firewall, cfm-filters 등)이 필요할 때 사용 가능한 TCAM 리소스를 최적으로 활용할 수 있습니다. 동적 TCAM 리소스 할당은 사용량 중심이며 필요에 따라 필터 애플리케이션에 동적으로 할당됩니다. 필터 애플리케이션이 더 이상 TCAM 공간을 사용하지 않으면 리소스가 해제되어 다른 애플리케이션에서 사용할 수 있습니다. 이 동적 TCAM 모델은 애플리케이션의 수요에 따라 더 높은 규모의 TCAM 리소스 사용률을 지원합니다.
- 동적 TCAM 인프라를 사용하는 애플리케이션
- TCAM 리소스를 사용하는 기능
- TCAM 리소스 사용량 모니터링
- 예: TCAM 리소스 모니터링 및 문제 해결
- ACX 시리즈 라우터의 TCAM 리소스 모니터링 및 문제 해결
- ACX5048 및 ACX5096 라우터에서의 서비스 확장
동적 TCAM 인프라를 사용하는 애플리케이션
다음 필터 응용 프로그램 범주는 동적 TCAM 인프라를 사용합니다.
방화벽 필터 - 모든 방화벽 구성
암시적 필터 - 라우팅 엔진(RE)은 필터를 사용하여 기능을 달성합니다. 예를 들어 연결 장애 관리, IP MAC 검증 등이 있습니다.
동적 필터 - PFE 수준에서 기능을 달성하기 위해 필터를 사용하는 애플리케이션. 예를 들어, 논리적 인터페이스 수준 고정 분류자, RFC 2544 등이 있습니다. RE 악마는 이러한 필터에 대해 알지 못할 것입니다.
System-init filters(시스템 초기화 필터) - 시스템 수준의 항목 또는 라우터의 부팅 시퀀스에서 고정된 항목 집합이 필요한 필터입니다. 예를 들어, 레이어 2 및 레이어 3 제어 프로토콜 트랩, 기본 ARP 폴리서 등이 있습니다.
주:레이어 2 및 레이어 3 제어 프로토콜 트랩에 대한 애플리케이션이 있는 System-init 필터는 전체 시스템 기능에 필수적입니다. 이 제어 그룹의 애플리케이션은 전체 TCAM 공간에서 고정된 최소 TCAM 공간을 사용합니다. system-init 필터는 동적 TCAM 인프라를 사용하지 않으며 부팅 시퀀스 중에 라우터가 초기화될 때 생성됩니다.
TCAM 리소스를 사용하는 기능
TCAM 리소스를 사용하는 애플리케이션을 이 문서에서는 tcam-app이라고 합니다. 예를 들어, inet-firewall, bridge-firewall, 연결 장애 관리, 링크 장애 관리 등은 모두 다른 tcam-apps입니다.
표 2 에서는 TCAM 리소스를 사용하는 tcam-apps 목록을 설명합니다.
TCAM 앱/TCAM 사용자 |
특징/기능 |
TCAM 단계 |
---|---|---|
bd-dtag-validate |
브리지 도메인 이중 태그 검증 주:
이 기능은 ACX5048 및 ACX5096 라우터에서는 지원되지 않습니다. |
출구 |
bd-tpid-swap |
스왑 tpid 작업이 있는 브리지 도메인 vlan-map |
출구 |
cfm-bd-filter |
연결 장애 관리 암시적 브리지 도메인 필터 |
진입 |
cfm-filter |
연결 장애 관리 암시적 필터 |
진입 |
cfm-vpls-filter |
연결 장애 관리 암시적 VPLS 필터 주:
이 기능은 ACX5048 및 ACX5096 라우터에서만 지원됩니다. |
진입 |
cfm-vpls-ifl-filter |
연결 장애 관리 암시적 vpls 논리적 인터페이스 필터 주:
이 기능은 ACX5048 및 ACX5096 라우터에서만 지원됩니다. |
진입 |
cos-fc |
논리적 인터페이스 수준 고정 분류자 |
사전 수신 |
fw-ccc-in |
서킷 교차 연결 제품군 수신 방화벽 |
진입 |
fw-family-out |
제품군 수준 송신 방화벽 |
출구 |
fw-fbf |
방화벽 필터 기반 포워딩 |
사전 수신 |
fw-fbf-inet6 |
inet6 제품군을 위한 방화벽 필터 기반 포워딩 |
사전 수신 |
fw-ifl-in |
논리적 인터페이스 수준 수신 방화벽 |
진입 |
fw-ifl-out |
논리적 인터페이스 수준 송신 방화벽 |
출구 |
fw-inet-ftf |
포워딩 테이블의 Inet 제품군 수신 방화벽 |
진입 |
fw-inet6-ftf |
포워딩 테이블의 Inet6 제품군 수신 방화벽 |
진입 |
fw-inet-in |
Inet 제품군 수신 방화벽 |
진입 |
fw-inet-rpf |
RPF의 Inet 제품군 수신 방화벽 실패 확인 |
진입 |
fw-inet6-in |
Inet6 제품군 수신 방화벽 |
진입 |
fw-inet6-family-out |
Inet6 제품군 수준 송신 방화벽 |
출구 |
fw-inet6-rpf |
RPF 실패 확인의 Inet6 제품군 수신 방화벽 |
진입 |
fw-inet-pm |
포트 미러링 동작이 있는 Inet 제품군 방화벽 주:
이 기능은 ACX5048 및 ACX5096 라우터에서는 지원되지 않습니다. |
진입 |
fw-l2-in |
레이어 2 인터페이스의 브리지 제품군 수신 방화벽 |
진입 |
fw-mpls-in |
MPLS 제품군 수신 방화벽 |
진입 |
fw-semantics |
CLI 구성 방화벽에 대한 방화벽 공유 의미 체계 |
사전 수신 |
fw-vpls-in |
VPLS 인터페이스의 VPLS 제품군 수신 방화벽 |
진입 |
ifd-src-mac-fil |
물리적 인터페이스 수준 소스 MAC 필터 |
사전 수신 |
ifl-statistics-in |
수신 시 논리적 수준 인터페이스 통계 |
진입 |
ifl-statistics-out |
송신 시 논리적 수준 인터페이스 통계 |
출구 |
ing-out-iff |
로그 및 syslog에 대한 송신 제품군 필터를 대신하는 수신 애플리케이션 |
진입 |
ip-mac-val |
IP MAC 검증 |
사전 수신 |
ip-mac-val-bcast |
브로드캐스트를 위한 IP MAC 검증 |
사전 수신 |
ipsec-reverse-fil |
IPsec 서비스에 대한 역방향 필터 주:
이 기능은 ACX5048 및 ACX5096 라우터에서는 지원되지 않습니다. |
진입 |
irb-cos-rw |
IRB CoS 재작성 |
출구 |
lfm-802.3ah-in |
수신 시 링크 장애 관리(IEEE 802.3ah) 주:
이 기능은 ACX5048 및 ACX5096 라우터에서는 지원되지 않습니다. |
진입 |
lfm-802.3ah-out |
송신 시 링크 장애 관리(IEEE 802.3ah) |
출구 |
lo0-inet-fil |
루백 인터페이스 inet 필터 |
진입 |
lo0-inet6-fil |
루백 인터페이스 inet6 필터 |
진입 |
mac-drop-cnt |
MAC 검증 및 소스 MAC 필터에 의한 삭제 통계 |
진입 |
mrouter-port-in |
스누핑을 위한 멀티캐스트 라우터 포트 |
진입 |
napt-reverse-fil |
NAPT(네트워크 주소 포트 변환) 서비스에 대한 역방향 필터 주:
이 기능은 ACX5048 및 ACX5096 라우터에서는 지원되지 않습니다. |
진입 |
no-local-switching |
브리지 노로컬 스위칭 |
진입 |
ptpoe |
Point-to-Point-Over-the-Ethernet 트랩 주:
이 기능은 ACX5048 및 ACX5096 라우터에서는 지원되지 않습니다. |
진입 |
ptpoe-cos-rw |
PTPoE를 위한 CoS 재작성 주:
이 기능은 ACX5048 및 ACX5096 라우터에서는 지원되지 않습니다. |
출구 |
rfc2544-layer2-in |
수신 시 레이어 2 서비스에 대한 RFC2544 |
사전 수신 |
rfc2544-layer2-out |
송신 시 레이어 2 서비스에 대한 RFC2544 주:
이 기능은 ACX5048 및 ACX5096 라우터에서는 지원되지 않습니다. |
출구 |
service-filter-in |
수신 시 서비스 필터 주:
이 기능은 ACX5048 및 ACX5096 라우터에서는 지원되지 않습니다. |
진입 |
TCAM 리소스 사용량 모니터링
show 및 clear 명령을 사용하여 동적 TCAM 리소스 사용량을 모니터링하고 문제를 해결할 수 있습니다.
표 3 에는 동적 TCAM 리소스 사용을 모니터링하고 문제를 해결하는 데 사용할 수 있는 명령줄 인터페이스(CLI) 명령이 요약되어 있습니다.
작업 |
명령어 |
---|---|
특정 응용 프로그램에 대한 공유 응용 프로그램 및 관련 응용 프로그램 표시 |
|
애플리케이션 및 단계(송신, 수신 및 사전 수신)에 대한 TCAM 리소스 사용량 표시 |
(ACX5448) pfe 필터 hw 요약 표시 |
애플리케이션 및 단계(송신, 수신 및 사전 수신)에 대한 TCAM 리소스 사용 오류 표시 |
|
애플리케이션 및 단계(송신, 수신 및 사전 수신)에 대한 TCAM 리소스 사용 오류 통계를 지웁니다 |
예: TCAM 리소스 모니터링 및 문제 해결
이 섹션에서는 show 명령을 사용하여 TCAM 리소스를 모니터링하고 문제를 해결할 수 있는 사용 사례에 대해 설명합니다. 이 사용 사례 시나리오에서는 레이어 2 서비스를 구성했으며 레이어 2 서비스 관련 애플리케이션은 TCAM 리소스를 사용합니다. 이 예에 표시된 동적 접근 방식은 필요에 따라 TCAM 리소스를 관리할 수 있는 완벽한 유연성을 제공합니다.
서비스 요구 사항은 다음과 같습니다.
각 브리지 도메인에는 UNI 인터페이스 1개와 NNI 인터페이스 1개가 있습니다
각 UNI 인터페이스에는 다음이 있습니다.
10Mbps에서 트래픽을 감시하는 논리적 인터페이스 레벨 폴리서 1개.
포워딩 클래스와 손실 우선순위를 할당하기 위한 4개의 용어가 있는 다중 필드 분류기입니다.
각 UNI 인터페이스는 레벨 4에서 CFM UP MEP를 구성합니다.
각 NNI 인터페이스는 레벨 2에서 CFM DOWN MEP를 구성합니다
라우터에 100개의 서비스가 구성된 시나리오를 생각해 보겠습니다. 이 규모를 사용하면 모든 애플리케이션이 성공적으로 구성되고 상태가 상태를 표시합니다 OK .
-
모든 단계에 대한 TCAM 리소스 사용량 보기.
모든 단계(송신, 수신 및 사전 수신)에 대한 TCAM 리소스 사용량을
show pfe tcam usage all-tcam-stages detail
보려면 명령을 사용합니다. ACX5448 라우터에서 명령을 사용하여show pfe filter hw summary
TCAM 리소스 usgae를 확인합니다.user@host> show pfe tcam usage all-tcam-stages detail Slot 0 Tcam Resource Stage: Pre-Ingress -------------------------------- Free [hw-grps: 3 out of 3] No dynamic tcam usage Tcam Resource Stage: Ingress ---------------------------- Free [hw-grps: 2 out of 8] Group: 11, Mode: SINGLE, Hw grps used: 3, Tcam apps: 2 Used Allocated Available Errors Tcam-Entries 800 1024 224 0 Counters 800 1024 224 0 Policers 0 1024 1024 0 App tcam usage: ---------------- App-Name Entries Counters Policers Precedence State Related-App-Name .. ----------------------------------------------------------------- cfm-filter 500 500 0 3 OK cfm-bd-filter 300 300 0 2 OK Group: 8, Mode: DOUBLE, Hw grps used: 2, Tcam apps: 1 Used Allocated Available Errors Tcam-Entries 500 512 12 0 Counters 500 1024 524 0 Policers 0 1024 1024 0 App tcam usage: ---------------- App-Name Entries Counters Policers Precedence State Related-App-Name .. ----------------------------------------------------------------- fw-l2-in 500 500 0 2 OK fw-semantics 0 X X 1 OK Group: 14, Mode: SINGLE, Hw grps used: 1, Tcam apps: 1 Used Allocated Available Errors Tcam-Entries 200 512 312 0 Counters 200 512 312 0 Policers 100 512 412 0 App tcam usage: ---------------- App-Name Entries Counters Policers Precedence State Related-App-Name .. ----------------------------------------------------------------- fw-ifl-in 200 200 100 1 OK Tcam Resource Stage: Egress --------------------------- Free [hw-grps: 3 out of 3] No dynamic tcam usage
라우터에서 추가 레이어 2 서비스를 구성합니다.
예를 들어, 라우터에 20개의 서비스를 더 추가하여 총 서비스 수를 120개로 늘립니다. 더 많은 서비스를 추가한 후 명령을
show log messages
사용하여 syslog 메시지를 확인하거나 명령을 실행하여 구성 상태를 확인할 수 있습니다show pfe tcam errors
.다음은 CLI 명령을 실행하여 최신 구성을 위한 이더넷 스위칭 제품군 필터에 대한 TCAM 리소스 부족을 보여주는 샘플 syslog 메시지 출력입니다
show log messages
.[Sat Jul 11 16:10:33.794 LOG: Err] ACX Error (dfw):acx_dfw_check_phy_slice_availability :Insufficient phy slices to accomodate grp:13/IN_IFF_BRIDGE mode:1/DOUBLE [Sat Jul 11 16:10:33.794 LOG: Err] ACX Error (dfw):acx_dfw_check_resource_availability :Could not write filter: f-bridge-ge-0/0/0.103-i, insufficient TCAM resources [Sat Jul 11 16:10:33.794 LOG: Err] ACX Error (dfw):acx_dfw_update_filter_in_hw :acx_dfw_check_resource_availability failed for filter:f-bridge-ge-0/0/0.103-i [Sat Jul 11 16:10:33.794 LOG: Err] ACX Error (dfw):acx_dfw_create_hw_instance :Status:1005 Could not program dfw(f-bridge-ge-0/0/0.103-i) type(IN_IFF_BRIDGE)! [1005] [Sat Jul 11 16:10:33.794 LOG: Err] ACX Error (dfw):acx_dfw_bind_shim :[1005] Could not create dfw(f-bridge-ge-0/0/0.103-i) type(IN_IFF_BRIDGE) [Sat Jul 11 16:10:33.794 LOG: Err] ACX Error (dfw):acx_dfw_bind :[1000] bind failed for filter f-bridge-ge-0/0/0.103-i
CLI 명령을 사용하여
show pfe tcam errors all-tcam-stages detail
구성 상태를 확인하는 경우 출력은 아래와 같습니다.user@host> show pfe tcam errors all-tcam-stages detail Slot 0 Tcam Resource Stage: Pre-Ingress -------------------------------- Free [hw-grps: 3 out of 3] No dynamic tcam usage Tcam Resource Stage: Ingress ---------------------------- Free [hw-grps: 2 out of 8] Group: 11, Mode: SINGLE, Hw grps used: 3, Tcam apps: 2 Used Allocated Available Errors Tcam-Entries 960 1024 64 0 Counters 960 1024 64 0 Policers 0 1024 1024 0 App tcam usage: ---------------- App-Name Entries Counters Policers Precedence State Related-App-Name .. ----------------------------------------------------------------- cfm-filter 600 600 0 3 OK cfm-bd-filter 360 360 0 2 OK Group: 8, Mode: DOUBLE, Hw grps used: 2, Tcam apps: 1 Used Allocated Available Errors Tcam-Entries 510 512 2 18 Counters 510 1024 514 0 Policers 0 1024 1024 0 App tcam usage: ---------------- App-Name Entries Counters Policers Precedence State Related-App-Name .. ----------------------------------------------------------------- fw-l2-in 510 510 0 2 FAILED fw-semantics 0 X X 1 OK App error statistics: ---------------------- App-Name Entries Counters Policers Precedence State Related-App-Name .. ----------------------------------------------------------------- fw-l2-in 18 0 0 2 FAILED fw-semantics 0 X X 1 OK Group: 14, Mode: SINGLE, Hw grps used: 1, Tcam apps: 1 Used Allocated Available Errors Tcam-Entries 240 512 272 0 Counters 240 512 272 0 Policers 120 512 392 0 App tcam usage: ---------------- App-Name Entries Counters Policers Precedence State Related-App-Name .. ----------------------------------------------------------------- fw-ifl-in 240 240 120 1 OK Tcam Resource Stage: Egress --------------------------- Free [hw-grps: 3 out of 3] No dynamic tcam usage
출력은 애플리케이션에 TCAM 리소스가 부족하여 FAILED 상태로 이동함을 fw-l2-in 나타냅니다. 수신 단계에서 사용할 수 있는 TCAM 슬라이스가 두 개 있지만, fw-l2-in 애플리케이션은 모드(DOUBLE)로 인해 사용 가능한 TCAM 공간을 사용할 수 없어 리소스 부족 오류가 발생합니다.
-
TCAM 리소스 부족으로 인해 실패한 애플리케이션을 수정합니다.
fw-l2-in 라우터에 더 많은 수의 서비스를 추가하여 애플리케이션이 실패했으며, 이로 인해 TCAM 리소스가 부족해졌습니다. 다른 응용 프로그램은 제대로 작동하는 것처럼 보이지만 응용 프로그램이 정상 상태로 이동하도록 fw-l2-in 새로 추가된 서비스를 비활성화하거나 제거하는 것이 좋습니다. 새로 추가된 서비스를 제거하거나 비활성화한 후 및
show pfe tcam error
명령을 실행하여show pfe tcam usage
실패 상태의 애플리케이션이 더 이상 없는지 확인해야 합니다.모든 단계(송신, 수신 및 사전 수신)에 대한 TCAM 리소스 사용량을
show pfe tcam usage all-tcam-stages detail
보려면 명령을 사용합니다. ACX5448 라우터의 경우 명령을 사용하여show pfe filter hw summary
TCAM 리소스 사용량을 확인합니다.user@host> show pfe tcam usage all-tcam-stages detail Slot 0 Tcam Resource Stage: Pre-Ingress -------------------------------- Free [hw-grps: 3 out of 3] No dynamic tcam usage Tcam Resource Stage: Ingress ---------------------------- Free [hw-grps: 2 out of 8] Group: 11, Mode: SINGLE, Hw grps used: 3, Tcam apps: 2 Used Allocated Available Errors Tcam-Entries 800 1024 224 0 Counters 800 1024 224 0 Policers 0 1024 1024 0 App tcam usage: ---------------- App-Name Entries Counters Policers Precedence State Related-App-Name .. ----------------------------------------------------------------- cfm-filter 500 500 0 3 OK cfm-bd-filter 300 300 0 2 OK Group: 8, Mode: DOUBLE, Hw grps used: 2, Tcam apps: 1 Used Allocated Available Errors Tcam-Entries 500 512 12 18 Counters 500 1024 524 0 Policers 0 1024 1024 0 App tcam usage: ---------------- App-Name Entries Counters Policers Precedence State Related-App-Name .. ----------------------------------------------------------------- fw-l2-in 500 500 0 2 OK fw-semantics 0 X X 1 OK Group: 14, Mode: SINGLE, Hw grps used: 1, Tcam apps: 1 Used Allocated Available Errors Tcam-Entries 200 512 312 0 Counters 200 512 312 0 Policers 100 512 412 0 App tcam usage: ---------------- App-Name Entries Counters Policers Precedence State Related-App-Name .. ----------------------------------------------------------------- fw-ifl-in 200 200 100 1 OK Tcam Resource Stage: Egress --------------------------- Free [hw-grps: 3 out of 3] No dynamic tcam usage
모든 단계(송신, 수신 및 사전 수신)에 대한 TCAM 리소스 사용 오류를 보려면 명령을 사용합니다
show pfe tcam errors all-tcam-stages
.user@host> show pfe tcam errors all-tcam-stages detail Slot 0 Tcam Resource Stage: Pre-Ingress -------------------------------- No tcam usage Tcam Resource Stage: Ingress ---------------------------- Group: 11, Mode: SINGLE, Hw grps used: 3, Tcam apps: 2 Errors Resource-Shortage Tcam-Entries 0 0 Counters 0 0 Policers 0 0 Group: 8, Mode: DOUBLE, Hw grps used: 2, Tcam apps: 1 Errors Resource-Shortage Tcam-Entries 18 0 Counters 0 0 Policers 0 0 Group: 14, Mode: SINGLE, Hw grps used: 1, Tcam apps: 1 Errors Resource-Shortage Tcam-Entries 0 0 Counters 0 0 Policers 0 0 Tcam Resource Stage: Egress --------------------------- No tcam usage
TCAM 리소스를 사용하는 모든 애플리케이션이 상태 OK 이며 하드웨어가 성공적으로 구성되었음을 나타낼 수 있습니다.
예제에 표시된 대로 각 단계에서 및 show pfe tcam usage
명령을 실행하여 show pfe tcam errors
구성이 유효하고 TCAM 리소스를 사용하는 애플리케이션이 OK 상태인지 확인해야 합니다. ACX5448 라우터의 경우 명령을 사용하여 show pfe filter hw summary
TCAM 리소스 사용량을 확인합니다.
ACX 시리즈 라우터의 TCAM 리소스 모니터링 및 문제 해결
ACX 시리즈에서 TCAM(Ternary Content Addressable Memory) 공간의 동적 할당은 다양한 필터 애플리케이션에 사용 가능한 TCAM 리소스를 효율적으로 할당합니다. 동적 TCAM 모델에서는 다양한 필터 애플리케이션(예: inet-firewall, bridge-firewall, cfm-filters 등)이 필요할 때 사용 가능한 TCAM 리소스를 최적으로 활용할 수 있습니다. 동적 TCAM 리소스 할당은 사용량 중심이며 필요에 따라 필터 애플리케이션에 동적으로 할당됩니다. 필터 애플리케이션이 더 이상 TCAM 공간을 사용하지 않으면 리소스가 해제되어 다른 애플리케이션에서 사용할 수 있습니다. 이 동적 TCAM 모델은 애플리케이션의 수요에 따라 더 높은 규모의 TCAM 리소스 사용률을 지원합니다. show 및 clear 명령을 사용하여 ACX 시리즈 라우터에서 동적 TCAM 리소스 사용을 모니터링하고 문제를 해결할 수 있습니다.
TCAM 리소스를 사용하는 애플리케이션을 이 문서에서는 tcam-app이라고 합니다.
Dynamic Ternary Content Addressable Memory 개요 은(는) ACX 시리즈 라우터에서 TCAM 리소스를 모니터링하고 문제를 해결하기 위한 작업과 명령을 보여줍니다
어떻게 |
명령어 |
---|---|
특정 응용 프로그램에 대한 공유 응용 프로그램과 관련 응용 프로그램을 봅니다. |
|
모든 TCAM 단계의 애플리케이션 수를 확인합니다. |
|
지정된 단계에서 TCAM 리소스를 사용하는 애플리케이션 수를 봅니다. |
|
애플리케이션에서 사용하는 TCAM 리소스를 자세히 봅니다. |
|
지정된 단계에서 애플리케이션이 사용하는 TCAM 리소스를 봅니다. |
|
tcam-app에서 사용하는 TCAM 리소스 수 파악 |
|
모든 단계에 대한 TCAM 리소스 사용 오류를 확인합니다. |
|
스테이지에 대한 TCAM 리소스 사용 오류 보기 |
|
애플리케이션에 대한 TCAM 리소스 사용 오류를 봅니다. |
|
다른 공유 애플리케이션과 함께 애플리케이션에 대한 TCAM 리소스 사용 오류를 봅니다. |
|
모든 단계에 대한 TCAM 리소스 사용 오류 통계를 지웁니다. |
|
지정된 단계에 대한 TCAM 리소스 사용 오류 통계를 지웁니다 |
|
애플리케이션에 대한 TCAM 리소스 사용 오류 통계를 지웁니다. |
|
ACX 시리즈의 동적 TCAM에 대한 자세한 내용은 동적 삼항 콘텐츠 주소 지정 가능 메모리 개요를 참조하십시오.
ACX5048 및 ACX5096 라우터에서의 서비스 확장
ACX5048 및 ACX5096 라우터에서 구축되는 일반적인 서비스(예: ELINE, ELAN 및 IP VPN)에는 동적 TCAM 인프라를 사용하는 애플리케이션(예: 폴리서, 방화벽 필터, 연결 장애 관리 IEEE 802.1ag RFC2544)이 필요할 수 있습니다.
TCAM 리소스를 사용하는 서비스 응용 프로그램은 TCAM 리소스 가용성에 의해 제한됩니다. 따라서 서비스의 규모는 이러한 애플리케이션의 TCAM 리소스 사용량에 따라 달라집니다.
ACX5048 및 ACX5096 라우터의 서비스 확장 모니터링 및 문제 해결을 위한 샘플 사용 사례는 Dynamic Ternary Content Addressable Memory 개요 섹션에서 찾을 수 있습니다.
논리적 시스템 보안 정책에서 DNS 이름 확인 문제 해결(기본 관리자만 해당)
문제
설명
보안 정책에 사용되는 주소록 항목의 호스트 이름 주소가 올바르게 확인되지 않을 수 있습니다.
원인
일반적으로 동적 호스트 이름이 포함된 주소록 항목은 SRX 시리즈 방화벽에 대해 자동으로 새로 고쳐집니다. DNS 항목과 연결된 TTL 필드는 정책 캐시에서 항목을 새로 고쳐야 하는 시간을 나타냅니다. TTL 값이 만료되면 SRX 시리즈 방화벽은 주소록 항목의 DNS 항목을 자동으로 새로 고칩니다.
그러나 SRX 시리즈 방화벽이 DNS 서버로부터 응답을 얻을 수 없는 경우(예: 네트워크에서 DNS 요청 또는 응답 패킷이 손실되거나 DNS 서버가 응답을 보낼 수 없는 경우) 주소록 항목의 호스트 이름 주소가 올바르게 확인되지 않을 수 있습니다. 이로 인해 보안 정책 또는 세션 일치가 발견되지 않아 트래픽이 손실될 수 있습니다.
솔루션
주 관리자는 명령을 사용하여 show security dns-cache
SRX 시리즈 방화벽에 DNS 캐시 정보를 표시할 수 있습니다. DNS 캐시 정보를 새로 고쳐야 하는 경우 기본 관리자가 명령을 사용할 수 있습니다 clear security dns-cache
.
이러한 명령은 논리적 시스템에 대해 구성된 디바이스의 기본 관리자만 사용할 수 있습니다. 이 명령은 사용자 논리적 시스템 또는 논리적 시스템에 대해 구성되지 않은 디바이스에서는 사용할 수 없습니다.
참조
링크 서비스 인터페이스 문제 해결
링크 서비스 인터페이스에서 구성 문제를 해결하려면:
- 구성 링크에 적용되는 CoS 구성 요소 결정
- 멀티링크 번들에서 지터 및 지연의 원인 파악
- LFI 및 로드 밸런싱이 올바르게 작동하는지 확인
- 주니퍼 네트웍스 디바이스와 타사 디바이스 간의 PVC에서 패킷이 손실되는 이유 확인
구성 링크에 적용되는 CoS 구성 요소 결정
문제
설명
멀티링크 번들을 구성하고 있지만, MLPPP 캡슐화가 없는 트래픽이 멀티링크 번들의 구성 링크를 통과합니다. 모든 CoS 구성 요소를 구성 링크에 적용합니까, 아니면 멀티링크 번들에 충분히 적용하고 있습니까?
솔루션
스케줄러 맵을 멀티링크 번들 및 해당 구성 링크에 적용할 수 있습니다. 스케줄러 맵을 사용하여 여러 CoS 구성 요소를 적용할 수 있지만 필요한 것만 구성합니다. 불필요한 전송 지연을 방지하기 위해 구성 링크의 구성을 단순하게 유지하는 것이 좋습니다.
표 5 에는 멀티링크 번들 및 해당 구성 링크에 적용될 CoS 구성 요소가 나와 있습니다.
CoS 구성 요소 |
멀티링크 번들 |
구성 링크 |
설명 |
---|---|---|---|
분류자 |
예 |
아니요 |
CoS 분류는 전송 측이 아닌 인터페이스의 수신 측에서 이루어지므로 구성 링크에 분류자가 필요하지 않습니다. |
포워딩 클래스 |
예 |
아니요 |
포워딩 클래스는 대기열과 연결되며, 대기열은 스케줄러 맵에 의해 인터페이스에 적용됩니다. 대기열 할당은 구성 링크에서 미리 결정됩니다. 멀티링크 번들의 Q2에 있는 모든 패킷은 구성 링크의 Q2에 할당되고 다른 모든 대기열의 패킷은 구성 링크의 Q0에 대기됩니다. |
스케줄러 맵 |
예 |
예 |
다음과 같이 멀티링크 번들 및 구성 링크에 스케줄러 맵을 적용합니다.
|
유닛당 스케줄러 또는 인터페이스 수준 스케줄러의 셰이핑 속도 |
아니요 |
예 |
단위당 스케줄링은 엔드포인트에서만 적용되므로, 이 셰이핑 속도를 구성 링크에만 적용합니다. 앞서 적용된 모든 구성은 구성 링크 구성으로 덮어씁니다. |
정확한 전송 속도 또는 대기열 수준 셰이핑 |
예 |
아니요 |
구성 링크에 적용된 인터페이스 수준 셰이핑은 대기열의 모든 셰이핑보다 우선합니다. 따라서 멀티링크 번들에만 전송 속도 정확한 쉐이핑을 적용합니다. |
규칙 재작성 |
예 |
아니요 |
재작성 비트는 단편화 중에 패킷에서 단편으로 자동으로 복사됩니다. 따라서 멀티링크 번들에서 구성한 내용은 단편에서 구성 링크로 전달됩니다. |
가상 채널 그룹 |
예 |
아니요 |
가상 채널 그룹은 멀티링크 번들 이전의 패킷에만 적용되는 방화벽 필터 규칙을 통해 식별됩니다. 따라서 구성 링크에 가상 채널 그룹 구성을 적용할 필요가 없습니다. |
참조
멀티링크 번들에서 지터 및 지연의 원인 파악
문제
설명
지터와 지연 시간을 테스트하려면 IP 패킷 스트림 3개를 보냅니다. 모든 패킷의 IP 우선 순위 설정은 동일합니다. LFI 및 CRTP를 구성한 후에는 혼잡하지 않은 링크에서도 지연 시간이 증가했습니다. 지터와 지연 시간을 줄이려면 어떻게 해야 할까요?
솔루션
지터와 지연 시간을 줄이려면 다음을 수행합니다.
각 구성 링크에서 셰이핑 속도를 구성했는지 확인합니다.
링크 서비스 인터페이스에서 셰이핑 속도를 구성하지 않았는지 확인합니다.
구성된 셰이핑 속도 값이 물리적 인터페이스 대역폭과 동일한지 확인합니다.
셰이핑 속도가 올바르게 구성되었는데도 지터가 지속되면 주니퍼 네트웍스 기술 지원 센터(JTAC)에 문의하십시오.
LFI 및 로드 밸런싱이 올바르게 작동하는지 확인
문제
설명
이 경우 여러 서비스를 지원하는 단일 네트워크가 있습니다. 네트워크는 데이터 및 지연에 민감한 음성 트래픽을 전송합니다. MLPPP 및 LFI를 구성한 후, 지연과 지터가 거의 없이 음성 패킷이 네트워크를 통해 전송되는지 확인합니다. 음성 패킷이 LFI 패킷으로 처리되고 로드 밸런싱이 올바르게 수행되는지 어떻게 알 수 있습니까?
솔루션
LFI가 활성화되면 데이터(비 LFI) 패킷이 MLPPP 헤더로 캡슐화되고 지정된 크기의 패킷으로 단편화됩니다. LFI(Delay-Sensitive, Voice) 패킷은 PPP로 캡슐화되어 데이터 패킷 조각 사이에 인터리브됩니다. 대기열 및 로드 밸런싱은 LFI 패킷과 비 LFI 패킷에 대해 다르게 수행됩니다.
LFI가 올바르게 수행되는지 확인하려면 패킷이 구성된 대로 단편화되고 캡슐화되는지 확인합니다. 패킷이 LFI 패킷으로 처리되는지 또는 비 LFI 패킷으로 처리되는지 확인한 후 로드 밸런싱이 올바르게 수행되는지 확인할 수 있습니다.
Solution Scenario
—두 개의 주니퍼 네트웍스 디바이스 R0 및 R1이 두 개의 시리얼 링크 se-1/0/0
및 se-1/0/1
를 통합하는 멀티링크 번들 lsq-0/0/0.0
로 연결되어 있다고 가정해 보겠습니다. R0 및 R1에서 MLPPP 및 LFI는 링크 서비스 인터페이스에서 활성화되고 단편화 임계값은 128바이트로 설정됩니다.
이 예에서는 패킷 생성기를 사용하여 음성 및 데이터 스트림을 생성했습니다. 패킷 캡처 기능을 사용하여 수신 인터페이스에서 패킷을 캡처하고 분석할 수 있습니다.
다음 두 데이터 스트림이 멀티링크 번들로 전송되었습니다.
200바이트의 데이터 패킷 100개(단편화 임계값보다 큼)
60바이트의 데이터 패킷 500개(단편화 임계값보다 작음)
다음 두 개의 음성 스트림이 멀티링크 번들로 전송되었습니다.
소스 포트 100에서 200바이트의 음성 패킷 100개
소스 포트 200에서 200바이트의 음성 패킷 300개
LFI 및 로드 밸런싱이 올바르게 수행되는지 확인하려면,
이 예에서는 명령 출력의 중요한 부분만 표시되고 설명됩니다.
패킷 단편화를 확인합니다. 운영 모드에서 명령을 입력하여
show interfaces lsq-0/0/0
큰 패킷이 올바르게 조각화되었는지 확인합니다.user@R0#> show interfaces lsq-0/0/0 Physical interface: lsq-0/0/0, Enabled, Physical link is Up Interface index: 136, SNMP ifIndex: 29 Link-level type: LinkService, MTU: 1504 Device flags : Present Running Interface flags: Point-To-Point SNMP-Traps Last flapped : 2006-08-01 10:45:13 PDT (2w0d 06:06 ago) Input rate : 0 bps (0 pps) Output rate : 0 bps (0 pps) Logical interface lsq-0/0/0.0 (Index 69) (SNMP ifIndex 42) Flags: Point-To-Point SNMP-Traps 0x4000 Encapsulation: Multilink-PPP Bandwidth: 16mbps Statistics Frames fps Bytes bps Bundle: Fragments: Input : 0 0 0 0 Output: 1100 0 118800 0 Packets: Input : 0 0 0 0 Output: 1000 0 112000 0 ... Protocol inet, MTU: 1500 Flags: None Addresses, Flags: Is-Preferred Is-Primary Destination: 9.9.9/24, Local: 9.9.9.10
Meaning
- 출력은 멀티링크 번들에서 디바이스를 전송하는 패킷의 요약을 보여줍니다. 멀티링크 번들에 대한 다음 정보를 확인합니다.총 전송 패킷 수 = 1000
총 통과 조각 수=1100
단편화된 데이터 패킷 수 = 100
멀티링크 번들에서 전송된 총 패킷 수(600 + 400)는 전송 패킷 수(1000)와 일치하여 손실된 패킷이 없음을 나타냅니다.
전송 프래그먼트 수는 전송 패킷 수를 100배 초과하여 100개의 대용량 데이터 패킷이 올바르게 프래그먼트화되었음을 나타냅니다.
Corrective Action
- 패킷이 올바르게 단편화되지 않은 경우, 단편화 임계값 구성을 확인합니다. 지정된 단편화 임계값보다 작은 패킷은 단편화되지 않습니다.패킷 캡슐화를 확인합니다. 패킷이 LFI 또는 비 LFI 패킷으로 취급되는지 확인하려면 캡슐화 유형을 결정합니다. LFI 패킷은 PPP로 캡슐화되며, 비 LFI 패킷은 PPP와 MLPPP로 캡슐화됩니다. PPP 및 MLPPP 캡슐화는 서로 다른 오버헤드를 가지므로 패킷 크기가 다릅니다. 패킷 크기를 비교하여 캡슐화 유형을 결정할 수 있습니다.
단편화되지 않은 작은 데이터 패킷에는 PPP 헤더와 단일 MLPPP 헤더가 포함됩니다. 큰 단편화된 데이터 패킷에서 첫 번째 단편에는 PPP 헤더와 MLPPP 헤더가 포함되지만 연속된 단편에는 MLPPP 헤더만 포함됩니다.
PPP 및 MLPPP 캡슐화는 패킷에 다음과 같은 바이트 수를 추가합니다.
PPP 캡슐화는 7바이트를 추가합니다.
4바이트의 헤더+2바이트의 FCS(Frame Check Sequence)+유휴 상태이거나 플래그를 포함하는 1바이트
MLPPP 캡슐화는 6바이트에서 8바이트 사이를 추가합니다.
4바이트의 PPP 헤더+2 - 4바이트의 멀티링크 헤더
그림 1 은(는) PPP 및 MLPPP 헤더에 추가된 오버헤드를 보여줍니다.
그림 1: PPP 및 MLPPP 헤더CRTP 패킷의 경우, 캡슐화 오버헤드와 패킷 크기는 LFI 패킷보다 훨씬 작습니다. 자세한 내용은 예: 압축된 실시간 전송 프로토콜 구성.
표 6 은(는) 데이터 패킷과 음성 패킷에 대한 캡슐화 오버헤드를 각각 70바이트로 보여줍니다. 캡슐화 후 데이터 패킷의 크기는 음성 패킷의 크기보다 큽니다.
표 6: PPP 및 MLPPP 캡슐화 오버헤드 패킷 유형
캡슐화
초기 패킷 크기
캡슐화 오버헤드
캡슐화 후의 패킷 크기
음성 패킷(LFI)
PPP
70바이트
4 + 2 + 1 = 7바이트
77 바이트
짧은 시퀀스의 데이터 조각(비 LFI)
메이저리그PPP
70바이트
4 + 2 + 1 + 4 + 2 = 13바이트
83바이트
긴 시퀀스의 데이터 조각(비 LFI)
메이저리그PPP
70바이트
4 + 2 + 1 + 4 + 4 = 15바이트
85바이트
운영 모드에서 명령을 입력하여
show interfaces queue
각 대기열에서 전송된 패킷의 크기를 표시합니다. 전송된 바이트 수를 패킷 수로 나누어 패킷 크기를 구하고 캡슐화 유형을 결정합니다.로드 밸런싱을 확인합니다. 운영 모드에서 멀티링크 번들 및 해당 구성 링크에 명령을 입력하여
show interfaces queue
패킷에 대해 로드 밸런싱이 적절하게 수행되는지 확인합니다.user@R0> show interfaces queue lsq-0/0/0 Physical interface: lsq-0/0/0, Enabled, Physical link is Up Interface index: 136, SNMP ifIndex: 29 Forwarding classes: 8 supported, 8 in use Egress queues: 8 supported, 8 in use Queue: 0, Forwarding classes: DATA Queued: Packets : 600 0 pps Bytes : 44800 0 bps Transmitted: Packets : 600 0 pps Bytes : 44800 0 bps Tail-dropped packets : 0 0 pps RED-dropped packets : 0 0 pps … Queue: 1, Forwarding classes: expedited-forwarding Queued: Packets : 0 0 pps Bytes : 0 0 bps … Queue: 2, Forwarding classes: VOICE Queued: Packets : 400 0 pps Bytes : 61344 0 bps Transmitted: Packets : 400 0 pps Bytes : 61344 0 bps … Queue: 3, Forwarding classes: NC Queued: Packets : 0 0 pps Bytes : 0 0 bps …
user@R0> show interfaces queue se-1/0/0 Physical interface: se-1/0/0, Enabled, Physical link is Up Interface index: 141, SNMP ifIndex: 35 Forwarding classes: 8 supported, 8 in use Egress queues: 8 supported, 8 in use Queue: 0, Forwarding classes: DATA Queued: Packets : 350 0 pps Bytes : 24350 0 bps Transmitted: Packets : 350 0 pps Bytes : 24350 0 bps ... Queue: 1, Forwarding classes: expedited-forwarding Queued: Packets : 0 0 pps Bytes : 0 0 bps … Queue: 2, Forwarding classes: VOICE Queued: Packets : 100 0 pps Bytes : 15272 0 bps Transmitted: Packets : 100 0 pps Bytes : 15272 0 bps … Queue: 3, Forwarding classes: NC Queued: Packets : 19 0 pps Bytes : 247 0 bps Transmitted: Packets : 19 0 pps Bytes : 247 0 bps …
user@R0> show interfaces queue se-1/0/1 Physical interface: se-1/0/1, Enabled, Physical link is Up Interface index: 142, SNMP ifIndex: 38 Forwarding classes: 8 supported, 8 in use Egress queues: 8 supported, 8 in use Queue: 0, Forwarding classes: DATA Queued: Packets : 350 0 pps Bytes : 24350 0 bps Transmitted: Packets : 350 0 pps Bytes : 24350 0 bps … Queue: 1, Forwarding classes: expedited-forwarding Queued: Packets : 0 0 pps Bytes : 0 0 bps … Queue: 2, Forwarding classes: VOICE Queued: Packets : 300 0 pps Bytes : 45672 0 bps Transmitted: Packets : 300 0 pps Bytes : 45672 0 bps … Queue: 3, Forwarding classes: NC Queued: Packets : 18 0 pps Bytes : 234 0 bps Transmitted: Packets : 18 0 pps Bytes : 234 0 bps
Meaning
- 이러한 명령의 출력은 링크 서비스 인터페이스 및 해당 구성 링크의 각 대기열에서 전송 및 대기열에 있는 패킷을 보여줍니다. 표 7 에는 이러한 값의 요약이 나와 있습니다. (전송된 패킷 수가 모든 링크의 대기열 패킷 수와 같기 때문에 이 테이블에는 대기열에 있는 패킷만 표시됩니다.)표 7: 대기열에서 전송된 패킷 수 대기열에 있는 패킷
번들 lsq-0/0/0.0
구성 링크 se-1/0/0
구성 링크 se-1/0/1
설명
Q0의 패킷
600
350
350
구성 링크를 통과하는 총 패킷 수(350+350 = 700)가 멀티링크 번들에서 대기 중인 패킷 수(600)를 초과했습니다.
Q2의 패킷
400
100
300개
구성 링크를 통과하는 총 패킷 수는 번들의 패킷 수와 같습니다.
Q3의 패킷
0
19
18
구성 링크의 Q3을 통과하는 패킷은 구성 링크 간에 교환되는 keepalive 메시지를 위한 것입니다. 따라서 번들의 Q3에는 패킷이 계산되지 않았습니다.
멀티링크 번들에서 다음을 확인합니다.
대기열에 있는 패킷 수는 전송된 패킷 수와 일치합니다. 숫자가 일치하면 패킷이 삭제되지 않은 것입니다. 전송된 패킷보다 대기열에 더 많은 패킷이 있는 경우 버퍼가 너무 작기 때문에 패킷이 손실되었습니다. 구성 링크의 버퍼 크기는 출력 단계에서 혼잡을 제어합니다. 이 문제를 해결하려면 구성 링크의 버퍼 크기를 늘려야 합니다.
Q0(600)을 전송하는 패킷 수는 멀티링크 번들에서 수신된 크고 작은 데이터 패킷 수(100+500)와 일치합니다. 숫자가 일치하면 모든 데이터 패킷이 Q0을 올바르게 전송한 것입니다.
멀티링크 번들(400)에서 Q2를 전송하는 패킷 수는 멀티링크 번들에서 수신된 음성 패킷의 수와 일치합니다. 숫자가 일치하면 모든 음성 LFI 패킷이 Q2를 올바르게 전송합니다.
구성 링크에서 다음을 확인합니다.
Q0을 전송하는 총 패킷 수(350+350)는 데이터 패킷 및 데이터 조각 수(500+200)와 일치합니다. 숫자가 일치하면 단편화 후의 모든 데이터 패킷이 구성 링크의 Q0을 올바르게 전송합니다.
패킷이 두 구성 링크를 모두 전송하여 비 LFI 패킷에서 로드 밸런싱이 올바르게 수행되었음을 나타냅니다.
구성 링크에서 Q2(300+100)를 전송하는 총 패킷 수는 멀티링크 번들에서 수신된 음성 패킷 수(400)와 일치합니다. 숫자가 일치하면 모든 음성 LFI 패킷이 Q2를 올바르게 전송합니다.
전송된
se-1/0/0
소스 포트100
의 LFI 패킷 및 전송된 소스 포트200
se-1/0/1
의 LFI 패킷 . 따라서 모든 LFI(Q2) 패킷은 소스 포트를 기반으로 해시되었으며 두 구성 링크를 모두 올바르게 전송했습니다.
Corrective Action
- 패킷이 하나의 링크만 전송한 경우 다음 단계를 수행하여 문제를 해결합니다.물리적 링크가 (작동) 또는
down
(사용할 수 없음)인지up
확인합니다. 사용할 수 없는 링크는 PIM, 인터페이스 포트 또는 물리적 연결에 문제가 있음을 나타냅니다(링크 레이어 오류). 링크가 작동하면 다음 단계로 이동합니다.비 LFI 패킷에 대해 분류자가 올바르게 정의되어 있는지 확인합니다. 비 LFI 패킷이 Q2까지 대기열에 추가되도록 구성되지 않았는지 확인합니다. Q2까지 대기열에 있는 모든 패킷은 LFI 패킷으로 처리됩니다.
LFI 패킷에서 다음 값 중 하나 이상이 다른지 확인합니다. 원본 주소, 대상 주소, IP 프로토콜, 원본 포트 또는 대상 포트. 모든 LFI 패킷에 대해 동일한 값이 구성된 경우, 패킷은 모두 동일한 플로우로 해시되고 동일한 링크를 전송합니다.
결과를 사용하여 부하 분산을 확인합니다.
주니퍼 네트웍스 디바이스와 타사 디바이스 간의 PVC에서 패킷이 손실되는 이유 확인
문제
설명
주니퍼 네트웍스 디바이스와 타사 디바이스의 T1, E1, T3 또는 E3 인터페이스 간에 영구 가상 회로(PVC)를 구성하고 있는데 패킷이 손실되고 ping이 실패합니다.
솔루션
타사 디바이스가 주니퍼 네트웍스 디바이스와 동일한 FRF.12를 지원하지 않거나 다른 방식으로 FRF.12를 지원하는 경우, PVC의 주니퍼 네트웍스 디바이스 인터페이스는 FRF.12 헤더가 포함된 단편화된 패킷을 폐기하고 이를 "폴리싱된 폐기"로 간주할 수 있습니다.
해결 방법으로, 두 피어 모두에서 멀티링크 번들을 구성하고 멀티링크 번들에서 단편화 임계값을 구성합니다.
보안 정책 문제 해결
라우팅 엔진과 패킷 전달 엔진 간의 정책 동기화
문제
설명
보안 정책은 라우팅 엔진과 패킷 전달 엔진에 저장됩니다. 구성을 커밋할 때 보안 정책이 라우팅 엔진에서 패킷 전달 엔진으로 푸시됩니다. 라우팅 엔진의 보안 정책이 패킷 전달 엔진과 동기화되지 않으면 구성 커밋이 실패합니다. 커밋을 반복적으로 시도하면 코어 덤프 파일이 생성될 수 있습니다. 동기화되지 않은 이유는 다음과 같습니다.
라우팅 엔진에서 패킷 전달 엔진으로의 정책 메시지는 전송 중에 손실됩니다.
재사용된 정책 UID와 같은 라우팅 엔진에 오류가 있습니다.
환경
구성을 커밋하려면 라우팅 엔진과 패킷 전달 엔진의 정책이 동기화되어야 합니다. 그러나 특정 상황에서는 라우팅 엔진과 패킷 전달 엔진의 정책이 동기화되지 않아 커밋이 실패할 수 있습니다.
증상
정책 구성이 수정되고 정책이 동기화되지 않으면 다음 오류 메시지가 표시됩니다. error: Warning: policy might be out of sync between RE and PFE <SPU-name(s)> Please request security policies check/resync.
솔루션
show security policies checksum
명령을 사용하여 보안 정책 체크섬 값을 표시하고, 보안 정책이 동기화되지 않은 경우 명령을 사용하여 request security policies resync
라우팅 엔진 및 패킷 전달 엔진의 보안 정책 구성을 동기화합니다.
참조
보안 정책 커밋 실패 확인
보안 정책 커밋 확인
문제
설명
정책 구성 커밋을 수행할 때 시스템 동작이 올바르지 않은 경우 다음 단계를 사용하여 이 문제를 해결합니다.
솔루션
운영 show 명령 - 보안 정책에 대한 운영 명령을 실행하고 출력에 표시된 정보가 예상한 것과 일치하는지 확인합니다. 그렇지 않은 경우 구성을 적절하게 변경해야 합니다.
Traceoptions - 정책 구성에서 명령을 설정합니다
traceoptions
. 이 계층 아래의 플래그는 명령 출력의 사용자 분석에 따라 선택할 수 있습니다show
. 사용할 플래그를 결정할 수 없는 경우 flag 옵션을all
사용하여 모든 추적 로그를 캡처할 수 있습니다.user@host#
set security policies traceoptions <flag all>
로그를 캡처하기 위해 선택적 파일 이름을 구성할 수도 있습니다.
user@host# set security policies traceoptions <filename>
추적 옵션에서 파일 이름을 지정한 경우 /var/log/<filename>에서 로그 파일을 확인하여 파일에 오류가 보고되었는지 확인할 수 있습니다. (파일 이름을 지정하지 않은 경우 기본 파일 이름이 이벤트됩니다.) 오류 메시지는 실패 위치와 적절한 이유를 나타냅니다.
추적 옵션을 구성한 후에는 잘못된 시스템 동작을 일으킨 구성 변경을 다시 커밋해야 합니다.
변경 내역 표
기능 지원은 사용 중인 플랫폼과 릴리스에 따라 결정됩니다. Feature Explorer 를 사용하여 플랫폼에서 기능이 지원되는지 확인하세요.