Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Ubuntu의 설치 필수 구성 요소

Paragon Automation 클러스터를 성공적으로 설치 및 배포하려면 여러 클러스터 노드에 배포 소프트웨어를 설치하는 제어 호스트가 있어야 합니다. 제어 호스트에서 배포 소프트웨어를 다운로드한 다음 설치 파일을 만들고 구성하여 제어 호스트에서 설치를 실행할 수 있습니다. 제어 호스트에서 패키지를 다운로드하려면 인터넷에 액세스할 수 있어야 합니다. 또한 Docker 및 OS 패치와 같은 추가 소프트웨어를 다운로드하려면 클러스터 노드에서 인터넷에 액세스할 수 있어야 합니다. 설치 작업의 순서는 그림 1에 개략적으로 나와 있습니다.

그림 1: Paragon Automation High-Level Process Flow for Installing Paragon Automation 설치를 위한 개략적인 프로세스 흐름

배포 소프트웨어를 다운로드하여 설치하기 전에 이 항목에 설명된 대로 제어 호스트 및 클러스터 노드를 구성해야 합니다.

제어 호스트 준비

제어 호스트는 Paragon Automation 클러스터의 설치 및 업그레이드를 오케스트레이션하는 전용 시스템입니다. 호스트 기능 제어에 설명된 대로 소프트웨어 설치 관리자를 실행하고 클러스터 노드에 소프트웨어를 설치하는 Ansible 작업을 수행합니다.

Ansible 제어 호스트에서 설치 프로그램 패키지를 다운로드해야 합니다. Paragon Automation 설치 프로세스의 일부로, 제어 호스트는 클러스터 노드에 필요한 추가 패키지를 설치합니다. 패키지에는 선택적 OS 패키지, Docker 및 Elasticsearch가 포함됩니다. 타사 마이크로서비스를 포함한 모든 마이크로서비스가 클러스터 노드에 다운로드됩니다. 마이크로 서비스는 설치 중에 공용 레지스트리에 액세스하지 않습니다.

제어 호스트는 클러스터 노드와 다른 브로드캐스트 도메인에 있을 수 있지만 제어 호스트가 SSH를 사용하여 모든 노드에 연결할 수 있는지 확인해야 합니다.

그림 2: 제어 호스트 기능 Control Host Functions

설치가 완료된 후 제어 호스트는 클러스터 작동에 아무런 역할도 하지 않습니다. 그러나 소프트웨어 또는 구성 요소를 업데이트하거나, 클러스터를 변경하거나, 노드에 장애가 발생할 경우 클러스터를 다시 설치하려면 제어 호스트가 필요합니다. 제어 호스트를 사용하여 구성 파일을 보관할 수도 있습니다. 제어 호스트를 사용 가능한 상태로 유지하고 설치 후에는 다른 용도로 사용하지 않는 것이 좋습니다.

다음과 같이 설치 프로세스를 위한 제어 호스트를 준비합니다.

  1. 기본 OS 설치 - Ubuntu 버전 20.04.4 LTS(Focal Fossa) 또는 Ubuntu 22.04.2 LTS(Jammy Jellyfish)를 설치합니다. 릴리스 23.2는 Ubuntu 22.04.2 LTS(Jammy Jellyfish)에서 작동할 수 있습니다.
  2. Docker 설치 - 제어 호스트에 Docker를 설치하고 구성하여 Linux 컨테이너 환경을 구현합니다. Paragon Automation은 Docker CE 및 Docker EE를 지원합니다. 제어 호스트에 설치하도록 선택한 Docker 버전은 클러스터 노드에서 사용하려는 Docker 버전과 독립적입니다.

    Docker EE를 설치하려면 설치하기 전에 평가판 또는 구독이 있는지 확인합니다. Docker EE, 지원되는 시스템 및 설치 지침에 대한 자세한 내용은 https://www.docker.com/blog/docker-enterprise-edition/ 를 참조하세요.

    Docker CE를 다운로드하고 설치하려면 다음 단계를 수행합니다. Docker가 설치되어 실행 중인지 확인하려면 명령을 사용합니다 # docker run hello-world .

    설치된 Docker 버전을 확인하려면 또는 # docker --version 명령을 사용합니다# docker version.

    전체 지침 및 자세한 내용은 https://docs.docker.com/engine/install/ubuntu/ 를 참조하세요.
  3. SSH 클라이언트 인증 구성 - 제어 호스트에서 실행 중인 설치 관리자는 SSH를 사용하여 클러스터 노드에 연결합니다. SSH 인증의 경우 슈퍼유저(sudo) 권한이 있는 루트 또는 루트가 아닌 사용자 계정을 사용해야 합니다. 후속 단계에서는 이 계정을 설치 사용자 계정이라고 합니다. 설치 사용자 계정이 클러스터의 모든 노드에 구성되어 있는지 확인해야 합니다. 설치 관리자는 인벤토리 파일을 사용하여 사용할 사용자 이름과 인증에서 SSH 키 또는 암호를 사용할지 여부를 결정합니다. 인벤토리 파일 사용자 지정 - 다중 노드 구현을 참조하십시오.

    인증(권장) 방법을 선택하는 ssh-key 경우 SSH 키를 생성합니다.

    암호로 SSH 키를 보호하려는 경우 키 관리자를 사용할 ssh-agent 수 있습니다. https://www.ssh.com/academy/ssh/agent 참조하십시오.

    메모:

    다음 섹션에 설명된 대로 클러스터 노드 준비 작업의 일부로 이 키를 노드에 복사해야 합니다.

  4. (선택 사항) wget 설치 - 유틸리티를 wget 설치하여 Paragon Automation 배포 소프트웨어를 다운로드합니다.

    # apt install wget

    또는 다른 파일 다운로드 소프트웨어를 사용하여 rsync 배포 소프트웨어를 복사할 수 있습니다.

클러스터 노드 준비

기본 노드와 작업자 노드를 통칭하여 클러스터 노드라고 합니다. 각 클러스터 노드에는 그림 3과 같이 하나 이상의 고유한 고정 IP 주소가 있어야 합니다. 호스트 이름을 구성할 때 소문자만 사용하고 하이픈(-) 또는 마침표(.) 이외의 특수 문자는 포함하지 마십시오. Paragon Automation 포트폴리오 설치 개요에 설명된 대로 구현에 Paragon Automation 구성 요소 간의 통신을 제공하기 위한 별도의 IP 네트워크가 있는 경우 작업자 노드에 두 번째 IP 주소 집합을 할당해야 합니다. 이러한 IP 주소를 사용하면 클러스터 외부의 디바이스가 작업자 노드에 연결할 수 있으며 다음 간의 통신도 가능합니다.
  • Paragon Automation 및 매니지드 디바이스
  • Paragon Automation과 네트워크 관리자

모든 노드를 동일한 브로드캐스트 도메인에 배치하는 것이 좋습니다. 서로 다른 브로드캐스트 도메인에 있는 클러스터 노드의 경우, 추가 로드 밸런싱 구성은 로드 밸런싱 구성을 참조하십시오.

그림 3: 클러스터 노드 기능 Cluster Node Functions

Paragon Automation 시스템 요구 사항에 설명된 대로 다중 노드 구축을 사용하여 Paragon Automation을 설치할 수 있습니다.

다음과 같이 Paragon Automation 설치 프로세스를 위해 클러스터 노드를 준비해야 합니다.

  1. 원시 디스크 스토리지 구성 - 클러스터 노드에는 파티션되지 않은 디스크 또는 포맷되지 않은 디스크 파티션이 연결된 원시 스토리지 블록 디바이스가 있어야 합니다. 루트 파티션 및 기타 파일 시스템이 사용 가능한 디스크 공간의 일부를 사용할 수 있도록 노드를 분할할 수도 있습니다. 파일 시스템 없이 나머지 공간을 포맷하지 않은 상태로 두고 Ceph에서 사용할 수 있도록 예약해야 합니다. 자세한 내용은 디스크 요구 사항을 참조하세요.
    메모:

    Ceph가 분할되지 않은 디스크 또는 포맷되지 않은 디스크 파티션을 사용할 수 있도록 아무것도 설치하거나 구성할 필요가 없습니다. Paragon Automation 설치 프로세스는 Ceph 스토리지를 위한 공간을 자동으로 할당합니다.

    다중 노드 클러스터의 경우 스토리지 공간이 연결된 클러스터 노드가 최소 3개 있어야 합니다. 즉, 분할되지 않은 디스크 또는 스토리지용 포맷되지 않은 디스크 파티션이 있는 최소 3개의 작업자 노드입니다.

    포맷되지 않은 디스크를 사용할 수 없는 경우 설치가 실패합니다.

    Ceph에는 최신 커널 버전이 필요합니다. Linux 커널이 매우 오래된 경우 새 커널을 업그레이드하거나 다시 설치하는 것이 좋습니다. OS에 대해 Ceph에서 지원하는 최소 Linux 커널 버전 목록은 https://docs.ceph.com/en/latest/start/os-recommendations 를 참조하십시오. Linux 커널 버전을 업그레이드하려면 Ubuntu Linux 커널 버전 업그레이드를 참조하세요.

    메모:

    Ceph는 Linux 커널 버전 4.15.0-55.60에서 작동하지 않습니다.

  2. 기본 OS 설치 - Ubuntu 버전 20.04.4 LTS(Focal Fossa) 또는 Ubuntu 22.04.2 LTS(Jammy Jellyfish)를 설치합니다. 릴리스 23.2는 Ubuntu 22.04.2 LTS(Jammy Jellyfish)에서 작동할 수 있습니다.
  3. Create install-user account—설치 사용자는 Ansible 플레이북이 기본 및 작업자 노드에 로그인하고 모든 설치 작업을 수행하는 데 사용하는 사용자입니다. 루트 암호나 슈퍼유저(sudo) 권한이 있는 계정을 구성해야 합니다. 설치 프로세스 중에 이 정보를 인벤토리 파일에 추가합니다.
    루트 사용자 암호를 설정합니다.
  4. SSH 인증 설치 - 제어 호스트에서 실행 중인 설치 관리자는 install-user 계정을 사용하여 SSH를 통해 클러스터 노드에 연결합니다.
    1. 클러스터 노드에 로그인합니다. 모든 노드에 open-SSH 서버를 설치합니다.
    2. sshd_config 파일을 편집합니다.

      # vi /etc/ssh/sshd_config

    3. 설치 사용자 계정으로 "root"를 사용하는 경우 루트 로그인을 허용합니다.

      PermitRootLogin yes

      인증에 일반 텍스트 비밀번호를 사용하도록 선택한 경우 비밀번호 인증을 활성화해야 합니다.

      PasswordAuthentication yes

      암호 인증은 사용하지 않는 것이 좋습니다.

    4. 매개변수가 AllowTcpForwardingyes설정되어 있는지 확인합니다.

      AllowTcpForwarding yes
      메모:

      매개변수가 로 설정된 경우 AllowTcpForwarding Paragon Automation 설치가 실패합니다 no.

    5. /etc/ssh/sshd_config를 변경한 경우 SSH 데몬을 다시 시작합니다.

      # systemctl restart sshd

    6. 제어 호스트에 로그인합니다.
      1. SSH 키를 사용한 인증을 허용하려면 id_rsa.pub 를 클러스터 노드에 복사합니다.

        클러스터의 모든 노드(기본 및 작업자)에 대해 이 단계를 반복합니다. cluster-node-IP 는 그림 3과 같이 노드의 고유 주소입니다. 호스트 이름을 대신 사용하는 경우 Ansible 제어 호스트는 이름을 IP 주소로 확인할 수 있어야 합니다.

      2. SSH 인증을 사용하여 install-user 계정을 통해 클러스터 노드에 로그인합니다. 로그인하는 데 비밀번호가 필요하지 않아야 합니다.

        SSH를 사용하여 install-user 계정을 사용하여 제어 호스트에서 클러스터의 모든 노드(기본 및 작업자)에 연결할 수 있어야 합니다. 로그인할 수 없는 경우 이전 단계를 검토하고 누락된 항목이 없는지 확인하십시오.

  5. Install Docker(Docker 설치) - 설치할 다음 Docker 버전 중 하나를 선택합니다.
    • Docker CE - Docker CE를 사용하려는 경우 클러스터 노드에 설치할 필요가 없습니다 . 이 스크립트는 deploy Paragon Automation을 설치하는 동안 노드에 Docker CE를 설치합니다.

    • Docker EE - Docker EE를 사용하려면 모든 클러스터 노드에 Docker EE를 설치해야 합니다. 노드에 Docker EE를 설치하는 경우 스크립트는 deploy 설치된 버전을 사용하고 해당 위치에 Docker CE를 설치하려고 시도하지 않습니다. Docker EE 및 지원되는 시스템에 대한 자세한 내용과 Docker EE 다운로드 및 설치 지침은 https://www.docker.com/blog/docker-enterprise-edition/ 를 참조하세요.

    클러스터 노드에 설치하도록 선택한 Docker 버전은 제어 호스트에 설치된 Docker 버전에 종속되지 않습니다.

  6. Python 설치 - Python 3이 OS에 사전 설치되어 있지 않은 경우 클러스터 노드에 설치합니다.

    # apt install python3

    설치된 Python 버전을 확인하려면 또는 # python3 --version 명령을 사용합니다# python3 -V.

  7. # apt list --installed 명령을 사용하고 다음 패키지가 설치되어 있는지 확인합니다.

    apt-transport-https, bash-completion, gdisk, iptables, lvm2, openssl

    에어 갭 방법을 사용하여 Ubuntu 기본 OS를 실행하는 클러스터에 Paragon Automation을 설치하려면 다음 패키지가 사전 설치되어 있는지 확인하십시오.
    ca-certificates, curl, docker.io, jq, keepalived

    또한 문제 해결에 도움이 되도록 다음과 같은 선택적 패키지를 설치하는 것이 좋습니다.

    net-tools, tcpdump, traceroute

  8. 기본 OS가 Ubuntu 버전 20.04.4 LTSiptables FORWARD 인 경우 정책을 모든 클러스터 노드에 ACCEPT 연결합니다.
    1. 클러스터 노드에 로그인합니다.

    2. iptables FORWARD 체인 정책을 로 ACCEPT설정합니다.

    3. iptables-persistent 패키지를 설치하여 재부팅 후에도 변경 사항이 지속되도록 합니다.

      규칙을 저장하라는 메시지가 표시되면 아니요로 응답하도록 선택할 수 있습니다.

    4. 다음 규칙을 추가합니다.

    5. /etc/iptables/rules.v6 파일을 삭제합니다.

    모든 클러스터 노드에서 이 단계를 반복합니다.
  9. NTP 설치 및 활성화 - 모든 노드는 항상 NTP(Network Time Protocol) 또는 기타 시간 동기화 프로토콜을 실행해야 합니다. 기본적으로 Paragon Automation은 Chrony NTP 클라이언트를 설치합니다. Chrony를 사용하지 않으려면 모든 노드에 NTP를 수동으로 설치하고 명령이 시계가 동기화되었음을 보고하도록 timedatectl 할 수 있습니다. 그러나 에어갭 방법을 사용하여 Paragon Automation을 설치하고 Chrony를 사용하려면 Chrony를 미리 설치해야 합니다. 설치 프로그램은 에어 갭 설치 중에 Chrony를 설치하지 않습니다.
    1. ntpdate를 설치하여 NTP 서버를 쿼리하여 날짜와 시간을 동기화합니다.

      # apt install ntpdate -y

    2. 다음 명령을 두 번 실행하여 NTP 서버와의 오프셋을 줄입니다.

      # ntpdate ntp-server

    3. NTP 프로토콜을 설치합니다.

      # apt install ntp -y

    4. NTP 서버 풀을 구성합니다.

      # vi /etc/ntp.conf

    5. 기본 Ubuntu 풀을 파일에서 사용자 위치에 가장 가까운 NTP 서버로 바꿉니다 ntp.conf .

      server ntp-server prefer iburst

      파일을 저장하고 종료합니다.

    6. NTP 서비스를 다시 시작합니다.

      # systemctl restart ntp

    7. 시스템이 NTP 서버와 동기화되어 있는지 확인합니다.

      # timedatectl

  10. (선택 사항) Ubuntu Linux 커널 버전 업그레이드: Ubuntu 서버의 커널 버전을 최신 LTS 버전으로 업그레이드하여 Paragon Automation 설치 요구 사항을 충족하려면 다음을 수행합니다.
    1. 루트 사용자로 로그인합니다.

    2. 기존 커널 버전을 확인합니다.

      root@server# uname -msr

      Linux 커널 버전이 4.15 이전인 경우 커널을 업그레이드합니다.

    3. apt 리포지토리 업데이트:

      root@server# apt update

    4. 커널 업그레이드를 포함한 기존 소프트웨어 패키지 업그레이드:

      root@server# apt upgrade -y

      root@server# apt install --install-recommends linux-generic-hwe-xx.xx

      xx.xx 다음은 Ubuntu OS 버전입니다.

    5. 서버를 재부팅하여 새 커널을 로드합니다.

      root@server# reboot
    6. 새 커널 버전을 확인합니다.

      root@server# uname -msr

가상 IP 주소 고려 사항

Kubernetes 작업자 노드는 애플리케이션의 워크로드를 처리하는 Pod를 호스팅합니다.

포드는 Kubernetes에서 생성 및 관리되는 배포 가능한 가장 작은 컴퓨팅 단위입니다. Pod에는 공유 스토리지 및 네트워크 리소스와 애플리케이션 실행 방법에 대한 특정 지침이 포함된 하나 이상의 컨테이너가 포함되어 있습니다. 컨테이너는 가장 낮은 수준의 처리이며, 컨테이너에서 애플리케이션 또는 마이크로서비스를 실행합니다.

클러스터의 기본 노드는 특정 Pod 및 컨테이너를 호스팅할 작업자 노드를 결정합니다.

Paragon Automation의 모든 기능은 마이크로서비스 조합을 사용하여 구현할 수 있습니다. 이러한 마이크로 서비스 중 일부는 최종 사용자(관리 디바이스) 및 관리자에게 서비스를 제공하므로 클러스터 외부에서 액세스할 수 있도록 해야 합니다. 예를 들어, 프로바이더 에지(PE) 라우터와 Paragon Automation 간에 PCEP(Path Computation Element Protocol) 세션을 설정하려면 pceserver 서비스에 액세스할 수 있도록 해야 합니다.

외부 디바이스에서 연결할 수 있는 특정 주소를 사용하여 Kubernetes 클러스터 외부에 이러한 서비스를 노출해야 합니다. 서비스는 지정된 시간에 모든 작업자 노드에서 실행될 수 있으므로 VIP(가상 IP 주소)를 외부 주소로 사용해야 합니다. 지정된 작업자 노드의 주소를 외부 주소로 사용해서는 안 됩니다.

이 예제에 대한 설명은 다음과 같습니다.

  • 작업자 1이 10.1.x.3이고 작업자 2가 10.1.x.4라고 가정합니다.

  • 서비스 IP = PCEP VIP는 10.1.x.200입니다.

  • PCC_IP는 10.1.x.100입니다.

Paragon Automation 서비스는 클러스터 외부에 서비스를 노출하는 두 가지 방법 중 하나를 사용합니다.

  • 로드 밸런서 - 각 로드 밸런서는 특정 IP 주소와 연결되며 외부 트래픽을 클러스터의 특정 서비스로 라우팅합니다. 이는 클라우드의 많은 Kubernetes 설치에 대한 기본 방법입니다. 부하 분산 장치 방법은 서비스당 여러 프로토콜과 여러 포트를 지원합니다. 각 서비스에는 자체 로드 밸런서와 IP 주소가 있습니다.

  • Paragon Automation은 MetalLB 로드 밸런서를 사용합니다. MetalLB는 레이어 2 모드에서 가상 IP 주소를 관리하거나 레이어 3 모드에서 외부 라우터와 상호 작용하여 외부 로드 밸런서를 시뮬레이션합니다. MetalLB는 쿠버네티스 클러스터에 로드 밸런싱 인프라를 제공합니다.

    "LoadBalancer" 유형의 서비스는 Kubernetes 로드 밸런싱 인프라와 상호 작용하여 외부에 연결할 수 있는 IP 주소를 할당합니다. 일부 서비스는 외부 IP 주소를 공유할 수 있습니다.

  • Ingress(수신) - 수신 방법은 트래픽을 클러스터로 가져오는 프록시 역할을 한 다음 내부 서비스 라우팅을 사용하여 트래픽을 대상으로 라우팅합니다. 내부적으로 이 메서드는 부하 분산 장치 서비스를 사용하여 해당 프록시 역할을 할 수 있도록 자신을 세계에 노출합니다.

    Paragon Automation은 다음과 같은 수신 프록시를 사용합니다.

    • 대사
    • Nginx

클러스터 외부의 디바이스는 다음 서비스에 액세스해야 하므로 이러한 서비스에는 VIP 주소가 필요합니다.

표 1: VIP가 필요한 서비스
필수 VIP 주소 설명 로드 밸런서/프록시

수신 컨트롤러

웹을 통해 Paragon Automation GUI에 액세스하는 데 사용됩니다.

Paragon Automation은 구성 요소 및 애플리케이션에 대한 액세스를 제공하는 공통 웹 서버를 제공합니다. 서버에 대한 액세스는 Kubernetes Ingress Controller를 통해 관리됩니다.

대사

메탈LB

Paragon Insights 서비스

syslog, DHCP 릴레이 및 JTI와 같은 Insights 서비스에 사용됩니다.

메탈LB

Paragon Pathfinder PCE 서버

네트워크의 디바이스와 PCEP 세션을 구축하는 데 사용됩니다.

메탈LB

SNMP 트랩 수신기 프록시 (옵션)

이 기능이 필요한 경우에만 SNMP 트랩 수신기 프록시에 대한 사용자입니다.

메탈LB

인프라 Nginx 수신 컨트롤러

Paragon Pathfinder netflowd 서버 및 선택적으로 Paragon Pathfinder PCE 서버의 프록시로 사용됩니다.

Nginx 수신 컨트롤러는 MetalLB 로드 밸런서 풀 내에서 VIP가 필요합니다. 즉, 설치 프로세스 중에 구성 파일을 만드는 동안 포함해야 하는 LoadBalancer IP 주소 범위의 일부로 이 주소를 포함해야 합니다.

Nginx

메탈LB

Pathfinder Netflowd

Paragon Pathfinder netflowd 서버에 사용됩니다.

Netflowd는 Nginx를 프록시로 사용할 수 있으며, 이 경우 자체 VIP 주소가 필요하지 않습니다.

메탈LB

레지스트리(선택 사항)

기본 노드의 여러 컨테이너 레지스트리에 연결하는 데 사용됩니다.

-

PCEP 서버 (선택 사항)

MD5 인증을 위한 PCE 서버에 사용됩니다.

-

cRPD (선택 사항)

MD5 인증을 위해 BMP(BGP Monitoring Protocol) 포드에 연결하는 데 사용됩니다.

-

앰배서더가 사용하는 포트:

  • HTTPS로 HTTP 80(TCP) 리디렉션

  • HTTPS 443(TCP)

  • Paragon Planner 7000(TCP)

  • DCS/NETCONF 시작 7804(TCP)

그림 4: 앰배서더 Ambassador

Insights Services, PCE(Path Computation Element) 서버 및 SNMP에서 사용하는 포트:

  • 인사이트 서비스

    JTI 4000 (우수 달러)

    DHCP(ZTP) 67(UDP)

    시스템 로그 514 (UDP)

    SNMP 프록시 162(UDP)

  • PCE 서버

    PCEP 4189(TCP)

  • 증권 시세 표시기

    SNMP 트랩 수신기 162(UDP)

그림 5: 서비스에서 Ports Used by Services 사용하는 포트

Nginx 컨트롤러에서 사용하는 포트 :

  • NetFlow 9000(UDP)

  • PCEP 4189(TCP)

PCEP에 Nginx 사용

설치 과정에서 PCEP에 대한 수신 프록시를 활성화할지 여부를 묻는 메시지가 표시됩니다. PCE(Path Computation Element) 서버의 프록시 또는 None Nginx-Ingress 중에서 선택할 수 있습니다.

프록시로 을(를) 선택하면 Nginx-Ingress 표 1에 설명된 PCE 서버에 대한 VIP를 구성할 필요가 없습니다. 이 경우 인프라 Nginx 수신 컨트롤러의 VIP 주소는 PCE 서버에도 사용됩니다. netflowd 프록시를 사용하지 않기로 선택한 경우 인프라 Nginx 수신 컨트롤러의 VIP도 netflowd에 사용됩니다.

메모:

Nginx를 사용하면 여러 서비스에 단일 IP 주소를 사용할 수 있다는 이점이 있습니다.

그림 6: Nginx 컨트롤러 Nginx Controller

다중 기본 노드 배포의 레지스트리에 대한 VIP 주소

여러 기본 노드가 있는 설정을 배포하고 여러 컨테이너 레지스트리(각 기본 노드에 하나씩)를 배포하는 경우 클러스터 노드와 동일한 브로드캐스트 도메인에 추가 VIP 주소가 필요합니다. 이 주소는 각 기본 노드에 배포된 컨테이너 레지스트리에 연결하는 데 사용됩니다.

설치 마법사는 이 IP 주소를 레지스트리의 가상 IP 주소라고 합니다. MetalLB 로드 밸런서의 VIP 주소 풀에는 이 VIP 주소가 포함 되어서는 안 됩니다.

MD5 인증을 위한 VIP 주소

라우터와 Paragon Pathfinder 간의 PCEP 세션을 보호하고 BMP 서비스가 올바른 BGP-LS 라우터와 피어링되도록 MD5 인증을 구성할 수 있습니다. Paragon Automation은 Multus를 사용하여 PCE 서버에 보조 인터페이스를 제공하고 라우터에 직접 액세스할 수 있도록 BMP 포드를 제공합니다. 클러스터 노드와 동일한 서브넷에 다음 VIP 주소가 필요합니다.

  • CIDR 형식의 PCE 서버에 대한 VIP 주소입니다

  • CIDR 형식의 cRPD에 대한 VIP 주소입니다

MetalLB 로드 밸런서의 VIP 주소 풀에는 이러한 VIP 주소가 포함 되어서는 안 됩니다.

MD5 인증을 구성하기로 선택하는 경우 라우터에서 인증 키와 가상 IP 주소를 추가로 구성해야 합니다. 또한 Paragon Automation UI에서 인증 키를 구성해야 합니다.

  • PCEP 세션의 MD5.- 라우터에서 MD5 인증 키를 구성하고 라우터에서 Paragon Automation UI 및 VIP 주소를 구성합니다.

    • Junos CLI에서 다음을 구성합니다.

      user@pcc# set protocols pcep pce pce-id authentication-key pce-md5-key

      user@pcc# set protocols pcep pce pce-id destination-ipv4-address vip-for-pce

    • pce-md5-key Configuration > Devices > Edit(편집Device Name) 페이지의 Protocols:PCEP(프로토콜:PCEP) 섹션에 있는 MD5 String(MD5 문자열) 필드에 인증 키를 입력합니다.

    MD5 인증 키는 79 자 이하여야 합니다.

  • MD5 on cRPD - cRPD MD5 인증 키를 결정하고 라우터에서 cRPD의 키와 VIP 주소를 구성합니다.

    1. 다음과 같은 방법으로 MD5 인증 키를 결정하거나 설정합니다.

      1. conf 명령 스크립트를 실행하고 cRPD에서 MD5 인증을 활성화합니다. crpd_auth_key config.yml 파일에서 매개 변수를 검색합니다. 키가 있는 경우 cRPD가 MD5에 대해 구성되었음을 나타냅니다. 예: crpd_auth_key : northstar. config.yml 파일에 있는 키를 사용하거나(또는 키를 편집할 수도 있음) 라우터에 입력할 수 있습니다.

      2. config.yml 파일에 MD5 인증 키가 없는 경우 cRPD에 로그인하고 다음 명령 중 하나를 사용하여 인증 키를 설정해야 합니다.

        set groups extra protocols bgp group name authentication-key crpd-md5-key

        또는

        set protocols bgp group name authentication-key crpd-md5-key

        MD5 인증 키는 79 자 이하여야 합니다.

    2. cRPD에 MD5를 활성화하도록 라우터를 구성합니다.

      user@pcc# set protocols bgp group name neighbor vip-for-crpd authentication-key md5-key
메모:

Paragon Automation 설치 프로세스를 시작하기 전에 필요한 모든 VIP 주소를 식별해야 합니다. 설치 프로세스의 일부로 이러한 주소를 입력하라는 메시지가 표시됩니다.

로드 밸런싱 구성

VIP는 기본적으로 레이어 2에서 관리됩니다. 모든 클러스터 노드가 동일한 브로드캐스트 도메인에 있는 경우 각 VIP 주소는 한 번에 하나의 클러스터 노드에 할당됩니다. 레이어 2 모드는 VIP의 장애 조치를 제공하며 실제 로드 밸런싱을 제공하지 않습니다. 클러스터 노드 간의 진정한 로드 밸런싱을 위해 또는 노드가 서로 다른 브로드캐스트 도메인에 있는 경우 레이어 3에서 로드 밸런싱을 구성해야 합니다.

VIP 주소를 네트워크에 알리려면 BGP 라우터를 구성해야 합니다. BGP 라우터가 ECMP를 사용하여 서로 다른 호스트 간에 TCP/IP 세션의 균형을 유지하는지 확인합니다. BGP 라우터를 클러스터 노드에 직접 연결합니다.

클러스터 노드에서 로드 밸런싱 구성하려면 config.yml 파일을 편집합니다. 예를 들어:

이 예에서는 192.x.x.1의 BGP 라우터가 10.x.x.0/24 접두사가 있는 VIP 주소의 연결성을 네트워크의 나머지 부분에 보급하는 역할을 합니다. 클러스터는 이 범위의 VIP 주소를 할당하고 주소를 처리할 수 있는 클러스터 노드의 주소를 보급합니다.

DNS 서버 구성(선택 사항)

수신 컨트롤러의 VIP 주소 또는 수신 컨트롤러의 VIP 주소로 확인되는 DNS(Domain Name System) 서버에 구성된 호스트 이름을 통해 기본 웹 게이트웨이에 액세스할 수 있습니다. 호스트 이름을 사용하여 웹 게이트웨이에 액세스하려는 경우에만 DNS 서버를 구성해야 합니다.

호스트 이름을 DNS에 A, AAAA 또는 CNAME 레코드로 추가합니다. 랩 및 개념 증명(POC) 설정의 경우 클러스터 노드의 /etc/hosts 파일에 호스트 이름을 추가할 수 있습니다.