Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Балансировщик нагрузки на трафик

Обзор балансировки нагрузки на трафик

Краткое описание поддержки балансировки нагрузки трафика

Таблица 1 предоставляет краткое описание поддержки балансировки нагрузки трафика на картах MS-MPC и MS-MIC для адаптивного сервиса по сравнению с поддержкой сервисной карты безопасности MX-SPC3 для сервисов нового поколения.

Таблица 1. Краткое описание балансировки нагрузки трафика

MS-MPC

MX-SPC3

Выпуск Junos

< 16,1R6 и 18,2.R1

≥ 16,1R6 и 18,2R1

19.3R2

Макс# экземпляров на шасси

32

2000/32 в режиме DSR уровня 2

2,000

Макс# виртуальных сервисов на экземпляр

32

32

32

Макс# виртуального IP-адреса на виртуальный сервис

1

1

Макс# групп на экземпляры

32

32

32

Макс# реальных сервисов (серверов) на группу

255

255

255

Макс# групп на виртуальный сервис

1

1

Макс# профилей сетевого мониторинга на группу

2

2

Максимальная # одного поставщика услуг безопасности на PIC/NPU в 5 сек.

4,000

От 1250 до 19,3R2

От 10 000 до 20,1R1

Протоколы проверки работоспособность

ICMP, TCP, UDP, HTTP, SSL, настраиваемые

ICMP, TCP, UDP, HTTP, SSL, TLS Hello, Custom

Описание балансировки нагрузки трафика

Балансировка нагрузки трафика (TLB) поддерживается на маршрутизаторах серии MX с одним из многофункциональных модульных концентраторов портов (MS-MPC), модульной интерфейсной картой многофункциональных интерфейсов (MS-MIC), или картой обработки сервисов безопасности MX (MX-SPC3) и в сочетании с модульными концентраторами портов (MPC), поддерживаемыми в маршрутизаторах серии MX, как описано в таблице 2.

Примечание:

Нельзя запускать детерминированное NAT и TLB одновременно.

Таблица 2. Краткое описание платформы поддержки маршрутизаторов серии TLB MX

Режим TLB

Покрытие платформЫ MX

Модульный концентратор многофункциональных портов (MS-MPC)

MX240, MX2480, MX960, MX2008, MX2010, MX2020

Плата обработки сервисов безопасности MX (MX-SPC3)

MX240, MX480, MX960

  • TLB позволяет распределять трафик между несколькими серверами.

  • В TLB используется плоскость управления на основе MS-MPC и плоскость данных с использованием модуля переадресации маршрутизаторов серии MX.

  • TLB использует улучшенную версию мультипатии с равной стоимостью (ECMP). Улучшенная ECMP облегчает распределение потоков между группами серверов. Усовершенствования встроенного ECMP обеспечивают влияние только потоков, связанных с этими серверами, при этом сокращая общий отток сетевых сервисов и сеансов.

  • TLB обеспечивает мониторинг работоспособности приложений до 255 серверов на группу, обеспечивая интеллектуальное управление трафиком на основе проверки работоспособности информации о доступности серверов. Вы можете настроить агрегированный многофункциональный интерфейс (AMS), чтобы обеспечить одно-однократное резервирование для MS-MPCs или карты MX-SPC3 нового поколения, используемые для мониторинга работоспособности сервера.

  • TLB применяет свою обработку потоков к впадающему трафику.

  • TLB поддерживает несколько виртуальных экземпляров маршрутизации, чтобы повысить поддержку требований к балансировке нагрузки в больших масштабах.

  • TLB поддерживает статическое преобразование виртуальных IP-адресов в реальном IP-адресе и статическое преобразование портов назначения во время балансировки нагрузки.

Режимы эксплуатации балансировки нагрузки трафика

Балансировка нагрузки трафика обеспечивает три режима работы для распределения исходящего трафика и обработки возвратного трафика.

В таблице 3 приводится краткое описание поддержки TLB и поддерживаемых ею карт.

Таблица 3. Краткое описание карт TLB и Security Service Cards

Сервисная карта безопасности

MS-MPC

MX-SPC3

Перевести

Да

Да

Прозрачный уровень 3 Прямое возвращение сервера

Да

Да

Прозрачный уровень 2 Прямое возвращение сервера

Да

Не поддерживается

Прямое возвращение сервера на уровне 2 в прозрачном режиме

При использовании прозрачного режима прямого сервера уровня 2 (DSR):

  • PFE обрабатывает данные.

  • Балансировка нагрузки работает путем изменения MAC-процессоров уровня 2.

  • MS-MPC выполняет зонды сетевого мониторинга.

  • Реальные серверы должны быть доступны непосредственно (уровень 2) с маршрутизатора серии MX.

  • TLB устанавливает маршрут, и весь трафик по этому маршруту сбалансирован.

  • TLB никогда не меняет заголовки уровня 3 и выше.

На рис. 1 показана топология TLB для прозрачного DSR уровня 2 в режиме.

Рис. 1. Топология TLB для прозрачного режима TLB Topology for Transparent Mode

Переведенный режим

Переведенный режим обеспечивает большую гибкость, чем прозрачный режим уровня 2 DSR. При выборе переведенного режима:

  • MS-MPC выполняет зонды сетевого мониторинга.

  • PFE выполняет балансировка нагрузки без функций ведения базы данных:

    • Трафик данных, направленный на виртуальный IP-адрес, переносит виртуальный IP-адрес на реальный серверный IP-адрес и переводит виртуальный порт на порт слушания сервера. Возвратный трафик проходит обратный перевод.

    • Переводится от клиента к виртуальному IP-трафику; трафик направляется в пункт назначения.

    • Трафик между сервером и клиентом фиксируется с помощью фильтров с неописуемыми данными и направляется на следующий переход с балансировкой нагрузки для обратной обработки. После перевода трафик направляется обратно к клиенту.

    • Доступны два способа балансировки нагрузки: случайный и хэш. Случайный способ предназначен только для трафика UDP и обеспечивает распределение quavms-random. Хотя этот режим и не является случайным, он обеспечивает справедливое распределение трафика на доступный набор серверов. Метод хэш обеспечивает хэш-ключ на основе любого сочетания IP-адреса источника, IP-адреса назначения и протокола.

      Примечание:

      Обработка в переведенном режиме доступна только для трафика IPv4-IPv4 и IPv6-iPv6.

На рис. 2 показана топология TLB для переведенного режима.

Рис. 2. Топология TLB для переведенного режима TLB Topology for Translated Mode

Прямое возвращение сервера на уровне 3 в прозрачном режиме

Прозрачный режим балансировки нагрузки уровня 3 DSR распределяет сеансы на серверы, которые могут быть уровня 3 отойти. Трафик возвращается непосредственно клиенту с реального сервера.

Функции балансировки нагрузки на трафик

TLB обеспечивает следующие функции:

  • TLB всегда распределяет запросы на любой поток. Когда вы указываете режим DSR, ответ возвращается непосредственно к источнику. При указании переведенного режима обратный трафик направляется через фильтры, скрытые на серверных интерфейсах.

  • TLB поддерживает балансировку нагрузки на основе хэш или случайный балансировка нагрузки.

  • TLB позволяет настраивать серверы в автономном режиме, чтобы предотвратить влияние производительности, которое может быть вызвано перефразированием всех существующих потоков. Вы можете добавить сервер в административном вниз состоянии и использовать его позже для распределения трафика, отключив административное состояние вниз. Настройка серверов в автономном режиме помогает предотвратить влияние трафика на другие серверы.

  • Когда проверка работоспособного состояния определяет, что сервер не будет работать, перефразируются только затронутые потоки.

  • При возврате в сервис ранее уходящего сервера все потоки, принадлежащие этому серверу, на основе возврата к нему хэширования влияют на производительность возвращенных потоков. По этой причине вы можете отключить автоматическое присоединение сервера к активной группе. Вы можете вернуть серверы в сервис, выпустив request services traffic-load-balance real-service rejoin операционную команду.

    Примечание:

    NAT не применяется к распределенным потокам.

  • Приложение для мониторинга работоспособной проверки работает на процессоре MS-MPC/NPU. Этот сетевой процессор (NPU) не используется для обработки трафика данных.

  • TLB поддерживает статическое преобразование виртуальных IP-адресов в реальном ip-адресе и статический перевод портов назначения во время балансировки нагрузки.

  • TLB обеспечивает поддержку нескольких VRF.

Компоненты приложения для балансировки нагрузки трафика

Серверы и серверные группы

TLB позволяет настраивать группы до 255 серверов (именуемые в конфигурациях реальными сервисами) для использования в качестве альтернативных направлений для распределения сеансов без состояния. Все серверы, используемые в серверных группах, должны быть настроены индивидуально перед назначением в группы. Балансировка нагрузки использует хэширование или рандомизацию для распределения сеансов. Пользователи могут добавлять и удалять серверы в таблицу распределения TLB и из нее, а также изменять административный статус сервера.

Примечание:

TLB использует API следующего перехода на сеансы для обновления таблицы распределения серверов и получения статистики. Приложения не имеют прямого контроля над управлением таблицами распределения серверов. Они могут влиять на изменения только косвенно, добавляя и удаля сервисы API TLB.

Мониторинг работоспособность серверов — единая проверка работоспособность и двойная проверка работоспособность

TLB поддерживает TCP, HTTP, SSL Hello, TLS Hello и настраиваемые зонды проверки работоспособности для мониторинга работоспособности серверов в группе. Вы можете использовать один тип зонда для группы серверов или двухъядерную конфигурацию проверки работоспособности, которая включает два типа зонда. Настраиваемая функция мониторинга работоспособного состояния размещается на устройствах MX-SPC3 или MS-MPC. По умолчанию запросы зондирования передаются каждые 5 секунд. Кроме того, по умолчанию реальный сервер объявляется вниз только после пяти последовательных сбоев зонда и объявляется только после пяти последовательных успехов зондирования.

Используйте настраиваемый зонд проверки работоспособность, чтобы указать следующее:

  • Ожидаемая строка в ответ на зонд

  • Строка, которая отправляется с помощью зонда

  • Статус сервера для назначения при выходе зонда (вверх или вниз)

  • Статус сервера для назначения при получении ожидаемого ответа на зонд (вверх или вниз)

  • Протокол — UDP или TCP

TLB обеспечивает липкость приложений, а это означает, что сбои или изменения серверов не влияют на потоки трафика на другие активные серверы. Изменение административного состояния сервера снизу не влияет на активные потоки на оставшиеся серверы в таблице распределения серверов. Добавление сервера или удаление сервера из группы оказывает определенное влияние на трафик в течение длительного времени, которое зависит от конфигурации интервала и параметров повторной обработки данных в профиле мониторинга.

TLB обеспечивает два уровня мониторинга работоспособности серверов:

  • Единая проверка работоспособность — один тип зонда прикрепляется к группе серверов с помощью конфигурированияnetwork-monitoring-profile .

  • Двойной контроль работоспособности TLB (TLB-DHC): два типа зонда ассоциируются с группой серверов с помощью конфигурирования network-monitoring-profile . Статус сервера объявляется по результатам двух проверок работоспособности. Пользователи могут настраивать до двух профилей проверки работоспособного состояния на одну группу серверов. Если серверная группа настроена для двойной проверки работоспособности, реальный сервис объявляется работоспособным только в том случае, если оба зонда проверки работоспособности одновременно работают; в противном случае, реальный сервис объявляется DOWN.

Примечание:

Следующие ограничения применяются к интерфейсам AMS, используемым для мониторинга работоспособия серверов:

  • Интерфейс AMS, настроенный под экземпляром TLB, использует свои настроенные интерфейсы членов исключительно для проверки работоспособности настроенных нескольких реальных серверов.

  • Интерфейсы участников используют блок 0 для отдельных сценариев VRF, но могут использовать единицы, кроме 1, для нескольких примеров VRF.

  • TLB использует IP-адрес, настроенный для интерфейсов членов AMS, в качестве исходного IP-адреса для проверки работоспособности.

  • Интерфейсы участников должны быть в том же экземпляре маршрутизации, что и интерфейс, используемый для охвата реальных серверов. Это обязательно для процедур проверки работоспособности сервера TLB.

Виртуальные сервисы

Виртуальный сервис предоставляет виртуальный IP-адрес (VIP), связанный с группой серверов, на которые трафик направляется в соответствии с хэш-распределением или случайным распределением сеансов и мониторингом работоспособности сервера. В случае DSR уровня 2 и уровня 3 DSR специальный адрес 0.0.0.0 приводит к тому, что весь трафик, поступающий в экземпляр переадресации, сбалансирован.

Конфигурация виртуального сервиса включает в себя следующее:

  • Режим , указывающий, как обрабатывается трафик (перевод или прозрачный).

  • Группа серверов, на которые распространяются сеансы.

  • Метод балансировки нагрузки.

  • Экземпляр маршрутизации и метрика маршрута.

Лучшая практика:

Хотя для использования маршрутизации по умолчанию можно назначить виртуальный адрес 0.0.0.0, мы рекомендуем использовать виртуальный адрес, который можно присвоить экземпляру маршрутизации, настраиваемму специально для TLB.

Пределы конфигурации балансировщика нагрузки трафика

Ограничения конфигурации балансировки нагрузки трафика описаны в таблице 4.

Таблица 4. Ограничения конфигурации TLB

Компонент конфигурации

Ограничение конфигурации

Максимальное количество экземпляров.

Начиная с версии ОС Junos 16.1R6 и ОС Junos 18.2R1, приложение TLB поддерживает экземпляры TLB 2000 для виртуальных сервисов, которые используют возврат прямого сервера или переведенный режим. В предыдущих версиях максимальное количество экземпляров составляет 32.

Если несколько виртуальных сервисов используют одну и ту же группу серверов, то все эти виртуальные сервисы должны использовать тот же метод балансировки нагрузки для поддержки экземпляров 2000 TLB.

Для виртуальных сервисов, которые используют режим возврата сервера уровня2, TLB поддерживает только 32 экземпляра TLB. Чтобы выполнять ту же функцию, что и режим возврата серверов уровня2 и иметь поддержку экземпляров TLB 2000, вы можете использовать режим возврата прямого сервера и использовать фильтр сервиса с помощью действия «пропустить».

Максимальное количество серверов на группу

255

Максимальное количество виртуальных сервисов на каждый сервис PIC

32

Максимальное количество проверок работоспособности каждого сервиса PIC с интервалом в 5 секунд

Для карт сервисов MS-MPC: 2000

Для режима услуг нового поколения и карт сервисов MX-SPC3: 1250

Максимальное количество групп на виртуальный сервис

1

Максимальное количество виртуальных IP-адресов на виртуальный сервис

1

Протоколы проверки работоспособность

ICMP, TCP, HTTP, SSL, TLS-Hello, настраиваемый

Примечание:

Проверка работоспособного состояния ICMP поддерживается только на картах сервисов MS-MPC.

Начиная с версии ОС Junos 22.4.1, TLB расширяется для поддержки типа проверки здоровья TLS-Hello. Для TLS-Hello over TCP поддерживаются проверки работоспособности TLS v1.2 и v1.3 TLS-Hello.

Настройка TLB

В следующих темах описывается, как настроить TLB. Чтобы создать полное приложение, необходимо также определить интерфейсы и информацию о маршрутизации. Вы можете дополнительно определить фильтры и варианты политик межсетевых экранов, чтобы дифференцировать трафик TLB.

Загрузка пакета услуг TLB

Загрузите пакет сервисов TLB на каждую услугу PIC, на которой вы хотите запустить TLB.

Примечание:

Для сервисов нового поколения и сервисной карты MX-SPC3 вам не нужно загружать этот пакет.

Для загрузки пакета услуг TLB в сервисе PIC:

  • Загрузите jservices-traffic-dird пакет.

    Например:

Настройка экземпляра TLB

Прежде чем настроить TLB, включите процесс обслуживания SDK, настроив system processes sdk-service enable в иерархии [edit].

Чтобы настроить название экземпляра TLB:

  • На уровне иерархии [edit services traffic-load-balance] выявляйте имя экземпляра TLB.

    Например:

Настройка информации об интерфейсах и маршрутизации

Для настройки информации об интерфейсе и маршрутизации:

  1. На уровне иерархии [edit services traffic-load-balance instance instance-name] выявляйте интерфейс сервиса, связанный с этим экземпляром.

    Например, на ms-MPC:

    Например, для сервисов нового поколения на MX-SPC3:

  2. Обеспечьте маршрутизацию ответов на пакеты проверки работоспособности с реальных серверов до интерфейса сервиса, который вы определили на этапе 1.

    Например, на ms-MPC:

    Например, на MX-SPC3:

  3. Укажите клиентский интерфейс, для которого определяется фильтр для направления трафика в направлении вперед. Это требуется только для переведенного режима.

    Например:

  4. Укажите виртуальный экземпляр маршрутизации, используемый для маршрутизации трафика данных в направлении, перемещая их к серверам. Это требуется для SLT и DSR уровня 3; это необязательно для DSR уровня 2.

    Например:

  5. Укажите серверный интерфейс, для которого определяются фильтры для прямого возврата трафика клиенту.
    Примечание:

    Фильтры для возвратного трафика не используются для DSR.

    Например:

  6. (Необязательно) Укажите фильтр, используемый для обхода проверки работоспособность на возвратный трафик.

    Например:

  7. Укажите виртуальный экземпляр маршрутизации, в котором требуется направлять данные в обратном направлении к клиентам.

    Например:

    Примечание:

    Виртуальные экземпляры маршрутизации для маршрутизации в обратном направлении не используются с помощью DSR.

Настройка серверов

Для настройки серверов для экземпляра TLB:

Настройте логическое имя и IP-адрес для каждого сервера, который будет доступен для распределения следующего перехода.

Например:

Настройка профилей сетевого мониторинга

Профиль сетевого мониторинга настраивает зонд проверки работоспособности, который вы назначаете группе серверов, к которой распространяется сеансовый трафик.

Для настройки профиля сетевого мониторинга:

  1. Настраивайте тип зонда для мониторинга работоспособность: icmp, tcphttp, ssl-hellotls-hello,илиcustom.
    Примечание:

    icmp зонды поддерживаются только на картах MS-MPC.

    Сервисы нового поколения и MX-SPC3 не поддерживают зонды ICMP в этом выпуске.

    • Для зонда ICMP:

    • Для зонда TCP:

    • Для зонда HTTP:

    • Для SSL-зонда:

    • Для зонда TLS-Hello:

    • Для настраиваемого зонда:

  2. Настройте интервал для попыток зондирования за с секундами (от 1 до 180).

    Например:

  3. Настраивайте количество повторов сбоев, после чего реальный сервер помечается как низший.

    Например:

  4. Настраивайте количество повторов восстановления, то есть количество успешных попыток зондирования, после которых сервер объявляется вверх.

    Например:

Настройка серверных групп

Серверные группы состоят из серверов, куда трафик распространяется с помощью системы распределения сеансов без базы данных и мониторинга работоспособности серверов на основе хэш-сервера.

Для настройки группы серверов:

  1. Укажите имена одного или нескольких настроенных реальных серверов.

    Например:

  2. Настройте экземпляр маршрутизации для группы, если вы не хотите использовать экземпляр inet.0по умолчанию.

    Например:

  3. (Необязательно) Отключить вариант по умолчанию, который позволяет серверу автоматически присоединиться к группе, когда он появится.
  4. (По желанию) Настраивайте логический блок интерфейса сервиса экземпляра для проверки работоспособность.
    1. Укажите логический блок.

    2. Обеспечьте маршрутизацию ответов на пакеты проверки работоспособности от реальных серверов до интерфейса.

    Например:

  5. Настраивайте один или два профиля сетевого мониторинга, которые будут использоваться для мониторинга работоспособности серверов этой группы.

    Например:

Настройка виртуальных сервисов

Виртуальный сервис предоставляет адрес, связанный с группой серверов, куда направляется трафик, определяемый распределением сеансов или случайным распределением сеансов, а также мониторингом работоспособности сервера. Для управления трафиком для TLB можно дополнительно указать фильтры и экземпляры маршрутизации.

Для настройки виртуального сервиса:

  1. На уровне иерархии [edit services traffic-load-balance instance instance-name] укажите адрес виртуального сервиса без нулевого.

    Например:

  2. Укажите серверную группу, используемую для этого виртуального сервиса.

    Например:

  3. (Необязательно) Укажите экземпляр маршрутизации для виртуального сервиса. Если не указать экземпляр маршрутизации, используется экземпляр маршрутизации по умолчанию.

    Например:

  4. Укажите режим обработки для виртуального сервиса.

    Например:

  5. (Необязательно) Для виртуального сервиса в режиме перевода можно добавлять IP-адреса для всех реальных серверов группы под виртуальным сервисом к фильтрам на стороне сервера. Это позволяет настроить два виртуальных сервиса с помощью одного порта слуха и протокола на одном интерфейсе и VRF.
  6. (Необязательно) Укажите метрическую маршрутизацию для виртуального сервиса.

    Например:

  7. Укажите метод, используемый для балансировки нагрузки. Вы можете указать метод хэш-хаш, который предоставляет хэш-ключ на основе любого сочетания IP-адреса источника, IP-адреса назначения и протокола, или вы можете указать random.

    Например:

    Или

    Примечание:

    При переключении между методом хэш и случайным способом для виртуального сервиса статистика виртуального сервиса теряется.

  8. Для виртуального сервиса в режиме перевода укажите услугу для перевода, включая виртуальный порт, порт слушания сервера и протокол.

    Например:

  9. Зафиксация конфигурации.
    Примечание:

    При отсутствии конфигурации клиентского интерфейса в экземпляре TLB фильтр клиента (для VIP) прикрепляется к клиенту-vrf, настроенным под экземпляром TLB. В этом случае экземпляр маршрутизации в режиме перевода виртуальный сервис не может быть таким же, как клиент-vrf, настроенный под экземпляром TLB. если это так, то коммит выходит из строя.

Настройка отслеживания функции мониторинга работоспособность

Для настройки вариантов отслеживания функции мониторинга работоспособность проверки:

  1. Укажите, что вы хотите настроить варианты отслеживания для функции мониторинга работоспособность проверки.
  2. (Необязательно) Настраивайте название файла, используемого для вывода следов.
  3. (Необязательно) Возможности удаленной отслеживания.
  4. (Необязательно) Настраивайте флаги для фильтрации операций, которые будут внесены в систему.

    В таблице 5 описываются флаги, которые вы можете включить.

    Таблица 5. Следовые флаги

    Флаг

    Поддержка карт MS-MPC и MX-SPC3

    Описание

    Все

    MS-MPC и MX-SPC3

    Отслеживай все операции.

    все реальные сервисы

    MX-SPC3

    Отслеживайте все реальные сервисы.

    Config

    MS-MPC и MX-SPC3

    Отслеживайте события конфигурации балансировки нагрузки трафика.

    Подключения

    MS-MPC и MX-SPC3

    Отслеживание событий балансировки нагрузки трафика на ipc.

    Базы данных

    MS-MPC и MX-SPC3

    Отслеживание событий базы данных.

    очередь с описателем файлов

    MS-MPC

    Отслеживание событий очереди с описателем файлов.

    межпотоковая связь

    MS-MPC

    Отслеживай события межпотоковой связи.

    Фильтр

    MS-MPC и MX-SPC3

    Отслеживание событий программирования фильтра нагрузки трафика.

    Здоровья

    MS-MPC и MX-SPC3

    Отслеживайте состояние балансировки нагрузки трафика.

    Сообщения

    MS-MPC и MX-SPC3

    Отслеживай нормальные события.

    Нормальной

    MS-MPC и MX-SPC3

    Отслеживай нормальные события.

    оперативные команды

    MS-MPC и MX-SPC3

    Отслеживание балансировки нагрузки трафика показывает события.

    Анализа

    MS-MPC и MX-SPC3

    Отслеживание балансировки нагрузки трафика анализирует события.

    Зонд

    MS-MPC и MX-SPC3

    Отслеживание событий зондирования.

    инфракрасный зонд

    MS-MPC и MX-SPC3

    Отслеживание событий инфракрасной инфраструктуры зондирования.

    Маршрут

    MS-MPC и MX-SPC3

    Отслеживание событий балансировки нагрузки трафика.

    Snmp

    MS-MPC и MX-SPC3

    Отслеживание балансировки нагрузки трафика на события SNMP.

    Статистика

    MS-MPC и MX-SPC3

    Отслеживание событий балансировки нагрузки трафика.

    Системы

    MS-MPC и MX-SPC3

    Отслеживание событий балансировки нагрузки трафика.

  5. (По желанию) Настраивайте уровень отслеживания.
  6. (Необязательно) настраивайте отслеживание конкретного реального сервера в определенной группе серверов.
  7. (Необязательно) Начиная с версии ОС Junos 16.1R6 и 18.2R1, настраивайте отслеживание для конкретного виртуального сервиса и экземпляра.
Таблица истории выпуска
Выпуска
Описание
16.1R6
Начиная с версии ОС Junos 16.1R6 и ОС Junos 18.2R1, приложение TLB поддерживает экземпляры TLB 2000 для виртуальных сервисов, которые используют возврат прямого сервера или переведенный режим.
16.1R6
Начиная с версии ОС Junos 16.1R6 и 18.2R1, настраивайте отслеживание конкретного виртуального сервиса и экземпляра.