Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Konfiguration des Junos Space-Clusters für hohe Verfügbarkeit – Übersicht

In diesem Thema erhalten Sie einen Überblick über die wichtigsten Schritte zur Konfiguration eines Junos Space-Clusters als System der Carrier-Klasse mit aktivierten Hochverfügbarkeitsfunktionen.

Anforderungen

Sie können junos Space Appliances (JA2500) oder Virtual Appliances für die Einrichtung eines Junos Space-Clusters auswählen.

Für einen Cluster virtueller Appliances gelten die folgenden Empfehlungen für die zugrunde liegende Virtualisierungsinfrastruktur, auf der die Appliances bereitgestellt werden:

  • Verwenden Sie VMware ESX Server 4.0 oder höher oder VMware ESXi Server 4.0, 5.0, 5.1, 5.5 oder 6.0 oder ein Kernel-basierter virtueller Maschinenserver (KVM) mit qemu-kvm-Version 0.12.1.2-2/448.el6 oder höher (die auf CentOS Version 6.5 steht) und eine virtuelle Maschine unterstützen kann.

  • Stellen Sie die beiden junos Space Virtual Appliances (JSVA) auf zwei separaten Servern bereit.

  • Jeder Server muss in der Lage sein, 4 vCPUs oder 2,66 GHz oder mehr, 32 GB RAM und ausreichend Festplatte für die Junos Space Virtual Appliance zu verwenden, die er hostet.

  • Die Server sollten ähnliche Fehlertoleranzfunktionen wie die Junos Space Appliance haben: zwei redundante Netzteile, die an zwei separate Stromkreise angeschlossen sind, RAID-Array von Festplatten für die Speicherung und im laufenden Betrieb austauschbare Lüfter.

Hinweis:

Weitere Informationen zu den Anforderungen für die virtuelle Appliance finden Sie in den Themen Bereitstellen einer Junos Space Virtual Appliance auf einem VMware ESXi Server und Bereitstellen einer Junos Space Virtual Appliance auf einem KVM-Server in der Dokumentation zu Junos Space Virtual Appliance .

Wenn Sie Junos Space-Appliances auswählen, müssen Sie zwei Instanzen der entsprechenden SKUs für die appliance auswählen, die Sie verwenden. Bestellen Sie außerdem ein zweites Netzteil für jedes Gerät, um das redundante Netzteil für jedes Gerät bereitzustellen.

Vorbereitung

Wir empfehlen, bei der Vorbereitung eines Junos Space-Clusters auf hohe Verfügbarkeit die folgenden Richtlinien zu verwenden:

  • Die Junos Space-Cluster-Architektur ermöglicht es Ihnen, einen oder zwei Knoten nur für Funktionen zur Fehlerüberwachung und Leistungsüberwachung zu verwenden. Diese werden als Fehlerüberwachungs- und Leistungsüberwachungsknoten (FMPM) bezeichnet und sind bei der Verwaltung komplexer Netzwerke mit einer großen Anzahl zu überwachender Geräte und Schnittstellen empfehlenswert. Der Vorteil dieser Architektur besteht darin, dass Fehler- und Leistungsüberwachungsfunktionen innerhalb der FMPM-Knoten lokalisiert werden und die restlichen Junos Space-Knoten für andere Funktionen frei werden. Eine der ersten Entscheidungen, die Sie treffen müssen, ist die Verwendung von FMPM-Knoten in Ihrem Junos Space-Cluster. Wenn Sie sich für die Bereitstellung von FMPM-Knoten entscheiden, empfehlen wir, dass Sie zwei davon haben, damit die Fehlerüberwachungs- und Leistungsüberwachungsservices auch hohe Verfügbarkeit haben. Derzeit ist Load Balancing nicht über mehrere FMPM-Knoten hinweg implementiert, sodass es nicht erforderlich ist, mehr als zwei FMPM-Knoten in einem Cluster zu haben.

  • Die Junos Space-Cluster-Architektur ermöglicht es Ihnen, zwei Junos Space-Knoten ausschließlich für MySQL-Datenbankfunktionen zu verwenden. Dedizierte Datenbankknoten können Systemressourcen wie CPU-Zeit und Speicherauslastung auf dem Junos Space VIP-Knoten freisetzen und so die Leistung des Junos Space VIP-Knotens verbessern. Wenn Sie sich entscheiden, dem Junos Space-Cluster dedizierte Datenbankknoten hinzuzufügen, müssen Sie in der ersten Instanz zwei Knoten als primäre und sekundäre Datenbankknoten hinzufügen, was standardmäßig hohe Verfügbarkeit der Datenbank ermöglicht.

  • Mit der Junos Space-Plattform können Sie den Cassandra-Service auf dedizierten Knoten ausführen, wobei nur der Cassandra-Service ausgeführt wird, oder auf Knoten, auf denen der JBoss-Server ausgeführt wird. Wenn der Cassandra-Service auf einem der Knoten gestartet wird, werden Gerätebilder und Dateien von Junos Space-Anwendungen aus der MySQL-Datenbank in die Cassandra-Datenbank verschoben, wodurch die Leistung der MySQL-Datenbank verbessert wird. Wenn Sie die Redundanz der in der Cassandra-Datenbank gespeicherten Dateien gewährleisten möchten, müssen Sie sicherstellen, dass der Cassandra-Dienst auf zwei oder mehr Knoten ausgeführt wird, die zusammen den Cassandra-Cluster bilden.

  • Eine Junos Space Appliance (Hardware oder virtuell) nutzt zwei Ethernet-Schnittstellen: eth0 und eth3. Die eth0-Schnittstelle wird für die gesamte Inter-Node-Kommunikation innerhalb des Clusters und auch für die Kommunikation zwischen GUI und NBI-Clients und dem Cluster verwendet. Die eth3-Schnittstelle kann als Geräteverwaltungsschnittstelle konfiguriert werden, in diesem Fall erfolgt die gesamte Kommunikation zwischen dem Cluster und den verwalteten Geräten über diese Schnittstelle. Wenn die eth3-Schnittstelle nicht konfiguriert ist, findet die gesamte Gerätekommunikation auch über die eth0-Schnittstelle statt. Sie müssen also zuerst entscheiden, ob Sie eth3 als Geräteverwaltungsschnittstelle verwenden möchten oder nicht. Wenn Sie eth3 verwenden, sollten Sie eth3 für alle Appliances im selben Cluster verwenden.

  • Sie müssen auch die folgenden Netzwerkparameter festlegen, die auf den Junos Space-Appliances konfiguriert werden sollen:

    • IP-Adresse und Subnetzmaske für die Schnittstelle "eth0", die Standard-Gateway-Adresse und die Adresse eines oder mehrerer Name-Server im Netzwerk.

    • IP-Adresse und Subnetzmaske für die Schnittstelle "eth3", wenn Sie eine separate Geräteverwaltungsschnittstelle verwenden möchten.

    • Die für den Cluster zu verwendenden virtuellen IP-Adresse, die eine Adresse im selben Subnetz wie die DER "eth0"-Schnittstelle zugewiesene IP-Adresse sein sollte.

      Wenn Sie dedizierte Datenbankknoten hinzufügen möchten, müssen Sie eine separate virtuelle IP-Adresse (VIP) im selben Subnetz wie die VIP-Adresse des Junos Space-Clusters auswählen. Diese Datenbank-VIP-Adresse muss sich im selben Subnetz wie die IP-Adresse befinden, die der eth0 Ethernet-Schnittstelle zugewiesen ist, und muss sich von der VIP-Adresse des Junos Space-Clusters und der FMPM-Knoten unterscheiden.

      Wenn Sie sich für die Verwendung eines FMPM-Clusters entscheiden, müssen Sie eine separate virtuelle IP-Adresse für die FMPM-Knoten auswählen. Bitte beachten Sie, dass sich die virtuelle IP-Adresse der FMPM nicht im selben Subnetz wie die virtuelle IP-Adresse der Junos Space-Knoten befinden muss.

    • NTP-Servereinstellungen, mit denen die Uhrzeit der Appliance synchronisiert werden kann.

  • Die IP-Adresse, die Sie jedem Junos Space-Knoten im Cluster zuweisen, und die virtuelle IP-Adresse für den Cluster muss sich im selben Subnetz befinden. Dies ist für die korrekte Funktion des IP-Adressübernahmemechanismus erforderlich.

    Es ist möglich, die FMPM-Knoten in einem separaten Subnetz zu konfigurieren.

    Hinweis:

    Streng genommen können Sie die Knoten ohne Ha in einem anderen Subnetz bereitstellen. Dies führt jedoch zu einem Problem, wenn einer der Hochverfügbarkeitsknoten ausfällt und Sie einen der anderen Knoten als Hochverfügbarkeitsknoten hochstufen möchten. Daher empfehlen wir, eth0 auf allen Knoten im selben Subnetz zu konfigurieren.

  • Da JBoss-Server auf allen Knoten über UDP-Multicast kommunizieren, um den JBoss-Cluster zu bilden und zu verwalten, müssen Sie sicherstellen, dass UDP-Multicast in dem Netzwerk, in dem Sie die Cluster-Knoten bereitstellen, aktiviert ist. Sie müssen auch IGMP-Snooping auf den Switches deaktivieren, die den Cluster miteinander verbinden, oder sie explizit so konfigurieren, dass UDP-Multicast zwischen den Knoten zugelassen wird.

    Hinweis:

    FMPM-Knoten und dedizierte Datenbankknoten nehmen nicht am JBoss-Cluster teil. Daher ist es nicht erforderlich, UDP-Multicast zwischen diesen Knoten und den Junos Space-Knoten im Cluster zu aktivieren.

Konfigurieren des ersten Knotens im Cluster

Nachdem Sie die Appliance eingeschaltet und eine Verbindung mit der Konsole hergestellt haben, zeigt Junos Space eine menügesteuerte Befehlszeilenschnittstelle (CLI) an, mit der Sie die ursprüngliche Konfiguration der Appliance angeben können. Um diese Erstkonfiguration abzuschließen, geben Sie die folgenden Parameter an:

  • IP-Adresse und Subnetzmaske für die Schnittstelle "eth0"

  • IP-Adresse des Standard-Gateways

  • IP-Adresse des Nameservers

  • IP-Adresse und Subnetzmaske für die Schnittstelle "eth3", wenn Sie einen Cluster konfigurieren, wie im Thema Verstehen der logischen Cluster in einem Junos Space-Cluster beschrieben.

  • Unabhängig davon, ob diese Appliance zu einem vorhandenen Cluster hinzugefügt wird. Wählen Sie "n", um anzugeben, dass dies der erste Knoten im Cluster ist.

  • Die virtuelle IP-Adresse, die der Cluster verwendet.

  • NTP-Servereinstellungen, mit denen die Uhrzeit der Appliance synchronisiert werden kann.

  • Benutzer-ID und Kennwort im Wartungsmodus.

    Hinweis:

    Notieren Sie sich die Benutzer-ID und das Kennwort, die Sie für den Wartungsmodus angeben, da Sie diese ID und das Kennwort benötigen, um Software-Upgrades und Datenbankwiederherstellung der Network Management Platform durchzuführen.

Detaillierte Schritt-für-Schritt-Anweisungen zur Konfiguration der Appliance für die erste Bereitstellung finden Sie in der Junos Space Appliance-Dokumentation. Nachdem Sie die Erstkonfiguration abgeschlossen haben, werden alle Junos Space-Services auf der Appliance gestartet und Sie können sich über die ihr zugewiesene virtuelle IP-Adresse bei der Benutzeroberfläche der Network Management Platform anmelden. In dieser Phase haben Sie einen einzelnen Knoten-Cluster ohne Ha, den Sie sehen können, indem Sie zur Netzwerkmanagementplattform > Administration> Fabric-Arbeitsbereich navigieren.

Hinzufügen eines zweiten Knotens zum Cluster

Um dem Cluster einen zweiten Knoten hinzuzufügen, müssen Sie die zweite Appliance zuerst über ihre Konsole konfigurieren. Der Prozess ist identisch mit dem der ersten Appliance, außer dass Sie "y" auswählen müssen, wenn Sie aufgefordert werden, anzugeben, ob diese Appliance zu einem vorhandenen Cluster hinzugefügt wird. Stellen Sie sicher, dass sich die IP-Adresse, die Sie diesem Knoten zuweisen, im selben Subnetz wie der erste Knoten befindet. Darüber hinaus müssen Sie die Einheitlichkeit durch die Verwendung einer separaten Geräteverwaltungsschnittstelle (eth3) sicherstellen. Wenn Sie eth3 für den ersten Knoten verwenden möchten, wählen Sie dasselbe für alle zusätzlichen Knoten im Cluster aus.

Nachdem Sie die zweite Appliance konfiguriert haben, können Sie sich bei der Benutzeroberfläche der Netzwerkmanagementplattform des ersten Knotens an seiner virtuellen IP-Adresse anmelden, um den Knoten über die Network Management Platform > Administration > Fabric > Fabric Node-Arbeitsbereich zum Cluster hinzuzufügen. Um den Knoten zum Cluster hinzuzufügen, geben Sie die IP-Adresse an, die der eth0-Schnittstelle des neuen Knotens zugewiesen ist, weisen Sie einen Namen für den neuen Knoten zu und planen (optional) das Datum und die Uhrzeit für das Hinzufügen des Knotens. Der Distributed Resource Manager (DRM)-Dienst, der auf dem ersten Knoten ausgeführt wird, kontaktiert Node Management Agent (NMA) auf dem neuen Knoten, um die erforderlichen Konfigurationsänderungen vorzunehmen und dem Cluster hinzuzufügen. Der DRM-Service stellt außerdem sicher, dass die erforderlichen Services auf diesem Knoten gestartet werden. Nachdem der neue Knoten dem Cluster beizutreten ist, können Sie seinen Status über die Netzwerkmanagementplattform > Administration > Fabric überwachen.

Weitere Informationen zum Hinzufügen von Knoten zu einem vorhandenen Cluster über die Benutzeroberfläche der Junos Space-Plattform finden Sie unter Übersicht über das Fabric-Management (im Benutzerhandbuch junos Space Network Management Platform Workspaces).

Hinzufügen zusätzlicher Knoten zu einem Cluster

Der Prozess zum Hinzufügen weiterer Knoten ist identisch mit dem Prozess für das Hinzufügen des zweiten Knotens. Diese zusätzlichen Knoten nehmen jedoch nicht an einem der Cluster mit hoher Verfügbarkeit in der Fabric teil, es sei denn, sie werden explizit zu dieser Rolle befördert, wenn ein anderer Ha-Knoten entfernt wird, oder wenn sie als dedizierte Datenbankknoten hinzugefügt werden, um den MySQL-Cluster zu bilden.

Weitere Informationen zum Hinzufügen von Knoten zu einem vorhandenen Cluster über die Benutzeroberfläche der Junos Space-Plattform finden Sie unter Übersicht über das Fabric-Management (im Benutzerhandbuch junos Space Network Management Platform Workspaces).

Konfiguration von FMPM-Knoten

Sie können bis zu 2 FMPM-Knoten in einem Cluster konfigurieren. So konfigurieren Sie FMPM-Knoten:

Entfernen von Knoten aus einem Cluster

Wenn ein Knoten ausgefallen ist und ersetzt werden muss, können Sie den Knoten ganz einfach aus dem Cluster entfernen. Navigieren Sie zur Netzwerkmanagementplattform > Arbeitsbereich Administration > Fabric , wählen Sie den gewünschten Knoten aus, und wählen Sie die Aktion Knoten löschen aus. Wenn es sich bei dem zu löschenden Knoten um einen Hochverfügbarkeitsknoten handelt, prüft das System, ob andere Knoten im Cluster als Ersatz für den gelöschten Ha-Knoten ausgewählt werden können. Das System zeigt dann die Liste der fähigen Knoten an (in diesem Beispiel nur Node-3), und Sie können aus den verfügbaren Knoten wählen. Der Prozess wird unter Understanding High Availability Nodes in a Cluster beschrieben.

Wenn es sich bei dem gelöschten Knoten um einen Datenbankknoten handelt, prüft das System, ob andere Knoten im Cluster den gelöschten Datenbankknoten ersetzen können. Wenn knoten vorhanden sind, die den gelöschten Knoten ersetzen können, zeigt das System die Liste der fähigen Knoten an und ermöglicht Ihnen die Auswahl aus den verfügbaren Knoten.

Weitere Informationen zum Löschen von Knoten aus dem Cluster finden Sie unter Löschen eines Knotens aus der Junos Space Fabric (im Benutzerhandbuch junos Space Network Management Platform Workspaces).