Présentation de l’encapsulation d’interface
Les rubriques ci-dessous présentent les présentations de l’encapsulation physique, de l’encapsulation de relais de trames, du protocole point à point et du contrôle de liaison de données de haut niveau.
Comprendre l’encapsulation physique sur une interface
L’encapsulation est le processus par lequel un protocole de niveau inférieur accepte un message provenant d’un protocole de niveau supérieur et le place dans la partie données de la trame de niveau inférieur. Par conséquent, les datagrammes transmis via un réseau physique ont une séquence d’en-têtes : le premier en-tête pour le protocole du réseau physique (ou couche liaison de données), le deuxième en-tête pour le protocole de la couche réseau (IP, par exemple), le troisième en-tête pour le protocole de la couche transport, etc.
Les protocoles d’encapsulation suivants sont pris en charge sur les interfaces physiques :
Encapsulation de relais de trames. Reportez-vous à la section Comprendre l’encapsulation d’un relais de trames sur une interface.
Protocole point à point. Reportez-vous à la section Présentation du protocole point-à-point.
Point-to-Point Protocol over Ethernet. Reportez-vous à la section Présentation du protocole point à point sur Ethernet.
Contrôle de liaison de données de haut niveau. Reportez-vous à la section Présentation du contrôle de liaison de données de haut niveau.
Voir aussi
Comprendre l’encapsulation d’un relais de trames sur une interface
Le protocole de commutation de paquets Frame Relay opère au niveau de la couche physique et de la couche liaison de données d’un réseau pour optimiser les transmissions de paquets en créant des circuits virtuels entre les hôtes. La figure 1 illustre un réseau Frame Relay typique.

La figure 1 montre plusieurs chemins entre l’hôte A et l’hôte B. Dans un réseau routé classique, le trafic est envoyé d’un appareil à l’autre, chaque appareil prenant des décisions de routage en fonction de sa propre table de routage. Dans un réseau à commutation de paquets, les chemins sont prédéfinis. Les périphériques commutent un paquet sur le réseau en fonction de sauts suivants prédéterminés établis lors de la configuration du circuit virtuel.
Cette rubrique contient les sections suivantes :
- Circuits virtuels
- Circuits virtuels commutés et permanents
- Identificateurs de connexion de liaison de données
- Contrôle de la congestion et éligibilité à la mise au rebut
Circuits virtuels
Un circuit virtuel est un chemin bidirectionnel entre deux hôtes d’un réseau. Les circuits virtuels de relais de trames sont des connexions logiques entre deux hôtes qui sont établies soit par un mécanisme d’établissement d’appel, soit par une configuration explicite.
Un circuit virtuel créé par le biais d’un mécanisme d’établissement d’appel est connu sous le nom de circuit virtuel commuté (SVC). Un circuit virtuel créé par le biais d’une configuration explicite est appelé circuit virtuel permanent (PVC).
Circuits virtuels commutés et permanents
Avant que les données puissent être transmises à un SVC, un protocole de signalisation tel que RNIS doit établir un appel par l’échange de messages de configuration sur le réseau. Lorsqu’une connexion est établie, les données sont transmises via le SVC. Après la transmission des données, le circuit est démonté et la connexion est perdue. Pour que du trafic supplémentaire puisse passer entre les deux mêmes hôtes, un SVC ultérieur doit être établi, maintenu et terminé.
Étant donné que les PVC sont explicitement configurés, ils ne nécessitent pas l’installation et le démontage des SVC. Les données peuvent être commutées sur le circuit virtuel virtuel dès qu’un hôte est prêt à transmettre. Les SVC sont utiles dans les réseaux où la transmission de données est sporadique et où un circuit permanent n’est pas nécessaire.
Identificateurs de connexion de liaison de données
Un circuit virtuel établi est identifié par un identifiant de connexion de liaison de données (DLCI). La DLCI est une valeur comprise entre 16 et 1022. (Les valeurs de 1 à 15 sont réservées.) Le DLCI identifie localement un circuit virtuel de manière unique afin que les périphériques puissent basculer les paquets vers l’adresse de saut suivant appropriée dans le circuit. Les chemins multiples qui passent par les mêmes périphériques de transit ont des DLCI et des adresses de saut suivant associées.
Contrôle de la congestion et éligibilité à la mise au rebut
Frame Relay utilise les types de notification d’encombrement suivants pour contrôler le trafic au sein d’un réseau Frame Relay. Les deux sont contrôlés par un seul bit dans l’en-tête Frame Relay.
Notification explicite de congestion transmise (FECN)
Notification explicite de congestion en amont (BECN)
L’encombrement du trafic est généralement défini dans les files d’attente de tampons d’un appareil. Lorsque les files d’attente atteignent un niveau de saturation prédéfini, le trafic est considéré comme congestionné. Lorsque l’encombrement du trafic se produit dans un circuit virtuel, l’appareil qui subit un encombrement définit les bits d’encombrement dans l’en-tête Frame Relay sur 1. Par conséquent, le bit FECN est défini sur 1 pour le trafic transmis, et le bit BECN pour le trafic de retour sur le même circuit virtuel a la valeur 1.
Lorsque les bits FECN et BECN ont la valeur 1, ils envoient une notification d’encombrement aux équipements source et de destination. Les équipements peuvent réagir de deux manières : pour contrôler le trafic sur le circuit en l’envoyant via d’autres routes, ou pour réduire la charge sur le circuit en rejetant les paquets.
Si les périphériques rejettent des paquets comme moyen de contrôle de l’encombrement (flux), Frame Relay utilise le bit d’éligibilité à la mise au rebut (DE) pour donner la préférence à certains paquets dans les décisions de rejet. Une valeur DE de 1 indique que la trame est moins importante que les autres trames et qu’elle est plus susceptible d’être abandonnée en cas d’encombrement. Les données critiques (telles que les messages de protocole de signalisation) sans le bit DE défini sont moins susceptibles d’être abandonnées.
Comprendre le protocole point-à-point
Le protocole PPP (Point-to-Point Protocol) est un protocole d’encapsulation permettant de transporter le trafic IP sur des liaisons point à point. Le PPP est composé de trois composantes principales :
Link Control Protocol (LCP) : établit des connexions fonctionnelles entre deux points.
Protocole d’authentification : permet des connexions sécurisées entre deux points.
Network Control Protocol (NCP) : initialise la pile de protocoles PPP pour gérer plusieurs protocoles de couche réseau, tels que IPv4, IPv6 et CLNP (Connectionless Network Protocol).
Cette rubrique contient les sections suivantes :
- Protocole de contrôle de liaison
- Authentification PPP
- Protocoles de contrôle réseau
- Nombres magiques
- Appareils CSU/DSU
Protocole de contrôle de liaison
Le LCP est responsable de l’établissement, du maintien et de l’interruption d’une connexion entre deux points de terminaison. Le LCP teste également la liaison et détermine si elle est active. LCP établit une connexion point à point comme suit :
Le LCP doit d’abord détecter un signal d’horloge sur chaque point de terminaison. Cependant, étant donné que le signal d’horloge peut être généré par une horloge réseau et partagé avec les appareils sur le réseau, la présence d’un signal d’horloge n’est qu’une indication préliminaire du fonctionnement de la liaison.
Lorsqu’un signal d’horloge est détecté, un hôte PPP commence à transmettre des paquets PPP Configure-Request.
Si le point de terminaison distant sur la liaison point à point reçoit le paquet Configure-Request, il transmet un paquet Configure-Acknowledgement à la source de la demande.
Après réception de l’accusé de réception, le point de terminaison initiateur identifie le lien comme établi. Dans le même temps, le point de terminaison distant envoie ses propres paquets de requête et traite les paquets d’accusé de réception. Dans un réseau fonctionnel, les deux points de terminaison considèrent la connexion comme établie.
Lors de l’établissement de la connexion, le LCP négocie également les paramètres de connexion tels que le tramage FCS et HDLC. Par défaut, PPP utilise un FCS 16 bits, mais vous pouvez configurer PPP pour utiliser un FCS 32 bits ou un FCS 0 bit (pas de FCS). Vous pouvez également activer l’encapsulation HDLC sur la connexion PPP.
Une fois la connexion établie, les hôtes PPP génèrent des paquets Echo-Request et Echo-Response pour maintenir une liaison PPP.
Authentification PPP
La couche d’authentification PPP utilise un protocole pour s’assurer que le point de terminaison d’une liaison PPP est un appareil valide. Les protocoles d’authentification comprennent le protocole PAP (Password Authentication Protocol), le protocole EAP (Extensible Authentication Protocol) et le protocole CHAP (Challenge Handshake Authentication Protocol). Le protocole CHAP est le plus couramment utilisé.
La prise en charge de l’ID utilisateur et du mot de passe pour se conformer au jeu de caractères ASCII complet est prise en charge par la RFC 2486.
L’utilisateur peut activer ou désactiver la prise en charge de la RFC 2486 dans les options PPP. La RFC 2486 est désactivée par défaut, et activez la prise en charge globalement utilisez la commande set access ppp-options compliance rfc 2486
".
Le protocole CHAP garantit des connexions sécurisées sur les liaisons PPP. Une fois qu’une liaison PPP est établie par LCP, les hôtes PPP à chaque extrémité de la liaison initient une négociation CHAP à trois voies. Deux poignées de main CHAP distinctes sont nécessaires avant que les deux parties n’identifient le lien PPP comme établi.
La configuration CHAP exige que chaque point de terminaison d’une liaison PPP utilise un secret partagé (mot de passe) pour authentifier les contestations. Le secret partagé n’est jamais transmis sur le fil. Au lieu de cela, les hôtes de la connexion PPP échangent des informations qui leur permettent de déterminer s’ils partagent le même secret. Les défis se composent d’une fonction de hachage calculée à partir du secret, d’un identifiant numérique et d’une valeur de défi choisie au hasard qui change à chaque défi. Si la valeur de la réponse correspond à la valeur du défi, l’authentification réussit. Étant donné que le secret n’est jamais transmis et qu’il est nécessaire pour calculer la réponse au défi, le protocole CHAP est considéré comme très sûr.
Le protocole d’authentification PAP utilise une simple négociation bidirectionnelle pour établir l’identité. PAP est utilisé après la phase d’établissement de la liaison (LCP up), lors de la phase d’authentification. Junos OS peut prendre en charge PAP dans un sens (sortie ou entrée) et CHAP dans l’autre.
Protocoles de contrôle réseau
Une fois l’authentification terminée, la connexion PPP est complètement établie. À ce stade, tous les protocoles de niveau supérieur (par exemple, les protocoles IP) peuvent initialiser et effectuer leurs propres négociations et authentifications.
Les PCN PPP prennent en charge les protocoles suivants. IPCP et IPv6CP sont les plus largement utilisés sur les pare-feu SRX Series.
IPCP : protocole de contrôle IP
IPv6CP—Protocole de contrôle IPv6
OSINLCP : protocole de contrôle de la couche réseau OSI (comprend IS-IS, ES-IS, CLNP et IDRP)
Nombres magiques
Les hôtes exécutant PPP peuvent créer des nombres « magiques » pour diagnostiquer l’état d’une connexion. Un hôte PPP génère un nombre 32 bits aléatoire et l’envoie au point de terminaison distant lors de la négociation LCP et des échanges d’écho.
Dans un réseau typique, le nombre magique de chaque hôte est différent. Une incompatibilité de nombre magique dans un message LCP informe un hôte que la connexion n’est pas en mode bouclage et que le trafic est échangé de manière bidirectionnelle. Si le nombre magique dans le message LCP est le même que le nombre magique configuré, l’hôte détermine que la connexion est en mode bouclage, le trafic étant renvoyé en boucle vers l’hôte émetteur.
Le renvoi du trafic vers l’hôte d’origine est un excellent moyen de diagnostiquer l’intégrité du réseau entre l’hôte et l’emplacement de bouclage. Pour permettre les tests de bouclage, les équipements de télécommunications prennent généralement en charge les dispositifs d’unité de service de canal/unité de service de données (CSU/DSU).
Appareils CSU/DSU
Une unité de service de canal (CSU) relie un terminal à une ligne numérique. Une unité de service de données (DSU) remplit des fonctions de protection et de diagnostic pour une ligne de télécommunications. En règle générale, les deux appareils sont regroupés dans une seule unité. Un dispositif CSU/DSU est requis pour les deux extrémités d’une connexion T1 ou T3, et les unités aux deux extrémités doivent être réglées sur la même norme de communication.
Un périphérique CSU/DSU permet aux trames envoyées le long d’une liaison d’être bouclées vers l’hôte d’origine. La réception des trames transmises indique que la liaison fonctionne correctement jusqu’au point de bouclage. En configurant les périphériques CSU/DSU pour qu’ils bouclent en différents points d’une connexion, les opérateurs réseau peuvent diagnostiquer et dépanner des segments individuels dans un circuit.
Comprendre le contrôle de liaison de données de haut niveau
Le contrôle de liaison de données de haut niveau (HDLC) est un protocole de couche de liaison commuté et non commuté orienté bits. Le HDLC est largement utilisé car il prend en charge les connexions semi-duplex et full-duplex, les réseaux point à point et point à multipoint, ainsi que les canaux commutés et non commutés.
Cette rubrique contient les sections suivantes :
HDLC Stations
Les nœuds d’un réseau exécutant HDLC sont appelés stations. HDLC prend en charge trois types de stations pour le contrôle de la liaison de données :
Primary Stations (Stations principales) : responsables du contrôle des stations secondaires et des autres stations combinées sur la liaison. Selon le mode HDLC, la station primaire est responsable de l’émission des paquets d’accusé de réception pour permettre la transmission de données à partir des stations secondaires.
Abscisses stationnaires secondaires : contrôlées par la station principale. Dans des circonstances normales, les stations secondaires ne peuvent pas contrôler la transmission de données sur la liaison avec la station primaire, ne sont actives que lorsque la station primaire le demande et ne peuvent répondre qu’à la station primaire (et non aux autres stations secondaires). Toutes les trames de station secondaire sont des trames de réponse.
Stations combinées : combinaison de stations primaires et secondaires. Sur une liaison HDLC, toutes les stations combinées peuvent envoyer et recevoir des commandes et des réponses sans aucune autorisation des autres stations sur la liaison et ne peuvent être contrôlées par aucune autre station.
Modes de fonctionnement HDLC
Le HDLC fonctionne dans trois modes distincts :
Mode de réponse normal (NRM) : la station principale sur la liaison HDLC initie tous les transferts d’informations avec les stations secondaires. Une station secondaire sur la liaison ne peut transmettre une réponse d’une ou de plusieurs trames d’information que lorsqu’elle reçoit l’autorisation explicite de la station principale. Lorsque la dernière trame est transmise, la station secondaire doit attendre une autorisation explicite avant de pouvoir transmettre d’autres trames.
Le NRM est le plus largement utilisé pour les liaisons point à multipoint, dans lesquelles une seule station principale contrôle de nombreuses stations secondaires.
Mode de réponse asynchrone (ARM) : la station secondaire peut transmettre des données ou contrôler le trafic à tout moment, sans autorisation explicite de la station principale. La station principale est responsable de la récupération des erreurs et de la configuration de la liaison, mais la station secondaire peut transmettre des informations à tout moment.
L’ARM est le plus souvent utilisé avec les liaisons point à point, car il réduit la surcharge sur la liaison en éliminant le besoin de paquets de contrôle.
Mode d’équilibre asynchrone (ABM) : toutes les stations sont des stations combinées. Étant donné qu’aucune autre station ne peut contrôler une station combinée, toutes les stations peuvent transmettre des informations sans l’autorisation explicite d’une autre station. ABM n’est pas un mode HDLC largement utilisé.