Contacts

Cours de conférences sur les technologies du réseau. Les capacités des commutateurs modernes sur l'organisation de réseaux virtuels

Intégration d'informations sur les accessoires de réseau virtuel dans le cadre transmis. Réseaux locaux virtuelsConstruit sur la base de la norme IEEE 802.1Q, utilisez des champs de cadre supplémentaires pour stocker des informations sur les accessoires VLAN lors de la déplacement sur le réseau. Du point de vue de la commodité et de la flexibilité des paramètres, la norme VLAN de IEEE 802.1Q est la meilleure solution par rapport aux VLAN en fonction des ports. Ses principaux avantages:
  1. flexibilité et commodité Lors de la configuration et de la modification - Vous pouvez créer les combinaisons VLAN nécessaires à la fois dans le même commutateur et sur le réseau intégré sur des commutateurs avec support pour IEEE 802.1Q. La possibilité d'ajouter des balises permet aux informations de VLAN de se répandre via un ensemble de commutateurs compatibles 802.1Q conformes à une connexion physique ( tronc, liaison de coffre);
  2. vous permet d'activer l'algorithme de l'arborescence de liant (survol) sur tous les ports et travaillez comme d'habitude. Le protocole d'arbre étendu s'avère très utile pour une utilisation dans de grands réseaux construits sur plusieurs commutateurs et permet aux commutateurs de déterminer automatiquement la configuration de l'arborescence des connexions réseau à une connexion arbitraire des ports. Pour le commutateur normal, le manque de itinéraires fermés en ligne. Ces itinéraires peuvent être créés par l'administrateur spécifiquement pour la formation d'obligations de sauvegarde ou se produisent aléatoirement, ce qui est tout à fait possible si le réseau possède de nombreuses connexions et que le système de câble est mal structuré ou documenté. En utilisant le protocole d'arbre étendu, bascule après la construction d'un itinéraire en excès de bloc de circuit réseau. Ainsi, la survenue de boucles sur le réseau est automatiquement empêchée;
  3. la capacité de VLAN IEEE 802.1Q à ajouter et à extraire des balises à partir des en-têtes de cadre vous permet d'utiliser des commutateurs et des périphériques réseau qui ne prennent pas en charge la norme IEEE 802.1Q;
  4. les dispositifs de différents fabricants supportant la norme peuvent travailler ensemble, quelle que soit toute solution exclusive;
  5. associer des sous-réseaux sur le niveau de réseau, un routeur ou un commutateur L3 est requis. Toutefois, pour des cas simples, par exemple, d'organiser l'accès au serveur à partir de divers VLAN, le routeur ne sera pas requis. Vous devez activer le port de commutation auquel le serveur est connecté, dans tous les sous-réseaux et que l'adaptateur réseau du serveur doit prendre en charge la norme IEEE 802.1Q.


Figure. 6.5.

Une certaine identification de IEEE 802.1Q

  • Marquage ("marquage de cadre") - le processus d'ajout d'informations sur des accessoires VLAN de 802.1Q dans l'en-tête de la trame.
  • Inturging ("Supprimer une étiquette du cadre") - Le processus d'extraction d'informations sur les effets de l'en-tête de la trame de 802.1Q VLAN.
  • VLAN ID (VID) - Identifiant VLAN.
  • Port VLAN ID (PVID) - Identifiant de port VLAN.
  • Port d'entrée ("Port d'entrée") - un port du passage à quelles images viennent et décider en même temps appartenant à VLAN.
  • Port Egress ("Port de sortie") - Le port de l'interrupteur à partir de laquelle les cadres sont transmis à d'autres périphériques de réseau, commutateurs ou postes de travail, et, en conséquence, il devrait prendre une décision sur le marquage.

Tout port de commutation peut être configuré comme tagué. (étiqueté) ou comme non étiqueté. (non marqué). Une fonction inturging. Vous permet de travailler avec les périphériques réseau de réseau virtuel qui ne comprennent pas les étiquettes dans l'en-tête de cadre Ethernet. Une fonction marquage. Vous permet de configurer des VLAN entre plusieurs commutateurs prenant en charge la norme IEEE 802.1Q.


Figure. 6.6.

Tag VLAN IEEE 802.1Q

La norme IEEE 802.1Q détermine les modifications de la structure de cadre Ethernet, permettant de transmettre des informations sur VLAN sur le réseau. En figue. 6.7 montre le format de la balise 802.1q

Imeuble VLAN. Basé sur des ports basés uniquement sur l'ajout d'informations supplémentaires aux tables d'adresse du commutateur et n'utilise pas les possibilités. embarquer Accessoires de réseau virtuel en transmis cadre. Ses principaux avantages:

1. Flexibilité et commodité dans la mise en place et la modification, la possibilité d'ajouter des balises permet des informations sur VLAN. Répartir à travers un ensemble de commutateurs compatibles de 802.1Q selon une connexion physique ( tronc, liaison de coffre);

2. Capacité VLAN IEEE 802.1Q. Ajouter et supprimer des balises des en-têtes de cadre vous permet d'utiliser des commutateurs et des périphériques réseau qui ne prennent pas en charge la norme. IEEE 802.1Q;

3. Les appareils de différents fabricants prenant en charge la norme peuvent travailler ensemble, quelle que soit toute solution de marque;

4. Pour associer des sous-réseaux sur le niveau de réseau, un routeur ou un commutateur L3 est requis. Cependant, pour des cas simples, par exemple, d'organiser l'accès au serveur de divers VLAN.Le routeur n'aura pas besoin. Vous devez activer le port de commutation auquel le serveur est connecté, dans tous les sous-réseaux et que l'adaptateur réseau du serveur doit prendre en charge la norme. IEEE 802.1Q.

Une certaine identification de IEEE 802.1Q

· Marquage ("marquage de cadre") - le processus d'ajout d'informations sur les accessoires à 802.1Q VLAN. Dans l'en-tête de la trame.

· Inturging ("Supprimer une étiquette du cadre") - le processus d'extraction d'informations sur 802.1Q VLAN. De l'en-tête de cadre.

· VLAN ID (VID) - identifiant VLAN..

· Port VLAN ID (PVID) - identifiant de port VLAN..

· Port d'entrée ("Port d'entrée") - le port de l'interrupteur à quels coups viennent et décide en même temps d'appartenir à VLAN..

· Port Egress ("Port de sortie") - Le port de l'interrupteur à partir de laquelle les cadres sont transmis à d'autres périphériques de réseau, commutateurs ou postes de travail, et, en conséquence, il devrait prendre une décision sur le marquage.

Tout port de commutation peut être configuré comme tagué. (étiqueté) ou comme non étiqueté. (non marqué). Une fonction inturging. Vous permet de travailler avec les périphériques réseau de réseau virtuel qui ne comprennent pas les étiquettes dans l'en-tête de cadre Ethernet. Une fonction marquage. Vous permet de configurer VLAN. entre plusieurs commutateurs de support standard IEEE 802.1Q.

Figure - ports VLAN marqués et non marqués

Tag VLAN IEEE 802.1Q

Standard IEEE 802.1Q Définit les modifications de la structure de cadre Ethernet, vous permettant de transmettre des informations sur VLAN. sur le réseau. En figue. 6.7 montre le format de la balise 802.1q VLAN.. La trame Ethernet a ajouté 32 bits (4 octets), qui augmentent sa taille à 1522 octets. Les 2 premiers octets (identifiant de protocole de balises, champ TPID) avec une valeur fixe de 0x8100 définissent que le cadre contient la balise de protocole 802.1Q. Les 2 octets restants contiennent les informations suivantes:

Priorité ("priorité")- 3 bits du champ Priorité de transmission sont codés à huit niveaux de priorité (de 0 à 7, où 7 est la priorité la plus élevée), qui sont utilisées dans la norme 802.1.

Canonique Format. Indicateur (CFI) - 1 bit de l'indicateur de format canonique est réservé pour désigner des cadres d'autres types de réseaux (anneau de jeton, FDDI) transmis par voie Ethernet;

Vid. (VLAN. ID) - Identifiant 12 bits VLAN. Détermine qui VLAN. Appartenir au trafic. Depuis sous le champ Vid.12 bits sont attribués, puis vous pouvez définir 4094 unique. VLAN. (Vid. 0 I. Vid. 4095 réservé).

J'ai écrit cet article après avoir enfin compris le format de cadre Ethernet (2ème niveau du modèle OSI) et a compris la manière dont le trafic a été étiqueté pour appartenir à VLAN.

Je vous rappelle que la technologie de transmission de données standard Ethernet (Fastethernet) décrite dans la norme du Comité IEEE 802.3. Lorsque le transfert de données dans l'environnement, les données sur un niveau de 2 niveaux sont divisées en cadres (cadres) et envoyés au support de transmission. Le format de cadre est assez simple:

FRAGRANCE CADRE FASTHERNET

  1. Préambule. Sept octets de données destinées à la synchronisation. Chaque octet contient la même séquence: 10101010. Ce champ est utilisé pour activer les schémas émetteurs-récepteurs d'être synchronismes stables avec des signaux reçus. De plus, ce champ tourne sur l'octet SFD (non représenté) - le limiteur de cadre initial, qui a la forme: 10101011. L'apparition de cette combinaison est une indication de la prochaine réception du cadre.
  2. Dest Mac. Adresse du matériel de destinataire (destination).
  3. Src mac. Adresse matérielle source (source).
  4. Type: Type de protocole de niveau supérieur. 0x800 - IP, 0x806 - ARP, etc. La liste complète peut être vue:
  5. Données: réellement cadre de données. Il peut prendre de 0 à 1500 octets, mais si les données sont inférieures à 46 octets, un champ d'addition spécial est utilisé, il n'est pas indiqué ici. Nous croyons donc que le cadre contient 46-1546 octets. Le champ Add-on est utilisé pour déterminer efficacement les collisions.
  6. FCS: Checksum de cadre CRC32. Quelle est la somme de contrôle - expliquer, j'espère que non nécessaire. En général, il est rarement utilisé, il est beaucoup plus facile de vérifier l'intégrité des packages ou des fragments sur un protocole de niveau supérieur. Eh bien, pour qui c'est nouveau, je vais vous dire pourquoi la somme de contrôle est nécessaire. Lors de l'envoi d'un cadre, la station de transmission calcule une valeur d'algorithme spéciale qui est écrite dans ce champ. Dans la valeur, tous les bits du cadre sont pris en compte. Lors de la réception d'une image, la partie réceptrice calcule à nouveau cette valeur (à l'exclusion de ce champ) et se compare à la valeur dans le champ. S'ils sont égaux, on pense que le cadre est obtenu sans erreurs.

Cadre Ethernet Ethernet en 802.1q.

Comme on peut le voir, presque tout reste inchangé. Le même préambule, Byte SFD, Source et destinataire Adresses MAC. Et ensuite - ajouté 4 nouveaux octets. C'est le soi-disant tag Vlan.. Les champs restants sont inchangés et légèrement déplacés. Lors du passage du trafic à travers le port, la balise est simplement retirée et le travail est effectué au niveau habituel.

Je vais considérer plus en détail la balise VLAN:

Morceaux Valeur
1-16 Identificateur de protocole TAG. Sur le schéma il Tpid. Pour 802.1Q Toujours égal 0x810. C'est-à-dire avoir rencontré ces 2 octets. On peut en conclure que le trafic est étiqueté.
17-19 Priorité.. Priorité de la circulation. Ces trois bits sont utilisés par la norme 802.1P. Définir la priorité du trafic. Ce sont les deux champs suivants - TCI.
20 Indicateur de format canonique - Indicateur du format canonique de l'adresse MAC. Si Bit \u003d 0, - Canonical. Si \u003d 1, pas canonique. Eh bien, je veux dire anneau de jeton
21-32 Identifiant VLAN. Dans ces 12 bits, le nombre est codé. VLAN.. Il peut prendre une valeur de 0 à 4094. Tous les commutateurs ne supportent pas une telle quantité et, en vérité, il n'est pas toujours nécessaire. Dans notre cas, cette valeur est égale 0xa.Qu'est-ce que la 10e signifie VLAN..

Si vous pensez à la façon dont les réseaux virtuels fonctionnent, cela me tiendra à l'esprit que tout ce qui n'est pas dans la voiture d'expédition, mais dans le cadre lui-même VLVS. S'il y avait un moyen d'identifier les VLV par l'en-tête du cadre, il faudrait disparaître son contenu. Au moins, dans les nouveaux réseaux THNA 802.11 ou 802.16, il serait tout à fait possible d'ajouter un champ d'en-tête spécial. En fait, l'identificateur de cadre dans la norme 802.16 est juste quelque chose dans cet esprit. Mais que faire avec un réseau Ethernet - le réseau dominant, qui n'a pas de champs de "épargne" pouvant être donnés sous l'identifiant du réseau virtuel? La commission IEEE 802 a repris cette question en 1995. Après de longues discussions, cela a été fait impossible - a changé le format de l'en-tête du cadre Ethernet !? Le nouveau format a été publié sous le nom de 802.1Q, en 1998. Le drapeau WLVS a été inséré dans l'en-tête de cadre, que nous examinerons brièvement maintenant. Il est clair que l'introduction de modifications de quelque chose déjà établies, telles que Ethernet, devrait être produite de manière non triviale. Debout, par exemple, les questions suivantes:

  • 1. Et quoi, maintenant, il sera nécessaire de jeter plusieurs millions de cartes réseau Ethernet déjà existantes sur les ordures?
  • 2. Sinon, alors qui traitera de la génération de nouveaux champs de personnel?
  • 3. Qu'advient-il de cadres qui ont déjà la taille maximale?

Bien entendu, le Comité 802 était également préoccupé par ces questions et la décision, malgré tout, a été trouvée.

L'idée est que, en fait, les champs VLVS ne sont réellement utilisés que par des ponts et des commutateurs, et non par les utilisateurs d'utilisateurs. Donc, disons, le réseau ne concerne pas vraiment leur présence dans les canaux provenant des stations de terminal, jusqu'à ce que les cadres atteignent des ponts ou des commutateurs. De manière telle que le fonctionnement avec des réseaux virtuels peut être possible, des ponts et des commutateurs doivent savoir sur leur existence, mais cette exigence est également claire. Maintenant, nous exposons une autre exigence: ils devraient être au courant de l'existence de 802.1Q. L'équipement approprié est déjà disponible. En ce qui concerne l'ancien réseau, les cartes Ethernet, ils n'ont pas à jeter. Le Comité 802.3 ne pouvait pas forcer les gens à changer le type de champ sur la longueur de la longueur. Vous pouvez imaginer ce qui aurait la réaction à une déclaration que toutes les cartes Ethernet existantes peuvent être jetées? Néanmoins, de nouveaux modèles apparaissent sur le marché et il est d'espérer qu'ils seront maintenant 802.1) -aspace et seront en mesure de remplir correctement les champs d'identification des réseaux virtuels.

Si l'expéditeur ne génère pas de champ d'un signe de réseau virtuel, qui le fait? La réponse est la suivante: le premier pont remplit le pont ou le commutateur, le traitement des cadres de réseaux virtuels, insère ce champ et la dernière coupe. Mais comment découvre-t-il dans lequel des réseaux virtuels à adopter? Routeur de trafic réseau local

Pour ce faire, le premier appareil qui insère le champ VLVS peut affecter un numéro de réseau virtuel au port, analyser l'adresse MAC ou (Dieu interdit bien sûr) de mettre en évidence le contenu du champ de données. Bien que tout le monde ne bascule pas sur des cartes Ethernet compatibles avec la norme 802.1Q, tout ce qui sera. Il reste à espérer que tous les frais de réseau de Gigabit Ethernet adhèrent à la norme 802.1Q, du tout début de leur production, et donc tous les utilisateurs de l'Ethernet Gigabit de cette technologie seront automatiquement disponibles des fonctionnalités 802.1Q. En ce qui concerne le problème du personnel, la longueur dépasse 1518 octets, puis dans la norme 802.1Q, elle est résolue en augmentant la limite à 1522 octets. Lorsque vous transmettez des données dans le système, les deux appareils qui réduisent les VLVS indiquent un compte même de tout (par exemple, Ethernet classique ou rapide), ainsi que des équipements de réseau virtuels (par exemple, Gigabit Ethernet). Ici, les symboles ombragés signifient des dispositifs compatibles VLV et des carrés vides sont tous les autres. Pour la simplicité, nous supposons que tous les commutateurs compatibles VLVS sont compatibles. Si ce n'est pas le cas, le premier commutateur compatible de ce type de ce type ajoutera un signe d'un réseau virtuel à la trame, en fonction des informations extraites de l'adresse MAC ou IP.

Les cartes réseau Ethernet compatibles VLVS génèrent des cadres avec des drapeaux (c'est-à-dire des cadres de normes 802.1Q) et un routage supplémentaire est effectué à l'aide de ces drapeaux. Pour acheminer le commutateur, vous devez savoir quels réseaux virtuels sont disponibles sur tous les ports. Informations sur lesquelles le cadre appartient au réseau virtuel gris, et en général, ne dit rien, puisque le commutateur doit toujours savoir quels ports sont connectés aux machines réseau virtuelles grises. Ainsi, le commutateur est nécessaire une table de correspondance de port avec des réseaux virtuels, à partir de laquelle on pourrait également savoir si les ports VLVS sont compatibles. Lorsque l'habitude, sans méfiance l'existence de réseaux virtuels, l'ordinateur envoie un cadre à un commutateur réseau virtuel, ce dernier génère un nouveau cadre insérant le drapeau des VLVS. Il reçoit des informations pour ce drapeau à partir du réseau virtuel de l'expéditeur (il utilise le numéro de port, Mac ou l'adresse IP pour déterminer.) À partir de maintenant, personne d'autre ne ressent que l'expéditeur est une machine qui ne prend pas en charge la norme. 802.1q, de la même manière, le commutateur souhaitant délivrer un cadre avec un drapeau à une telle machine doit l'amener au format approprié. Envisagez maintenant le format suivant 802.1Q. Le seul changement est une paire de champs de 2 octets. Le premier est le nom de l'identifiant de protocole VLV. Cela compte toujours 0x8100. Étant donné que ce nombre dépasse 1500, toutes les cartes réseau Ethernet l'interprétent comme "type" et non comme une "longueur". On ne sait pas ce qu'une carte incompatible avec 802.1q fera, de sorte que de tels cadres, en théorie, ne devraient en aucun cas aller.

Dans le deuxième champ double octet, il y a trois champs investis. Le principal est l'identifiant VLVS, qui prend 12 bits plus jeunes. Il contient cette information en raison de laquelle toutes ces transformations de formats ont été rangées: il est indiqué que le réseau virtuel appartient au cadre. La priorité de terrain de trois bits n'a rien à voir avec des réseaux virtuels. Un changement de format d'une trame Ethernet est simplement un rituel hebdomadaire qui prend trois ans et est exécuté par des centaines de personnes. Pourquoi ne pas laisser la mémoire de vous-même sous la forme de trois bits supplémentaires, et même avec un rendez-vous aussi attractif. Le champ prioritaire vous permet de distinguer le trafic avec les exigences serrées de la réalité de l'échelle de temps, du trafic avec les exigences et du trafic moyen, pour lesquelles le temps de transmission n'est pas critique. Cela vous permet de fournir un service de qualité supérieure dans Ethernet. Il est également utilisé lors de la transmission de la voix via Ethernet (bien qu'il existe déjà un quart de siècle dans la propriété intellectuelle, il existe un champ similaire et que personne n'a été nécessaire de l'utiliser). Le dernier bit, CFI (indicateur de format canonique - un indicateur de format classique) doit être appelé l'indicateur d'égoïsme de la société. Initialement, il était destiné à montrer que le format de l'adresse MAC a été appliqué avec l'ordre direct des octets (ou, respectivement, avec l'ordre inverse), mais dans la chaleur des discussions sur elle en quelque sorte oublié. Sa présence signifie désormais que le champ de données contient un cadre de sécurité 802.5, qui recherche un autre réseau de format 502.5 et dans Ethernet a été complètement accidentellement. En fait, il utilise simplement Ethernet comme moyen de mouvement. Tout cela, bien sûr, presque aucun moyen associé aux réseaux virtuels discutés dans cette section. Mais les politiques du comité de normalisation ne sont pas très différentes de la politique habituelle: si vous votez pour l'introduction de mes bits dans le format, je vote pour votre chienne. Comme mentionné précédemment, lorsqu'un cadre avec un drapeau réseau virtuel est présent dans un commutateur compatible VLVS, celui-ci utilise un identifiant de réseau virtuel comme indice de table dans lequel il recherche, sur quel port envoi d'un cadre. Mais d'où vient cette table? S'il est développé manuellement, cela signifie retourner au point de départ: Configuration manuelle des commutateurs. L'ensemble du charme de transparence des ponts est qu'ils sont configurés automatiquement et ne nécessitent aucune interférence de l'extérieur. Il serait très honteux de perdre cette propriété. Heureusement, les ponts pour les réseaux virtuels sont également auto-ajustés. Le réglage est effectué sur la base des informations contenues dans les drapeaux des cadres entrants. Si une trame marquée comme VLVS 4 vient au port 3, cela signifie sans aucun doute l'une des machines connectées à ce port est dans le réseau virtuel 4. La norme 802.1Q explique comment des tables dynamiques sont construites. Dans le même temps, des références sont apportées aux parties correspondantes de l'algorithme Perlman (Perlman), qui est entrée dans la norme 802.Id. Avant de terminer la conversation sur le routage dans des réseaux virtuels, vous devez faire une autre remarque. De nombreux utilisateurs de réseaux Internet et de Ethernet sont liés fanatiquement à des réseaux sans établir un composé et les opposent frénétiquement à tous les systèmes qui ont au moins un soupçon d'un niveau de réseau ou d'un niveau de données. Toutefois, dans des réseaux virtuels, un moment technique est comme un rappelant très fortement l'installation de la connexion. C'est le fait que le travail du réseau virtuel n'est pas possible sans l'identifiant utilisé comme indice de table intégré à l'interrupteur dans chaque image. Ce tableau définit une autre voie de trame entièrement définie. C'est ce qui se passe dans les réseaux axés sur la connexion. Dans les systèmes sans connecter la connexion, l'itinéraire est déterminé à l'adresse de destination et il n'y a aucun identifiant de lignes spécifiques à travers lesquelles le cadre doit passer.

Les deux approches décrites sont basées uniquement sur l'ajout d'informations supplémentaires aux tableaux d'adresse et ne pas utiliser la possibilité d'intégrer des informations sur le cadre au réseau virtuel au cadre transmis. Méthode de l'organisation VLAN basée sur les étiquettes - Tags utilise des champs de trame supplémentaires pour stocker des informations sur l'affiliation de cadre lorsqu'elle se déplace entre les commutateurs de réseau.

La norme IEEE 802.1Q détermine les modifications de la structure de cadre Ethernet, permettant de transmettre des informations sur VLAN sur le réseau.

Du point de vue de la commodité et de la flexibilité des paramètres, les VLAN basées sur des étiquettes sont la meilleure solution par rapport aux approches suivantes. Ses principaux avantages:

· Flexibilité et commodité dans la configuration et la modification - Vous pouvez créer les combinaisons VLAN nécessaires à la fois dans un seul commutateur et sur tout le réseau intégré sur des commutateurs avec support pour la norme 802.1Q. La possibilité d'ajouter des marques permet à VLAN de se répandre via un ensemble de commutateurs compatibles 802.1Q conformes à une connexion physique.

· Vous permet d'activer l'algorithme d'arborescence de revêtement sur tous les ports et de travailler comme d'habitude. Le protocole d'arbre étendu s'avère très utile pour une utilisation dans de grands réseaux construits sur plusieurs commutateurs et permet aux commutateurs de déterminer automatiquement la configuration de l'arborescence des connexions réseau à une connexion arbitraire des ports. Pour un fonctionnement normal du commutateur, il n'y a pas de voies fermées sur le réseau. Ces itinéraires peuvent être créés par l'administrateur spécifiquement pour la formation d'obligations de sauvegarde ou se produisent aléatoirement, ce qui est tout à fait possible si le réseau possède de nombreuses connexions et que le système de câble est mal structuré ou documenté. En utilisant le protocole d'arbre étendu, les commutateurs après la construction d'un bloc de circuit réseau Les itinéraires en excès sont donc automatiquement empêchés par la survenue de boucles sur le réseau.

· La capacité de VLAN 802.1Q Ajouter et d'extraire les marques des en-têtes de paquets permet à VLAN de fonctionner avec des commutateurs et des adaptateurs réseau de serveurs et de postes de travail qui ne reconnaissent pas les balises.

· Les dispositifs de différents fabricants supportant la norme peuvent travailler ensemble, quelle que soit toute solution exclusive.

· Pas besoin d'appliquer des routeurs. Pour associer des sous-réseaux au niveau du réseau, il suffit de permettre aux ports souhaités de plusieurs VLAN, ce qui garantira la possibilité de trafic. Par exemple, pour organiser l'accès au serveur à partir de divers VLAN, vous devez activer le port de commutation auquel le serveur est connecté, dans tous les sous-réseaux. La seule restriction est que l'adaptateur réseau du serveur doit prendre en charge la norme IEEE 802.1Q.

En vertu de ces propriétés, les VLAN sur la base des balises sont utilisées dans la pratique beaucoup plus souvent que d'autres types de VLAN.

5.6. Spanning Arbre Couvrant l'algorithme d'arbre

L'une des méthodes utilisées pour améliorer la tolérance des pannes du réseau informatique, cette Spanning Arbre Protocole (STP) - Protocole du liant (IEEE 802.1D). Conçu depuis longtemps, en 1983, il reste toujours pertinent. Dans les réseaux Ethernet, les commutateurs uniquement sont pris en charge par des connexions d'arborescence, c'est-à-dire qui ne contiennent pas de boucles. Cela signifie que l'organisation de canaux alternatifs nécessite des protocoles et des technologies spéciaux qui vont au-delà du cadre de la base à laquelle l'Ethernet se rapporte.

Si plusieurs connexions sont créées pour fournir une redondance entre les commutateurs, des boucles peuvent se produire. La boucle implique l'existence de plusieurs itinéraires par des réseaux intermédiaires et le réseau avec plusieurs itinéraires entre la source et le récepteur est caractérisé par une résistance accrue aux violations. Bien que la présence de canaux de communication excédentaires soit très utile, des boucles, cependant, créent des problèmes, dont le plus pertinent:

· Tempêtes de diffusion - Les cadres de diffusion seront infiniment transmis par des réseaux avec des charnières à l'aide de toute la largeur de bande de transmission réseau accessible et bloquant d'autres cadres dans tous les segments.

· Plusieurs copies des cadres - L'interrupteur peut obtenir plusieurs copies d'une trame, provenant simultanément de plusieurs sections du réseau. Dans ce cas, la table de commutation ne pourra pas déterminer l'emplacement du périphérique, car le commutateur recevra une image dans plusieurs ports. Il peut arriver que le commutateur ne puisse pas être en mesure d'envoyer le cadre du tout, car mettra constamment à jour la table de commutation.

Pour résoudre ces problèmes, un protocole du liant a été développé.

Algorithme s'étend sur l'arbre (STA) Permet aux commutateurs de déterminer automatiquement la configuration de l'arborescence des liens du réseau avec un port arbitraire de ports.

Les commutateurs prenant en charge le protocole STP créent automatiquement une configuration de liaisons de type arborescent sans charnières dans un réseau informatique. Cette configuration s'appelle l'arborescence couvrant l'arborescence (parfois, ils sont appelés le noyau). La configuration d'arborescence de couverture est construite automatiquement avec l'échange de packages de service.

Calculer le liant se produit lorsque le commutateur est allumé et lorsque la topologie change. Ces calculs nécessitent un échange périodique d'informations entre les commutateurs de liant, qui sont obtenus à l'aide de paquets spéciaux appelés blocs de données de protocole BPDU BPDU (unité de données de protocole de pont).

Les packages BPDU contiennent des informations de base nécessaires pour créer une topologie de réseau de charnière:

· Identifiant de commutation, sur la base de laquelle le commutateur racine est sélectionné

· Distance de la source de commutation en commutateur racine (coût de la route racine)

· Identifiant de port

Les paquets BPDU sont placés dans le champ de données de niveau de canal, telles que des cadres Ethernet. Commutateurs Exchange BPDU aux intervalles de temps égaux (généralement 1-4C). En cas de panne de commutation (qui conduit à une modification de topologie) Commutateurs adjacents, sans recevoir le package BPDU pendant une heure spécifiée, le classeur de l'arborescence commence.

Les commutateurs modernes prennent également en charge le protocole Rapid STP (IEEE 802.1W), qui présente le meilleur temps de convergence par rapport à STP (moins de 1 seconde). 802.1W retour compatible avec 802.1D.

Comparaison des protocoles STP 802.1D et RSTP 802.1W.

5.7. Agrégation de port et création d'autoroutes réseau à grande vitesse

Tronc de ports- Il s'agit d'une combinaison de plusieurs canaux physiques (agrégation de liaison) dans une autoroute logique. Utilisé pour fusionner plusieurs ports physiques afin de former un canal de transmission de données à grande vitesse et vous permet d'utiliser activement des liens alternatifs redondants dans les réseaux locaux.

Contrairement au protocole STP (couvrant l'arbre - protocole de l'arbre de recouvrement), lors de l'agrégation de canaux physiques, toutes les obligations redondantes restent en état de fonctionnement et le trafic existant est réparti entre eux pour atteindre la balance de la charge. Si vous refusez l'une des lignes incluses dans un tel canal logique, le trafic est distribué entre les lignes restantes.

Les ports inclus dans le canal agrégé sont appelés membres du groupe. Un port du groupe agit comme une "liaison". Étant donné que tous les membres du groupe dans la chaîne agrégée doivent être configurés pour fonctionner dans le même mode, toutes les modifications apportées aux paramètres relatifs au port "Binding" appartiennent à tous les membres du groupe. Ainsi, pour configurer les ports du groupe, il vous suffit de configurer le port "Binding".

Un point important lors de la mise en œuvre de la fusion des ports vers le canal agrégé est la distribution du trafic sur eux. Si un package de session est transmis par différents ports du canal agrégé, il peut y avoir un problème à un niveau supérieur de protocole OSI. Par exemple, si deux ou plusieurs cadres adjacents d'une session deviennent transmis par différents ports du canal agrégé, alors en raison des différentes longueurs des files d'attente dans leurs tampons, il peut y avoir une situation en raison d'un délai inégal dans le transfert de trame, un Le cadre ultérieur sonnera son prédécesseur. Par conséquent, la plupart des implémentations de mécanismes d'agrégation utilisent des méthodes statiques et non une distribution dynamique des cadres par des ports, c'est-à-dire Fixation d'une certaine session de deux nœuds derrière un port spécifique du flux de cadre agrégé. Dans ce cas, tous les cadres passeront à travers la même file d'attente et leur séquence ne changera pas. Habituellement, avec une distribution statique, la sélection de ports pour une session spécifique est basée sur l'algorithme d'agrégation de ports sélectionnée, c'est-à-dire Basé sur certains signes de forfaits entrants. En fonction des informations utilisées pour identifier la session, il existe 6 algorithmes d'agrégation de ports:

1. adresse MAC de la source;

2. adresse MAC de la destination;

3. adresse MAC de la source et de la destination;

4. Adresse IP de la source;

5. L'adresse IP de la destination;

6. L'adresse IP de la source et de la destination.

Les lignes de communication agrégées peuvent être organisées avec tout autre commutateur prenant en charge les flux de données point-points par un port du canal agrégé.

Les combinaisons de canaux doivent être considérées comme une option de réglage de réseau utilisé principalement sur les connexions de commutation ou le "Switch-Switch File Server" nécessitant une vitesse de transmission supérieure à celle d'une seule liaison. Cette fonctionnalité peut également être utilisée pour augmenter la fiabilité des lignes importantes. En cas de dommages à la ligne de communication, le canal combiné est rapidement reconfiguré (pas plus de 1 S) et le risque de duplication et de modification de l'ordre des cadres est insignifiant.

Les commutateurs modernes logiciels prend en charge deux types de canaux de communication: statiques et dynamiques. Avec l'agrégation de canaux statiques, tous les paramètres des commutateurs sont effectués manuellement. L'agrégation de canal dynamique est basée sur la spécification IEEE 802.3AD, qui utilise le protocole de contrôle de la commande de liaison agrégée de la LACP (protocole de contrôle d'agrégation de liaison) afin de vérifier la configuration du canal et d'envoyer des paquets à chacune des lignes physiques. De plus, le protocole LACP décrit le mécanisme d'ajout et de sélection de canaux à partir d'une seule ligne de communication. Pour ce faire, lors de la configuration d'un canal de communication agrégé sur des commutateurs, les ports correspondants d'un commutateur doivent être configurés comme "actif" et un autre commutateur comme "passif". Les ports "actifs" de LACP effectuent le traitement et la distribution de ses cadres de contrôle. Cela permet aux périphériques supportant la lacp, d'accord sur les paramètres du canal agrégé et de pouvoir modifier de manière dynamique le groupe des ports, c'est-à-dire Ajouter ou exclure des ports de celui-ci. Les ports "passives" de la gestion des cadres de gestion de traitement ne sont pas effectués.

La norme IEEE 802.3AD s'applique à tous les types de canaux Ethernet, et il peut être construit avec des lignes multi-minit-bit constituées de plusieurs canaux Ethernet Gigabit.

5.8. Assurance qualité de maintenance (QoS)

Priorité du personnel (802.1R)

La construction de réseaux basés sur des commutateurs vous permet d'utiliser la hiérarchisation du trafic et de le faire quelle que soit la technologie du réseau. Cette fonctionnalité est une conséquence du fait que les commutateurs tamponnent les cadres avant de les envoyer à un autre port.


Le commutateur conduit généralement à chaque port d'entrée et de sortie non un, mais plusieurs files d'attente, et chaque file d'attente a sa propre priorité de traitement. Dans ce cas, le commutateur peut être configuré, par exemple, de manière à transmettre un package à faible priorité pour tous les 10 paquets haute priorité.

La prise en charge du traitement prioritaire peut être particulièrement utile pour les applications présentant diverses exigences pour les retards de personnel admissibles et la bande passante réseau pour le flux de trame.

La capacité du réseau à fournir divers niveaux de service demandés par celles ou d'autres applications réseau peuvent être classées dans trois catégories différentes:

· Livraison de données non enregistrée (meilleur service d'effort). Assurer la connectivité des nœuds de réseau sans une garantie de temps et le fait même de la livraison des emballages au point de destination. En fait, la livraison non-engrenage ne fait pas partie de la qualité de service, car il n'existe aucune garantie d'assurance qualité et de livraison de paquetage.

· Service différencié (service différencié). Le service différencié implique la séparation du trafic sur les classes basées sur des exigences de qualité de la qualité. Chaque classe de trafic est différenciée et traitée par le réseau conformément aux mécanismes de QoS spécifiés pour cette classe (plus vite qu'il est traité, au-dessus de la bande passante moyenne, inférieure au niveau de perte moyen). Un tel système d'assurance qualité de service est souvent appelé COS (classe de service). Le service différentiel en soi n'implique pas que les garanties des services fournis. Conformément à ce circuit, la circulation est distribuée par des classes, chacune ayant sa propre priorité. Ce type de service est pratique à appliquer dans des réseaux avec un trafic intensif. Dans ce cas, il est important de garantir la séparation du trafic administratif du réseau de tout le reste et d'attribuer une priorité, ce qui vous permet d'être confiant dans la connectivité des nœuds de réseau à tout moment.

· Service de garantie (service garanti). La maintenance garantie implique la réservation des ressources du réseau afin de répondre aux exigences de maintenance spécifiques des flux de trafic. Conformément au service garanti, il existe une pré-réservation de ressources de réseau tout au long de la trajectoire de la circulation. Par exemple, de tels schémas sont utilisés dans les technologies de réseau mondial de relais et ATM ATM ou dans le protocole RSVP pour les réseaux TCP / IP. Cependant, il n'y a pas de tels protocoles pour les commutateurs, ils ne peuvent donc pas donner des garanties.

La principale question dans le traitement prioritaire des commutateurs de cadres est la question de la nomination des cadres prioritaires. Étant donné que tous les protocoles de la couche de canal ne prennent pas en charge le champ de priorité de trame, par exemple, les cadres Ethernet sont manquants, le commutateur doit utiliser tout mécanisme supplémentaire pour lier un cadre avec sa priorité. Le moyen le plus courant est d'attribuer la priorité des ports de commutation. Dans cette méthode, le commutateur place le cadre dans le cadre du personnel de la priorité correspondante, en fonction duquel le port est entré dans l'interrupteur dans l'interrupteur. La manière simple, mais pas flexible - si ce n'est pas un assemblage séparé sur le port de l'interrupteur et que le segment, tous les nœuds segment reçoivent la même priorité.

Il est plus flexible d'attribuer des priorités aux cadres conformément à l'IEEE 802.1. Cette norme a été développée en conjonction avec 802.1Q. Dans les deux normes, un en-tête supplémentaire total pour les cadres Ethernet constitué de deux octets est fourni. Dans cet en-tête supplémentaire qui est inséré devant le champ Données de trame, 3 bits sont utilisés pour indiquer la priorité du cadre. Il existe un protocole pour lequel le nœud de fin peut demander à l'interrupteur l'un des huit niveaux de la priorité de trame. Si l'adaptateur réseau ne prend pas en charge la norme 802.1P, l'interrupteur peut affecter les priorités des trames en fonction du cadre du cadre entrant dans le cadre. Ces cadres marqués seront desservis conformément à leur priorité par tous les commutateurs de réseau, et pas seulement l'interrupteur, qui a accepté directement le cadre du nœud de fin. Lorsque le cadre est transmis à un adaptateur réseau qui ne prend pas en charge la norme 802.1P, l'en-tête supplémentaire doit être supprimé.

Des commutateurs fournissent un service différencié, une identification de paquets est donc nécessaire, ce qui leur permettra d'être attribué à la classe de trafic COS correspondante, y compris en règle générale, des packages de différents flux. La tâche spécifiée est effectuée par classification.

Classification de paquets (classification du paquet) C'est un outil qui vous permet d'attribuer un package à une ou plusieurs catégories de trafic en fonction des valeurs d'un ou de plusieurs champs de l'emballage.

Dans les commutateurs gérés, divers moyens de classifier les packages sont utilisés. Les paramètres suivants sont répertoriés, sur la base de laquelle le colis est identifié:

· Bits de classe prioritaire 802.1P;

· Les champs d'octets TOS situés dans l'en-tête du package IP et le champ de code de service différencié (DSCP);

· Adresse de rendez-vous et source du paquet IP;

· Numéros de port TCP / UDP.

Étant donné que les packages à haute priorité doivent être traités avant la priorité faible, plusieurs files d'attente de priorité de COS sont prises en charge dans les commutateurs. Les cadres, conformément à leur priorité, peuvent être placés dans différentes files d'attente. Différents mécanismes de service peuvent être utilisés pour traiter les files de priorisation:

· File d'attente prioritaire stricte (file d'attente prioritaire stricte, SPQ);

· Algorithme cyclique pondéré (Round Round Robin, WRR).

Dans le premier cas (algorithme SPQ), les paquets dans la file d'attente prioritaire commencent à être transmis en premier. Dans le même temps, plus la priorité videra les paquets, il n'y aura pas de paquets de files d'attente moins prioritaires. Le deuxième algorithme (WRR) élimine cette restriction et élimine également le manque de bande passante pour les files d'attente avec une priorité faible. Dans ce cas, pour chaque file d'attente prioritaire, le nombre maximum de paquets est défini, qui peut être transmis à une époque et le temps d'attente maximum par lequel la file d'attente sera en mesure de transmettre à nouveau des packages. Gamme de paquets transmis: de 0 à 255. Gamme de temps révolutionnaire: de 0 à 255.

5.9 Restriction d'accès au réseau



Avez-vous aimé l'article? Partagez-le