Classes de commutateurs Ethernet. Comparaison des périphériques réseau. Paramètres techniques du commutateur Spécifications du commutateur principal

Après que la technologie de commutation ait attiré l'attention générale et reçu des notes élevées de la part des spécialistes, de nombreuses entreprises ont commencé à implémenter cette technologie dans leurs appareils, en utilisant diverses solutions techniques pour cela. De nombreux commutateurs de première génération étaient similaires à des routeurs, c'est-à-dire basés sur une unité centrale de traitement à usage général connectée aux ports d'interface via un bus interne à grande vitesse. Cependant, il s'agissait davantage d'un dispositif d'essai destiné à l'entreprise pour maîtriser elle-même la technologie de commutation, plutôt que pour conquérir le marché.

Le principal inconvénient de ces commutateurs était leur faible vitesse. Le processeur généraliste ne pouvait en aucun cas faire face au volume important d'opérations spécialisées de transfert de trames entre modules d'interface.

Pour accélérer les opérations de commutation, des processeurs spécialisés avec des moyens de communication spécialisés étaient nécessaires, comme dans le premier commutateur Kalpana, et ceux-ci sont rapidement apparus. Les commutateurs utilisent désormais des LSI personnalisés et dédiés qui sont optimisés pour les opérations de commutation de base. Souvent, dans un commutateur, plusieurs LSI spécialisés sont utilisés, chacun d'eux effectuant une partie fonctionnellement complète des opérations.

Actuellement, les commutateurs utilisent l'un des trois schémas d'interaction de leurs blocs ou modules comme schéma de base :

matrice de commutation ;

♦ mémoire multi-entrée partagée ;

bus commun.

Souvent, ces trois méthodes de communication sont combinées dans un seul commutateur.

Commutateurs en tissu

La matrice de commutation est le moyen principal et le plus rapide pour les processeurs de port d'interagir, et elle a été implémentée dans le premier commutateur LAN industriel. Cependant, la mise en œuvre de la matrice n'est possible que pour un certain nombre de ports, et la complexité du circuit augmente proportionnellement au carré du nombre de ports de commutation.

La matrice est constituée de trois niveaux de commutateurs binaires qui relient leur entrée à l'une des deux sorties en fonction de la valeur du bit d'étiquette. Les interrupteurs du premier niveau sont commandés par le premier bit de la balise, le deuxième par le deuxième et le troisième par le troisième.

La matrice peut être implémentée d'une autre manière, basée sur des circuits combinatoires d'un type différent, mais sa particularité reste toujours la technologie de commutation de canaux physiques. Un inconvénient connu de cette technologie est le manque de mise en mémoire tampon des données à l'intérieur de la matrice de commutation - si un canal composite ne peut pas être construit en raison du port de sortie occupé ou de l'élément de commutation intermédiaire, alors les données doivent s'accumuler dans leur source, dans ce cas, dans le bloc d'entrée du port qui a reçu la trame.

Commutateurs de bus communs

Les commutateurs de bus partagés utilisent un bus à temps partagé à grande vitesse pour communiquer entre les processeurs de port. Cette architecture de commutateur est basée sur un processeur universel, mais diffère par le fait que le bus est ici passif et que des processeurs de ports spécialisés jouent un rôle actif.

Pour que le bus ne soit pas un goulot d'étranglement du commutateur, ses performances doivent être au moins N/2 fois supérieures au débit auquel les données arrivent aux blocs d'entrée des processeurs de port. De plus, la trame doit être transmise sur le bus par petites parties, de plusieurs octets chacune, afin que les trames soient transmises entre plusieurs ports en mode pseudo-parallèle, sans introduire de retard dans la transmission de la trame dans son ensemble. La taille de cette cellule de données est déterminée par le fabricant du commutateur. Certains fabricants, tels que LANNET (maintenant une division de Madge Networks), ont choisi une cellule ATM avec son champ de données de 48 octets comme bloc de données transporté dans une seule opération de bus. Cette approche facilite la traduction des protocoles LAN en ATM si le commutateur prend en charge ces technologies.

Le bloc d'entrée du processeur place une étiquette dans la cellule portée sur le bus, qui indique le numéro du port de destination. Chaque bloc de sortie du processeur de port contient un filtre de balises qui sélectionne les balises affectées à ce port.

Le bus, comme la matrice de commutation, ne peut pas effectuer de mise en mémoire tampon intermédiaire, mais puisque les données de trame sont divisées en petites cellules, il n'y a pas de retard avec l'attente initiale de la disponibilité du port de sortie dans un tel schéma.

Commutateurs de mémoire partagée

La troisième architecture de base pour la communication des ports est la mémoire partagée à double entrée.

Les blocs d'entrée des processeurs de ports sont connectés à l'entrée commutée de la mémoire partagée, et les blocs de sortie des mêmes processeurs sont connectés à la sortie commutée de cette mémoire. La commutation d'entrée et de sortie de la mémoire partagée est contrôlée par le gestionnaire de file d'attente du port de sortie. Dans la mémoire partagée, le gestionnaire organise plusieurs files d'attente de données, une pour chaque port de sortie. Les blocs de processeur d'entrée envoient des requêtes au gestionnaire de port pour écrire des données dans la file d'attente sur le port qui correspond à la destination du paquet. Le gestionnaire, à son tour, connecte l'entrée mémoire à l'un des blocs d'entrée des processeurs, et celui-ci réécrit une partie des données de la trame dans la file d'attente d'un port de sortie spécifique. Au fur et à mesure que les files d'attente se remplissent, le gestionnaire connecte également alternativement la sortie de la mémoire partagée aux blocs de sortie des processeurs de port, et les données de la file d'attente sont réécrites dans le tampon de sortie du processeur.

La mémoire doit être suffisamment rapide pour prendre en charge la vitesse de transfert des données entre les N ports du commutateur. L'utilisation d'une mémoire tampon partagée, qui est allouée de manière flexible par le gestionnaire entre les ports individuels, réduit les exigences relatives à la taille de la mémoire tampon du processeur de port.

Commutateurs combinés

Chacune des architectures décrites a ses propres avantages et inconvénients, par conséquent, ces architectures sont souvent utilisées en combinaison les unes avec les autres dans des commutateurs complexes.

Le commutateur est constitué de modules à nombre fixe de ports (2-8), réalisés sur la base d'un LSI spécialisé (ASIC), qui implémente l'architecture de la matrice de commutation. Si les ports entre lesquels la trame de données doit être transmise appartiennent au même module, alors la trame est transmise par les processeurs du module en fonction de la matrice de commutation disponible dans le module. Si les ports appartiennent à des modules différents, les processeurs communiquent sur un bus commun. Avec cette architecture, la transmission de trames au sein d'un module sera le plus souvent plus rapide qu'avec la transmission intermodule, car la matrice de commutation est le moyen de communication le plus rapide, bien que le moins évolutif, entre les ports. La vitesse du bus interne des commutateurs peut atteindre plusieurs Gb/s, et pour les modèles les plus puissants - jusqu'à 10-14 Gb/s.

Vous pouvez imaginer d'autres façons de combiner des architectures, par exemple en utilisant des modules de mémoire partagée pour l'interaction.

Commutateurs modulaires et empilables

D'un point de vue structurel, les commutateurs sont divisés en :

♦ commutateurs autonomes avec un nombre fixe de ports ;

♦ commutateurs modulaires à base de châssis ;

commutateurs avec un nombre fixe de ports, regroupés dans une pile.

Le premier type de commutateur est généralement conçu pour les petits groupes de travail.

Les commutateurs modulaires basés sur châssis sont le plus souvent conçus pour être utilisés sur le réseau fédérateur. Par conséquent, ils sont effectués sur la base de tout schéma combiné, dans lequel l'interaction des modules est organisée sur un bus à grande vitesse ou sur la base d'une mémoire partagée rapide de grand volume. Les modules d'un tel commutateur sont fabriqués sur la base de la technologie "hot swap", c'est-à-dire qu'ils peuvent être remplacés à la volée, sans éteindre le commutateur, car le dispositif de communication central du réseau ne devrait pas avoir d'interruptions de fonctionnement . Le châssis est généralement équipé d'alimentations redondantes et de ventilateurs redondants dans le même but. En général, ces commutateurs ressemblent à des routeurs haut de gamme ou à des hubs multifonctions d'entreprise, ils incluent donc parfois, en plus des modules de commutation, des modules répéteurs ou routeurs.

D'un point de vue technique, les commutateurs empilés présentent un certain intérêt. Ces appareils sont des commutateurs qui peuvent fonctionner de manière autonome, car ils sont fabriqués dans un boîtier séparé, mais disposent d'interfaces spéciales qui leur permettent d'être combinés en un système commun qui fonctionne comme un seul commutateur. Dans ce cas, on dit que les commutateurs individuels forment une pile.

En règle générale, cette interface dédiée est un bus à grande vitesse qui permet d'interconnecter des châssis individuels comme des modules dans un commutateur basé sur châssis. Les distances entre châssis étant plus grandes qu'entre modules sur un châssis, la vitesse du bus est généralement inférieure à celle des commutateurs modulaires : 200-400 Mb/s. Des taux d'échange peu élevés entre commutateurs empilés sont également dus au fait que les commutateurs empilés occupent généralement une position intermédiaire entre les commutateurs à nombre fixe de ports et les commutateurs basés sur un châssis. Les commutateurs empilés sont utilisés pour créer des réseaux de groupes de travail et de services, ils n'ont donc pas vraiment besoin de vitesses ultra-élevées de bus d'échange et ne correspondent pas à leur gamme de prix.

Cisco a adopté une approche différente pour organiser la pile. Son commutateur Catalyst 3000 (anciennement appelé EtherSwitch Pro Stack) dispose également d'une interface spéciale haute vitesse à 280 Mb/s pour l'empilage, mais il ne connecte pas les commutateurs entre eux, mais à un appareil séparé contenant une matrice de commutation 8x8, organisant plus haut -échange de performances entre n'importe quelle paire de commutateurs.

Caractéristiques de performance du commutateur

Les principales caractéristiques d'un interrupteur qui mesurent ses performances sont :

vitesse de filtrage ;

♦ rapidité d'acheminement (transmission) ;

débit ;

♦ délai de transmission de trame.

De plus, plusieurs caractéristiques du commutateur affectent le plus les caractéristiques de performances spécifiées. Ceux-ci inclus:

la taille du ou des tampons de trames ;

performances du bus interne ;

♦ performances du ou des processeurs ;

♦ la taille de la table d'adresses interne.

Taux de filtration et taux d'avance

Le filtrage et les taux de transfert de trames sont les deux principales caractéristiques de performance d'un commutateur. Ces caractéristiques sont des indicateurs intégrés, elles ne dépendent pas de la manière dont le commutateur est techniquement mis en œuvre.

Le taux de filtrage détermine le taux auquel le commutateur effectue les étapes suivantes de traitement de trame :

recevoir une trame dans son propre buffer,

♦ destruction de la trame, puisque son port de destination est le même que le port source.

Le taux de transfert détermine le taux auquel le commutateur effectue les étapes suivantes de traitement de trame :

recevoir une trame dans son propre buffer,

♦ consulter la table d'adresses afin de trouver le port de l'adresse de destination de la trame,

♦ transmission d'une trame au réseau via le port de destination trouvé dans la table d'adresses.

Le taux de filtrage et le taux d'avance sont généralement mesurés en images par seconde. Si les caractéristiques du switch ne précisent pas pour quel protocole et pour quelle taille de trame les valeurs de débits de filtrage et de transfert sont données, alors par défaut on considère que ces indicateurs sont donnés pour le protocole Ethernet et les trames de la taille minimale , c'est-à-dire des trames d'une longueur de 64 octets (sans préambule), avec un champ de données de 46 octets. Si des débits sont spécifiés pour un protocole spécifique, par exemple Token Ring ou FDDI, alors ils sont également donnés pour des trames de longueur minimale de ce protocole (par exemple, des trames d'une longueur de 29 octets pour le protocole FDDI). L'utilisation de trames de longueur minimale comme indicateur principal de la vitesse du commutateur est due au fait que de telles trames créent toujours le mode de fonctionnement le plus sévère pour le commutateur par rapport aux trames d'un format différent avec la même bande passante du transfert. données d'utilisateur. Par conséquent, lors du test d'un commutateur, le mode de longueur de trame minimale est utilisé comme le test le plus difficile, qui doit vérifier la capacité du commutateur à fonctionner avec la pire combinaison de paramètres de trafic pour lui. De plus, pour les paquets de longueur minimale, les débits de filtrage et de transfert ont la valeur maximale, ce qui n'est pas négligeable lors de l'annonce d'un commutateur.

Le débit d'un commutateur est mesuré par la quantité de données utilisateur transmises par unité de temps via ses ports. Étant donné que le commutateur fonctionne au niveau de la couche de liaison, les données utilisateur correspondant sont les données qui sont transportées dans le champ de données des trames des protocoles de couche de liaison - Ethernet, Token Ring, FDDI, etc. La valeur maximale du débit de commutation est toujours atteinte sur les trames de longueur maximale, car dans ce cas la part des frais généraux pour les informations de service de la trame est bien inférieure à celle des trames de longueur minimale, et le temps de commutateur pour effectuer des opérations de traitement de trame par octet d'informations utilisateur est significativement moins.

La dépendance du débit du commutateur à la taille des trames transmises est bien illustrée par l'exemple du protocole Ethernet, pour lequel, lors de la transmission de trames de longueur minimale, un taux de transmission de 14880 trames par seconde et un débit de 5,48 Mb/ s est atteint, et lors de la transmission de trames de la longueur maximale, un taux de transmission de 812 trames par seconde est atteint, seconde et une bande passante de 9,74 Mb/s. Le débit chute presque deux fois lors du passage aux trames les plus courtes, et cela ne prend pas en compte la perte de temps de traitement des trames par le commutateur.

La latence de transfert de trame est mesurée comme le temps écoulé depuis le moment où le premier octet de la trame arrive au port d'entrée du commutateur jusqu'à ce que cet octet apparaisse sur le port de sortie du commutateur. La latence est la somme du temps nécessaire pour mettre en mémoire tampon les octets de la trame, plus le temps nécessaire pour traiter la trame par le commutateur - recherchez la table d'adresses, décidez de filtrer ou de transférer et accédez à la sortie environnement portuaire.

La quantité de retard introduite par le commutateur dépend de son mode de fonctionnement. Si la commutation est effectuée "à la volée", les retards sont généralement faibles et vont de 10 µs à 40 µs, et avec une mise en mémoire tampon complète - de 50 µs à 200 µs (pour la longueur de trame minimale).

Le commutateur est un appareil multi-ports, il est donc habituel qu'il donne toutes les caractéristiques ci-dessus (à l'exception du délai de transmission de trame) en deux versions. La première option est la performance totale du commutateur avec la transmission simultanée du trafic sur tous ses ports, la deuxième option est la performance par port.

Étant donné qu'avec la transmission simultanée du trafic par plusieurs ports, il existe un grand nombre d'options de trafic qui diffèrent par la taille des trames dans le flux, la répartition de l'intensité moyenne des flux de trames entre les ports de destination, les coefficients de variation de l'intensité des flux de trames, etc. etc., alors lors de la comparaison des commutateurs par performances, il est nécessaire de prendre en compte pour quel type de trafic les données de performances publiées ont été obtenues. Malheureusement, pour les commutateurs (ainsi que pour les routeurs), il n'existe pas de modèles de trafic de test généralement acceptés pouvant être utilisés pour obtenir des caractéristiques de performances comparables, comme cela est fait pour obtenir des caractéristiques de performances de systèmes informatiques tels que TPC-A ou SPECint92. Certains laboratoires qui testent constamment des équipements de communication ont développé des descriptions détaillées des conditions de test des commutateurs et les utilisent dans leur pratique, mais ces tests ne sont pas encore généralisés à l'industrie.

Estimation des performances globales requises pour le commutateur

Idéalement, un commutateur installé dans le réseau transmet les trames entre les nœuds connectés à ses ports au rythme auquel les nœuds génèrent ces trames, sans introduire de délais supplémentaires ni perdre une seule trame. Dans la pratique réelle, le commutateur introduit toujours des retards dans la transmission des trames, et peut également perdre certaines trames, c'est-à-dire ne pas les livrer aux destinataires. En raison des différences dans l'organisation interne des différents modèles de commutateurs, il est difficile de prédire comment un commutateur particulier transmettra des trames pour un modèle de trafic particulier. Le meilleur critère reste la pratique consistant à mettre le commutateur dans un réseau réel et à mesurer la latence introduite par celui-ci et le nombre de trames perdues. Cependant, il existe des calculs simples qui peuvent donner une idée du comportement du switch en situation réelle.

La base pour évaluer comment le commutateur gérera la communication des nœuds ou des segments connectés à ses ports est constituée des données sur l'intensité moyenne du trafic entre les nœuds du réseau. Cela signifie que vous devez en quelque sorte estimer le nombre d'images par seconde, en moyenne, un nœud connecté au port P2 génère un nœud connecté au port P4 (trafic P24), un nœud connecté au port P3 (trafic P23), et ainsi de suite. au nœud connecté au port P6. Cette procédure doit ensuite être répétée pour le trafic généré par les nœuds connectés aux ports 3, 4, 5 et 6. En général, le trafic généré d'un nœud à un autre ne correspond pas au trafic généré en sens inverse.

Le résultat de la recherche sur le trafic sera la construction d'une matrice de trafic. Le trafic peut être mesuré à la fois en trames par seconde et en bits par seconde. Depuis lors, les valeurs de trafic requises seront comparées aux indicateurs de performance du commutateur, vous devez les avoir dans les mêmes unités. Pour plus de précision, nous supposerons que dans cet exemple, le trafic et les performances du commutateur sont mesurés en bits par seconde.

Une matrice similaire est construite par des agents RMON MIB (variable de matrice de trafic) embarqués dans des adaptateurs réseau ou d'autres équipements de communication.

Pour que le commutateur puisse prendre en charge la matrice de trafic requise, plusieurs conditions doivent être remplies.

1. Les performances globales du commutateur devraient être supérieures
ou est égal à l'intensité totale du trafic transmis.

Si cette inégalité n'est pas respectée, alors le commutateur ne supportera certainement pas le flux de trames entrantes et celles-ci seront perdues en raison du débordement des buffers internes. Étant donné que la formule inclut des taux de trafic moyens, non, même une très grande taille de la mémoire tampon interne ou des mémoires tampons de commutation peut compenser un traitement de trame trop lent.

Les performances globales du commutateur sont assurées par les performances suffisamment élevées de chacun de ses éléments individuels - processeur de port, matrice de commutation, modules de connexion de bus communs, etc. Indépendamment de l'organisation interne du commutateur et de la façon dont ses opérations sont pipelinées, il est possible de définir des exigences de performances assez simples pour ses éléments qui sont nécessaires pour prendre en charge une matrice de trafic donnée. Citons-en quelques-uns.

2. Performance maximale nominale du protocole
chaque port du commutateur doit être au moins la moyenne
trafic total transitant par le port.

3. Les performances du processeur de chaque port ne doivent pas être inférieures à l'intensité moyenne du trafic total passant par le port. La condition est similaire à la précédente, mais au lieu des performances nominales du protocole pris en charge, elle doit utiliser les performances du processeur de port.

4. Les performances du bus interne du commutateur ne doivent pas être inférieures à l'intensité moyenne du trafic total transmis entre les ports appartenant aux différents modules du commutateur.

Ce contrôle ne doit être effectué, bien entendu, que pour les commutateurs qui ont une architecture interne de type modulaire utilisant un bus commun pour l'échange intermodulaire. Pour les commutateurs avec une organisation interne différente, par exemple à mémoire partagée, il est facile de proposer des formules similaires pour vérifier les performances suffisantes de leurs éléments internes.

Les conditions ci-dessus sont nécessaires pour que le commutateur puisse faire face à la tâche en moyenne et ne pas perdre d'images tout le temps. Si au moins une des conditions ci-dessus n'est pas remplie, la perte de trames ne devient pas un phénomène épisodique aux valeurs de trafic de pointe, mais un phénomène constant, puisque même les valeurs de trafic moyennes dépassent les capacités du commutateur.

Les conditions 1 et 2 s'appliquent aux commutateurs avec n'importe quelle organisation interne, et les conditions 3 et 4 sont données à titre d'exemple de la nécessité de prendre en compte les performances des ports individuels.

Alors que les fabricants de commutateurs s'efforcent de rendre leurs appareils aussi rapides que possible, les performances internes globales du commutateur dépassent souvent le débit moyen de tout trafic pouvant être dirigé vers les ports du commutateur conformément à leurs protocoles. De tels commutateurs sont appelés commutateurs non bloquants, ce qui souligne le fait que tout type de trafic est transmis sans réduire son intensité.

Cependant, quelles que soient les performances globales du commutateur, vous pouvez toujours lui spécifier une telle répartition du trafic entre les ports que le commutateur ne supportera pas et commencera inévitablement à perdre des trames. Pour cela, il suffit que le trafic total transmis via le commutateur pour l'un de ses ports de sortie dépasse le débit maximal du protocole de ce port. Par exemple, si les ports P4, P5 et P6 envoient chacun 5 Mb/s vers le port P2, alors le port P2 ne pourra pas transmettre de trafic vers le réseau avec un débit moyen de 15 Mb/s, même si le processeur de ce port a une telle performance. Le tampon du port P2 se remplira à une vitesse

15 Mb/s, et vide à un maximum de 10 Mb/s, donc la quantité de données brutes va croître à une vitesse de 5 Mb/s, conduisant inévitablement à des débordements de tout buffer de taille finie, et donc à des pertes de trames.

D'après l'exemple ci-dessus, on peut voir que les commutateurs ne peuvent exploiter pleinement leurs performances internes élevées que dans le cas d'un trafic bien équilibré, lorsque les probabilités de transmission de trames d'un port à un autre sont approximativement égales. En cas de "skews" de trafic, lorsque plusieurs ports envoient leur trafic principalement vers un port, le commutateur peut ne pas faire face à la tâche à accomplir, même pas à cause des performances insuffisantes de ses processeurs de port, mais à cause des limitations du port. protocole.

Le commutateur peut perdre un grand pourcentage de trames même dans les cas où toutes les conditions ci-dessus sont remplies, car elles sont nécessaires, mais pas suffisantes pour la transmission en temps voulu des trames reçues au niveau des récepteurs des ports. Ces conditions sont insuffisantes car elles simplifient grandement les processus de transmission des trames à travers le commutateur. Se focaliser uniquement sur les valeurs moyennes des débits ne prend pas en compte les collisions entre les émetteurs du port et l'adaptateur réseau de l'ordinateur, les pertes sur le temps d'attente pour accéder à l'environnement et autres phénomènes qui sont provoqués par des moments aléatoires de génération de trame, tailles de trame aléatoires et autres facteurs aléatoires qui réduisent considérablement le changement de performance réel. Néanmoins, l'utilisation des estimations ci-dessus est utile, car elle vous permet d'identifier les cas où l'utilisation d'un modèle de commutateur particulier pour un réseau particulier est évidemment inacceptable.

Puisqu'il est loin d'être toujours possible d'estimer l'intensité des flux de trames entre les nœuds du réseau, nous présentons en conclusion de cette section une relation qui nous permet de dire que le commutateur a des performances internes suffisantes pour supporter les flux de trames s'ils passent par tous ses ports avec une intensité maximale. En d'autres termes, nous obtenons la condition selon laquelle pour un ensemble donné de ports, le commutateur est non bloquant.

Évidemment, un commutateur sera non bloquant si les performances internes totales du commutateur sont égales à la somme des bandes passantes maximales du protocole de tous ses ports.

Autrement dit, si le commutateur possède, par exemple, 12 ports Ethernet et 2 ports Fast Ethernet, les performances internes de 320 Mb/s seront suffisantes pour gérer toute distribution de trafic entrant dans le commutateur via ses ports. Cependant, ces performances internes sont redondantes, puisque le commutateur est conçu non seulement pour recevoir des trames, mais aussi pour les envoyer vers le port de destination. Par conséquent, tous les ports du commutateur ne peuvent pas recevoir en permanence des informations de l'extérieur à une vitesse maximale - l'intensité moyenne des informations sortant par tous les ports du commutateur doit être égale à l'intensité moyenne des informations reçues. Par conséquent, la vitesse maximale des informations transmises via le commutateur dans un mode stable est égale à la moitié du débit total de tous les ports - chaque trame d'entrée est une trame de sortie pour n'importe quel port. Conformément à cette déclaration, pour un fonctionnement normal du commutateur, il suffit que ses performances totales internes soient égales à la moitié de la somme du débit maximal des protocoles de tous ses ports.

Par conséquent, pour un commutateur doté de 12 ports Ethernet et de 2 ports Fast Ethernet, il suffit amplement d'avoir une performance globale moyenne de 160 Mb/s pour un fonctionnement normal de transmission de toutes les options de distribution de trafic pouvant être transmises par ses ports pendant une durée suffisamment longue. période de temps.

Il convient de souligner encore une fois que cette condition ne garantit que les éléments internes du commutateur - processeurs de port, bus inter-modules, processeur central, etc. - s'occupera du traitement du trafic entrant. L'asymétrie dans la répartition de ce trafic sur les ports de sortie peut toujours conduire à l'impossibilité de transmettre en temps voulu le trafic vers le réseau en raison des limitations du protocole du port. Pour éviter la perte de trame, de nombreux fabricants de commutateurs utilisent des solutions propriétaires qui permettent de "ralentir" les émetteurs des nœuds connectés au commutateur, c'est-à-dire qu'ils introduisent des éléments de contrôle de flux sans modifier les protocoles de port des nœuds d'extrémité. Ces méthodes seront discutées ci-dessous lors de l'examen des fonctionnalités supplémentaires des commutateurs.

En plus de la bande passante des éléments de commutateur individuels, tels que les processeurs de port ou un bus partagé, les performances du commutateur sont affectées par des paramètres tels que la taille de la table d'adresses et la taille du tampon partagé ou des tampons de port individuels.

Taille de la table d'adresses

La capacité maximale de la table d'adresses détermine le nombre maximal d'adresses MAC avec lesquelles le commutateur peut fonctionner simultanément. Étant donné que les commutateurs utilisent le plus souvent une unité de traitement dédiée pour effectuer des opérations sur chaque port avec sa propre mémoire pour stocker une instance de la table d'adresses, la taille de la table d'adresses pour les commutateurs est généralement donnée par port. Les instances de la table d'adresses de différents modules de processeur ne contiennent pas nécessairement les mêmes informations d'adresse - il n'y aura probablement pas beaucoup d'adresses en double, à moins que la répartition du trafic pour chaque port ne soit complètement équiprobable entre le reste des ports. Chaque port stocke uniquement les ensembles d'adresses qu'il a récemment utilisés.

Le nombre maximal d'adresses MAC qu'un processeur de port peut mémoriser dépend de l'application du commutateur. Les commutateurs de groupe de travail ne prennent généralement en charge que quelques adresses par port, car ils sont conçus pour former des micro-segments. Les commutateurs de service doivent prendre en charge plusieurs centaines d'adresses et les commutateurs de dorsale de réseau jusqu'à plusieurs milliers, généralement d'adresses de 4K à 8K.

Une capacité de table d'adresses insuffisante peut ralentir le commutateur et obstruer le réseau avec un trafic excessif. Si la table d'adresses du processeur de port est complètement pleine et qu'il rencontre une nouvelle adresse source dans le paquet entrant, alors il doit déplacer toute ancienne adresse de la table et en mettre une nouvelle à sa place. Cette opération en elle-même prendra une partie du temps du processeur, mais la principale perte de performance sera observée lorsqu'une trame arrive avec une adresse de destination, qui a dû être supprimée de la table d'adresses. Étant donné que l'adresse de destination de la trame est inconnue, le commutateur doit transmettre cette trame à tous les autres ports. Cette opération créera un travail inutile pour de nombreux processeurs de ports. De plus, des copies de cette trame tomberont également sur les segments de réseau où elles sont totalement inutiles.

Certains fabricants de commutateurs résolvent ce problème en modifiant la façon dont ils traitent les trames dont la destination est inconnue. L'un des ports du commutateur est configuré en tant que port de jonction, auquel toutes les trames avec une adresse inconnue sont envoyées par défaut. Cette technique est utilisée depuis longtemps dans les routeurs, permettant de réduire la taille des tables d'adresses dans des réseaux organisés de manière hiérarchique.

Une trame est envoyée à un port de jonction en supposant que ce port est connecté à un commutateur en amont qui a une capacité de table d'adresses suffisante et sait où envoyer n'importe quelle trame. Un exemple de transfert de trame réussi lors de l'utilisation d'un port de jonction est que le commutateur de niveau supérieur dispose d'informations sur tous les nœuds du réseau, de sorte qu'une trame avec l'adresse de destination MACZ qui lui est transmise via le port de jonction est transmise via le port 2 au commutateur vers auquel le nœud avec l'adresse MACZ est connecté ...

Bien que la méthode du port de jonction fonctionnera efficacement dans de nombreux cas, il est possible d'imaginer des situations où des trames seront simplement perdues. L'une de ces situations est la suivante : le commutateur de niveau inférieur a supprimé de sa table d'adresses l'adresse MAC8, qui est connectée à son port 4, afin de faire place à la nouvelle adresse MACZ. Lorsqu'une trame arrive avec un MAC8 de destination, le commutateur la transmet au port de jonction 5, par lequel la trame entre dans le commutateur de niveau supérieur. Ce commutateur voit dans sa table d'adresses que l'adresse MAC8 appartient à son port 1, par lequel il est entré dans le commutateur. Par conséquent, la trame n'est pas traitée davantage et est simplement filtrée et, par conséquent, n'atteint pas le destinataire. Par conséquent, il est plus fiable d'utiliser des commutateurs avec un nombre suffisant de tables d'adresses pour chaque port et une prise en charge de la table d'adresses partagée par le module de gestion des commutateurs.

Volume tampon

La mémoire tampon interne du commutateur est utilisée pour stocker temporairement des trames de données dans les cas où elles ne peuvent pas être immédiatement transmises au port de sortie. Le tampon est conçu pour lisser les pulsations de trafic à court terme. En effet, même si le trafic est bien équilibré et que les performances des processeurs de ports et autres éléments de traitement du commutateur sont suffisantes pour transférer des valeurs moyennes de trafic, cela ne garantit pas que leurs performances seront suffisantes à des pics de charge très élevés. Par exemple, le trafic peut arriver simultanément sur toutes les entrées du commutateur pendant plusieurs dizaines de millisecondes, l'empêchant de transmettre les trames reçues vers les ports de sortie.

Pour éviter la perte de trames en cas de multiple à court terme dépassant l'intensité moyenne du trafic (et pour les réseaux locaux, on trouve souvent des valeurs d'ondulation du trafic comprises entre 50 et 100), le seul moyen est un grand tampon. Comme dans le cas des tables d'adresses, chaque unité de traitement de port a généralement sa propre mémoire tampon pour stocker les trames. Plus la quantité de cette mémoire est importante, moins elle risque de perdre des trames lors de surcharges, bien que si les valeurs moyennes de trafic sont déséquilibrées, le buffer débordera tôt ou tard.

Habituellement, les commutateurs conçus pour fonctionner dans des parties critiques du réseau ont une mémoire tampon de plusieurs dizaines ou centaines de kilo-octets par port. Il est bon que cette mémoire tampon puisse être redistribuée entre plusieurs ports, car des surcharges simultanées sur plusieurs ports sont peu probables. Une protection supplémentaire peut être fournie par un tampon commun à tous les ports du module de gestion de commutateur. Un tel tampon a généralement une taille de plusieurs mégaoctets.

Fonctionnalités supplémentaires du commutateur

Étant donné que le commutateur est un appareil informatique complexe avec plusieurs modules de processeur, il est naturel de le charger en plus de remplir la fonction principale de transfert de trames de port à port en utilisant l'algorithme de pont et certaines fonctions supplémentaires utiles pour construire des réseaux fiables et flexibles. . Voici les fonctionnalités avancées de commutateur les plus courantes prises en charge par la plupart des fabricants d'équipements de communication.

Traduction du protocole de la couche liaison

Les commutateurs peuvent traduire un protocole de couche de liaison en un autre, par exemple, Ethernet vers FDDI, Fast Ethernet vers Token Ring, etc. En même temps, ils fonctionnent selon les mêmes algorithmes que les ponts de traduction, c'est-à-dire conformément aux spécifications RFC 1042 et 802.1H, qui déterminent les règles de conversion des champs de trame de différents protocoles.

La traduction des protocoles LAN est facilitée par le fait que le travail le plus complexe que les routeurs et les passerelles effectuent souvent lors de la combinaison de réseaux hétérogènes, à savoir le travail de traduction des informations d'adresse, n'a pas besoin d'être effectué dans ce cas. Tous les nœuds d'extrémité des réseaux locaux ont des adresses uniques dans le même format, quel que soit le protocole pris en charge. Par conséquent, l'adresse de la carte réseau Ethernet est comprise par la carte réseau FDDI, et ils peuvent utiliser ces adresses dans les champs de leurs trames sans penser que l'hôte avec lequel ils interagissent appartient à un réseau utilisant une technologie différente.

Ainsi, lors de la négociation des protocoles des réseaux locaux, les commutateurs ne construisent pas de tables de correspondance d'adresses hôtes, mais transfèrent les adresses de destination et source de la trame d'un protocole à la trame d'un autre protocole. La seule conversion qui peut avoir besoin d'être effectuée est une conversion d'ordre d'octet si l'Ethernet est compatible Token Ring ou FDDI. Cela est dû au fait que dans les réseaux Ethernet, la forme dite canonique de transmission d'adresse sur le réseau est adoptée, lorsque le bit le moins significatif de l'octet le plus significatif de l'adresse est transmis en premier. Dans les réseaux FDDI et Token Ring, le bit de poids fort de l'octet de poids fort de l'adresse est toujours transmis en premier. Étant donné que la technologie lOOVG-AnyLAN utilise des trames ou Ethernet ou Token Ring, sa traduction dans d'autres technologies dépend des trames dont les protocoles sont utilisés dans ce segment du réseau lOOVG-AnyLAN.

En plus de changer l'ordre des bits lors du transfert des octets d'adresse, la traduction du protocole Ethernet (et Fast Ethernet, qui utilise le format de trame Ethernet) vers les protocoles FDDI et Token Ring comprend les opérations suivantes (peut-être pas toutes) :

Calcul de la longueur du champ de données de la trame et placement de cette valeur dans le champ Longueur lors de la transmission d'une trame d'un réseau FDDI ou Token Ring vers un réseau Ethernet 802.3 (il n'y a pas de champ longueur dans les trames FDDI et Token Ring).

Remplir les champs d'état de la trame lors de la transmission de trames du réseau FDDI ou Token Ring vers le réseau Ethernet. Les trames FDDI et Token Ring ont deux bits qui doivent être définis par la station à laquelle la trame était destinée - le bit de reconnaissance d'adresse A et le bit de copie de trame C. Lors de la réception d'une trame, la station doit définir ces deux bits afin que la trame pour revenir à la station autour de l'anneau qui l'a généré, a apporté les données de retour. Lorsqu'un commutateur envoie une trame à un autre réseau, il n'y a pas de règles standard pour définir les bits A et C dans une trame qui est rebouclée vers la station source. Par conséquent, les fabricants de commutateurs résolvent eux-mêmes ce problème.

♦ Suppression des trames transmises depuis les réseaux FDDI ou Token Ring vers Ethernet avec une taille de champ de données supérieure à 1500 octets, car il s'agit de la valeur de champ de données maximale possible pour les réseaux Ethernet. A l'avenir, il sera possible de tronquer la taille maximale du champ de données des réseaux FDDI ou Token Ring au moyen de protocoles de niveau supérieur, par exemple TCP. Une autre option pour résoudre ce problème consiste à prendre en charge le commutateur à fragmentation IP, mais cela nécessite, d'une part, la mise en œuvre du protocole de couche réseau dans le commutateur, et d'autre part, la prise en charge du protocole IP par les nœuds interagissant des réseaux traduits.

Remplir le champ Type (type de protocole dans le champ données) de la trame Ethernet II lorsque les trames arrivent des réseaux,

prenant en charge les trames FDDI ou Token Ring qui n'ont pas ce champ. Pour conserver l'information du champ Type dans la norme RFC 1042, il est proposé d'utiliser le champ Type de l'en-tête de trame LLC/SNAP inséré dans le champ de données de la trame MAC des protocoles FDDI ou Token Ring. Dans le mappage inverse, la valeur du champ Type de l'en-tête LLC/SNAP est transportée dans le champ Type de la trame Ethernet II.

♦ Recalcul de la somme de contrôle de la trame en fonction des valeurs générées des champs de service de la trame.

Prise en charge de l'algorithme Spanning Tree

L'algorithme Spanning Tree (STA) permet aux commutateurs de déterminer automatiquement la configuration arborescente des liens dans le réseau lors de la connexion aléatoire des ports les uns aux autres. Comme déjà noté, pour que le commutateur fonctionne correctement, il ne doit y avoir aucune route de bouclage dans le réseau. Ces routes peuvent être créées par l'administrateur spécifiquement pour créer des liens de sauvegarde, ou elles peuvent se produire de manière aléatoire, ce qui est tout à fait possible si le réseau comporte plusieurs liens et que le système de câblage est mal structuré ou documenté.

Les commutateurs qui prennent en charge l'algorithme STA créent automatiquement une configuration d'arborescence de liens actifs (c'est-à-dire une configuration connectée sans boucles) sur l'ensemble de tous les liens réseau. Cette configuration est appelée Spanning Tree (parfois appelée Spanning Tree ou Base Tree), et son nom donne son nom à l'ensemble de l'algorithme.

Les commutateurs trouvent l'arbre couvrant de manière adaptative en échangeant des paquets de service. La mise en œuvre de l'algorithme STA dans le commutateur est très importante pour le fonctionnement dans les grands réseaux - si le commutateur ne prend pas en charge cet algorithme, l'administrateur doit déterminer indépendamment quels ports doivent être mis dans un état bloqué afin d'éliminer les boucles. De plus, en cas de défaillance d'une communication, d'un port ou d'un commutateur, l'administrateur doit, d'une part, détecter le fait de la défaillance et, d'autre part, éliminer les conséquences de la défaillance en transférant la communication de secours en mode de fonctionnement en activant certains ports.

Définitions basiques

Le réseau définit le commutateur racine, à partir duquel l'arborescence est construite. Le commutateur racine peut être automatiquement sélectionné ou attribué par l'administrateur. Avec sélection automatique des coins

Le commutateur avec une valeur inférieure de l'adresse MAC de son unité de contrôle devient névy.

Pour chaque commutateur, un port racine est défini - c'est le port qui a la distance la plus courte sur le réseau jusqu'au commutateur racine (plus précisément, vers l'un des ports du commutateur racine). Ensuite, pour chaque segment de réseau, un port dit désigné est sélectionné - c'est le port qui a la distance la plus courte entre ce segment et le commutateur racine.

La distance joue un rôle important dans la construction des arbres couvrants. C'est par ce critère qu'un seul port est sélectionné qui connecte chaque commutateur au commutateur racine, et un seul port qui connecte chaque segment de réseau au commutateur racine. Tous les autres ports sont mis dans un état de veille, c'est-à-dire dans lequel ils ne transmettent pas de trames de données normales. On peut prouver que ce choix de ports actifs élimine les boucles dans le réseau et que les liens restants forment un arbre couvrant.

La distance à la racine est définie comme le temps conditionnel total pour le transfert de données du port de ce commutateur au port du commutateur racine. Dans ce cas, on considère que le temps de transmission des données internes (de port à port) par le commutateur est négligeable, et seul le temps de transmission des données sur les segments de réseau reliant les commutateurs est pris en compte. Le temps de segment conventionnel est calculé comme le temps consacré au transfert d'un bit d'information en unités de 10 nanosecondes entre les ports directement connectés sur le segment de réseau. Ainsi, pour un segment Ethernet ce temps est égal à 10 unités conventionnelles, et pour un segment Token Ring 16 Mb/s - 6,25. (L'algorithme STA n'est associé à aucune norme de couche de liaison spécifique ; il peut être appliqué aux commutateurs connectant des réseaux de différentes technologies.)

Pour déterminer automatiquement la configuration active initiale de l'arborescence, tous les commutateurs du réseau, après leur initialisation, commencent à échanger périodiquement des paquets spéciaux appelés Bridge Protocol Data Units (BPDU), ce qui reflète le fait que l'algorithme STA a été développé à l'origine pour les ponts.

Les BPDU sont placées dans le champ de données des trames de couche liaison telles que les trames Ethernet ou FDDI. Il est souhaitable que tous les commutateurs prennent en charge une adresse de multidiffusion commune, à travers laquelle des trames contenant des paquets BPDU peuvent être transmises simultanément à tous les commutateurs du réseau. Sinon, les BPDU sont diffusées.

Le BPDU a les champs suivants :

Identifiant de version du protocole STA - 2 octets. Les commutateurs doivent prendre en charge la même version du protocole STA, sinon une configuration active avec des boucles peut être établie.

Le type de BPDU est de 1 octet. Il existe deux types de BPDU : une BPDU de configuration, c'est-à-dire une application permettant de devenir un commutateur racine, sur la base de laquelle la configuration active est déterminée, et une BPDU de notification de reconfiguration, qui est envoyée par un commutateur qui détecte un événement. qui nécessite une reconfiguration - échec de liaison, échec de port, changement de priorités de commutateur ou de ports.

Drapeaux - 1 octet. Un bit contient l'indicateur de changement de configuration, le second bit - l'indicateur de confirmation de changement de configuration.

ID du commutateur racine - 8 octets.

♦ La distance à la racine est de 2 octets.

ID de commutateur - 8 octets.

ID de port - 2 octets.

♦ La durée de vie du message est de 2 octets. Mesurée en unités de 0,5 s, elle est utilisée pour identifier les messages obsolètes. Lorsqu'une BPDU traverse un commutateur, le commutateur ajoute le temps de retard du commutateur à la durée de vie du paquet.

La durée de vie maximale des messages est de 2 octets. Si un paquet BPDU a une durée de vie supérieure au maximum, il est ignoré par les commutateurs.

L'intervalle Hello auquel les paquets BPDU sont envoyés.

♦ Délai de changement d'état - 2 octets. Le temps minimum pour que les ports du commutateur deviennent actifs. Ce délai est nécessaire pour exclure la possibilité d'émergence temporaire de routes alternatives en cas de changement non simultané des états des ports lors de la reconfiguration.

Il manque tous les champs de notification de reconfiguration, sauf les deux premiers.

Après l'initialisation, chaque commutateur se considère d'abord comme la racine. Par conséquent, il commence à générer des BPDU de type configuration via tous ses ports à chaque intervalle hello. Dans ceux-ci, il spécifie son identifiant comme identifiant du commutateur racine (et comme ce commutateur également), la distance à la racine est définie sur 0, et l'identifiant du port par lequel le BPDU est transmis est spécifié comme port identifiant. Dès qu'un commutateur reçoit une BPDU dont l'ID de commutateur racine est inférieur au sien, il arrête de générer ses propres trames BPDU et ne commence à relayer que les trames du nouveau concurrent de commutateur racine. Lors du relais de trames, il augmente la distance à la racine, indiquée dans la BPDU entrante, pendant le temps conditionnel du segment sur lequel cette trame a été reçue.

Lors du relais de trames, chaque commutateur pour chacun de ses ports mémorise la distance minimale à la racine, qui est rencontrée dans toutes les trames BPDU reçues par ce port. Lorsque vous terminez la configuration du spanning tree (au fil du temps), chaque commutateur trouve son port racine, le port le plus proche de la racine de l'arborescence. De plus, les commutateurs sélectionnent un port désigné pour chaque segment de réseau de manière distribuée. Pour ce faire, ils excluent leur port racine de la considération, et pour tous leurs ports restants, ils comparent les distances minimales à la racine acceptées pour eux avec la distance à la racine de leur port racine. Si votre port a cette distance inférieure à celle acceptée, cela signifie que c'est le port désigné. Tous les ports, à l'exception de ceux désignés, sont transférés à l'état bloqué, et c'est là que se termine la construction de l'arbre couvrant.

En fonctionnement normal, le commutateur racine continue de générer des trames de service et les autres commutateurs continuent de les recevoir sur leurs ports racine et de les relayer vers ceux désignés. Si le commutateur n'a pas de ports attribués, il accepte toujours les trames de service comme port racine. Si le port racine ne reçoit pas de trame de service après l'expiration du délai, il lance une nouvelle procédure de construction de spanning tree.

Méthodes de contrôle de flux de trames

Certains fabricants utilisent des techniques de contrôle de flux de trames qui ne sont pas disponibles dans les normes de protocole LAN dans leurs commutateurs pour empêcher la perte de trames due à l'encombrement.

Étant donné que les pertes, même une petite fraction de trames, réduisent généralement considérablement les performances utiles du réseau, lorsque le commutateur est surchargé, il serait rationnel de ralentir le débit des trames entrantes des nœuds d'extrémité vers les récepteurs du commutateur afin de permettre les émetteurs de décharger leurs tampons à un débit plus élevé. L'algorithme d'entrelacement des trames transmises et reçues (frame interleave) doit être flexible et permettre à l'ordinateur dans des situations critiques d'en émettre plusieurs pour chaque trame reçue, sans nécessairement réduire l'intensité de réception à zéro, mais simplement en la réduisant à la valeur requise. niveau.

Pour mettre en œuvre un tel algorithme, le commutateur doit disposer d'un mécanisme permettant de réduire l'intensité du trafic des nœuds connectés à ses ports. Certains protocoles LAN tels que FDDI, Token Ring ou lOOVG-AnyLAN ont la possibilité de modifier la priorité du port et de donner ainsi la priorité au port du commutateur sur le port de l'ordinateur. Les protocoles Ethernet et Fast Ethernet n'ayant pas cette capacité, les fabricants de commutateurs pour ces technologies très populaires utilisent deux méthodes pour influencer les nœuds d'extrémité.

Ces techniques sont basées sur le fait que les nœuds d'extrémité adhèrent strictement à tous les paramètres de l'algorithme d'accès au support, mais pas les ports de commutation.

La première méthode de "freinage" du nœud d'extrémité repose sur le comportement dit agressif du port de commutation lors de la capture du support après la fin de la transmission du paquet suivant ou après une collision.

Le commutateur peut utiliser ce mécanisme de manière adaptative, augmentant son agressivité selon les besoins.

La deuxième technique utilisée par les développeurs de commutateurs consiste à envoyer des trames factices à un ordinateur lorsque le commutateur n'a pas de trames dans sa mémoire tampon à transmettre sur un port donné. Dans ce cas, le commutateur ne peut pas violer les paramètres de l'algorithme d'accès, rivalisant honnêtement avec le nœud d'extrémité pour le droit de transmettre sa trame. Étant donné que l'environnement dans ce cas est également susceptible d'être à la disposition du commutateur ou du nœud d'extrémité, l'intensité de la transmission de trames vers le commutateur sera, en moyenne, réduite de moitié. Cette méthode est appelée méthode de contre-pression. Il peut être associé à une capture de média agressive pour supprimer davantage l'activité des nœuds d'extrémité.

La méthode de contre-pression est utilisée non pas pour décharger le buffer processeur du port directement connecté au nœud supprimé, mais pour décharger soit le buffer commun du switch (si l'architecture à mémoire partagée partagée est utilisée), soit pour décharger le buffer processeur d'un autre port vers lequel ce port transmet ses trames... De plus, la méthode de contre-pression peut être utilisée dans les cas où le processeur de port n'est pas conçu pour prendre en charge le trafic maximum possible pour le protocole. L'un des premiers exemples d'application de la méthode de contre-pression est lié à un tel cas - la méthode a été appliquée par LANNET dans les modules LSE-1 et LSE-2, conçus pour commuter le trafic Ethernet avec un débit maximum de 1 Mb / s et 2 Mb/s, respectivement.

Capacités de filtrage du trafic des commutateurs

De nombreux commutateurs permettent aux administrateurs de spécifier des conditions de filtrage de trame supplémentaires en plus des conditions de filtrage de trame standard en fonction des informations de la table d'adresses. Les filtres personnalisés sont conçus pour créer des barrières supplémentaires dans le chemin des trames, qui restreignent l'accès de certains groupes d'utilisateurs à certains services sur le réseau.

Si le commutateur ne prend pas en charge les protocoles des couches réseau et transport, dans lesquels il existe des champs indiquant à quel service appartiennent les paquets transmis, alors l'administrateur doit déterminer le champ par la valeur duquel le filtrage doit être effectué afin de fixer les conditions d'un filtrage intelligent, sous la forme d'un couple "offset-size" par rapport au début du champ de données de la trame de couche liaison. Ainsi, par exemple, afin d'interdire à un certain utilisateur d'imprimer ses documents sur un serveur d'impression NetWare spécifique, l'administrateur doit connaître la position du champ "numéro de socket" dans le paquet IPX et la valeur de ce champ pour l'impression. service, ainsi que connaître l'adresse MAC de l'ordinateur de l'utilisateur et du serveur d'impression.

En règle générale, les conditions de filtre sont écrites sous forme d'expressions booléennes formées à l'aide des opérations logiques AND et OR.

L'imposition de conditions de filtrage supplémentaires peut réduire les performances du commutateur, car le calcul des expressions booléennes nécessite des calculs supplémentaires par les processeurs de port.

En plus des conditions générales, les commutateurs peuvent prendre en charge des conditions de filtrage spéciales. L'un des types de filtres spéciaux les plus populaires sont les filtres qui créent des segments virtuels.

Le filtre utilisé par de nombreux fabricants pour protéger un réseau à commutation est également spécial.

Commutation à la volée ou en mémoire tampon

La capacité à mettre en œuvre des fonctions supplémentaires est considérablement affectée par la manière dont les paquets sont transmis - "à la volée" ou avec mise en mémoire tampon. Comme le montre le tableau suivant, la plupart des fonctionnalités avancées du commutateur nécessitent une mise en mémoire tampon complète des trames avant qu'elles ne soient émises via le port de destination sur le réseau.

La latence moyenne des commutateurs fonctionnant "à la volée" sous forte charge s'explique par le fait que dans ce cas le port de sortie est souvent occupé à recevoir un autre paquet, donc le paquet nouvellement arrivé pour ce port doit encore être mis en mémoire tampon.

Un commutateur à la volée peut vérifier l'inexactitude des trames transmises, mais il ne peut pas récupérer une mauvaise trame du réseau, car certains de ses octets (et, en règle générale, la plupart d'entre eux) ont déjà été transférés sur le réseau . Dans le même temps, avec une faible charge, le commutateur fonctionnant "à la volée" réduit considérablement le délai de transfert de trame, ce qui peut être important pour le trafic sensible au délai. Par conséquent, certains fournisseurs, tels que Cisco, utilisent un mécanisme de changement de mode de commutation adaptatif. Le mode principal d'un tel commutateur est la commutation à la volée, mais le commutateur surveille en permanence le trafic et si l'intensité des mauvaises trames dépasse un certain seuil, il passe en mise en mémoire tampon complète.

Utilisation de différentes classes de service

Cette fonctionnalité permet à l'administrateur d'affecter différentes priorités de traitement à différents types de trames. Dans ce cas, le commutateur prend en charge plusieurs files d'attente de trames brutes et peut être configuré, par exemple, pour qu'il transmette un paquet à faible priorité pour 10 paquets à haute priorité. Cette fonctionnalité peut être particulièrement utile sur les lignes à faible vitesse et les applications avec des exigences de latence variables.

Étant donné que tous les protocoles de couche liaison ne prennent pas en charge le champ de priorité de trame, par exemple, les trames Ethernet ne l'ont pas, le commutateur doit utiliser un mécanisme supplémentaire pour associer la trame à sa priorité. La méthode la plus courante consiste à attribuer la priorité aux ports du commutateur. Avec cette méthode, le commutateur place la trame dans une file d'attente de trames de priorité appropriée, en fonction du port par lequel la trame est parvenue au commutateur. La méthode est simple, mais pas assez flexible - si ce n'est pas un nœud séparé, mais qu'un segment est connecté au port du commutateur, alors tous les nœuds du segment reçoivent la même priorité. La technologie PACE de 3Com est un exemple d'approche de classe de service basée sur les ports.

Il est plus flexible d'attribuer des priorités aux adresses MAC des nœuds, mais cette méthode nécessite beaucoup de travail manuel de la part de l'administrateur.

Prise en charge des réseaux virtuels

En plus de son objectif principal - augmenter le débit des liens dans le réseau - le switch permet de localiser les flux d'informations dans le réseau, ainsi que de contrôler et gérer ces flux à l'aide de filtres personnalisés. Cependant, un filtre personnalisé peut interdire la transmission de trames uniquement à des adresses spécifiques et il transmet le trafic de diffusion à tous les segments du réseau. Cela nécessite l'algorithme de fonctionnement du pont, qui est implémenté dans le commutateur. Par conséquent, les réseaux créés sur la base de ponts et de commutateurs sont parfois appelés plats - en raison de l'absence de barrières sur le chemin du trafic de diffusion.

La technologie Virtual LAN (VLAN) surmonte cette limitation.

Un réseau virtuel est un groupe de nœuds de réseau dont le trafic, y compris le trafic de diffusion, est complètement isolé des autres nœuds du réseau au niveau de la liaison. Cela signifie que la transmission de trames entre différents segments virtuels sur la base de l'adresse de la couche liaison n'est pas possible, quel que soit le type d'adresse - unique, multicast ou broadcast. Dans le même temps, au sein du réseau virtuel, les trames sont transmises à l'aide de la technologie de commutation, c'est-à-dire uniquement vers le port associé à l'adresse de destination de la trame.

On dit qu'un réseau virtuel forme un domaine de diffusion, similaire au domaine de collision généré par les répéteurs Ethernet.

Le but de la technologie de réseautage virtuel est de faciliter la création de réseaux indépendants, qui doivent ensuite être connectés à l'aide de protocoles de couche réseau. Pour résoudre ce problème, avant l'avènement de la technologie des réseaux virtuels, des répéteurs séparés étaient utilisés, chacun formant un réseau indépendant. Ensuite, ces réseaux ont été connectés par des routeurs en un seul inter-réseau.

Lors de la modification de la composition des segments (basculement d'un utilisateur vers un autre réseau, découpage de gros segments) avec cette approche il est nécessaire de reconnecter physiquement les connecteurs sur les faces avant des répéteurs ou dans les panneaux croisés, ce qui n'est pas très pratique dans les grands réseaux - beaucoup de travail physique, en plus, il y a une forte probabilité d'erreur ...

Par conséquent, pour éliminer le besoin de re-commutation physique des uhts, des répéteurs multi-segments ont commencé à être utilisés. Dans les modèles les plus avancés de ces répéteurs, l'attribution d'un port distinct à l'un des segments internes se fait par programmation, généralement à l'aide d'une interface graphique pratique. Des exemples de tels répéteurs sont le Distributed 5000 de Bay Networks et le PortSwitch de 3Com. L'affectation logicielle d'un port à un segment est souvent appelée commutation statique ou de configuration.

Cependant, résoudre le problème de la modification de la composition des segments à l'aide de répéteurs impose certaines restrictions sur la structure du réseau - le nombre de segments d'un tel répéteur est généralement faible, il est donc irréaliste d'attribuer son propre segment à chaque nœud, comme cela peut être fait à l'aide d'un interrupteur. Par conséquent, les réseaux construits sur la base de répéteurs à configuration commutée sont toujours basés sur la séparation du support de transmission entre un grand nombre de nœuds et, par conséquent, ont des performances bien inférieures à celles des réseaux construits sur la base de commutateurs.

Lors de l'utilisation de la technologie de réseau virtuel dans les commutateurs, deux tâches sont résolues simultanément :

♦ augmentation des performances dans chacun des réseaux virtuels, puisque le commutateur ne transmet des trames dans un tel réseau qu'au nœud destinataire ;

♦ isoler les réseaux les uns des autres pour gérer les droits d'accès des utilisateurs et créer des barrières de protection contre les tempêtes de diffusion.

La connexion des réseaux virtuels à l'interréseau nécessite l'implication de la couche réseau. Il peut être implémenté dans un routeur séparé, ou il peut fonctionner dans le cadre du logiciel de commutation.

La technologie de formation et d'exploitation de réseaux virtuels utilisant des commutateurs n'a pas encore été normalisée, bien qu'elle soit mise en œuvre dans une très large gamme de modèles de commutateurs de différents fabricants. La situation pourrait bientôt changer si la norme 802.1Q, développée dans le cadre du SHEE Institute, est adoptée.

En raison de l'absence de norme, chaque fabricant dispose de sa propre technologie de réseau virtuel, qui est généralement incompatible avec la technologie d'autres fabricants. Par conséquent, les réseaux virtuels peuvent toujours être créés sur des équipements d'un seul fabricant. Les seules exceptions sont les réseaux virtuels construits sur la base de la spécification LANE (LAN Emulation), conçus pour assurer l'interaction des commutateurs ATM avec les équipements LAN traditionnels.

Lors de la création de réseaux virtuels à partir d'un seul commutateur, il est courant d'utiliser le mécanisme de jonction dans le réseau de ports de commutateur.

C'est logique, car il ne peut pas y avoir plus de réseaux virtuels construits sur la base d'un commutateur que de ports. Si un segment construit sur la base d'un répéteur est connecté à un port, cela n'a aucun sens d'inclure les nœuds d'un tel segment dans différents réseaux virtuels - tout de même, le trafic de ces nœuds sera commun.

La création de réseaux virtuels basés sur le port trunking ne nécessite pas beaucoup de travail manuel de la part de l'administrateur - il suffit d'affecter chaque port à plusieurs réseaux virtuels pré-nommés. En règle générale, cela se fait en faisant glisser et en déposant des graphiques de port sur des graphiques de réseau.

La seconde méthode, qui est utilisée pour former des réseaux virtuels, est basée sur le regroupement d'adresses MAC. S'il y a un grand nombre de nœuds dans le réseau, cette méthode nécessite un grand nombre d'opérations manuelles de la part de l'administrateur. Cependant, il s'avère plus flexible dans la construction de réseaux virtuels basés sur plusieurs commutateurs que l'agrégation de ports.

Le problème qui se pose lors de la création de réseaux virtuels basés sur plusieurs commutateurs qui prennent en charge la technique du port trunking est le suivant : si les nœuds d'un réseau virtuel sont connectés à différents commutateurs, alors pour connecter les commutateurs de chacun de ces réseaux, sa propre paire de ports doit être alloué. Sinon, si les commutateurs sont connectés par une seule paire de ports, les informations sur la trame appartenant à un réseau virtuel particulier seront perdues lors de la transmission du commutateur au commutateur. Ainsi, les commutateurs à agrégation de ports nécessitent autant de ports pour leur connexion que le nombre de réseaux virtuels qu'ils prennent en charge. Les ports et les câbles sont ainsi utilisés avec beaucoup de gaspillage. De plus, lors de la connexion de réseaux virtuels via un routeur, chaque réseau virtuel se voit alors attribuer un câble distinct, ce qui rend le câblage vertical difficile, surtout si les hôtes du réseau virtuel sont présents sur plusieurs étages.

Le regroupement d'adresses MAC dans un réseau sur chaque commutateur élimine le besoin de plusieurs ports pour les connecter, mais nécessite de nombreuses opérations manuelles pour marquer les adresses MAC sur chaque commutateur du réseau.

Les deux approches décrites sont basées uniquement sur l'ajout d'informations supplémentaires aux tables d'adresses du pont et n'utilisent pas la possibilité d'intégrer des informations sur l'appartenance de la trame au réseau virtuel dans la trame transmise. D'autres approches utilisent des champs existants ou supplémentaires de la trame pour préserver les informations et la propriété de la trame lorsqu'elle se déplace entre les commutateurs de réseau. Dans ce cas, il n'est pas nécessaire de retenir dans chaque commutateur l'appartenance de toutes les adresses MAC de l'inter-réseau à des réseaux virtuels.

Si un champ supplémentaire marqué du numéro de réseau virtuel est utilisé, il n'est utilisé que lorsque la trame est transmise du commutateur au commutateur, et lorsque la trame est transmise au nœud d'extrémité, elle est supprimée. Cela modifie le protocole d'interaction commutateur à commutateur, tandis que le logiciel et le matériel des nœuds d'extrémité restent inchangés. Il existe de nombreux exemples de tels protocoles propriétaires, mais ils ont un inconvénient commun : ils ne sont pas pris en charge par d'autres fabricants. Cisco a proposé d'utiliser l'en-tête 802.10 comme module complémentaire standard à n'importe quelle trame de protocole LAN pour prendre en charge les fonctionnalités de sécurité du réseau. L'entreprise elle-même utilise cette méthode dans les cas où les commutateurs sont interconnectés à l'aide du protocole FDDI. Cependant, cette initiative n'a pas été prise en charge par les autres principaux fabricants de commutateurs, de sorte que les protocoles de marquage VLAN propriétaires prévaudront jusqu'à l'adoption de la norme 802.1Q.

Il existe deux manières de construire des réseaux virtuels, qui utilisent les champs existants pour marquer l'appartenance d'une trame de réseau virtuel, cependant, ces champs n'appartiennent pas à des trames de protocoles de canal, mais à des paquets de couche réseau ou à des cellules de technologie ATM.

Dans le premier cas, les réseaux virtuels sont formés sur la base d'adresses réseau, c'est-à-dire les mêmes informations que celles utilisées lors de la construction d'Internet de manière traditionnelle - en utilisant des réseaux physiquement séparés connectés à différents ports du routeur.

Lorsqu'un réseau virtuel est créé sur la base de numéros de réseau, chaque port du commutateur se voit attribuer un ou plusieurs numéros de réseau, tels que des numéros de réseau IP. Chaque numéro de réseau IP correspond à un réseau virtuel. Les nœuds d'extrémité doivent également prendre en charge IP dans ce cas. Lors de la transmission de trames entre des nœuds appartenant au même réseau virtuel, les nœuds d'extrémité envoient des données directement à l'adresse MAC du nœud de destination, et indiquent l'adresse IP de leur réseau virtuel dans le paquet de couche réseau. Dans ce cas, le commutateur transmet des trames en fonction de l'adresse MAC de destination dans la table d'adresses, vérifiant la validité des transmissions en faisant correspondre le numéro IP du réseau de paquets contenu dans la trame et l'adresse IP du port de destination trouvée dans la table d'adresses. Lors de la transmission d'une trame d'un commutateur à un autre, son adresse IP est transportée avec la trame, ce qui signifie que les commutateurs peuvent être connectés avec une seule paire de ports pour prendre en charge des réseaux virtuels répartis entre plusieurs commutateurs.

Dans le cas où il est nécessaire d'échanger des informations entre des nœuds appartenant à des réseaux virtuels différents, le nœud d'extrémité fonctionne comme s'il se trouvait dans des réseaux séparés par un routeur régulier. Le nœud final transmet la trame au routeur par défaut en spécifiant son adresse MAC dans la trame et l'adresse IP de destination dans le paquet de couche réseau. Le routeur par défaut doit être l'unité intérieure du commutateur, qui possède une adresse MAC et une adresse IP spécifiques, tout comme un routeur traditionnel. De plus, il doit avoir une table de routage qui spécifie le port de sortie pour tous les numéros de réseau qui existent sur l'interréseau partagé.

Contrairement aux routeurs traditionnels, qui ont un numéro de réseau différent pour chaque port, les commutateurs qui prennent en charge le protocole réseau pour la mise en réseau virtuelle attribuent le même numéro de réseau à plusieurs ports. De plus, le même port peut être associé à plusieurs numéros de réseau si les commutateurs communiquent via celui-ci.

Souvent, les commutateurs ne prennent pas en charge les fonctionnalités de table de routage automatique prises en charge par les protocoles de routage tels que RIP ou OSPF. Ces commutateurs sont appelés commutateurs de couche 3 pour souligner leur distinction par rapport aux routeurs traditionnels. Lors de l'utilisation de commutateurs de 3e niveau, les tables de routage sont soit créées manuellement par l'administrateur (cela est également souvent acceptable avec un petit nombre de réseaux virtuels et la route par défaut vers un routeur à part entière), soit chargées depuis le routeur. Selon ce dernier schéma, le commutateur Catalist 5000 de Cisco interagit avec les routeurs de la même entreprise.

Si le commutateur ne prend pas en charge les fonctions de couche réseau, ses réseaux virtuels ne peuvent être connectés qu'à l'aide d'un routeur externe. Certaines entreprises fabriquent des routeurs spéciaux à utiliser avec des commutateurs. Un exemple d'un tel routeur est le routeur Vgate de RND.

Ce routeur possède un port physique pour communiquer avec un port de commutateur, mais ce port peut prendre en charge jusqu'à 64 adresses MAC, ce qui permet au routeur d'agréger jusqu'à 64 VLAN.

La dernière méthode d'organisation des réseaux virtuels est associée à l'utilisation de commutateurs ATM dans le réseau. Cette méthode repose sur l'utilisation d'une liaison virtuelle distincte pour chaque VLAN sur les commutateurs ATM pour transmettre des trames.

Gestion de réseau commuté

Les commutateurs sont des dispositifs multifonctionnels complexes qui jouent un rôle essentiel dans les réseaux d'aujourd'hui. Par conséquent, la prise en charge des fonctions de contrôle et de gestion centralisées mises en œuvre par SNMP et les agents correspondants est presque obligatoire pour toutes les classes de commutateurs (sauf, peut-être, les commutateurs de bureau conçus pour fonctionner dans de très petits réseaux).

Pour prendre en charge la gestion SNMP, les commutateurs disposent d'un module de gestion qui contient un agent qui gère une base de données d'informations de gestion. Ce module est souvent exécuté sur un processeur distinct et puissant afin de ne pas ralentir les opérations de commutation de base.

Surveillance du trafic

Étant donné que la surcharge des processeurs de port et d'autres éléments de traitement du commutateur peut entraîner une perte de trames, la surveillance de la distribution du trafic dans un réseau à commutation est très importante.

Cependant, si le commutateur lui-même n'a pas d'agent distinct pour chacun de ses ports, la tâche de surveillance du trafic, traditionnellement résolue dans les réseaux avec des environnements partagés en installant un analyseur de protocole externe dans le réseau, devient très compliquée.

En règle générale, dans les réseaux traditionnels, un analyseur de protocole (tel que Network General's Sniffer) se connecte à un port libre sur un concentrateur et voit tout le trafic passant entre tous les nœuds du réseau.

Si l'analyseur de protocole est connecté à un port libre du commutateur, il ne verra presque rien, car personne ne lui transmettra de trames et les trames des autres ne seront pas non plus envoyées sur son port. Le seul type de trafic que l'analyseur verra est le trafic des paquets de diffusion, qui seront transmis à tous les nœuds du réseau. Dans le cas où le réseau est divisé en réseaux virtuels, l'analyseur de protocole ne verra que le trafic de diffusion de son réseau virtuel.

Pour garantir que les analyseurs de protocoles peuvent continuer à être utilisés dans les réseaux commutés, les fabricants de commutateurs fournissent à leurs appareils la fonction de mettre en miroir le trafic de n'importe quel port vers un port spécial. Un analyseur de protocole est connecté à un port dédié, puis une commande est envoyée au commutateur via son module de gestion SNMP pour mapper le trafic d'un port vers un port spécifique.

La mise en miroir des ports résout en partie le problème, mais laisse quelques questions. Par exemple, comment afficher le trafic sur deux ports en même temps, ou comment afficher le trafic sur un port qui fonctionne en mode duplex intégral.

Un moyen plus fiable de surveiller le trafic via les ports du commutateur consiste à remplacer l'analyseur de protocole par des agents RMON MIB pour chaque port du commutateur.

L'agent RMON exécute toutes les fonctions d'un bon analyseur de protocole pour les protocoles Ethernet et Token Ring, en collectant des informations détaillées sur l'intensité du trafic, les différents types de trames erronées, les trames perdues et en créant indépendamment des séries temporelles pour chaque paramètre enregistré. De plus, l'agent RMON peut construire indépendamment des matrices de trafic croisé entre les nœuds du réseau, ce qui est très nécessaire pour analyser l'efficacité de l'utilisation du commutateur.

Étant donné que l'agent RMON qui implémente les 9 groupes d'objets Ethernet est très coûteux, les fournisseurs n'implémentent souvent que les premiers groupes d'objets RMON MIB pour réduire le coût d'un commutateur.

Gestion de réseau virtuel

Les réseaux virtuels posent des problèmes aux systèmes de gestion traditionnels basés sur SNMP, à la fois dans leur création et dans la surveillance de leur fonctionnement.

En règle générale, pour créer des réseaux virtuels, vous avez besoin d'un logiciel spécial du fabricant, qui s'exécute sur une plate-forme de système de gestion, telle que, par exemple, HP Open View. Les plates-formes de systèmes de contrôle elles-mêmes ne peuvent pas prendre en charge ce processus, principalement en raison de l'absence de norme pour les réseaux virtuels. On espère que l'émergence de la norme 802.1Q changera la donne dans ce domaine.

La surveillance des réseaux virtuels pose également des défis aux systèmes de contrôle traditionnels. Lors de la création d'une carte de réseau comprenant des réseaux virtuels, il est nécessaire d'afficher à la fois la structure physique du réseau et sa structure logique correspondant aux connexions des nœuds individuels du réseau virtuel. Dans le même temps, à la demande de l'administrateur, le système de contrôle doit pouvoir afficher la correspondance des liens logiques et physiques dans le réseau, c'est-à-dire que tous ou des chemins individuels de réseaux virtuels doivent être affichés sur un canal physique.

Malheureusement, de nombreux systèmes de contrôle n'affichent pas du tout les réseaux virtuels ou le font d'une manière très gênante pour l'utilisateur.

Applications de commutation typiques

Commutateur ou concentrateur ?

Lors de la construction de petits réseaux qui constituent le niveau inférieur de la hiérarchie des réseaux d'entreprise, la question de l'utilisation de l'un ou l'autre des dispositifs de communication se réduit à la question de choisir entre un concentrateur ou un commutateur.

Il y a plusieurs facteurs à considérer pour répondre à cette question. Bien sûr, le coût du port, qui doit être payé lors du choix d'un appareil, n'est pas négligeable. Pour des raisons techniques, il faut tout d'abord prendre en compte l'existence de

répartition du trafic entre les nœuds du réseau. De plus, il faut tenir compte des perspectives de développement du réseau : si des applications multimédias seront bientôt utilisées, si le parc informatique sera modernisé. Si tel est le cas, il est alors nécessaire aujourd'hui de prévoir des réserves pour le débit des équipements de communication usagés. L'utilisation de la technologie intranet entraîne également une augmentation du volume de trafic circulant dans le réseau, et cela doit également être pris en compte lors du choix d'un appareil.

Lorsque vous choisissez le type de périphérique - un concentrateur ou un commutateur - vous devez également déterminer le type de protocole que ses ports prendront en charge (ou les protocoles, si nous parlons d'un commutateur, car chaque port peut prendre en charge un protocole distinct).

Aujourd'hui le choix se fait entre les protocoles à deux vitesses - 10 Mb/s et 100 Mb/s. Par conséquent, lors de la comparaison de l'applicabilité d'un concentrateur ou d'un commutateur, il est nécessaire d'envisager l'option d'un concentrateur avec des ports 10 Mb / s, une option de concentrateur avec des ports 100 Mb / s et plusieurs options de commutateurs avec différentes combinaisons vitesses sur ses ports.

En utilisant une technique de matrice de trafic croisé pour analyser les performances d'un commutateur, vous pouvez évaluer si un commutateur avec des capacités de port connues et des performances globales peut gérer le trafic sur le réseau, défini comme une matrice de taux de trafic moyens.

Considérons maintenant cette technique pour répondre à la question de l'applicabilité du switch dans un réseau avec un serveur et plusieurs postes de travail communiquant uniquement avec le serveur. Cette configuration réseau est courante sur les réseaux à l'échelle du groupe de travail, en particulier sur les réseaux NetWare, où les shells clients standard ne peuvent pas communiquer entre eux.

La matrice de trafic croisé pour un tel réseau est dégénérée. Si le serveur est connecté, par exemple, au port 4, alors seule la 4ème ligne de la matrice et la 4ème colonne de la matrice auront des valeurs non nulles. Ces valeurs correspondent au trafic sortant et entrant sur le port auquel le serveur est connecté. Par conséquent, les conditions d'applicabilité du commutateur pour un réseau donné se réduisent à la possibilité de transmettre tout le trafic réseau par le port du commutateur auquel le serveur est connecté.

Si le commutateur a tous les ports avec la même bande passante, par exemple 10 Mb/s, alors la bande passante du port de 10 Mb/s sera partagée entre tous les ordinateurs du réseau. Les possibilités du commutateur d'augmenter le débit global du réseau ne sont pas revendiquées pour une telle configuration. Malgré la micro-segmentation du réseau, sa bande passante est limitée par la bande passante du protocole d'un port, comme dans le cas d'un hub avec des ports 10 Mb/s. Un petit gain lors de l'utilisation d'un commutateur ne sera obtenu qu'en réduisant le nombre de collisions - au lieu de collisions, les trames seront simplement mises en file d'attente vers l'émetteur du port du commutateur auquel le serveur est connecté.

Pour que le switch fonctionne plus efficacement dans les réseaux avec serveur dédié, les fabricants de switch commercialisent des modèles avec un port haut débit 100 Mb/s pour connecter un serveur et plusieurs ports bas débit 10 Mb/s pour connecter les postes de travail. Dans ce cas, 100 Mb/s sont déjà répartis entre les postes de travail, ce qui permet de desservir 10 à 30 stations en mode non bloquant, en fonction de l'intensité du trafic généré par celles-ci.

Cependant, un tel commutateur peut rivaliser avec un hub qui supporte un protocole avec une bande passante de 100 Mb/s, par exemple Fast Ethernet. Son coût par port sera légèrement inférieur au coût d'un port de commutateur avec un port haut débit, et les performances du réseau sont à peu près les mêmes.

Evidemment, le choix d'un dispositif de communication pour un réseau avec un serveur dédié est assez difficile. Pour prendre une décision définitive, il faut prendre en compte les perspectives de développement du réseau par rapport au passage à l'équilibre du trafic. Si le réseau peut bientôt avoir une interaction entre des postes de travail, ou un second serveur, alors le choix doit être fait en faveur d'un commutateur pouvant supporter un trafic supplémentaire sans préjudice du principal.

Le facteur distance peut également jouer en faveur du commutateur - l'utilisation de commutateurs ne limite pas le diamètre maximal du réseau à 2500 m ou 210 m, qui déterminent la taille du domaine de collision lors de l'utilisation de hubs Ethernet et Fast Ethernet.

Switch ou routeur ?

Lors de la construction des niveaux supérieurs de l'épine dorsale de la hiérarchie du réseau d'entreprise, le problème du choix est formulé différemment : un commutateur ou un routeur ?

Le commutateur transfère le trafic entre les nœuds du réseau plus rapidement et à moindre coût, mais le routeur filtre plus intelligemment le trafic lorsque les réseaux sont connectés, n'autorisant pas les paquets inutiles ou défectueux, et protégeant également de manière fiable les réseaux contre les tempêtes de diffusion.

Étant donné que les commutateurs d'entreprise peuvent prendre en charge certaines fonctions de la couche réseau, le choix se porte de plus en plus en faveur d'un commutateur. Dans ce cas, le routeur est également utilisé, mais il reste souvent dans le réseau local en une seule copie. Ce routeur sert généralement à la fois à connecter le réseau local aux réseaux mondiaux et à combiner des réseaux virtuels construits à l'aide de commutateurs.

Au centre des réseaux d'immeubles et d'étages, les commutateurs sont de plus en plus utilisés, car ce n'est qu'en les utilisant qu'il est possible de transférer plusieurs gigabits d'informations par seconde à un prix abordable.

Backbone lié sur un commutateur

Avec toute la variété de schémas structurels des réseaux construits sur des commutateurs, ils utilisent tous deux structures de base - une épine dorsale tirée en un point et une épine dorsale distribuée. Sur la base de ces structures de base, diverses structures de réseaux spécifiques sont ensuite construites.

Une dorsale réduite est une structure dans laquelle des nœuds, des segments ou des réseaux sont agrégés sur la dorsale interne d'un commutateur.

L'avantage de cette structure est la haute performance de la ligne. Puisqu'il n'est pas rare qu'un commutateur effectue quelques Gb/s via le bus interne ou des circuits de mémoire partagée combinant des modules de ports, le backbone du réseau peut être très rapide, et sa vitesse ne dépend pas des protocoles utilisés dans le réseau et peut être augmenté en remplaçant un modèle de commutateur par un autre.

Une caractéristique positive de ce schéma est non seulement la vitesse élevée de la ligne, mais aussi son indépendance du protocole. Sur la dorsale interne du commutateur dans un format indépendant, les données de divers protocoles, par exemple Ethernet, FDDI et Fast Ethernet, peuvent être transmises simultanément. La connexion d'un nouveau nœud avec un nouveau protocole nécessite souvent de ne pas remplacer un commutateur, mais simplement d'ajouter un module d'interface approprié prenant en charge ce protocole.

Si un seul nœud est connecté à chaque port de commutateur dans un tel schéma, alors un tel schéma correspondra à un réseau micro-segmenté.

Backbone distribué sur les commutateurs

Dans les réseaux de grands bâtiments ou de campus, l'utilisation d'une structure dorsale effondrée n'est pas toujours rationnelle ou possible. Cette structure conduit à des systèmes de câblage étendus qui relient les nœuds d'extrémité ou les commutateurs des réseaux de groupe de travail à un commutateur central, dont le bus est l'épine dorsale du réseau. La densité élevée des câbles et leur coût élevé limitent l'utilisation d'un backbone point à point dans de tels réseaux. Parfois, en particulier dans les réseaux de campus, il est tout simplement impossible de regrouper tous les câbles dans une seule pièce en raison des limitations de la longueur des connexions imposées par la technologie (par exemple, toutes les implémentations de technologies LAN sur des câbles à paires torsadées limitent la longueur des câbles à 100 m).

Par conséquent, dans les réseaux locaux couvrant de vastes zones, une autre option pour construire un réseau est souvent utilisée - avec une dorsale distribuée.

Une dorsale distribuée est un segment de réseau partagé qui prend en charge un protocole spécifique auquel les commutateurs des réseaux de groupe de travail et de service sont connectés. A titre d'exemple, une dorsale distribuée est construite sur la base d'un double anneau FDDI, auquel les commutateurs d'étage sont connectés. Les commutateurs d'étage disposent d'un grand nombre de ports Ethernet qui traduisent le trafic en trafic FDDI lorsqu'il parcourt la dorsale d'étage en étage.

La dorsale distribuée simplifie les communications d'étage à étage, réduit les coûts de câblage et surmonte les contraintes de distance.

Cependant, la vitesse du tronc dans ce cas sera nettement inférieure à la vitesse du tronc sur le bus interne du commutateur. De plus, ce débit est fixe et ne dépasse actuellement pas les 100 Mb/s. Par conséquent, la dorsale distribuée ne peut être utilisée qu'avec une faible intensité de trafic entre les étages ou les bâtiments.

Modèles de commutateur

Le marché des commutateurs est aujourd'hui très vaste, c'est pourquoi, dans cette brève revue, nous nous concentrerons uniquement sur certains modèles populaires de commutateurs de différentes classes. En règle générale, les commutateurs sont principalement divisés en classes en fonction de leurs domaines d'utilisation : commutateurs de bureau, commutateurs de groupe de travail, commutateurs de service et backbone (commutateurs d'entreprise). Chaque classe de commutateur a ses propres caractéristiques distinctives.

Commutateurs de bureau

♦ nombre fixe de ports ;

Tous les ports fonctionnent à la même vitesse ;

♦ Utilisé pour organiser les communications peer-to-peer pour les postes de travail à haut débit ;

♦ Mode de commutation - "à la volée" ;

♦ Le plus souvent, ne contiennent pas de module de gestion SNMP et ne prennent pas non plus en charge l'algorithme Spanning Tree.

Exemple : 3Com LinkSwitch 500.

Commutateurs de groupe de travail

Disposer d'au moins 1 port haut débit (FDDI, Fast Ethernet, ATM) ;

♦ Protocoles de diffusion ;

♦ Généralement géré par SNMP, prise en charge de Spanning Tree ;

♦ Mode de commutation - tamponné.

Exemples : 3Com LinkSwitch Family (sauf modèle 500), SMC TigerSwitch XE, commutateur de groupe de travail Ethernet Bay Networks.

Commutateurs de département et de centre de données

Conception modulaire ;

♦ Prise en charge de plusieurs protocoles ;

♦ Capacités de basculement intégrées :

alimentations redondantes ;

modules remplaçables à chaud.

Filtres personnalisés ;

♦ Prise en charge des segments virtuels ;

Exemples : 3Com LANplex 2500, SMC ES/1, Bay Networks Lattis-Switch System 28115.

Commutateurs de tronc de bâtiment / campus

♦ Mêmes propriétés que les commutateurs de service ;

♦ Châssis avec un grand nombre d'emplacements (10 - 14);

♦ Bande passante interne 1 - 10 Gb/s ;

♦ Prend en charge 1-2 protocoles de routage (interfaces locales) pour former des réseaux virtuels.

Exemples : 3Com LANplex 6000, Cabletron ММАС Plus, LANNET LET-36, Cisco Catalist 5000, Bay Networks System 5000.

Commutateurs Catalyst de Cisco Systems

Le commutateur Catalyst 5000 est l'ancien modèle de la famille Catalyst. Il s'agit d'une plate-forme de commutation modulaire et multicouche qui offre un haut niveau de performances, offrant la possibilité de créer des connexions Ethernet dédiées à des vitesses de 10 et 100 Mb/s, ainsi qu'une interopérabilité avec les réseaux FDDI et ATM.

Le châssis Catalyst 5000 dispose de 5 emplacements. Le Supervisor Engine est installé dans un emplacement et contrôle l'accès à la structure capable de commuter plus d'un million de paquets par seconde. Le module prend en charge les fonctions de gestion locale et à distance et dispose de deux ports Fast Ethernet qui peuvent être utilisés pour connecter des serveurs réseau ou des périphériques Catalyst 5000 en cascade. Les emplacements restants peuvent être utilisés pour installer les modules suivants :

24 ports 10Base-T ;

♦ 12 ports 10Base-FL ;

12 ports 100Base-TX ;

12 ports 100Base-FX ;

♦ 1 port DAS CDDI / FDDI (pas plus de 3 modules dans un châssis) ;

♦ 1 port 155 Mb/s ATM (pas plus de 3 modules dans un châssis).

Un seul appareil Catalyst 5000 peut prendre en charge jusqu'à 96 ports Ethernet commutés et jusqu'à 50 ports Fast Ethernet commutés.

Il prend en charge la formation de réseaux virtuels à la fois au sein d'un seul appareil Catalyst 5000 et sur plusieurs appareils basés sur l'agrégation de ports. Vous pouvez créer jusqu'à 1 000 VLAN pour plusieurs appareils Catalyst 5000 connectés par des interfaces Fast Ethernet, CDDI/FDDI ou ATM. Toute interface Fast Ethernet peut être configurée en tant qu'interface InterSwitch Link (ISL) pour prendre en charge plusieurs réseaux virtuels. L'interface ISL est une solution propriétaire de Cisco pour le transfert d'informations entre les commutateurs sur les réseaux virtuels.

Tous les réseaux virtuels prennent en charge le protocole IEEE 802.Id Spanning Tree pour fournir des connexions résilientes. Lors de l'utilisation de l'interface ATM pour connecter des commutateurs, la prise en charge des réseaux virtuels est basée sur la spécification LANE sur les connexions virtuelles. L'interface FDDI prend en charge la mise en réseau virtuelle à l'aide de la spécification 802.10.

Une caractéristique distinctive des commutateurs Catalyst est la mise en œuvre de la commutation de couche 3 du modèle OSI, qui vous permet de combiner des réseaux virtuels au sein de l'appareil (cela nécessite un logiciel supplémentaire).

Le module de gestion de commutateur prend en charge trois niveaux de files d'attente de trames avec des priorités différentes, avec des priorités attribuées à chaque port séparément. Cela permet au trafic multimédia d'être servi efficacement.

Une grande mémoire tampon (192 Ko par port) assure le stockage et la transmission des informations lors des pics de charge.

Le système Catalyst 3000 est la mise en œuvre originale de l'architecture d'empilage pour les commutateurs. Cette architecture est supportée par deux types d'appareils :

♦ Commutateur Catalyst 3000 avec 16 ports 10Base-T, un port AUI et deux emplacements d'extension. Les modules d'extension peuvent avoir soit 1 port 100Base-TX, 3 ports 10Base-FL, 4 ports 10Base-T ou 1 port ATM. Le port de surveillance séquestre tout port de données sur le port externe.

♦ Matrice Catalyst — Une matrice de commutation à 8 ports pouvant empiler jusqu'à 8 commutateurs Catalyst 3000 pour créer un seul centre de commutation.

Les commutateurs Catalyst 3000 se connectent à la matrice Catalyst via des ports dédiés 280 Mbps. Les performances du bus Catalyst Matryx sont de 3,84 Gb/s.

Le commutateur fonctionne sur IOS et utilise deux algorithmes de commutation - cut-throw et store-and-forward.

La pile Catalyst 3000 prend en charge jusqu'à 64 réseaux virtuels et vous permet de filtrer le trafic en fonction des adresses source et de destination. Le nombre maximum d'adresses MAC est jusqu'à 10K par appareil.

L'algorithme Spanning Tree et la gestion SNMP sont pris en charge.

SMC EliteSwitch ES / 1

SMC Corp. (qui fait maintenant partie de l'activité Switch de Cabletron) a développé l'EliteSwitch ES / l comme un outil efficace pour construire une dorsale de réseau de taille moyenne. Le switch ES/1 combine les fonctions d'un switch Ethernet / Token Ring / FDDI hautes performances et d'un routeur local pour créer des réseaux virtuels IP et IPX basés sur des groupes de travail commutés virtuels. Ainsi, les fonctions de commutation et d'interconnexion sont combinées dans un seul appareil, ce qui est nécessaire pour construire un réseau local structuré basé sur le bus interne à grande vitesse. Le commutateur prend également en charge les connexions mondiales avec une topologie point à point sur des lignes T1 / E1, vous permettant de relier plusieurs réseaux locaux construits sur sa base les uns avec les autres.

Le commutateur ES/1 utilise la technologie de commutation à mémoire tampon, ce qui lui permet de diffuser des protocoles de couche liaison, d'effectuer un filtrage personnalisé, une collecte de statistiques et un routage local.

ES / 1 interrupteur d'organisation

Le SMC Modular Hub ES/1 est un appareil de type châssis avec une carte de communication arrière, sur laquelle un bus interne avec une performance de 800 Mb/s est réalisé. Le Packet Processing Engine comprend deux modules processeurs équipés de processeurs RISC AMD 29000 hautes performances. avec des masques saisis par l'administrateur et contrôle toute la logique de fonctionnement du hub. Les deux processeurs ont accès à 4 Mo de mémoire partagée.

Comme déjà noté, le module de traitement de paquets ES/1 est construit sur une architecture à double processeur, chaque processeur étant responsable de ses propres fonctions. Cependant, si l'un d'eux tombe en panne, le deuxième processeur reprendra toutes les fonctions du premier. Dans ce cas, le commutateur dans son ensemble continuera à fonctionner normalement et ses performances peuvent ne diminuer que légèrement.

La table d'adresses du concentrateur peut stocker jusqu'à 8192 adresses MAC.

Le logiciel qui contrôle le fonctionnement du concentrateur ES/1 est dupliqué dans deux banques de mémoire Flash. Premièrement, cela permet de mettre à niveau de nouvelles versions logicielles sans empêcher le concentrateur d'exécuter ses principales fonctions de commutation de paquets, et deuxièmement, un échec lors du chargement d'un nouveau logiciel depuis la banque de mémoire Flash n'entraînera pas la défaillance du concentrateur, puisque le logiciel de la première restera opérationnel et le hub le redémarrera automatiquement.

Des modules de communication réseau sont insérés dans les emplacements du hub, tandis que la technologie d'auto-configuration plug-and-play automatique est mise en œuvre. Chaque module est équipé de son propre processeur RISC, qui convertit les paquets entrants sous une forme indépendante du protocole (cela signifie que seuls le bloc de données, les adresses de destination et de source, ainsi que les informations sur le protocole réseau sont stockés) et les transfère ultérieurement via le bus interne à l'unité de traitement de paquets...

La tolérance aux pannes des modules est assurée par la présence dans chacun d'eux d'un capteur spécial qui envoie un avertissement à la console de l'opérateur lorsque la température approche d'une marque critique. Cela peut arriver, par exemple, en raison de filtres à air poussiéreux. Si la température continue d'augmenter et dépasse la deuxième valeur seuil, le module est automatiquement déconnecté de l'alimentation pour éviter d'endommager la base de l'élément. Lorsque la température baisse, le module continuera automatiquement à fonctionner.

Une caractéristique importante du concentrateur ES/1 est le système intégré de protection contre les tempêtes de diffusion. Le logiciel du concentrateur ES/1 permet de paramétrer la fréquence maximale d'arrivée de tels paquets sur chaque port concentrateur, en cas de dépassement de quels paquets de diffusion ne sont plus transmis aux autres segments du réseau, ce qui préserve leur opérabilité.

Filtrage et groupes de travail virtuels

Grâce au mécanisme de masquage des ports, l'administrateur peut créer des groupes de travail virtuels afin de se protéger contre les accès non autorisés et d'améliorer les performances du LAN en redistribuant les flux d'informations.

Le filtrage peut être activé sur les paquets entrants et/ou sortants, par adresse MAC, ou sur l'ensemble du segment, etc. Au total, le masque peut contenir jusqu'à 20 conditions, combinées par les opérandes booléens "ET" et "OU". Il est clair que chaque paquet arrivant sur le port de commutation doit en outre être vérifié pour la conformité aux conditions de filtrage, ce qui nécessite des ressources de calcul supplémentaires et peut conduire à une dégradation des performances. Le fait qu'en ES/1 un des deux processeurs soit dédié à la vérification des conditions de filtrage, assure que les performances du switch restent élevées lors de la saisie des masques par l'administrateur.

Outre les pannes d'équipement, les erreurs du personnel de maintenance peuvent perturber le bon fonctionnement du réseau local. On notera donc surtout un autre mode de filtrage virtuel intéressant du switch ES/1. Dans ce mode, le filtrage n'est pas physiquement activé, mais une collection de statistiques de paquets est conservée et satisfait aux conditions de filtrage. Cela permet à l'administrateur LAN de prédire ses actions à l'avance avant d'activer physiquement les filtres.

Modules de communication ES/1 Hub

ES/1 prend en charge jusqu'à cinq modules. Vous pouvez choisir n'importe quelle combinaison de modules pour Ethernet, Token Ring et FDDI, ainsi que des lignes haut débit T1/E1 et TK/E3. Tous les modules, y compris les alimentations, peuvent être remplacés sans déconnexion du secteur et sans couper l'alimentation de l'unité centrale. Chaque module prend en charge un ensemble de paramètres configurables pour améliorer la gérabilité et collecte des statistiques.

QEIOM (Module E/S Quad Ethernet)

Jusqu'à quatre segments Ethernet indépendants peuvent être connectés à ce module. Chaque segment peut transmettre et recevoir des informations à une performance Ethernet typique de 14880 paquets par seconde. ES/1 fournit un pontage et une connectivité de type routeur entre ces quatre segments, ainsi qu'avec le reste du réseau. Ces modules sont livrés avec différents types de connecteurs : AUI, BNC, RJ-45 (paire torsadée) et ST (câble à fibre optique).

QTIOM (Module E/S Token Ring)

Jusqu'à quatre réseaux Token Ring 4 ou 16 Mb/s sont connectés via le module QTIOM. Le module prend en charge tous les principaux protocoles Token Ring - IBM Source Routing, Transparent Bridging et Source Routing Transparent - et permet à Token Ring de communiquer de manière transparente avec d'autres types de réseaux tels que Ethernet ou FDDI. Le module est disponible en versions paires torsadées blindées et non blindées.

♦ IFIOM (module d'E/S FDDI à double connexion intelligente)

L'IFIOM relie le segment fibre optique du réseau FDDI à l'ES/1 et assure une interopérabilité transparente entre les différents types de réseaux. Il prend en charge toutes les fonctions de FDDI Dual Attached Station. Ce module prend également en charge un commutateur optique externe (Optical Bypass Switch), qui offre une résilience accrue du réseau lors des pannes ES/1. Il est fourni sous diverses variantes : pour fibre monomode et multimode et dans leurs combinaisons.

♦ CEIOM24 (Module E/S Ethernet concentrateur 24 ports)

Ce module comprend un concentrateur Ethernet à paires torsadées à 24 ports. Il augmente les performances du réseau à un coût inférieur à celui d'un périphérique externe similaire. Ses ports sont regroupés en un seul segment Ethernet indépendant et communiquent avec les autres modules via un switch/routeur ES/1.

♦ SHOM (module d'E/S d'interface série haut débit)

NUM vous permet de connecter des réseaux à des réseaux locaux distants via des lignes de communication à haut débit en utilisant le protocole HSSI à des vitesses allant jusqu'à 52 Mb/s. Le protocole PPP est pris en charge.

Gérabilité SNMP

Le hub modulaire ES/1 peut être contrôlé par n'importe quel système de contrôle standard basé sur HaSNMP-npo, notamment : HP OpenView, IBM NetView/6000, Sun NetManager, etc. Pour une représentation graphique du panneau avant du hub, des consoles de contrôle spéciales sont ajoutés aux consoles de contrôle répertoriées les modules logiciels de la société SMC de la famille EliteView. De plus, il existe une version Windows du logiciel de surveillance et de contrôle : EliteView pour Windows.

Schémas types d'utilisation du concentrateur ES/1

♦ Création d'un backbone dégénéré (Collapsed Backbone)

La dorsale dégénérée à l'intérieur du commutateur est utilisée dans les grands réseaux d'entreprise. Plusieurs grands segments du réseau local sont connectés aux ports du hub, dont le bus, dans ce cas, fait office de backbone principal avec une bande passante de plusieurs centaines de Mb/s. Cette approche permet de multiplier par plusieurs la bande passante du réseau par rapport à l'utilisation traditionnelle de ponts sur chaque segment de réseau. Dans le même temps, les possibilités de gestion centralisée de tous les éléments du réseau d'entreprise sont considérablement augmentées.

Ethernet dédié

Ce schéma de connexion d'appareils aux ports de hubs commutés est le plus souvent utilisé pour créer un backbone haut débit (avec une bande passante garantie de 10 Mb/s) entre le hub et un serveur sur le réseau local (généralement un serveur de fichiers ou une base de données serveur). Les hubs modulaires permettent d'organiser, si nécessaire, une connexion serveur via un canal haut débit FDDI ou Fast Ethernet.

Commutation de diffusion

La commutation ES/1 est basée sur la technologie Synchronous Protocol Independent, qui prend en charge les principales technologies LAN, permettant la diffusion entre des trames de différents formats. Par conséquent, le commutateur ES/1 peut être utilisé pour connecter différents types de réseaux - Ethernet, Token Ring, FDDI, et la traduction se produit à la vitesse de commutation et ne crée pas de congestion du trafic lors de la transmission interréseau.

Formation de groupes virtuels

Par défaut, le commutateur fonctionne en mode pont, examinant le trafic passant par ses ports et créant une table d'adresses de segment. À l'aide du logiciel EliteView, l'administrateur peut définir sous une forme graphique pratique la composition des PCU virtuelles, qui comprendront soit des segments locaux si un concentrateur ou un segment Ethernet est connecté au port ES/1 sur un câble coaxial, soit des postes de travail individuels s'ils sont connectés individuellement au canal dédié au port. Les groupes de travail virtuels peuvent inclure différents ports d'un ou plusieurs commutateurs ES/1.

Réseaux virtuels

Parallèlement à la formation de groupes de travail virtuels isolés qui protègent les données et localisent le trafic, une fonctionnalité très utile du commutateur est la possibilité de combiner ces groupes dans un inter-réseau en utilisant le routage de paquets interne entre les segments virtuels, qui sont annoncés comme des réseaux virtuels (IP ou IPX ). Dans ce cas, le transfert de paquets entre les ports appartenant à un réseau se produit rapidement en fonction de la commutation de paquets, en même temps, les paquets destinés à un autre réseau sont routés. Ainsi, l'interopérabilité entre les groupes de travail virtuels est assurée, tandis que dans le même temps toutes les fonctions de protection des réseaux entre eux, assurées par les routeurs, sont réalisées.

Commutateurs LAN 3Com

3Com occupe une position forte sur le marché des commutateurs avec une large gamme de commutateurs pour toutes les applications.

Le secteur des commutateurs pour les applications de bureau et de groupe de travail est représenté par les commutateurs de la famille Link Switch. Les commutateurs de service et les commutateurs de dorsale sont représentés par la famille LANplex. Pour les réseaux ATM, la société produit des commutateurs de la famille CELLplex.

La technologie de commutation est inefficace sans s'appuyer sur des LSI spécialisés - ASIC, qui sont optimisés pour effectuer rapidement des opérations spéciales. 3Com construit ses commutateurs sur plusieurs ASIC conçus pour commuter des protocoles spécifiques.

ASIC ISE (Intelligent Switching Engine) est conçu pour effectuer des opérations de commutation Ethernet et FDDI, ainsi que pour prendre en charge les fonctions de routage et de contrôle. Utilisé dans les commutateurs LANplex 2500, LANplex 6000 et LinkSwitch 2200.

ASIC TRSE (Token Ri lg Switching Engine) effectue la commutation des réseaux Token Ring. Utilisé dans les commutateurs LinkSwitch 2000 TR et LANplex 6000.

ASIC BRASICA effectue la commutation Ethernet / Fast Ethernet. Prend en charge la technologie de mise en réseau virtuelle et la spécification RMON. Utilisé dans LinkSwitch 1000 et LinkSwitch 3000.

ASIC ZipChip prend en charge la commutation ATM et le mappage de trame Ethernet à cellule ATM est utilisé dans les commutateurs CELLplex 7000 et LinkSwitch 2700.

Le commutateur LANplex 6012 est un ancien commutateur LAN conçu pour fonctionner au cœur du réseau d'entreprise.

La structure du commutateur montre toujours l'orientation de ses versions antérieures vers la commutation FDDI/Ethernet. Avant l'apparition des modules sortant vers le bus haut débit indépendant du protocole HSI, le commutateur utilisait des bus FDDI pour l'échange inter-modules.

Principales caractéristiques du commutateur LANplex 6012 :

♦ Le dispositif de gestion (module séparé) prend en charge SNMP, RMON et FDDI SMT ;

Les réseaux virtuels sont créés sur la base de :

agrégation de ports ;

regroupement d'adresses MAC.

♦ Routage IP et IPX (RIP) pris en charge :

♦ plusieurs sous-réseaux par port ;

♦ plusieurs ports par sous-réseau.

Fragmentation IP ;

♦ Processeurs ASIC + RISC ;

♦ La présence de la fonction Roving Analysis Port permet de surveiller le trafic de n'importe quel port du switch ;

♦ Prise en charge de l'algorithme Spanning Tree ;

Filtrage des tempêtes de diffusion.

Exemples de commutateurs LAN ATM Commutateurs 3Com CELLplex

Le commutateur CELLplex 7000 est un commutateur modulaire basé sur un châssis qui commute jusqu'à 16 ports ATM (4 x 4 modules). Il est conçu pour former une épine dorsale de réseau ATM à grande vitesse en se connectant à d'autres commutateurs ATM ou pour connecter des nœuds ATM à grande vitesse

à une épine dorsale de réseau pointée basée sur un centre de données avec un port ATM.

Le centre de commutation fournit des communications 16x16 utilisant une technologie de commutation à la volée non bloquante avec une bande passante totale de 2,56 Gb/s et prenant en charge jusqu'à 4096 VC par port.

Le bus interne passif du commutateur fournit des taux de transfert de données jusqu'à 20,48 Gb/s, permettant une future migration vers des modules d'interface avec plus de ports ou des ports plus rapides.

Un châssis entièrement redondant avec deux alimentations, un double centre de commutation et une conception modulaire font du commutateur CELLplex 7000 un dispositif fédérateur résilient pour répondre aux besoins des applications critiques.

Il existe deux types de modules d'interface :

♦ module à 4 ports OS-Zs 155 Mb/s pour câble à fibre optique multimode, conçu pour les communications locales ;

♦ module avec 4 ports DS-3 45 Mb / s - pour les communications globales.

Le commutateur prend en charge les principales spécifications de la technologie ATM : établissement de circuits virtuels commutés (SVC) selon les spécifications UNI 3.0 et 3.1, prise en charge de circuits virtuels permanents (PVC) utilisant un système de gestion, Interim Interswitch Signaling Protocol (IISP), émulation LAN, gestion gestion de la congestion.

La gestion des commutateurs est implémentée pour les normes : SNMP, ILMI, MIB 2, ATM MIB, SONET MIB. Le système de contrôle Transcend est utilisé.

Le commutateur CELLplex 7200 combine les fonctions d'un commutateur ATM et d'un commutateur Ethernet, tout en éliminant simultanément l'épine dorsale du réseau et les goulots d'étranglement départementaux.

Le CELLplex 7200 fournit des liaisons Ethernet à pleine vitesse pour les segments LAN partagés, les serveurs et les postes de travail autonomes nécessitant des performances accrues.

De plus, le commutateur peut être configuré avec des ports ATM pour se connecter aux commutateurs de groupe de travail, aux serveurs ATM et aux postes de travail, et pour se connecter à un réseau fédérateur ATM.

Un centre de commutation ATM (8x8) est associé à un processeur de commutation Ethernet / ATM sur une puce ZipChip. ZipChip convertit les paquets de données Ethernet en cellules ATM standard, puis les commute à des vitesses allant jusqu'à 780 000 cellules par seconde.

Contrairement au modèle CELLplex 7000, le modèle CELLplex 7200 n'a pas deux, mais quatre types de modules d'interface :

♦ module avec deux ports ATM OS-Z ;

♦ module avec deux ports DS-3 ;

♦ module avec 12 ports Ethernet et un port ATM OS-Zs ;

♦ module avec 12 ports Ethernet et un port ATM DS-3.

Le reste des caractéristiques des commutateurs CELLplex 7200 et CELLplex 7000 sont pratiquement les mêmes.

Commutateurs de technologie Bay Networks LattisCell et EtherCell ATM

La famille de produits ATM de Bay Networks comprend des commutateurs LattisCell (commutation ATM uniquement), un commutateur EtherCell (commutation Ethernet-ATM), un logiciel de système de gestion de connexion ATM et un logiciel d'application de gestion de réseau ATM.

Plusieurs modèles de commutateurs ATM sont disponibles, chacun offrant une combinaison spécifique de couches physiques, de supports et de capacités de redondance d'alimentation.

Le commutateur EtherCell est conçu pour éliminer les goulots d'étranglement dans les groupes de travail LAN à l'aide de la technologie Ethernet partagée traditionnelle. Avec ce commutateur, vous pouvez décharger les lignes de communication avec les serveurs et les routeurs. Le 10328 EtherCell dispose de 12 ports 10Base-T et d'un accès direct à l'ATM. Les ports Ethernet peuvent fournir une bande passante dédiée de 10 Mb/s en les commutant.

Le logiciel du système de gestion des connexions ATM (CMS) réside sur la station SunSPARCS pour coordonner et gérer les connexions du commutateur. Le CMS apprend automatiquement la topologie du réseau et établit des connexions ATM virtuelles entre les stations communicantes.

L'application de gestion de réseau ATM fonctionne en conjonction avec le CMS pour assurer la gestion de réseau ATM au niveau d'une station de gestion centrale.

Le modèle ATM du commutateur LattisCell 10114A est conçu pour être utilisé dans les réseaux de campus (la distance entre les commutateurs peut aller jusqu'à 2 km) et se présente sous la forme d'un boîtier autonome avec un nombre fixe de ports, le nombre de qui est de 16. Chaque port est pourvu d'une bande passante de 155 Mb/s sur un câble à fibre optique multimode. Les fonctions de la couche physique sont implémentées conformément aux normes SONET/SDH 155 Mb/s, ainsi qu'à UNI 3.0

L'architecture FastMatrix fournit un taux de transfert de données interne total de 5 Gb/s, permettant à tous les ports d'être commutés sans blocage. Les fonctions de diffusion et de multidiffusion sont prises en charge.

Une demande de connexion peut être effectuée pour différents niveaux de Qualité de Service (QoS) :

♦ QoS 1 - utilisé pour le service CBR (Constant Bit Rate) ;

♦ QoS 2 - utilisé pour le service VBR RT (Variable Bit Rate Real Time Applications) ;

♦ QoS 3/4 - utilisé pour le service VBR destiné à la transmission de données de réseaux locaux à l'aide de procédures orientées connexion et sans connexion ;

♦ QoS 0 - utilisé pour le service UBR.

L'appareil est également géré à l'aide du logiciel CMS, qui requiert : SunSPARStation 2 ou supérieur, Sun OS 4.1.3 ou supérieur pour une connexion Ethernet non dédiée, ou Solaris 2.4 pour une connexion ATM directe.

Les autres modèles de commutateurs LattisCell (10114R, 10114A-SM, 10114R-SM, 10114R-SM, 10114-DS3,10114-ЕЗ, 10115A, 10115R) diffèrent par la présence d'une alimentation redondante, ainsi que par le type de ports (le nombre total de ports dans n'importe quel modèle est de 16). En plus des ports multimodes, les commutateurs peuvent avoir des ports fibre optique monomode (pour les réseaux vers MPuses avec une distance allant jusqu'à 25 km), ainsi que des ports pour câble coaxial avec DS-3 (45 Mb/s) et E3 (34 Mb/s) pour la connexion aux réseaux mondiaux via les lignes TK/EZ.

Les modèles de commutateur EtherCell (10328-F et 10328-SM) offrent une commutation Ethernet vers Ethernet et Ethernet-ATM. Ces modèles disposent de 12 ports RJ-45 10Base-T et d'un port ATM direct 10 Mbps. Les ports 10Base-T peuvent être utilisés pour fournir une vitesse de ligne louée complète de 10 Mbps pour les serveurs à haute vitesse, ou pour la diviser entre un segment de stations de groupe de travail.

Le modèle EtherCell 10328-F prend en charge le câble à fibre optique multimode pour la communication avec un réseau ATM jusqu'à 2 km.

Le modèle EtherCell 10328-SM prend en charge le câble à fibre optique monomode pour la communication avec un réseau ATM sur des distances allant jusqu'à 20 km.

Les commutateurs prennent en charge la norme d'émulation LAN, qui définit l'interaction des LAN avec les réseaux ATM au niveau du protocole de la couche liaison. De plus, les formats MIB standard UNI, M1V-P, EtherCell-MIB et Bay Networks sont pris en charge.

Le port ATM permet aux commutateurs EtherCell de se connecter au port SONET / SDH d'un commutateur LattisCell.

Les commutateurs EtherCell incluent l'agent de signalisation hôte (HSA), qui est un agent de médiation pour les hôtes Ethernet.

Les commutateurs EtherCell prennent en charge la formation de groupes virtuels répartis sur le backbone ATM du réseau formé par les commutateurs LattisCell.

Commutateur Cisco LightStream 1010

Le commutateur LightStream 1010 est un commutateur ATM pour les réseaux de backbone ou de campus.

Le switch a un débit total de 5 Gb/s et est basé sur un châssis à 5 slots.

L'emplacement central abrite le processeur de commutation ATM (ASP), qui possède une mémoire partagée de 5 Gb/s, une matrice de commutation entièrement non bloquante et un processeur RISC MIPS R4600 100 MHz hautes performances. Le module ASP fonctionne sous le contrôle du système d'exploitation Internet IOS, comme les routeurs et les commutateurs des anciens modèles de Cisco. Le logiciel du module ASP peut être modifié à la volée, c'est-à-dire sans arrêter le commutateur, ce qui est important dans le contexte des modifications fréquentes des spécifications du forum ATM.

Les 4 emplacements restants sont utilisés pour installer des modules d'interface CAM, chacun pouvant accueillir jusqu'à 2 modules adaptateurs de port PAM. Ainsi, le switch peut avoir une configuration maximale de 8 PAMs parmi l'ensemble suivant :

♦ 1 port ATM 622 Mb/s (OS12) (monomode) ;

1 port ATM 622 Mb/s (OS 12) (multimode) ;

4 ports ATM 155 Mb/s (OSZ) (monomode) ;

♦ 4 ports ATM 155 Mb/s (OSZ) (multimode) ;

♦ 4 ports ATM 155 Mb/s (OSZ) (sur paire torsadée non blindée UTP Cat 5) ;

2 ports DS3/T3 45 Mb/s ;

2 ports ЕЗ 34 Mb/s.

Le commutateur LightStream 1010 est l'un des premiers du secteur à prendre en charge la spécification de routage PNNI Phase 1, qui est nécessaire pour acheminer les connexions commutées (SVC) sur des réseaux ATM hétérogènes avec une qualité de service requise.

Tous les types de trafic définis par l'ATM Forum sont pris en charge, y compris l'ABR.

Pour les connexions utilisateur-commutateur, le protocole UNI 3.0 est utilisé (la prise en charge d'UNI 3.1 est également attendue dans un proche avenir).

Le commutateur LightStream 1010 peut servir de commutateur central dans le réseau du campus.

Test de commutateur

Les interrupteurs étendant constamment leur champ d'activité, l'intérêt que leur portent divers laboratoires d'essais ne diminue pas. Fondamentalement, diverses caractéristiques de performances sont testées pour des configurations réseau typiques.

Les tests effectués sont intéressants à deux égards. Premièrement, les résultats des tests eux-mêmes sont intéressants, même s'ils ne peuvent en aucun cas être rendus absolus. Si un commutateur a dépassé un autre d'un certain indicateur dans certaines conditions de 10% ou 20%, cela ne signifie pas du tout que dans d'autres conditions, le deuxième commutateur ne fonctionnera pas mieux de 15%. Dans le même temps, un retard important par rapport à la masse totale de modèles de n'importe quel commutateur devrait alerter ses acheteurs potentiels.

Deuxièmement, les conditions de test créées sont intéressantes, car elles sont généralement choisies en fonction de l'expérience de fonctionnement des interrupteurs et correspondent aux modes de fonctionnement les plus sévères.

Ce qui suit décrit les conditions et les résultats des tests de commutation menés conjointement par le Data Communication Magazine et le laboratoire de test European Network Labs. À la réception des premiers résultats des tests, ils ont été discutés avec les représentants des entreprises de fabrication, à la suite de quoi des modifications ont été apportées au logiciel de certains modèles qui ont amélioré leurs performances dans les conditions spécifiques des tests en cours.

Les commutateurs ont été testés dans une configuration de backbone distribué, lorsqu'un grand nombre de ports Ethernet 10 Mb/s communiquent sur un backbone Fast Ethernet ou FDDI.

Le réseau était chargé avec deux générateurs de trafic Smartbits Advanced SMB100 qui envoyaient le trafic vers 20 ports Ethernet sur chacun des deux échantillons de commutateurs testés. Le trafic envoyé à chaque port d'entrée était acheminé via ce port vers les 39 ports de commutation restants avec une probabilité égale dans tous les tests, à l'exception du test de délai d'insertion, où le trafic était simplement acheminé dans une direction à travers la dorsale. Nous avons utilisé des trames d'une taille minimale de 64 octets chacune.

Les générateurs de trafic ont compté le nombre de trames qui ont atteint le port de destination et, sur la base de ces données, des estimations quantitatives de la qualité de transmission du trafic par les commutateurs ont été calculées.

Le premier test a testé la capacité du commutateur à transmettre des ondulations de trafic à court terme sans perte.

Conditions expérimentales : alimentation d'une rafale de 24 images sur chaque port, une pause de 1 seconde, alimentation d'une rafale de 62 images sur chaque port, une pause de 1 seconde, et ainsi de suite tout en augmentant la taille de la rafale à 744 images. Chaque bundle a créé une utilisation à 100 % sur chacun des 40 ports Ethernet testés.

Résultats de test

Lors des premiers tests, le switch LANplex a perdu un pourcentage assez important de trames, après quoi les spécialistes de 3Com ont adapté son logiciel et augmenté le degré d'agressivité des ports du switch. En conséquence, le commutateur a cessé de supprimer des images.

Le deuxième test a testé la bande passante de commutation maximale par port avec une utilisation du port à 100 % à court terme.

Conditions expérimentales : une rafale de 24 trames a été générée pour chaque port et le taux de livraison maximum de trames vers le port de destination a été mesuré.

Résultats de test

Le Catalist 5000 a montré les meilleurs résultats, transmettant près de 5000 images par seconde à un débit maximum théorique de 7440 images par seconde (seules les images reçues par la suite ont été prises en compte). La réduction significative du débit réel par rapport au maximum possible reflète la difficulté du commutateur à fonctionner en semi-duplex tout en transmettant et en recevant simultanément des trames. Le commutateur LANplex était quelque peu en retard sur le leader, ce que les testeurs attribuent au niveau d'agressivité trop élevé défini pour éviter la perte de trames. Ce niveau ralentit trop le nœud d'extrémité, l'empêchant de développer un taux de livraison de trames plus élevé sur le réseau.

Le troisième test a évalué le retard introduit par le commutateur lors de la transmission d'une trame à travers le backbone.

Conditions expérimentales : Flux unidirectionnel constant de trames à travers le backbone. Le temps entre l'arrivée du premier bit d'une trame sur le port Ethernet d'entrée du premier commutateur et l'apparition du premier bit de la même trame sur le port Ethernet de sortie du deuxième commutateur a été mesuré.

Résultats de test

Les commutateurs qui utilisaient l'anneau FDDI comme dorsale introduisaient une latence plus élevée que les commutateurs connectés sur la dorsale Fast Ethernet. Ce n'est pas surprenant, puisque dans ce dernier cas, la translation de trame n'a pas été effectuée.

Les principales caractéristiques d'un interrupteur qui mesurent ses performances sont :

Vitesse de filtrage ;

Vitesse de routage (transfert) ;

Débit;

Délai de transmission de trame.

De plus, plusieurs caractéristiques du commutateur affectent le plus les caractéristiques de performances spécifiées. Ceux-ci inclus:

Taille du ou des tampons de trames ;

Performances du bus interne ;

Les performances du ou des processeurs ;

La taille de la table d'adresses interne.

Taux de filtration et taux d'avance

Le filtrage et les taux de transfert de trames sont les deux principales caractéristiques de performance d'un commutateur. Ces caractéristiques sont des indicateurs intégrés, elles ne dépendent pas de la manière dont le commutateur est techniquement mis en œuvre.

Le taux de filtrage détermine le taux auquel le commutateur effectue les étapes suivantes de traitement de trame :

Recevoir une trame dans votre buffer ;

Détruire la trame car son port de destination est le même que le port source.

Vitesse d'avance détermine la fréquence à laquelle le commutateur exécute les étapes de traitement de trame suivantes :

Recevoir une trame dans votre buffer ;

Consultation de la table d'adresses afin de trouver le port de l'adresse de destination de la trame ;

Transmission d'une trame au réseau via le port de destination trouvé dans la table d'adresses.

Le taux de filtrage et le taux d'avance sont généralement mesurés en images par seconde. Si les caractéristiques du switch ne précisent pas pour quel protocole et pour quelle taille de trame les valeurs de débits de filtrage et de transfert sont données, alors par défaut on considère que ces indicateurs sont donnés pour le protocole Ethernet et les trames de la taille minimale , c'est-à-dire des trames d'une longueur de 64 octets (sans préambule), avec un champ de données de 46 octets. Si des débits sont spécifiés pour un protocole spécifique, par exemple Token Ring ou FDDI, alors ils sont également donnés pour des trames de longueur minimale de ce protocole (par exemple, des trames d'une longueur de 29 octets pour le protocole FDDI). L'utilisation de trames de longueur minimale comme indicateur principal de la vitesse du commutateur est due au fait que de telles trames créent toujours le mode de fonctionnement le plus sévère pour le commutateur par rapport aux trames d'un format différent avec la même bande passante du transfert. données d'utilisateur. Par conséquent, lors du test d'un commutateur, le mode de transmission de trame le plus court est utilisé comme test le plus difficile, qui doit vérifier la capacité du commutateur à fonctionner sous la pire combinaison de paramètres de trafic pour lui. De plus, pour les paquets de longueur minimale, les débits de filtrage et de transfert ont la valeur maximale, ce qui n'est pas négligeable lors de l'annonce d'un commutateur.

Bande passante

Changer de bande passante mesurée par la quantité de données utilisateur transmises par unité de temps via ses ports. Étant donné que le commutateur fonctionne au niveau de la couche de liaison, les données utilisateur correspondant sont les données qui sont transportées dans le champ de données des trames des protocoles de couche de liaison - Ethernet, Token Ring, FDDI, etc. La valeur maximale du débit de commutation est toujours atteinte sur les trames de longueur maximale, car dans ce cas la part des frais généraux pour les informations de service de la trame est bien inférieure à celle des trames de longueur minimale, et le temps de commutateur pour effectuer des opérations de traitement de trame par octet d'informations utilisateur est significativement moins.

La dépendance du débit du commutateur à la taille des trames transmises est bien illustrée par l'exemple du protocole Ethernet, pour lequel, lors de la transmission de trames de longueur minimale, un taux de transmission de 14880 trames par seconde et un débit de 5,48 Mb/ s est atteint, et lors de la transmission de trames de la longueur maximale, un taux de transmission de 812 trames par seconde et une bande passante de 9,74 Mb/s. Le débit chute presque deux fois lors du passage aux trames les plus courtes, et cela ne prend pas en compte la perte de temps de traitement des trames par le commutateur.

Délai de transmission

Délai de transmission de trame est mesuré comme le temps écoulé depuis le moment où le premier octet de la trame arrive au port d'entrée du commutateur jusqu'au moment où cet octet apparaît sur le port de sortie du commutateur. La latence est la somme du temps nécessaire pour mettre en mémoire tampon les octets de la trame, plus le temps nécessaire pour traiter la trame par le commutateur - recherchez la table d'adresses, décidez de filtrer ou de transférer et accédez à la sortie environnement portuaire.

La quantité de retard introduite par le commutateur dépend de son mode de fonctionnement. Si la commutation est effectuée "à la volée", les retards sont généralement faibles et vont de 10 µs à 40 µs, et avec une mise en mémoire tampon complète - de 50 µs à 200 µs (pour la longueur de trame minimale).

Le commutateur est un appareil multi-ports, il est donc habituel qu'il donne toutes les caractéristiques ci-dessus (à l'exception du délai de transmission de trame) en deux versions. La première option est la performance totale du commutateur avec la transmission simultanée du trafic sur tous ses ports, la deuxième option est la performance par port.

Étant donné qu'avec la transmission simultanée du trafic par plusieurs ports, il existe un grand nombre d'options de trafic qui diffèrent par la taille des trames dans le flux, la répartition de l'intensité moyenne des flux de trames entre les ports de destination, les coefficients de variation de l'intensité des flux de trames, etc. etc., alors lors de la comparaison des commutateurs par performances, il est nécessaire de prendre en compte pour quel type de trafic les données de performances publiées ont été obtenues. Malheureusement, pour les commutateurs (ainsi que pour les routeurs), il n'existe pas d'échantillons de test de trafic généralement acceptés pouvant être utilisés pour obtenir des caractéristiques de performances comparables, comme cela est fait pour obtenir des caractéristiques de performances de systèmes informatiques tels que TPC-A ou SPECint92. Certains laboratoires qui testent constamment des équipements de communication ont développé des descriptions détaillées des conditions de test des commutateurs et les utilisent dans leur pratique, mais ces tests ne sont pas encore généralisés à l'industrie.

Principales caractéristiques des commutateurs

Les performances du commutateur sont ce que les intégrateurs de réseau et les administrateurs attendent de cet appareil en premier lieu.

Les principaux indicateurs du switch qui caractérisent ses performances sont :

  1. taux de filtrage des trames ;
  2. taux d'avance d'images ;
  3. bande passante totale;
  4. délai de transmission de trame.

Vitesse de filtrage

· Réception d'une trame dans son propre buffer ;

· Visualisation de la table d'adresses afin de sélectionner le port de destination de la trame ;

· Destruction d'une trame, puisque son port de destination et son port source appartiennent au même segment logique.

Le taux de filtrage de presque tous les commutateurs est non bloquant - le commutateur a le temps d'abandonner les trames au rythme de leur arrivée.

Vitesse de transfert détermine la fréquence à laquelle le commutateur exécute les étapes de traitement de trame suivantes :

· Réception d'une trame dans son propre buffer ;

· Visualisation de la table d'adresses afin de trouver le port pour l'adresse de destination de la trame ;

· Transmission d'une trame au réseau via le port de destination trouvé dans la table d'adresses.

Le taux de filtrage et le taux d'avance sont généralement mesurés en images par seconde. Par défaut, ce sont les trames Ethernet de longueur minimale (64 octets sans préambule). Ces cadres créent les conditions de fonctionnement les plus sévères pour le commutateur.

Bande passante un commutateur est modifié par la quantité de données utilisateur (en mégabits par seconde) transmises par unité de temps via ses ports.

La bande passante maximale du commutateur est toujours atteinte aux trames de longueur maximale. Par conséquent, le commutateur peut être bloquant pour des longueurs de trame minimales, tout en conservant de très bonnes performances de débit.

Délai de transmission de trame est mesuré comme le temps écoulé depuis le moment où le premier octet de la trame arrive sur le port d'entrée du commutateur jusqu'au moment où cet octet apparaît sur son port de sortie.

La quantité de retard introduite par le commutateur dépend de son mode de fonctionnement. Si la commutation est effectuée "à la volée", les retards sont généralement faibles et vont de 5 à 40 μs, et avec une mise en mémoire tampon complète - de 50 à 200 s (pour la longueur de trame minimale).

Commutation à la volée et entièrement tamponnée

Lors de la commutation à la volée, une partie de la trame contenant l'adresse du destinataire est reçue dans le tampon d'entrée, une décision est prise de filtrer ou de relayer la trame vers un autre port, et si le port de sortie est libre, la trame est immédiatement envoyé, tandis que le reste de la trame continue d'arriver dans le tampon d'entrée... Si le port de sortie est occupé, alors la trame est entièrement mise en mémoire tampon dans le tampon d'entrée du port de réception. Les inconvénients de cette méthode incluent le fait que le commutateur saute les trames erronées pour la transmission, car lorsqu'il est possible d'analyser la fin d'une trame, son début sera déjà transmis à un autre sous-réseau. Et cela conduit à la perte de temps réseau utile.


La mise en mémoire tampon complète des paquets reçus introduit bien sûr un retard important dans la transmission des données, mais le commutateur a la capacité d'analyser complètement et, si nécessaire, de convertir le paquet reçu.

Le Tableau 6.1 répertorie les capacités des commutateurs lorsqu'ils fonctionnent dans deux modes.

Tableau 6.1 Caractéristiques comparatives des commutateurs lorsqu'ils fonctionnent dans différents modes

Le filtrage et les taux de transfert de trames sont les deux principales caractéristiques de performance d'un commutateur. Ces caractéristiques sont intégrales, elles ne dépendent pas de la manière dont le switch est techniquement mis en œuvre.

Le taux de filtrage est le taux auquel le commutateur effectue les étapes suivantes dans le traitement des trames :

1. Réception d'une trame dans votre mémoire tampon.

3. Destruction de la trame, puisque son port de destination et son port source appartiennent au même segment.

Le taux de filtrage de presque tous les commutateurs n'est pas un facteur de blocage - le commutateur parvient à supprimer les trames au rythme de leur arrivée.

Le taux de transfert est le taux auquel le commutateur termine les étapes suivantes du traitement de la trame.

1. Réception d'une trame dans votre mémoire tampon.

2. Parcourir la table d'adresses pour trouver le port de l'adresse de destination de la trame.

3. Transmission d'une trame au réseau via le port de destination trouvé dans la table d'adresses.

Le taux de filtrage et le taux d'avance sont généralement mesurés en images par seconde. Si les caractéristiques du switch ne précisent pas pour quel protocole et pour quelle taille de trame les débits de filtrage et de transfert sont donnés, alors par défaut on considère que ces débits sont donnés pour le protocole Ethernet et les trames de la taille minimale, c'est-à-dire , trames d'une longueur de 64 octets. Comme nous l'avons vu précédemment, la fréquence d'images la plus courte est utilisée comme test le plus difficile pour confirmer la capacité du commutateur à fonctionner avec la pire combinaison de paramètres de trafic.

La latence de transfert de trame est mesurée comme le temps écoulé depuis le moment où le premier octet de la trame arrive au port d'entrée du commutateur jusqu'au moment où cet octet apparaît sur son port de sortie. La latence est la somme du temps qu'il faut pour mettre en mémoire tampon les octets de la trame et le temps qu'il faut pour traiter la trame par le commutateur - en regardant la table d'adresses, en décidant de filtrer ou de transférer, ou en accédant à l'environnement du port de sortie. La quantité de retard introduite par le commutateur dépend de son mode de fonctionnement. Si la commutation est effectuée "à la volée", les retards sont généralement faibles et vont de 5 à 40 s, et avec une mise en mémoire tampon complète - de 50 à 200 s pour les trames de longueur minimale lors de la transmission à 10 Mbps. Les commutateurs qui prennent en charge les versions Ethernet plus rapides introduisent des délais plus faibles dans le transfert de trames.

Les performances d'un commutateur sont mesurées par la quantité de données utilisateur transmises par unité de temps via ses ports, et sont mesurées en mégabits par seconde (Mbps). Étant donné que le commutateur fonctionne au niveau de la couche liaison de données, les données d'utilisateur correspondant sont les données qui sont transportées dans le champ de données des trames Ethernet.

La valeur maximale des performances de commutation est toujours atteinte sur les trames de longueur maximale, puisque dans ce cas la part des frais généraux pour les frais généraux de la trame est minimale. Un commutateur est un périphérique multi-ports. Par conséquent, il est habituel qu'il fournisse les performances totales maximales tout en transmettant simultanément le trafic sur tous ses ports.

Pour effectuer les opérations de chaque port, les commutateurs utilisent le plus souvent une unité de traitement dédiée avec sa propre mémoire pour stocker sa propre copie de la table d'adresses. Chaque port stocke uniquement les ensembles d'adresses avec lesquels il a travaillé récemment, de sorte que les instances de la table d'adresses de différents modules de processeur ne correspondent généralement pas.

Le nombre maximal d'adresses MAC qu'un processeur de port peut mémoriser dépend de l'application du commutateur. Les commutateurs de groupe de travail ne prennent généralement en charge que quelques adresses par port, car ils sont conçus pour former des micro-segments. Les commutateurs de service doivent prendre en charge plusieurs centaines d'adresses et les commutateurs de dorsale de réseau jusqu'à plusieurs milliers (généralement de 4 000 à 8 000 adresses).

Une capacité de table d'adresses insuffisante peut ralentir le commutateur et obstruer le réseau avec un trafic excessif. Si la table d'adresses du processeur de port est pleine et qu'il rencontre une nouvelle adresse source dans la trame entrante, le processeur doit supprimer toute ancienne adresse de la table et la remplacer par une nouvelle. Cette opération elle-même prend une partie du temps du processeur, mais les principales pertes de performances sont observées lorsqu'une trame arrive avec une adresse de destination, qui a dû être supprimée de la table d'adresses. Étant donné que l'adresse de destination de la trame est inconnue, le commutateur doit transmettre la trame à tous les autres ports. Certains fabricants de commutateurs résolvent ce problème en modifiant la façon dont ils traitent les trames dont la destination est inconnue. L'un des ports du commutateur est configuré comme un port de jonction auquel, par défaut, toutes les trames avec une adresse inconnue sont transférées. Une trame est transmise à un port de jonction en supposant que ce port est connecté à un commutateur en amont (avec une connexion hiérarchique de commutateurs dans un grand réseau), qui a une capacité de table d'adresses suffisante et « sait » où n'importe quelle trame peut être envoyée.

Le sujet de l'accès gigabit devient de plus en plus pertinent, surtout maintenant, alors que la concurrence s'intensifie, l'ARPU diminue, et même les tarifs 100 Mbit ne sont plus surprenants. Nous envisageons depuis longtemps la transition vers l'accès gigabit. J'ai été rebuté par le prix du matériel et la faisabilité commerciale. Mais les concurrents ne dorment pas, et lorsque même Rostelecom a commencé à proposer des tarifs supérieurs à 100 Mbit, nous nous sommes rendu compte que nous ne pouvions plus attendre. De plus, le prix d'un port gigabit a considérablement baissé et l'installation d'un commutateur FastEthernet, qui devra encore être remplacé dans quelques années par un commutateur gigabit, est devenue tout simplement non rentable. Par conséquent, ils ont commencé à choisir un commutateur gigabit à utiliser au niveau de l'accès.

Nous avons passé en revue différents modèles de commutateurs gigabit et avons retenu les deux plus adaptés en termes de paramètres, tout en respectant nos attentes budgétaires. Ce sont Dlink DGS-1210-28ME et.

Cadre


Le corps du SNR est fait de métal épais et durable, ce qui le rend plus lourd que le rival. Le maillon D est fabriqué en acier fin, ce qui lui confère un gain de poids. Cependant, il le rend plus sensible aux influences extérieures en raison de sa plus faible résistance.

Le D-link est plus compact : sa profondeur est de 14 cm, tandis que celui du SNR est de 23 cm.Le connecteur d'alimentation SNR est situé à l'avant, ce qui facilite incontestablement l'installation.

Alimentations


Alimentation D-link


Alimentation SNR

Malgré le fait que les alimentations soient très similaires, nous avons quand même trouvé des différences. L'alimentation D-link est faite de manière économique, peut-être même trop - il n'y a pas de revêtement de laque sur la carte, à l'entrée et à la sortie la protection contre les interférences est minime. En conséquence, selon Dlink, on craint que ces nuances n'affectent la sensibilité du commutateur aux surtensions et fonctionnent dans des conditions d'humidité variable et poussiéreuses.

Tableau électrique





Les deux cartes sont soigneusement fabriquées, il n'y a rien à redire sur l'installation, cependant, le textolite de SNR est de meilleure qualité et la carte est fabriquée à l'aide de la technologie de soudure sans plomb. Il ne s'agit bien sûr pas du fait que le SNR contient moins de plomb (ce qui ne fera peur à personne en Russie), mais du fait que ces commutateurs sont produits sur une ligne plus moderne.

De plus, encore une fois, comme dans le cas des alimentations, le D-link a économisé sur le revêtement de laque. SNR a un revêtement de vernis sur la carte.

Apparemment, il est entendu que les conditions de travail des commutateurs d'accès D-link devraient être excellentes a priori - propres, secs, frais ... enfin, comme tout le monde. ;)

Refroidissement

Les deux commutateurs ont un système de refroidissement passif. D-link a des radiateurs plus grands, ce qui est un avantage certain. Cependant, SNR a un espace libre entre la carte et le panneau arrière, ce qui a un effet positif sur la dissipation thermique. Une nuance supplémentaire est la présence de plaques de dissipation de chaleur situées sous la puce et de dissipation de chaleur vers le boîtier du commutateur.

Nous avons effectué un petit test - nous avons mesuré la température du dissipateur thermique sur la puce dans des conditions normales :

  • L'interrupteur est posé sur une table à température ambiante 22C,
  • 2 modules SFP installés,
  • Nous attendons 8-10 minutes.

Les résultats des tests ont été surprenants - D-link a chauffé jusqu'à 72C, tandis que SNR - seulement jusqu'à 63C. Il vaut mieux ne pas penser à ce qui arrivera au D-link dans une boîte bien emballée pendant la chaleur estivale.



D-link température 72 degrés



Sur SNR 61 C, vol normal

Protection contre la foudre

Les interrupteurs sont équipés de divers systèmes de protection contre la foudre. D-link utilise des déchargeurs de gaz. Les SNR ont des varistances. Chacun d'eux a ses propres avantages et inconvénients. Cependant, le temps de réponse des varistances est meilleur, ce qui offre une meilleure protection pour le commutateur lui-même et les appareils des abonnés qui y sont connectés.

Résumé

De D-link, on a le sentiment d'économiser sur tous les composants - sur l'alimentation, la carte, le boîtier. Par conséquent, dans ce cas, cela donne l'impression d'un produit plus préférable pour nous.

gastroguru 2017