LA CLOCHE

Il y a ceux qui ont lu cette nouvelle avant vous.
Abonnez-vous pour recevoir les derniers articles.
Email
Nom
Nom de famille
Comment voulez-vous lire The Bell
Pas de spam

Plusieurs ordinateurs d'un réseau doivent partager le support de transmission. Cependant, si deux ordinateurs tentent de transmettre des données en même temps, une collision se produira et les données seront perdues.

Tous les ordinateurs du réseau doivent utiliser la même méthode d'accès, sinon le réseau échouera. Les ordinateurs individuels, dont les méthodes domineront, empêcheront les autres de transférer. Les méthodes d'accès sont utilisées pour empêcher plusieurs ordinateurs d'accéder au câble en même temps, rationaliser la transmission et la réception des données sur le réseau et garantir qu'un seul ordinateur peut transmettre à la fois.

Dans Carrier Sense Multiple Access with Collision Detection (abrégé CSMA / CD), tous les ordinateurs du réseau - clients et serveurs - écoutent sur le câble afin de détecter les données transmises (c'est-à-dire le trafic).

1) L'ordinateur «comprend» que le câble est libre (c'est-à-dire qu'il n'y a pas de trafic).

2) L'ordinateur peut commencer à transférer des données.

3) Tant que le câble n'est pas libre (pendant le transfert de données), aucun des ordinateurs du réseau ne peut transmettre.

Lorsque plus d'un périphérique réseau tente d'accéder au support de transmission en même temps, une collision se produit. Les ordinateurs enregistrent l'occurrence d'une collision, libèrent la ligne de transmission pendant un certain intervalle de temps spécifié au hasard (dans les limites définies par la norme), après quoi la tentative de transmission est répétée. Le premier ordinateur à saisir la ligne de transmission commence à transmettre des données.

CSMA / CD est connu comme contradictoire parce que les ordinateurs du réseau «se font concurrence» (se font concurrence) pour le droit de transférer des données.

La détection de collision est une raison qui limite la portée du CSMA / CD lui-même. En raison de la vitesse finie de propagation du signal dans les fils à des distances supérieures à 2500 m (1,5 miles), le mécanisme de détection de collision n'est pas efficace. Si la distance à l'ordinateur émetteur dépasse cette limite, certains ordinateurs n'ont pas le temps de détecter la charge sur le câble et de commencer à transmettre des données, ce qui entraîne des collisions et la destruction de paquets de données.

Des exemples de protocoles CDSMA / CD sont Ethernet version 2 de DEC et IEEE 802.3.

Spécification du support physique Ethernet

Pour la technologie Ethernet, diverses options de couche physique ont été développées, différant non seulement par le type de câble et les paramètres électriques des impulsions, comme cela se fait dans la technologie Ethernet 10 Mb / s, mais également par la méthode de codage du signal et le nombre de conducteurs utilisés dans le câble. Par conséquent, la couche physique d'Ethernet a une structure plus complexe que l'Ethernet classique.

Les spécifications de la technologie Ethernet comprennent aujourd'hui les supports de transmission suivants.

  • 10Base-2 - câble coaxial d'un diamètre de 0,25 pouces, dit coaxial fin. A une impédance d'onde de 50 ohms. La longueur maximale du segment est de 185 mètres (sans répéteurs).
  • 10Base-5 - un câble coaxial d'un diamètre de 0,5 "est dit coaxial" épais ". A une résistance aux ondes de 50 Ohm. La longueur maximale du segment sans répéteur est de 500 mètres.
  • 10Base-T - câble basé sur une paire torsadée non blindée (UTP). Forme une topologie en étoile basée sur des concentrateurs. La distance entre le hub et le nœud final ne dépasse pas 100 mètres.
  • 10Base-F - câble de fibre optique. La topologie est similaire à celle du standard 10Base-T. Il existe plusieurs options pour cette spécification - FOIRL (distance jusqu'à 1000 m), 10Base-FL (distance jusqu'à 2000 m).

Formats de trame Ethernet

Comme en production, les trames sur Ethernet sont tout. Ils contiennent tous les paquets de haut niveau, donc pour se comprendre, l'expéditeur et le destinataire doivent utiliser le même type de trame Ethernet. La norme de technologie Ethernet définie dans IEEE802.3 fournit une description d'un format de trame à couche MAC unique. Les trames ne peuvent être que quatre formats différents, et pas très différentes les unes des autres. De plus, il n'existe que deux formats de trame de base (en terminologie anglaise ils sont appelés "formats bruts") - Ethernet_II et Ethernet_802.3, et ils diffèrent dans un seul champ.

  • Cadre Ethernet DIX (Ethernet II). Elle est née du travail d'un consortium de trois entreprises Digital, Intel et Xerox en 1980, qui a soumis sa version propriétaire de la norme Ethernet au comité 802.3 en tant que projet de norme internationale.
  • 802.3 / LLC, 802.3 / 802.2 ou Novell 802.2... Adopté par le comité 802.3 a adopté une norme qui diffère dans certains détails d'Ethernet DIX.
  • Trame 802.3 brute, ou Novell 802.3 - a émergé à la suite des efforts de Novell pour accélérer sa pile de protocoles sur Ethernet

Chaque trame commence par un préambule de 7 octets rempli du modèle 0b10101010 (pour synchroniser la source et la destination). Le préambule est suivi de l'octet de délimitation de début de trame (SFD), qui contient la séquence 0b10101011 et indique le début de sa propre trame. Viennent ensuite les champs Adresse de destination (DA) et Adresse source (SA). Ethernet utilise des adresses de couche MAC IEEE 48 bits.

Le champ suivant a des significations et des longueurs différentes selon le type de cadre.

À la fin de la trame se trouve un champ de séquence de vérification de trame (FCS) de 32 bits. La somme de contrôle est calculée à l'aide de l'algorithme CRC-32. Taille de la trame Ethernet de 64 à 1518 octets (sans le préambule, mais avec le champ de somme de contrôle)

Type de trame Ethernet DIX

Une trame Ethernet DIX, également appelée trame Ethernet II, est similaire à une trame 802.3 Raw en ce qu'elle n'utilise pas non plus d'en-têtes de sous-couche LLC, mais diffère en ce qu'elle définit un champ de type de protocole (champ Type) à la place du champ de longueur. Ce champ a le même objectif que les champs DSAP et SSAP de la trame LLC - pour indiquer le type de protocole de couche supérieure qui a imbriqué son paquet dans le champ de données de cette trame. Les valeurs dépassant la longueur maximale du champ de données de 1500 sont utilisées pour coder le type de protocole, de sorte que les trames Ethernet II et 802.3 sont facilement distinguables.

Type de trame 802.3 brut.

Après l'adresse source, il contient un champ de longueur 16 bits (L) qui spécifie le nombre d'octets suivant le champ de longueur (à l'exclusion du champ de somme de contrôle). Un paquet IPX est toujours intégré dans ce type de trame. Les deux premiers octets de l'en-tête IPX contiennent la somme de contrôle du datagramme IPX. Cependant, par défaut, ce champ n'est pas utilisé et a une valeur de 0xFFFF.

Type de trame 802.3.LLC

Le champ d'adresse source est suivi d'un champ de longueur 16 bits spécifiant le nombre d'octets suivant ce champ (à l'exclusion du champ de somme de contrôle) suivi de l'en-tête LLC. L'en-tête de trame 802.3 / LLC est le résultat de la concaténation des champs d'en-tête de trame définis dans 802.3 et 802.2.

La norme 802.3 définit huit champs d'en-tête:

Champ du préambulese compose de sept octets de données de synchronisation. Chaque octet contient la même séquence de bits - 10101010. Dans le codage Manchester, cette combinaison est représentée sur le support physique comme une forme d'onde périodique. Le préambule est utilisé pour laisser le temps et le temps aux circuits d'émetteur-récepteur de se synchroniser avec les signaux d'horloge reçus.

Délimiteur initial la trame se compose d'un octet avec le jeu de bits 10101011. L'apparition de cette combinaison est une indication de la réception imminente de la trame.

Adresse du destinataire- peut faire 2 ou 6 octets (adresse MAC de destination). Le premier bit de l'adresse du destinataire indique si l'adresse est individuelle ou de groupe: si 0, l'adresse indique une station spécifique, si 1, alors c'est l'adresse de groupe de plusieurs (éventuellement toutes) stations sur le réseau. Avec l'adressage de diffusion, tous les bits du champ d'adresse sont mis à 1. Il est courant d'utiliser des adresses de 6 octets.

Adresse de l'expéditeur - Champ de 2 ou 6 octets contenant l'adresse de la station émettrice. Le premier bit est toujours 0.

Double octet champ de longueur définit la longueur du champ de données dans la trame.

Champ de données peut contenir de 0 à 1500 octets. Mais si la longueur du champ est inférieure à 46 octets, le champ suivant est utilisé - le champ de remplissage pour terminer la trame à la longueur minimale autorisée.

Remplir le champ se compose d'autant d'octets de remplissage que la longueur de champ de données minimale spécifiée (46 octets). Cela garantit que le mécanisme de détection de collision fonctionne correctement. Si la longueur du champ de données est suffisante, le champ de remplissage n'apparaît pas dans le cadre.

Champ de somme de contrôle- 4 octets contenant une valeur calculée selon un certain algorithme (polynôme CRC-32). Après avoir reçu une trame, le poste de travail effectue son propre calcul de somme de contrôle pour cette trame, compare la valeur reçue avec la valeur du champ de somme de contrôle et détermine ainsi si la trame reçue est corrompue.

La trame 802.3 est une trame de sous-couche MAC, conformément à la norme 802.2, une trame de sous-couche LLC est intégrée dans son champ de données avec les indicateurs de début et de fin supprimés.

La trame 802.3 / LLC résultante est illustrée ci-dessous. Étant donné que la trame LLC a un en-tête de 3 octets, la taille maximale du champ de données est réduite à 1497 octets.

Type de trame Ethernet SNAP

La trame Ethernet SNAP (SubNetwork Access Protocol) est une extension de la trame 802.3 / LLC en introduisant un en-tête SNAP supplémentaire. L'en-tête se compose d'un champ d'identificateur d'organisation (OUI) de 3 octets et d'un champ de type de 2 octets (Type, Ethertype). Le type identifie le protocole haut niveauet le champ OUI spécifie l'identifiant de l'organisation qui contrôle l'attribution des codes de type de protocole. Les codes de protocole pour les normes IEEE 802 sont contrôlés par l'IEEE, qui a un code OUI de 0x000000. Pour cet OUI, le champ de type Ethernet SNAP est le même que la valeur de type Ethernet DIX.

Tableau récapitulatif sur l'utilisation de différents types de trames par des protocoles de niveau supérieur.

Un typecadre

Ethernet II

Ethernet brut 802.3

Ethernet 802.3 / LLC

SNAP Ethernet

Réseauprotocoles

IPX, IP, AppleTalk Phase I

IPX, IP, AppleTalk Phase II

Ethernet rapide

La différence entre la technologie Fast Ethernet et Ethernet

Toutes les différences entre la technologie Ethernet et Ethernet rapide concentré sur le niveau physique. L'objectif de la technologie Fast Ethernet est d'atteindre une vitesse significativement supérieure d'un ordre de grandeur par rapport à 10 Base T Ethernet - IEEE 802.3, tout en conservant la même méthode d'accès, le même format de trame et le même système d'enregistrement. Les niveaux MAC et LLC dans Fast Ethernet sont restés absolument les mêmes le même.

L'organisation de la couche physique de la technologie Fast Ethernet est plus complexe, car elle utilise trois options pour les systèmes câblés:

  • Câble multimode à fibre optique (deux fibres)
  • Paire torsadée de catégorie 5 (deux paires)
  • Paire torsadée de catégorie 3 (quatre paires)

Le câble coaxial n'est pas utilisé dans Fast Ethernet. Les réseaux Fast Ethernet partagés comme les réseaux 10Base-T / 10Base-F ont une arborescence hiérarchique basée sur des concentrateurs. La principale différence dans la configuration des réseaux Fast Ethernet est la réduction du diamètre à 200 mètres, qui s'explique par la réduction du temps de transmission d'une longueur de trame minimale de 10 fois par rapport à un réseau Ethernet de 10 mégaoctets.

Mais lors de l'utilisation de commutateurs, le protocole Fast Ethernet peut fonctionner en mode duplex intégral, dans lequel il n'y a pas de limite sur la longueur totale du réseau, mais uniquement sur des segments physiques individuels.

Spécification de l'environnement physiqueEthernet

  • 100BASE-T - Un terme général pour l'un des trois standards d'Ethernet 100 Mbit / s, utilisant la paire torsadée comme support de transmission de données. La longueur du segment peut aller jusqu'à 200-250 mètres. Comprend 100BASE-TX, 100BASE-T4 et 100BASE-T2.
  • 100BASE-TX, IEEE 802.3u - Le développement de la technologie 10BASE-T, une topologie en étoile est utilisée, un câble à paire torsadée de catégorie 5 est utilisé, dans lequel 2 paires de conducteurs sont effectivement utilisées, le débit de transfert de données maximal est de 100 Mbit / s.
  • 100BASE-T4 - 100 Mbps Ethernet sur câble de catégorie 3. Les 4 paires sont impliquées. Maintenant, il n'est pratiquement pas utilisé. La transmission des données est en mode semi-duplex.
  • 100BASE-T2 - Non utilisé. 100 Mbps Ethernet sur câble de catégorie 3. Seules 2 paires sont utilisées. Le mode de transmission duplex intégral est pris en charge lorsque les signaux se propagent dans des directions opposées sur chaque paire. La vitesse de transmission dans un sens est de 50 Mbit / s.
  • 100BASE-FX - Ethernet 100 Mbps utilisant un câble à fibre optique. La longueur maximale du segment est de 400 mètres en mode semi-duplex (pour une détection de collision garantie) ou de 2 kilomètres en mode duplex intégral sur fibre optique multimode et jusqu'à 32 kilomètres en mode monomode.

Gigabit Ethernet

  • 1000BASE-T, IEEE 802.3ab - Norme Ethernet 1 Gbps. On utilise une paire torsadée de catégorie 5e ou de catégorie 6. Les 4 paires sont toutes impliquées dans la transmission de données. Taux de transfert de données - 250 Mbps sur une paire.
  • 1000BASE-TX, - Standard Ethernet 1 Gbit / s utilisant uniquement une paire torsadée de catégorie 6. Pratiquement non utilisé.
  • 1000Base-X - un terme général pour la technologie Gigabit Ethernet qui utilise un câble à fibre optique comme support de transmission de données, comprend 1000BASE-SX, 1000BASE-LX et 1000BASE-CX.
  • 1000BASE-SX, IEEE 802.3z - Technologie Ethernet 1 Gbps, utilise une fibre multimode avec une portée de transmission du signal sans répéteur jusqu'à 550 mètres.
  • 1000BASE-LX, IEEE 802.3z - Technologie Ethernet 1 Gbps, utilise une fibre multimode avec une portée de transmission du signal sans répéteur jusqu'à 550 mètres. Optimisé pour les longues distances en utilisant la fibre monomode (jusqu'à 10 kilomètres).
  • 1000BASE-CX - Technologie Gigabit Ethernet pour les courtes distances (jusqu'à 25 mètres), utilisant un câble en cuivre spécial (Shielded Twisted Pair (STP)) avec une impédance caractéristique de 150 ohms. Remplacé par la norme 1000BASE-T, et maintenant non utilisé.
  • 1000BASE-LH (longue distance) - Technologie Ethernet 1 Gbps, utilise un câble optique monomode, portée de transmission du signal sans répéteur jusqu'à 100 kilomètres.

Problèmes Gigabit Ethernet

  • Assurer un diamètre de réseau acceptable pour un fonctionnement dans un environnement partagé... En raison des limitations de la méthode CSMA / CD sur la longueur du câble, la version Gigabit Ethernet pour un support partagé autoriserait une longueur de segment de seulement 25 mètres. Il fallait résoudre ce problème.
  • Obtenez un débit binaire de 1000 Mbps sur un câble optique... La technologie Fibre Channel, dont la couche physique est à la base de la version fibre optique de Gigabit Ethernet, fournit des taux de transfert de données de seulement 800 Mbps.
  • Utiliser comme câble à paire torsadée.

Pour résoudre ces problèmes, il était nécessaire d'apporter des modifications non seulement à la couche physique, mais également à la couche MAC.

Moyens d'assurer un diamètre de réseau de 200 m sur un support partagé

Pour étendre le diamètre maximal d'un réseau Gigabit Ethernet en mode semi-duplex jusqu'à 200 m, les développeurs de la technologie ont pris des mesures tout à fait naturelles basées sur le rapport connu du temps de transmission de la longueur de trame minimale et du temps de double rotation.

La taille de trame minimale a été augmentée (hors préambule) de 64 à 512 octets, soit 4096 bt. En conséquence, le double temps de rotation pourrait désormais également être augmenté à 4 095 bt, ce qui rend admissible un diamètre de réseau d'environ 200 m lors de l'utilisation d'un seul répéteur. À un double retard de signal de 10 bt / m, des câbles à fibre optique de 100 m contribuent pendant un double chiffre d'affaires de 1000 bt, et si le répéteur et les adaptateurs réseau introduisent les mêmes retards que dans la technologie Fast Ethernet (données pour lesquelles ont été données dans la section précédente) , puis un retard de répéteur de 1000 bt et une paire d'adaptateurs réseau de 1000 bt ajouteront jusqu'à un double temps de rotation de 4000 bt, ce qui satisfait la condition de détection de collision. Pour augmenter la longueur de la trame à la valeur requise dans la nouvelle technologie, la carte réseau doit compléter le champ de données à une longueur de 448 octets avec ce que l'on appelle l'extension (extension), qui est un champ rempli de caractères de code 8B / 10B interdits qui ne peuvent pas être confondus avec des codes de données.

Pour réduire le surcoût lié à l'utilisation de trames trop longues pour transmettre des reçus courts, les développeurs du standard ont autorisé les nœuds d'extrémité à transmettre plusieurs trames d'affilée, sans transmettre le support à d'autres stations. Ce mode est appelé mode rafale - mode rafale exclusif. Une station peut transmettre plusieurs trames d'affilée d'une longueur totale ne dépassant pas 65 536 bits ou 8 192 octets. Si une station a besoin de transmettre plusieurs petites trames, elle peut ne pas les compléter à une taille de 512 octets, mais transmettre dans une ligne jusqu'à ce que la limite de 8192 octets soit épuisée (cette limite comprend tous les octets de la trame, y compris le préambule, l'en-tête, les données et la somme de contrôle) ... La limite de 8192 octets est appelée BurstLength. Si la station commence à émettre une trame et que la limite de longueur de rafale a été atteinte au milieu de la trame, alors la trame est autorisée à émettre jusqu'à la fin.

Une augmentation de la trame "partagée" à 8 192 octets retarde quelque peu l'accès au support partagé d'autres stations, mais à une vitesse de 1000 Mbps, ce délai n'est pas si important

Littérature

  1. V.G.Olifer, N.A.Olifer Réseaux informatiques

1000Base-X

La spécification 1000BASE-X utilise des supports à fibre optique. Cette norme est basée sur une technologie basée sur la norme ANSI Fibre Channel (ANSI X3T11).

La technologie 1000BASE-X permet l'utilisation de trois différents environnements transmission, il existe donc trois variétés: 1000BASE-SX, 1000BASE-LX et 1000BASE-CX.

1000Base-SX

La technologie la plus couramment utilisée et la moins chère basée sur la fibre multimode standard. La distance maximale pour 1000BASE-SX est de 220 mètres. La longueur d'onde utilisée est de 850 nm, S signifie Short Wavelength.

Évidemment, cette valeur ne peut être atteinte qu'avec une transmission de données full-duplex, puisque le temps d'un double turn-over du signal sur deux segments de 220 mètres est de 4400 bt, ce qui dépasse la limite de 4095 bt même sans tenir compte du répéteur et des adaptateurs réseau. Pour la transmission semi-duplex, les valeurs maximales des segments de fibre doivent toujours être inférieures à 100 mètres.

1000Base-LX

1000BASE-LX est généralement utilisé avec des fibres monomodes, avec une distance de 5 kilomètres. La spécification 1000Base-LX peut également fonctionner sur un câble multimode. Dans ce cas, la distance limite s'avère petite - 550 mètres.

Pour la spécification 1000Base-LX, un laser à semi-conducteur de 1300 nm est toujours utilisé comme source de lumière.

1000Base-СX

La technologie 1000BASE-CX utilise l'environnement le plus distinctif des trois. Il s'agit d'une solution basée sur les applications qui utilise des paires torsadées blindées précoupées.

Le connecteur n'est pas un simple RJ-45, généralement utilisé en 10/100 / 1000Base-T. Au lieu de cela, DB-9 ou HSSDS est utilisé pour terminer ces deux paires de fils. La technologie 1000BASE-CX fonctionne sur des distances allant jusqu'à 25 m, ce qui limite son utilisation à de petites surfaces.

1000Base-T

La spécification 1000Base-T fonctionne sur un câble à paire torsadée de catégorie 5.

Chaque paire de câbles de catégorie 5 a une bande passante garantie allant jusqu'à 100 MHz. Pour transmettre des données sur un tel câble à une vitesse de 1000 Mbit / s, il a été décidé d'organiser une transmission parallèle simultanément sur les 4 paires du câble.

Cela a immédiatement réduit le taux de transfert de données pour chaque paire à 250 Mbps.

Pour encoder les données, le code PAM5 a été appliqué, en utilisant 5 niveaux de potentiel: -2, -1, 0, +1, +2. Par conséquent, en un cycle d'horloge, 2 322 bits d'informations sont transmis sur une paire. Par conséquent, la fréquence d'horloge peut être réduite à 125 MHz au lieu de 250 MHz. Dans le même temps, si vous n'utilisez pas tous les codes, mais transmettez 8 bits par horloge (en 4 paires), le débit de transmission requis de 1000 Mbit / s est maintenu et il y a toujours une réserve de codes inutilisés, car le code PAM5 contient 5 4 \u003d 625 combinaisons, et si vous transmettez 8 bits de données en un cycle sur les quatre paires, cela ne nécessite que 2 8 \u003d 256 combinaisons. Le récepteur peut utiliser les combinaisons restantes pour contrôler les informations reçues et l'attribution combinaisons correctes sur fond de bruit. Le code PAM5 à 125 MHz se situe dans la bande passante de 100 MHz du câble de catégorie 5.

Pour reconnaître les collisions et organiser le mode full-duplex, la spécification utilise une technique dans laquelle les deux émetteurs travaillent l'un vers l'autre pour chacune des 4 paires dans la même gamme de fréquences, puisqu'ils utilisent le même code potentiel PAM5 (Fig.12) ... L'isolement hybride H permet à l'émetteur et au récepteur du même nœud d'utiliser une paire torsadée pour transmettre et recevoir simultanément.

Figure 12. Transmission bidirectionnelle sur 4 paires UTP cat5 en Gigabit

Pour séparer le signal reçu du sien, le récepteur soustrait son signal connu du signal résultant. Ce n'est pas une opération simple et des processeurs de signaux numériques spéciaux - DSP (Digital Signal Processor) sont utilisés pour l'exécuter.

Le développement des technologies multimédias a conduit à la nécessité d'augmenter bande passante lignes de communication. À cet égard, la technologie Gigabit Ethernet a été développée, permettant une transmission de données à une vitesse de 1 Gbit / s. Dans cette technologie, ainsi que dans Fast Ethernet, la continuité avec la technologie Ethernet a été préservée: les formats de trame n'ont pratiquement pas changé, survécuméthode d'accès CSMA/ CD en mode semi-duplex. Au niveau logique, le codage est utilisé 8 B/10 B... Étant donné que la vitesse de transmission a été multipliée par 10 par rapport à Fast Ethernet, il était nécessaire ou réduire le diamètre du réseau à 20 à 25 m, soit augmenter la longueur minimale du cadre... Dans la technologie Gigabit Ethernet, ils ont choisi le deuxième chemin, augmentant la longueur de trame minimale à 512 octets au lieu de 64 octets dans la technologie Ethernet et Fast Ethernet. Le diamètre du filet est 200 m, tout comme Fast Ethernet. L'augmentation de la longueur du cadre peut être effectuée de deux manières. La première méthode consiste à remplir le champ de données d'une courte trame avec des symboles de combinaisons de codes interdites, et il y aura un surdébit réseau. Selon la deuxième méthode, il est permis de transmettre plusieurs trames courtes à la suite d'une longueur totale allant jusqu'à 8192 octet.

Les réseaux Gigabit Ethernet modernes sont généralement basés sur des commutateurs et fonctionnent en mode duplex intégral. Dans ce cas, on ne parle pas du diamètre du réseau, mais de la longueur du segment, qui est déterminée par les moyens techniques de la couche physique, tout d'abord, par le support physique de transmission des données. Gigabit Ethernet permet l'utilisation de:

    câble à fibre optique monomode; 802.3 z

    câble à fibre optique multimode; 802.3 z

    câble UTP équilibré de catégorie 5; 802.3 un B

    câble coaxial.

Lors de la transmission de données sur un câble à fibre optique, les deux LED fonctionnant à une longueur d'onde sont utilisées comme émetteurs 830 nm, ou lasers - à une longueur d'onde 1300 nm. Selon cette norme 802.3 z défini deux spécifications 1000 Base- SX et 1000 Base- LX... La longueur de segment maximale implémentée sur un câble multimode 62,5 / 125 de la spécification 1000Base-SX est de 220 m, et sur un câble 50/125 - pas plus de 500 m. La longueur de segment maximale implémentée sur une spécification 1000Base-LX monomode est 5000 m La longueur du segment sur un câble coaxial ne dépasse pas 25 m.

Pour utiliser les câbles UTP symétriques de catégorie 5 existants, une norme a été développée 802.3 un B... Étant donné que dans la technologie Gigabit Ethernet les données doivent être transmises à une vitesse de 1000 Mbit / s et que la paire torsadée de catégorie 5 a une bande passante de 100 MHz, il a été décidé de transférer les données en parallèle sur 4 paires torsadées et d'utiliser UTP catégorie 5 ou 5e avec une bande passante de 125 MHz. Ainsi, pour chaque paire torsadée, il est nécessaire de transmettre des données à un débit de 250 Mbit / s, ce qui est 2 fois supérieur aux capacités de la catégorie UTP 5e. Pour éliminer cette contradiction, le code 4D-PAM5 à cinq niveaux de potentiel (-2, -1, 0, +1, +2) est utilisé. Chaque paire de fils transfère et reçoit simultanément des données à une vitesse de 125 Mbit / s dans chaque direction. Dans ce cas, des collisions se produisent, dans lesquelles des signaux d'une forme complexe de cinq niveaux sont formés. La séparation des flux d'entrée et de sortie est effectuée à l'aide de schémas d'isolation hybrides H (Figure 5.4). Comme de tels schémas sont utilisés processeurs de signaux... Pour extraire le signal reçu, le récepteur soustrait son propre signal émis du signal total (émis et reçu).

Ainsi, la technologie Gigabit Ethernet permet un échange de données à haut débit et est principalement utilisée pour le transfert de données entre sous-réseaux, ainsi que pour l'échange d'informations multimédia.

Figure: 5.4. Transmission de données sur 4 paires de UTP catégorie 5

La norme IEEE 802.3 recommande que Gigabit Ethernet avec transmission par fibre soit le backbone. Les intervalles de temps, le format de trame et la transmission sont communs à toutes les versions 1000 Mbps. La couche physique est déterminée par deux schémas de codage de signal (figure 5.5). Schème 8 B/10 B utilisé par pour fibre optique et câbles blindés en cuivre. Pour câbles symétriques UTP la modulation d'amplitude d'impulsion est utilisée (code PAM5 ). La technologie 1000 BASE- X utilise un codage booléen 8 B/10 B et codage de ligne ( NRZ).

Graphique 5.5. Spécifications de la technologie Gigabit Ethernet

Signaux NRZ transmis sur fibre en utilisant soit les ondes courtes ( court- longueur d'onde), ou ondes longues ( longue- longueur d'onde) sources de lumière. Diodes électroluminescentes d'une longueur d'onde de 850 nm pour la transmission sur fibre optique multimode (1000BASE-SX). Cette option moins coûteuse est utilisée pour la transmission à courte distance. Sources laser à ondes longues ( 1310 nm) utilisent une fibre optique monomode ou multimode (1000BASE-LX). Les sources laser à fibre monomode sont capables de transmettre des informations sur une distance allant jusqu'à 5000 m.

Dans les connexions point à point ( point- à- point) pour la transmission ( Tx) et réception ( Rx), des fibres séparées sont utilisées, par conséquent un duplex plein la communication. La technologie Gigabit Ethernet permet uniquement répéteur unique entre deux stations. Voici les paramètres des technologies 1000BASE (tableau 5.2).

Tableau 5.2

Caractéristiques comparatives des spécifications Gigabit Ethernet

Les réseaux Gigabit Ethernet sont construits autour de commutateurs où la distance en duplex intégral n'est limitée que par l'environnement et non par le temps d'aller-retour. Dans ce cas, en règle générale, la topologie " étoile" ou " étoile étendue», Et les problèmes sont déterminés par la topologie logique et le flux de données.

La norme 1000BASE-T utilise presque le même câble UTP que les normes 100BASE-T et 10BASE-T. Un câble UTP 1000BASE-T est identique à un câble 10BASE-T et 100BASE-TX, sauf qu'un câble de catégorie 5e est recommandé. Avec une longueur de câble de 100 m, l'équipement 1000BASE-T fonctionne à ses limites.

Distinguons trois éléments principaux de la norme: le format de trame, le système de signalisation entre les postes de travail lors du transfert de données à l'aide du protocole CSMA / CD, et un ensemble de supports physiques: câble coaxial, paire torsadée, câble à fibre optique.

Format de trame Ethernet

En figue. 7-2 montre le format de trame Ethernet. Les champs ont les objectifs suivants:
- Préambule: 7 octets, dont chacun représente une alternance de uns et de zéros 10101010. Le préambule permet de régler la synchronisation des bits côté réception.
- Délimiteur de trame de début (SFD, délimiteur de trame de début): 1 octet, séquence 10101011. indique que d'autres champs d'information de la trame suivront. Cet octet peut être appelé le préambule.
- Adresse de destination (DA, adresse de destination): 6 octets, indique l'adresse MAC de la station (adresses MAC des stations) à laquelle (à laquelle) cette trame est destinée. Il peut s'agir d'une adresse physique unique (monodiffusion), d'une adresse de multidiffusion (multidiffusion) ou d'une adresse de diffusion (diffusion).
- Adresse source (SA): octet, indique l'adresse MAC de la station qui envoie la trame.
- Champ du type ou de la longueur de la trame (T ou L, type ou longueur): 2 octets. Il existe deux formats de trame Ethernet de base (dans les formats bruts de terminologie anglaise) -EthernetII et IEEE 802.3 (Fig. 7.2), et c'est le champ en question qui a un but différent. Pour une trame EthernetII, ce champ contient des informations sur le type de trame. Vous trouverez ci-dessous les valeurs hexadécimales de ce champ pour certains protocoles réseau courants: 0x0800 pour IP, 0x0806 pour ARP, 0x809B pour AppleTalk, 0x0600 pour XNS et 0x8137 pour IPX / SPX. Avec l'indication dans ce champ d'une valeur spécifique (une des valeurs listées), la trame acquiert un format réel, et dans ce format la trame peut déjà être distribuée sur le réseau.
- Pour une trame IEEE 802.3, ce champ contient la taille d'octet du champ suivant, le champ LLC Data. Si ce nombre entraîne une longueur totale de trame inférieure à 64 octets, un champ Pad est ajouté après le champ LLC Data. Pour le protocole de couche supérieure, il n'y a pas de confusion avec la définition du type de trame, car pour une trame IEEE 802.3, la valeur de ce champ ne peut pas dépasser 1500 (0x05DC). Par conséquent, les deux formats de trame peuvent coexister librement sur le même réseau, de plus, une carte réseau peut communiquer avec les deux types via la pile de protocoles.
- Data (LLC Data): champ de données traité par la sous-couche LLC. En soi, la trame IEEE 802.3 n'est pas encore définitive. Selon les valeurs des premiers octets de ce champ, il peut y avoir trois formats finaux pour cette trame IEEE 802.3:
- Ethernet_802.3 (pas un format standard actuellement obsolète utilisé par Novell) - les deux premiers octets de LLC Data sont égaux à 0xFFFF;
- EthernetSNAP (format standard IEEE 802.2 SNAP, qui est le format le plus préféré dans les réseaux modernes, en particulier pour le protocole TCP / IP) - le premier octet de LLC Data est 0xAA;
- Ethernet_802.2 (format standard IEEE 802.2, utilisé par Novell dans NetWare 4.0) - le premier octet de LLC Data n'est ni 0xFF (11111111) ni 0xAA (10101010).

Champ supplémentaire (pad - filler) - rempli uniquement lorsque le champ de données est petit, afin d'étendre la longueur de la trame à une taille minimale de 64 octets - le préambule n'est pas pris en compte. La limite inférieure de la longueur de trame minimale est nécessaire pour la résolution correcte des collisions.

Frame check sequence (FCS): champ de 4 octets qui spécifie le somme de contrôlecalculé en utilisant le contrôle de redondance cyclique sur les champs de la trame, à l'exclusion des préambules SDF et FCS.

Figure: 7.2. Deux formats de trame Ethernet MAC de base

Variantes de base des algorithmes pour un accès aléatoire à l'environnement

Le protocole CSMA / CD définit la nature de l'interaction des postes de travail dans un réseau avec un seul support de transmission de données commun pour tous les appareils. Toutes les stations ont des conditions égales pour la transmission de données. Il n'y a pas d'ordre spécifique dans lequel les stations peuvent accéder au support pour la transmission. C'est dans ce sens que l'on accède à l'environnement de manière aléatoire. La mise en œuvre d'algorithmes d'accès aléatoire semble être une tâche beaucoup plus simple que la mise en œuvre d'algorithmes d'accès déterministes. Étant donné que dans ce dernier cas, un protocole spécial est nécessaire pour contrôler le fonctionnement de tous les périphériques réseau (par exemple, le protocole de circulation de jetons inhérent aux réseaux Anneau de jeton et FDDI), ou un concentrateur de périphérique maître spécial, qui, dans un certain ordre, donnerait à toutes les autres stations la capacité de transmettre (réseaux Arcnet, 100VG AnyLAN).

Cependant, un réseau à accès aléatoire présente un inconvénient, peut-être le principal, - ce n'est pas un fonctionnement du réseau tout à fait stable sous une charge élevée, lorsqu'un temps suffisamment long peut s'écouler avant qu'une station donnée puisse transmettre des données. Cela est dû à des collisions qui surviennent entre des stations qui ont commencé à émettre en même temps ou presque simultanément. En cas de collision, les données transmises n'atteignent pas les destinataires et les stations émettrices doivent recommencer la transmission.

Donnons une définition: l'ensemble de toutes les stations du réseau, dont la transmission simultanée de n'importe quel couple conduit à une collision, est appelé un domaine de collision. En raison d'une collision (conflit), des retards imprévisibles peuvent survenir lors de la propagation de trames sur le réseau, en particulier lorsque le réseau est fortement chargé (de nombreuses stations essaient de transmettre simultanément dans le domaine de collision,\u003e 20-25), et lorsque le domaine de collision est grand (\u003e 2 km). Par conséquent, lors de la construction de réseaux, il est conseillé d'éviter de tels modes de fonctionnement extrêmes.

Le problème de la construction d'un protocole capable de résoudre les collisions de la manière la plus rationnelle et d'optimiser le fonctionnement du réseau lorsque grandes charges, a été l'une des clés au stade de la formation de la norme Ethernet IEEE 802.3. Au départ, trois approches principales ont été considérées comme candidates pour la mise en œuvre de la norme d'accès aléatoire à l'environnement (Fig. 7.3): non persistante, 1-persistante et p-persistante.

Figure: 7.3. Algorithmes d'accès aléatoire multiple (CSMA) et réduction des collisions

Algorithme non persistant. Avec cet algorithme, la station souhaitant émettre est guidée par les règles suivantes.

1. Écoute le support, et si le support est libre (c'est-à-dire s'il n'y a pas d'autre transmission ou s'il n'y a pas de signal de collision), il émet, sinon, le support est occupé, passez à l'étape 2.
2. Si l'environnement est occupé, il attend un temps aléatoire (selon une certaine courbe de distribution de probabilité) et revient à l'étape 1.

L'utilisation d'une valeur d'attente aléatoire dans un environnement occupé réduit la probabilité de collisions. En effet, supposons autrement que deux stations vont émettre presque simultanément, tandis que la troisième émet déjà. Si les deux premiers n'avaient pas un temps d'attente aléatoire avant le début de la transmission (au cas où l'environnement s'avérait être occupé), mais seulement écoutaient l'environnement et attendaient qu'il devienne libre, alors après que la troisième station ait cessé de transmettre, les deux premiers commenceraient à émettre simultanément, ce qui entraînerait inévitablement aux collisions. Ainsi, l'attente aléatoire élimine la possibilité de telles collisions. Cependant, l'inconvénient de cette méthode se manifeste par une utilisation inefficace de la bande passante du canal. Puisqu'il peut arriver qu'au moment où le support soit libre, la station qui souhaite émettre continue d'attendre un certain temps au hasard avant de décider d'écouter sur le support, car elle écoutait déjà sur le support, qui s'est avéré être occupé. En conséquence, le canal sera inactif pendant un certain temps, même si une seule station attend la transmission.

1-algorithme persistant. Pour réduire le temps pendant lequel l'environnement n'est pas occupé, un algorithme à 1 persistance peut être utilisé. Avec cet algorithme, la station souhaitant émettre est guidée par les règles suivantes.

1. Écoute l'environnement, et si l'environnement n'est pas occupé, transmet, sinon passe à l'étape 2;
2. Si le support est occupé, il continue à écouter le support jusqu'à ce que le support soit libre, et dès que le support est libéré, il commence immédiatement à émettre.

En comparant les algorithmes non persistants et 1-persistants, on peut dire que dans l'algorithme 1-persistant, la station souhaitant émettre se comporte plus "égoïstement". Par conséquent, si deux stations ou plus attendent la transmission (attendant que l'environnement soit libre), on peut dire qu'une collision est garantie. Après la collision, les stations commencent à décider quoi faire ensuite.

Algorithme P-persistant. Les règles de cet algorithme sont les suivantes:
1. Si l'environnement est libre, la station avec probabilité p commence immédiatement la transmission ou avec probabilité (1-p) attend l'intervalle de temps T. L'intervalle T est généralement pris égal au temps de propagation maximal du signal de l'extrémité à la fin du réseau;
2. Si le support est occupé, la station continue d'écouter jusqu'à ce que le support soit libre, puis passe à l'étape 1;
3. Si la transmission est retardée d'un créneau T, la station retourne à l'étape 1.

Et ici se pose la question du choix de la valeur la plus efficace du paramètre p. Le principal problème est de savoir comment éviter l'instabilité à des charges élevées. Prenons une situation dans laquelle n stations ont l'intention de transmettre des trames alors que la transmission est déjà en cours. A la fin de la transmission, le nombre attendu de stations qui essaieront d'émettre sera égal au produit du nombre de stations disposées à émettre par la probabilité de transmission, c'est-à-dire que si np\u003e 1, alors en moyenne plusieurs stations essaieront d'émettre en même temps, ce qui provoquera une collision. De plus, dès qu'une collision est détectée, toutes les stations retourneront à l'étape 1, ce qui provoquera une seconde collision. Dans le pire des cas, de nouvelles stations souhaitant émettre peuvent être ajoutées à n, ce qui aggrave encore la situation, conduisant finalement à une collision continue et à un débit nul. Pour éviter une telle catastrophe, pr doit être inférieur à un. Si le réseau est sujet à l'apparition d'états lorsque de nombreuses stations souhaitent simultanément émettre, il est alors nécessaire de diminuer p. Par contre, lorsque p devient trop petit, même une seule station peut attendre en moyenne (1 - p) / p tranches T avant d'émettre. Donc si p \u003d 0,1, alors le ralenti moyen précédant le transfert sera de 9T.

La norme Gigabit Ethernet utilisant un câble de catégorie 5 (paire torsadée non blindée) comme support de transmission décrit dans la section IEEE 802.3ab a finalement été approuvée le 28 juin 1999.

Le temps a passé, et maintenant on peut déjà dire que le Gigabit Ethernet sur «cuivre» est fermement entré dans l'histoire du développement des réseaux locaux. La forte baisse des prix des adaptateurs réseau 1000Base-T gigabit et des modules gigabit pour commutateurs a progressivement conduit au fait que l'installation de tels adaptateurs dans les serveurs devient la norme de facto. Par exemple, certains fabricants de serveurs ont déjà commencé à intégrer des adaptateurs Gigabit 1000Base-T sur les cartes mères de serveurs, et le nombre d'entreprises produisant de tels adaptateurs a atteint 25 au début de cette année. De plus, des adaptateurs conçus pour être installés sur des postes de travail ont commencé à être produits (ils diffèrent en ce sens qu'ils sont conçus pour un bus PCI 32 bits à 33 MHz). Tout cela nous permet de dire avec certitude que dans un an ou deux, les adaptateurs réseau Gigabit deviendront aussi répandus que les adaptateurs Fast Ethernet le sont maintenant.

Considérons les innovations fondamentales incorporées dans la norme IEEE 802.3ab et ont permis d'atteindre un taux de transfert aussi élevé, tout en maintenant la même distance maximale entre deux ordinateurs de 100 m, comme c'était le cas dans la norme Fast Ethernet.

Tout d'abord, rappelez-vous que les adaptateurs réseau fonctionnent au niveau des couches physiques et de liaison de données du modèle OSI à sept couches (Open Interconnexion du système). La couche liaison est généralement divisée en deux sous-couches: MAC et LCC. La sous-couche MAC (Media Access Control) est une sous-couche de contrôle d'accès au support qui assure le partage correct d'un support de transmission de données partagé commun, en le fournissant conformément à un certain algorithme à la disposition d'une station particulière. La sous-couche LCC (Logical Link Control) est responsable de la transmission des trames entre les nœuds avec divers degrés de fiabilité, et met également en œuvre les fonctions de l'interface avec la troisième couche (réseau) adjacente.

Toutes les différences entre Ethernet et Fast Ethernet se concentrent uniquement sur la couche physique. Dans le même temps, MAC et LCC n'ont subi aucun changement.

La couche physique peut être grossièrement divisée en trois éléments: une couche de négociation, une interface indépendante du support (MII) et un périphérique de couche physique (PHY). Le périphérique de couche physique peut également être divisé en plusieurs sous-couches: la sous-couche de codage physique, la sous-couche de fixation du support physique, la sous-couche dépendante du support physique et la sous-couche d'auto-négociation.

Si les différences entre Ethernet et Fast Ethernet sont minimes et n'affectent pas la couche MAC, lors du développement de la norme Gigabit Ethernet 1000Base-T, les développeurs devaient non seulement apporter des modifications à la couche physique, mais également affecter la couche MAC (Fig.1).

Cependant, il existe de nombreuses similitudes entre les trois technologies. Il s'agit tout d'abord d'une méthode d'accès au support de transmission de données CSMA / CD, aux modes de fonctionnement semi-duplex et duplex intégral, ainsi qu'aux formats de trame Ethernet. Dans le même temps, l'utilisation d'un câble à paire torsadée de 5ème catégorie a nécessité des changements majeurs dans la mise en œuvre de la couche physique de l'adaptateur.

Le premier problème dans la réalisation de la vitesse de 1 Gbit / s était d'assurer un diamètre de réseau acceptable lorsque vous travaillez en mode semi-duplex. Comme vous le savez, la taille de trame minimale dans les réseaux Ethernet et Fast Ethernet est de 64 octets. Cependant, une taille de trame de 64 octets à une vitesse de transmission de 1 Go / s conduit au fait que pour une détection de collision fiable, il est nécessaire que le diamètre maximal du réseau (la distance entre deux ordinateurs les plus éloignés l'un de l'autre) ne dépasse pas 25 m. cette détection de collision réussie n'est possible que si le temps entre l'envoi de deux trames consécutives de longueur minimale est supérieur à deux fois le temps de propagation d'un signal entre deux nœuds du réseau les plus éloignés l'un de l'autre. Par conséquent, afin de fournir un diamètre de réseau maximal de 200 m (deux câbles de 100 m et un commutateur), la longueur de trame minimale dans la norme Gigabit Ethernet a été augmentée à 512 octets. Pour augmenter la longueur de trame à la longueur requise, la carte réseau complète le champ de données à une longueur de 448 octets avec ce que l'on appelle l'extension. Un champ d'extension est un champ rempli de caractères interdits qui ne peuvent pas être confondus avec des codes de données (Fig. 2). Dans le même temps, une augmentation de la longueur de trame minimale affecte négativement la transmission de messages de service courts, par exemple des reçus, car les informations utiles transmises deviennent nettement inférieures aux informations transmises totales. Afin de réduire la surcharge lors de l'utilisation de longues trames pour la transmission de courts reçus par la norme Gigabit Ethernet, il est possible de transmettre plusieurs trames d'affilée en mode de capture multimédia exclusive, c'est-à-dire sans transmettre de médias à d'autres stations. Ce mode de capture exclusif est appelé mode rafale. Dans ce mode, la station peut transmettre plusieurs trames d'affilée d'une longueur totale ne dépassant pas 8 192 octets (BurstLength).

Comme déjà noté, parallèlement au changement de la couche MAC, l'obtention de débits de transmission gigabit est devenue possible en raison d'un changement significatif de la couche physique, c'est-à-dire de la technologie de présentation des données (codage) lors de la transmission de données sur paire torsadée.

Afin de comprendre les changements qui ont été apportés au niveau physique, rappelons-nous ce qu'est un câble de données et quelles interférences se produisent pendant la transmission du signal.

Le câble non blindé de catégorie 5 se compose de quatre paires de fils, chaque paire torsadée ensemble. Ce câble est conçu pour fonctionner à 100 MHz (Fig. 3).

Il est connu du cours de physique que tout câble a, en plus d'une résistance active, également capacitive et inductive, ces deux dernières dépendant de la fréquence du signal. Les trois types de résistance définissent ce que l'on appelle l'impédance du circuit. La présence d'impédance conduit au fait que lorsque le signal se propage à travers le câble, il s'atténue progressivement, perdant une partie de sa puissance d'origine.

Si l'induction mutuelle est calculée au début du câble, le type d'interférence correspondant sera appelé SUIVANT (perte de diaphonie locale). Si les interférences provoquées par l'induction mutuelle sont considérées à l'extrémité du câble, elles sont alors appelées FEXT (Far-end diaphonie perte - Fig. 4).

De plus, un autre type d'interférence survient lors de la propagation du signal, associé à une discordance d'impédance d'entrée. adaptateur de réseau et câble. Cette discordance entraîne une réflexion du signal, qui se traduit également par du bruit.

La transmission de signaux dans les conditions d'interférence décrites ci-dessus nécessite l'utilisation de méthodes ingénieuses pour assurer le débit de transmission requis et en même temps garantir une reconnaissance sans erreur des signaux transmis.

Tout d'abord, rappelons quelles méthodes sont utilisées pour représenter les signaux d'information.

Lors du codage numérique des bits «zéros» et «uns», des codes de potentiel ou d'impulsions sont utilisés. Dans les codes de potentiel (figure 5), seule la valeur de potentiel du signal est utilisée pour représenter des zéros et des uns logiques. Par exemple, un est représenté comme un potentiel de haut niveau, et zéro est représenté comme un potentiel de bas niveau. Les codes d'impulsion permettent aux bits d'être représentés par une baisse de potentiel dans une certaine direction. Ainsi, la baisse de potentiel du niveau bas au niveau haut peut correspondre au zéro logique.

Lors de l'utilisation d'impulsions carrées pour la transmission de données, il est nécessaire de choisir une méthode de codage qui satisferait simultanément plusieurs exigences.

Premièrement, il aurait la plus petite largeur de spectre du signal résultant au même débit binaire.

Deuxièmement, il aurait la capacité de reconnaître les erreurs.

Troisièmement, il assurerait la synchronisation entre le récepteur et l'émetteur.

Code NRZ

Dans le cas le plus simple de codage de potentiel, un un logique peut être représenté comme un potentiel élevé et un zéro logique comme un potentiel bas. Cette façon de représenter un signal est appelée "codage non retour à zéro, ou codage NRZ (Non Return to Zero)". Le terme "pas de retour" dans ce cas signifie que pendant tout l'intervalle d'horloge, il n'y a pas de changement du niveau du signal. La méthode NRZ est simple à mettre en œuvre, a une bonne reconnaissance des erreurs, mais n'a pas la propriété d'auto-synchronisation. Le manque d'auto-synchronisation conduit au fait que lorsque de longues séquences de zéros ou de uns apparaissent, le récepteur est incapable de déterminer à partir du signal d'entrée les moments dans le temps où il est nécessaire de relire les données. Par conséquent, un léger décalage entre les fréquences d'horloge du récepteur et de l'émetteur peut entraîner des erreurs si le récepteur lit des données au mauvais moment lorsque cela est nécessaire. Ce phénomène est particulièrement critique à des vitesses de transmission élevées, lorsque le temps d'une impulsion est extrêmement court (à un débit de transmission de 100 Mbit / s, le temps d'une impulsion est de 10 ns). Un autre inconvénient du code NRZ est la présence d'une composante basse fréquence dans le spectre du signal lorsque de longues séquences de zéros ou de uns apparaissent. Par conséquent, le code NRZ n'est pas utilisé dans sa forme pure pour la transmission de données.

Code NRZI

Un autre type d'encodage est un code NRZ légèrement modifié appelé NRZI (Non Return to Zero with one Inverted). Le code NRZI est la mise en œuvre la plus simple du principe du codage de re-niveau ou du codage différentiel. Avec ce codage, lors de la transmission de zéro, le niveau du signal ne change pas, c'est-à-dire que le potentiel du signal reste le même que dans le cycle précédent. Lorsque vous en transférez un, le potentiel est inversé. La comparaison des codes NRZ et NRZI montre que le code NRZI a une meilleure auto-synchronisation s'il y a plus de codes logiques dans les informations codées que de zéros logiques. Ainsi, ce code vous permet de "combattre" avec de longues séquences de uns, mais ne fournit pas une auto-synchronisation appropriée lorsque de longues séquences de zéros logiques apparaissent.

Code de Manchester

Le code Manchester utilise une baisse de potentiel pour coder des zéros et des uns, c'est-à-dire que le codage est effectué par le front de l'impulsion. La chute de potentiel se produit au milieu de l'impulsion d'horloge, tandis qu'un un est codé par une chute de potentiel bas à haut, et zéro est l'inverse. Au début de chaque mesure, si plusieurs zéros ou uns apparaissent dans une ligne, une baisse du potentiel de service peut se produire.

De tous les codes que nous avons considérés, Manchester a la meilleure auto-synchronisation, puisque la transition de signal se produit au moins une fois par horloge. C'est pourquoi le code Manchester est utilisé dans les réseaux Ethernet avec un débit de transmission de 10 Mbit / s (10Base 5, 10Base 2, 10Base-T).

Code MLT-3

Le code МLТ-3 (Multi Level Transmission-3) est implémenté de la même manière que le code NRZI. Un changement de niveau d'un signal linéaire ne se produit que si une unité est reçue à l'entrée du codeur, cependant, contrairement au code NRZI, l'algorithme de formation est choisi de sorte que deux changements adjacents aient toujours des sens opposés. L'inconvénient du code MLT-3 est le même que celui du code NRZI - le manque de synchronisation appropriée lorsque de longues séquences de zéros logiques apparaissent.

Comme déjà noté, divers codes diffèrent les uns des autres non seulement par le degré d'auto-synchronisation, mais aussi par la largeur du spectre. La largeur du spectre du signal est déterminée principalement par les harmoniques qui apportent la principale contribution d'énergie à la formation du signal. L'harmonique fondamentale est facile à calculer pour chaque type de code. Dans le code NRZ ou NRZI, la fréquence maximale de l'harmonique fondamentale (Fig.6) correspond à une séquence périodique de zéros et de uns logiques, c'est-à-dire lorsque plusieurs zéros ou uns n'apparaissent pas d'affilée. Dans ce cas, la période du fondamental est égale à l'intervalle de temps de deux bits, c'est-à-dire qu'à une vitesse de transmission de 100 Mbit / s, la fréquence du fondamental doit être de 50 Hz.

Dans le code Manchester, la fréquence maximale de l'harmonique fondamentale correspond à la situation où une longue séquence de zéros arrive à l'entrée du codeur. Dans ce cas, la période de l'harmonique fondamentale est égale à l'intervalle de temps d'un bit, c'est-à-dire qu'à une vitesse de transmission de 100 Mbit / s, la fréquence maximale de l'harmonique fondamentale sera de 100 Hz.

Dans le code MLT-3, la fréquence maximale de l'harmonique fondamentale (figure 7) est atteinte lorsque de longues séquences de séquences logiques sont appliquées à l'entrée du codeur. Dans ce cas, la période de l'harmonique fondamentale correspond à un intervalle de temps de quatre bits. Par conséquent, à une vitesse de transmission de 100 Mbps, la fréquence fondamentale maximale sera de 25 MHz.

Comme déjà noté, le codage Manchester est utilisé dans les réseaux Ethrnet 10 Mbit / s, ce qui est associé à la fois aux bonnes propriétés d'auto-synchronisation du code et à la fréquence maximale admissible de l'harmonique fondamentale, qui, lorsqu'elle fonctionne à 10 Mbit / s, sera de 10 MHz. Cette valeur est suffisante pour un câble non seulement de la 5ème, mais aussi de la 3ème catégorie, qui est conçu pour une fréquence de 20 MHz.

Dans le même temps, l'utilisation du codage Manchester pour les réseaux à plus haut débit (100 Mbit / s, 1 Gbit / s) est inacceptable, car les câbles ne sont pas conçus pour fonctionner à des fréquences aussi élevées. Par conséquent, d'autres codes sont utilisés (NRZI et MLT-3), mais ils subissent un traitement supplémentaire pour améliorer les propriétés d'auto-synchronisation du code.

Codes redondants

Un tel traitement supplémentaire consiste en un codage par blocs logiques, lorsqu'un groupe de bits est remplacé par un autre groupe selon un certain algorithme. Les types de codage les plus courants sont les codes redondants 4B / 5B, 8B / 6T et 8B / 10T.

Dans ces codes, les groupes de bits d'origine sont remplacés par des groupes nouveaux mais plus longs. Le code 4B / 5B attribue un groupe de quatre bits à un groupe de cinq bits. La question se pose - à quoi servent toutes ces complications? Le fait est qu'un tel codage est redondant. Par exemple, dans le code 4B / 5B, dans la séquence initiale de quatre bits, il y a 16 combinaisons de bits différentes de zéros et de uns, et dans un groupe de cinq bits, il y a déjà 32 combinaisons de ce type. Par conséquent, dans le code résultant, vous pouvez sélectionner 16 combinaisons de ce type qui ne contiennent pas un grand nombre de zéros (rappelons que dans les codes sources NRZI et MLT-3, de longues séquences de zéros entraînent une perte de synchronisation). Dans ce cas, le reste des combinaisons inutilisées peut être considéré comme des séquences interdites. Ainsi, en plus d'améliorer les propriétés d'auto-synchronisation du code source, le codage redondant permet au récepteur de reconnaître des erreurs, car l'apparition d'une séquence de bits interdite indique une erreur. La correspondance de la source et des codes résultants est donnée dans le tableau. 1 .

Le tableau montre qu'après avoir utilisé le code de redondance 4B / 5B, les séquences résultantes ne contiennent pas plus de deux zéros d'affilée, ce qui garantit l'auto-synchronisation de la séquence de bits.

Dans le code 8B / 6T, la séquence de huit bits d'information d'origine est remplacée par une séquence de six signaux, dont chacun peut prendre trois états. Dans la séquence de huit bits, il y a 256 états différents, et dans la séquence de six signaux à trois niveaux, il y a déjà 729 états de ce type (3 6 \u003d 729), donc 473 états sont considérés comme interdits.

Dans le code 8B / 10T, chaque séquence de huit bits est remplacée par une séquence de dix bits. Dans ce cas, la séquence d'origine contient 256 combinaisons différentes de zéros et de uns, et la séquence résultante en contient 1024. Ainsi, 768 combinaisons sont interdites.

Tous les codes redondants considérés sont utilisés dans les réseaux Ethernet. Ainsi, le code 4B / 5B est utilisé dans le standard 100Base-TX, et le code 8B / 6T est utilisé dans le standard 100Base-4T, qui n'est désormais pratiquement plus utilisé. Le code 8B / 10T est utilisé dans la norme 1000Base-X (lorsque la fibre est utilisée comme support de transmission).

En plus de l'utilisation du codage redondant, une autre façon d'améliorer les propriétés originales des codes est largement utilisée - c'est ce qu'on appelle le brouillage.

Brouillage

Le brouillage (brouillage - mélange) consiste à mélanger la séquence originale de zéros et de uns afin d'améliorer les caractéristiques spectrales et les propriétés d'auto-synchronisation de la séquence de bits résultante. Le brouillage est effectué par OU exclusif au niveau du bit (XOR) de la séquence d'origine avec une séquence pseudo-aléatoire. Le résultat est un flux "crypté", qui est récupéré côté récepteur à l'aide d'un désembrouilleur.

D'un point de vue matériel, un brouilleur se compose de plusieurs portes XOR et registres à décalage. Rappelons que la porte XOR (OU exclusif) effectue une opération logique basée sur la table de vérité sur deux opérandes booléens x et y, qui peuvent prendre la valeur 0 ou 1 (tableau 2).

La propriété principale de l'opération OU exclusif découle directement de ce tableau:

De plus, il est facile de voir que la loi de combinaison est applicable à l'opération OU exclusif:

Dans les schémas, la porte XOR est généralement désignée comme indiqué sur la Fig. 8.

Comme indiqué, l'autre élément constitutif de l'embrouilleur est le registre à décalage. Le registre à décalage se compose de plusieurs cellules de mémoire élémentaires connectées en série les unes avec les autres, réalisées sur la base de circuits de déclenchement et transmettant un signal d'information d'entrée en sortie selon un signal de commande - une impulsion de synchronisation. Les registres à décalage peuvent répondre à la fois au front positif de l'impulsion d'horloge (c'est-à-dire lorsque le signal de commande passe de l'état 0 à l'état 1) et à un front négatif.

Considérez la cellule de stockage la plus simple du registre à décalage, contrôlée par le front montant de l'impulsion de synchronisation C (Fig. 9).

Au moment du changement de l'impulsion d'horloge de l'état 0 à l'état 1, le signal qui était à son entrée à l'instant de temps précédent est transmis à la sortie de la cellule, c'est-à-dire lorsque le signal de commande C était égal à 0. Après cela, l'état de sortie ne change pas (la cellule est verrouillée) jusqu'à arrivée du prochain front positif de l'impulsion de synchronisation.

En utilisant une chaîne composée de plusieurs cellules mémoire connectées séquentiellement avec le même signal de commande, il est possible de créer un registre à décalage (Fig.10), dans lequel les bits d'information seront transmis séquentiellement d'une cellule à une autre de manière synchrone sur le front positif de l'impulsion d'horloge.

Un élément intégral de tout brouilleur est un générateur de séquence pseudo-aléatoire. Un tel générateur est formé à partir du registre à décalage lors de la création d'une rétroaction entre l'entrée et les sorties des cellules de stockage du registre à décalage au moyen de portes XOR.

Considérons le générateur de séquences pseudo-aléatoires illustré à la Fig. Onze . Laissez, au moment initial, les quatre cellules de stockage stocker un état prédéfini. Par exemple, on peut supposer que Q1 \u003d 1, Q2 \u003d 0, Q3 \u003d 0 et Q4 \u003d 1, et à l'entrée de la première cellule, D \u003d 0. Après l'arrivée de l'impulsion de synchronisation, tous les chiffres seront décalés d'un bit, et un signal sera reçu à l'entrée D, dont la valeur est déterminée par la formule:

En utilisant cette formule, il n'est pas difficile de déterminer les valeurs des sorties des cellules de stockage à chaque cycle de fonctionnement du générateur. Table La figure 3 montre l'état des sorties des cellules de stockage du générateur de séquences pseudo-aléatoires à chaque cycle de fonctionnement. En même temps, il est facile de voir qu'au moment initial et après 15 cycles d'horloge, l'état du générateur est complètement répété, c'est-à-dire que 15 cycles d'horloge est la période de répétition de notre séquence pseudo-aléatoire (c'est à partir de la présence de la période de répétition que la séquence est appelée pseudo-aléatoire). En général, si le générateur est constitué de n-cellules, la période de répétition est:

Le générateur que nous avons considéré utilisait un état initial arbitraire des cellules, c'est-à-dire qu'il avait un préréglage. Cependant, au lieu d'un tel préréglage, les brouilleurs utilisent souvent la séquence d'origine elle-même, qui est soumise à un brouillage. Ces brouilleurs sont appelés auto-synchronisants. Un exemple d'un tel brouilleur est illustré à la Fig. 12.

Si nous désignons le chiffre binaire du code source arrivant au i-ème cycle de travail à l'entrée de l'embrouilleur par A i, et le chiffre binaire du code résultant obtenu au i-ème cycle de travail par B i, alors il est facile de voir que l'embrouilleur considéré implémente la logique suivante opération:, où B i -3 et B i -4 sont les chiffres binaires du code résultant obtenu dans les cycles d'horloge précédents de l'embrouilleur, respectivement, 3 et 4 cycles d'horloge plus tôt que l'instant actuel.

Après décodage de la séquence ainsi obtenue, un désembrouilleur est utilisé côté récepteur. Le plus étonnant est que le schéma de désembrouilleur est complètement identique au schéma de brouilleur. Il n'est pas difficile d'être convaincu qu'il en est vraiment ainsi par un simple raisonnement. Si l'on note B i le chiffre binaire du code source arrivant au i-ème cycle de travail à l'entrée du désembrouilleur, et le chiffre binaire du code résultant reçu au i-ème cycle de travail, par C i, alors le désembrouilleur, fonctionnant de la même manière que scrambler doit implémenter l'algorithme suivant:

Par conséquent, si le schéma du désembrouilleur est le même que celui du brouilleur, alors le désembrouilleur restaure complètement la séquence de bits d'information d'origine.

Le circuit brouilleur à quatre bits considéré est l'un des plus simples. La technologie 1000Base-T utilise un brouilleur 33 bits beaucoup plus complexe, qui augmente la période de répétition à 8 589 934 591 bits (2 33 -1), c'est-à-dire que les séquences pseudo-aléatoires générées sont répétées après 68,72 s.

Encodage PAM-5

Après avoir déterminé quels codes sont utilisés pour représenter les données, et avoir examiné des méthodes pour améliorer les propriétés d'auto-synchronisation et spectrales de ces codes, nous essaierons de savoir si ces mesures sont suffisantes pour assurer un transfert de données à une vitesse de 1000 Mbps à l'aide d'un câble de catégorie 5 à quatre paires.

Comme déjà noté, le codage Manchester a de bonnes propriétés d'auto-synchronisation et en ce sens ne nécessite aucune modification, cependant, la fréquence maximale de l'harmonique fondamentale est numériquement égale au débit de données, c'est-à-dire au nombre de bits transmis par seconde. Cela suffit pour transférer des données à une vitesse de 10 Mbps, car le câble de la 3ème catégorie (et dans la norme 10Base-T un tel câble peut être utilisé) est limité à des fréquences de 16 MHz. Cependant, le codage Manchester ne convient pas aux taux de transfert de données de 100 Mbps ou plus.

L'utilisation du code NRZI, après raffinement supplémentaire avec un code bloc redondant 4B / 5B et un brouillage, ainsi qu'un code MLT-3 à trois positions (afin de réduire la fréquence maximale de l'harmonique fondamentale), permet aux données d'être transmises à un débit de 100 Mbit / s sur un câble de catégorie 5. En effet, lors de l'utilisation du code MLT-3, la fréquence maximale de l'harmonique fondamentale est numériquement égale à un quart du débit de transmission de données, c'est-à-dire à un débit de transmission de 100 Mbit / s, la fréquence fondamentale ne dépasse pas 25 MHz, ce qui est largement suffisant pour un câble de catégorie 5. Cependant, cette méthode n'est pas adaptée à la transmission de données à 1000 Mbps.

Par conséquent, la norme 1000Base-T utilise une méthode de codage fondamentalement différente. Pour réduire la fréquence d'horloge à une valeur qui permet aux données d'être transmises sur des paires torsadées de catégorie 5, les données sur la ligne sont représentées dans ce que l'on appelle le code PAM-5 (Fig. 13). Dans celui-ci, le signal transmis a un ensemble de cinq niveaux fixes (–2, –1, 0, +1, +2). Quatre d'entre eux sont utilisés pour coder des bits d'information et le cinquième pour la correction d'erreurs. Sur un ensemble de quatre niveaux fixes, un état de signal discret peut coder deux bits d'information à la fois, car une combinaison de deux bits a quatre combinaisons possibles (appelées dibits) - 00, 01, 10 et 11.

Passer aux dibits vous permet de doubler le débit binaire. Pour distinguer le bit ou l'information, le débit et le débit de divers états de signaux discrets, le concept de débit en bauds est introduit. Baud est le nombre d'états discrets différents d'un signal par unité de temps. Par conséquent, si deux bits sont codés dans un état discret, le débit binaire est le double du débit en bauds, c'est-à-dire 1 baud \u003d 2 bits / s.

Si l'on tient compte du fait que le câble de la 5ème catégorie est conçu pour une fréquence de 125 MHz, c'est-à-dire qu'il est capable de fonctionner à une vitesse de transmission de 125 MBaud, alors le débit d'information sur une paire torsadée sera de 250 Mbit / s. Rappelez-vous que le câble a quatre paires torsadées, donc si vous utilisez les quatre paires (Fig.14), vous pouvez augmenter la vitesse de transmission à 250 Mbit / c4 \u003d 1000 Mbit / s, c'est-à-dire atteindre la vitesse souhaitée.

Comme indiqué, il y a cinq couches discrètes dans le codage PAM-5, mais seulement quatre couches sont utilisées pour transmettre des dibits. Le cinquième niveau de code redondant (Forward Error Correction, FEC) est utilisé pour le mécanisme de construction de correction d'erreur. Il est implémenté par l'encodeur Trellis et le décodeur Viterbi. L'utilisation du mécanisme de correction d'erreur permet d'augmenter l'immunité au bruit du récepteur de 6 dB.

Codage en treillis

Considérez les principes du codage en treillis basé sur le codeur le plus simple, qui se compose de deux cellules de mémoire et d'éléments XOR (Fig. 15). Laissez une séquence de bits 0101110010 arriver à l'entrée d'un tel codeur à un débit de k bit / s. Si une cellule de lecture est installée à la sortie du codeur, fonctionnant à deux fois la fréquence du débit binaire à l'entrée du codeur, alors le débit du flux de sortie sera deux fois plus élevé que le débit du flux d'entrée ... Dans ce cas, la cellule de lecture pour la première moitié du cycle du codeur lit d'abord les données à partir de la porte XOR 2, et la seconde moitié du cycle à partir de la porte XOR 3. En conséquence, chaque bit d'entrée se voit attribuer deux bits de sortie, c'est-à-dire un dibit, dont le premier bit est formé l'élément XOR 2 et le deuxième élément XOR 3. Selon le chronogramme de l'état du codeur, il est facile de tracer qu'avec la séquence de bits d'entrée 0101110010, la séquence de sortie sera 00 11 10 00 01 10 01 11 11 10.

Notons une caractéristique importante du principe de formation des dibites. La valeur de chaque dibit formé dépend non seulement du bit d'information entrant, mais également des deux bits précédents, dont les valeurs sont stockées dans deux cellules mémoire. En effet, s'il est admis que A i est le bit d'entrée, alors la valeur de l'élément XOR 2 sera déterminée par l'expression, et la valeur de l'élément XOR 3 - par l'expression. Ainsi, un dibit est formé d'une paire de bits dont la valeur du premier est égale et celle du second -. Par conséquent, la valeur de dibit dépend de trois états: la valeur du bit d'entrée, la valeur de la première cellule de mémoire et la valeur de la deuxième cellule de mémoire. De tels codeurs sont appelés codeurs convolutifs à trois états (K \u003d 3) avec un débit de sortie de 1/2.

Il est pratique de visualiser le travail du codeur sur la base non pas de chronogrammes, mais du soi-disant diagramme d'état. L'état du codeur sera indiqué à l'aide de deux valeurs - les valeurs des première et deuxième cellules de stockage. Par exemple, si la première cellule stocke la valeur 1 (Q1 \u003d 1) et la seconde stocke 0 (Q2 \u003d 0), l'état du codeur est décrit par la valeur 10. Il y a quatre états différents du codeur au total: 00, 01, 10 et 11.

Soit l'état du codeur à 00 à un certain moment du temps. Nous nous intéressons à ce que sera l'état du codeur à l'instant suivant et quel dibit se formera dans ce cas. Il y a deux résultats possibles, en fonction du bit qui arrive à l'entrée du codeur. Si 0 arrive à l'entrée du codeur, alors l'état suivant du codeur sera également 00, si 1 arrive, alors l'état suivant (c'est-à-dire après le décalage) sera 10. La valeur des dibits formés dans ce cas est calculée par les formules et. Si 0 arrive à l'entrée du codeur, alors le dibit 00 () sera généré, mais si 1 arrive à l'entrée, alors le dibit 11 () est formé. Le raisonnement ci-dessus est commodément présenté visuellement en utilisant un diagramme d'état (Fig. 16), où les cercles indiquent les états du codeur, et le bit entrant et le dibit généré sont écrits avec une barre oblique. Par exemple, si le bit entrant est 1 et le bit généré est 11, alors nous écrivons: 1/11.

En poursuivant un raisonnement similaire pour tous les autres états possibles du codeur, il est facile de construire un diagramme d'états complet, à partir duquel la valeur du dibit formé par le codeur est facilement calculée.

En utilisant le diagramme d'état du codeur, il est facile de construire un diagramme de temps de transition pour la séquence de bits d'entrée 0101110010 que nous avons déjà considérée. Pour cela, un tableau est construit, dans les colonnes dont les états possibles du codeur sont marqués, et dans les lignes - les moments de temps. Les transitions possibles entre différents états du codeur sont indiquées par des flèches (sur la base du diagramme complet des états du codeur - Fig. 17), au-dessus desquelles le bit d'entrée correspondant à cette transition et le dibit correspondant sont indiqués. Par exemple, pour les deux premiers points dans le temps, le diagramme d'état du codeur ressemble à celui illustré à la Fig. 18. La flèche rouge montre la transition correspondant à la séquence de bits considérée.

En continuant à afficher les transitions possibles et réelles entre différents états du codeur, correspondant à différents moments dans le temps (Fig. 19 ,,), nous obtenons un chronogramme complet des états du codeur (Fig. 22).

Le principal avantage de la méthode de codage en treillis ci-dessus est son immunité au bruit. Comme on le verra plus loin, en raison de la redondance de codage (rappelez-vous que chaque bit d'information se voit attribuer un dibit, c'est-à-dire que la redondance du code est égale à 2) même en cas d'erreurs de réception (par exemple, au lieu de dybit 11, le dybit 10 a été reçu par erreur), la séquence de bits d'origine peut être restauré sans aucun doute.

Un décodeur Viterbi est utilisé pour restaurer la séquence de bits d'origine du côté récepteur.

Décodeur Viterbi

Le décodeur de Viterbi, en cas de réception sans erreur de toute la séquence de dibits 00 11 10 00 01 10 01 11 11 10, aura des informations sur cette séquence, ainsi que sur la structure du codeur (c'est-à-dire son diagramme d'état) et son état initial (00). Sur la base de ces informations, il doit reconstruire la séquence de bits d'origine. Examinons comment les informations d'origine sont restaurées.

Connaissant l'état initial du codeur (00), ainsi que les changements possibles de cet état (00 et 10), nous construisons un chronogramme pour les deux premiers points dans le temps (Fig. 22). Dans ce diagramme à partir de l'état 00, il n'y a que deux chemins possibles correspondant à des dibits d'entrée différents. Puisque le dibit d'entrée du décodeur est 00, alors, en utilisant le diagramme d'état du codeur Trellis, nous établissons que l'état suivant du codeur sera 00, ce qui correspond au bit 0 d'origine.

Cependant, nous n'avons pas une garantie à 100% que le dibit 00 reçu est correct, il ne vaut donc pas la peine de balayer le deuxième chemin possible de l'état 00 à l'état 10, correspondant au dibit 11 et au bit d'origine 1. Les deux chemins indiqués dans le diagramme diffèrent l'un de l'autre. la métrique dite d'erreur, qui pour chaque chemin est calculée comme suit. Pour la transition correspondant au dibit reçu (c'est-à-dire pour la transition considérée comme correcte), la métrique d'erreur est considérée comme égale à zéro, et pour les transitions restantes, elle est calculée par le nombre de bits différents dans le dibit reçu et le dibit correspondant à la transition en question. Par exemple, si le dibit reçu est 00, et le dibit correspondant à la transition considérée est 11, alors la métrique d'erreur pour cette transition est 2.

Pour l'instant de temps suivant correspondant au dibit 11 reçu, deux états initiaux du codeur seront possibles: 00 et 10, et les états finaux seront quatre: 00, 01, 10 et 11 (Fig. 23). En conséquence, pour ces états finaux, il existe plusieurs chemins possibles qui diffèrent les uns des autres dans la métrique d'erreur. Lors du calcul de la métrique d'erreur, il est nécessaire de prendre en compte la métrique de l'état précédent, c'est-à-dire si pour le moment précédent la métrique de l'état 10 était égale à 2, alors lors du passage de cet état à l'état 01, la métrique d'erreur du nouvel état (la métrique du chemin entier) deviendra égale à 2 + 1 \u003d 3 ...

Pour l'instant de temps suivant correspondant au dibit 10 reçu, on note que les états 00, 01 et 11 conduisent selon deux chemins (Fig. 24). Dans ce cas, il est nécessaire de ne laisser que les transitions auxquelles correspond la métrique d'erreur inférieure. De plus, étant donné que les transitions de l'état 11 à l'état 11 et à l'état 01 sont rejetées, la transition de l'état 10 à l'état 11 correspondant au moment précédent ne se poursuit pas, de sorte qu'elle peut également être rejetée. De même, la transition correspondant à l'instant de temps précédent de l'état 00 à 00 est rejetée.

En poursuivant ce raisonnement, vous pouvez calculer la métrique de tous les chemins possibles et représenter tous les chemins possibles.

Dans ce cas, le nombre de chemins possibles eux-mêmes s'avère être moins important qu'il n'y paraît, car la plupart d'entre eux sont rejetés dans le processus de construction comme n'ayant pas de suite (Fig. 25). Par exemple, à la sixième horloge du fonctionnement du décodeur selon l'algorithme décrit, il n'y a que quatre chemins possibles.

De même, au dernier cycle d'horloge du décodeur, il n'y a que quatre chemins possibles (figure 26), et le vrai chemin qui restaure de manière unique la séquence de bits d'origine 0101110010 correspond à la métrique d'erreur égale à 0.

Lors de la construction des chronogrammes considérés, il est pratique d'afficher la métrique des erreurs accumulées pour divers états du codeur sous la forme d'un tableau. C'est cette table qui est la source des informations sur la base desquelles il est possible de restaurer la séquence de bits d'origine (tableau 4).

Dans le cas décrit ci-dessus, nous avons supposé que tous les dibits reçus par le décodeur ne contiennent pas d'erreurs. Examinons plus en détail la situation où la séquence de dibits reçue contient deux erreurs. Soit, au lieu de la séquence correcte 00 11 10 00 01 10 01 11 11 10, le décodeur reçoit la séquence 00 11 11 00 11 10 01 11 11 10, dans laquelle les troisième et cinquième débits sont mauvais. Essayons d'appliquer l'algorithme de Viterbi considéré ci-dessus, basé sur le choix du chemin avec la plus petite métrique d'erreur, à cette séquence et voyons si nous pouvons restaurer la séquence de bits d'origine sous la forme correcte, c'est-à-dire corriger les erreurs défectueuses.

Jusqu'à ce que le troisième (mauvais) dibit soit obtenu, l'algorithme de calcul de la métrique d'erreur pour toutes les transitions possibles ne diffère pas du cas considéré précédemment. Jusqu'à ce point, le chemin indiqué sur la figure 2 présentait la plus petite métrique d'erreurs accumulées. 27 en rouge. Après réception d'un tel dibit, il n'y a plus de chemin avec une métrique d'erreurs cumulées égale à 0. Cependant, dans ce cas, deux chemins alternatifs avec une métrique égale à 1. Par conséquent, il est impossible de savoir à ce stade quel bit de la séquence d'origine correspond au dibit reçu.

Une situation similaire se produira lors de la réception du cinquième dibit (également défectueux) (Fig. 28). Dans ce cas, il y aura déjà trois chemins avec une métrique égale d'erreurs accumulées, et il est possible d'établir le vrai chemin uniquement lorsque les dibits suivants sont reçus.

Après avoir reçu le dixième dibit, le nombre de chemins possibles avec différentes métriques d'erreurs accumulées deviendra assez grand (Fig.29), cependant, dans le diagramme ci-dessus (en utilisant le tableau 5, qui montre la métrique des erreurs accumulées pour divers chemins), il est facile de choisir le seul chemin avec la plus petite métrique (sur fig.29

L'exemple considéré d'un codeur convolutif n'avait que quatre états différents: 00, 01, 10 et 11. La technologie 1000Base-T utilise un codeur convolutif pour huit états différents (avec trois éléments de retard), on l'appelle donc un codeur à huit positions. De plus, étant donné que les symboles sont transmis simultanément sur les quatre paires torsadées du câble en utilisant un codage PAM-5 à cinq niveaux, ce codage est appelé 4D / PAM-5.

Une autre différence significative du codeur Trellis utilisé dans la technologie 1000Base-T est l'algorithme de transition entre différents états du codeur. Dans l'exemple le plus simple que nous ayons considéré, l'état du codeur au moment suivant était déterminé exclusivement par l'état actuel et le bit d'entrée. Ainsi, si l'état actuel est 00 et que le bit d'entrée est 1, alors l'état suivant, c'est-à-dire le champ de décalage de bits dans les cellules de stockage, correspondra à 10. Dans un véritable codeur Trellis à huit positions, il y a deux bits de contrôle (d'entrée) et les transitions entre différents états sont déterminées par l'algorithme la plus grande distance entre les points de la constellation. Comme il ressort de la Fig. 30, l'encodeur Trellis implémente la relation:

où d 6, d 7 et d 8 sont les bits de données sur les lignes 6, 7 et 8, respectivement.

Expliquons cela avec un exemple précis.

N'oubliez pas que PAM-5 utilise cinq niveaux de signalisation: –2, –1, 0, +1, +2. Dans ce cas, les niveaux + 2 / –2 correspondent à la tension + 1 / –1 V, et les niveaux + 1 / –1 correspondent à la tension + 0,5 / –0,5 V. Considérant que quatre paires torsadées transmettent simultanément quatre niveaux de signal et chacun de ces niveaux peut prendre l'une des cinq valeurs, au total, nous obtenons 625 (5x5x5x5) combinaisons de signaux différentes. Il est pratique de représenter divers états de signal possibles sur ce que l'on appelle le plan de signal. Sur ce plan, chaque état de signal possible est représenté par un point de signal, et l'ensemble de tous les points de signal est appelé une constellation de signal. Naturellement, il n'est pas possible de représenter un espace à quatre dimensions, par conséquent, pour plus de clarté, considérons une constellation de signaux à deux dimensions 5x5. Une telle constellation peut formellement correspondre à deux paires torsadées. Dessinez le long des points de l'axe X correspondant à une paire torsadée et le long de l'axe Y - un autre. Ensuite, notre constellation 2D ressemblera à celle illustrée à la Fig. 31.

Notez que la distance minimale entre deux points d'une telle constellation est de 1.

Sous l'influence du bruit et de l'atténuation du signal, la constellation du signal subit des distorsions (Fig. 32), à la suite desquelles la position de chaque point de signal se propage et la distance entre eux diminue. En conséquence, les points de la constellation deviennent difficiles à distinguer et il y a une forte probabilité de confusion.

Par conséquent, l'une des tâches du codeur Trellis est une telle formation de la constellation de signaux, qui fournirait la distance maximale entre les différents points de signal. Afin de comprendre comment cela se fait, désignons les niveaux de signal –1 et +1 à X, et les niveaux –2, 0, +2 à Y. Ensuite, la constellation d'origine peut être représentée sous la forme illustrée à la Fig. 33.

En divisant cette constellation en deux sous-constellations, dont l'une est formée des points XX et YY et l'autre des points XY et YX, vous pouvez augmenter la distance entre les points de signal (Fig. 34).

Lors de l'utilisation de deux paires torsadées, la tâche du codeur Trellis est d'envoyer sur une paire torsadée uniquement les symboles appartenant à l'une des constellations de signaux, par exemple D0 \u003d XX + YY, et sur la deuxième paire torsadée - symboles appartenant à une autre constellation, par exemple D1 \u003d XY + YX. Ensuite, la distance entre les symboles envoyés deviendra deux fois plus grande qu'elle l'était dans la constellation d'origine. En conséquence, la reconnaissance des points dans la constellation de signaux est améliorée, c'est-à-dire que l'immunité au bruit augmente.

Un véritable encodeur en treillis fonctionne à peu près de la même manière, ce qui forme des symboles envoyés sur quatre paires torsadées, cependant, puisque chaque point de la constellation correspond à quatre coordonnées (une pour chaque paire) et que chaque point peut prendre la valeur X ou Y, alors il y a 16 combinaisons différentes à partir desquelles huit sous-constellations peuvent être formées:

Dans les sous-constellations résultantes, la distance minimale entre les points est deux fois plus grande que dans la constellation d'origine. De plus, la distance minimale entre les points de deux sous-constellations différentes est également de 2. Ce sont ces huit constellations de signaux qui forment le diagramme d'état du codeur en treillis. Par exemple, l'état du codeur 000 correspond à une combinaison de points des constellations D0D2D4D6 dans le sens où des points de la constellation D0 sont transmis le long de la première paire, des points de la constellation D2 sont transmis le long de la deuxième paire, etc. Le prochain état possible du codeur correspondra à une telle combinaison dans laquelle la distance minimale entre les symboles envoyés pour chaque paire est égale à 2.

L'utilisation d'un codage en treillis selon le schéma décrit permet de réduire le rapport signal sur bruit (SNR) de 6 dB, c'est-à-dire d'augmenter considérablement l'immunité au bruit pendant la transmission de données.

ComputerPress 2 "2002

LA CLOCHE

Il y a ceux qui ont lu cette nouvelle avant vous.
Abonnez-vous pour recevoir les derniers articles.
Email
Nom
Nom de famille
Comment voulez-vous lire The Bell
Pas de spam