LA CAMPANA

C'è chi legge queste notizie prima di te.
Iscriviti per ricevere articoli freschi.
E-mail
Nome
cognome
Come vuoi leggere The Bell
No spam

Su una rete, più computer devono avere accesso condiviso a un mezzo di trasmissione. Tuttavia, se due computer tentano di trasmettere i dati contemporaneamente, si verificherà una collisione e i dati andranno persi.

Tutti i computer in rete devono utilizzare lo stesso metodo di accesso, altrimenti la rete non funzionerà. I singoli computer, i cui metodi domineranno, non consentiranno agli altri di trasferirsi. I metodi di accesso sono utilizzati per impedire l'accesso simultaneo al cavo di più computer, semplificando la trasmissione e la ricezione dei dati in rete e garantendo che un solo computer alla volta possa funzionare.

Con accesso multiplo con controllo dell'operatore e rilevamento delle collisioni (abbreviato CSMA / CD), tutti i computer della rete - sia client che server - ascoltano via cavo, provando a rilevare i dati trasmessi (ovvero il traffico).

1) Il computer "capisce" che il cavo è libero (ovvero non c'è traffico).

2) Il computer può avviare il trasferimento dei dati.

3) Fino al rilascio del cavo (durante il trasferimento dei dati), nessuno dei computer di rete può trasmettere.

Quando si tenta di accedere contemporaneamente al supporto di trasmissione di più di un dispositivo di rete, si verifica una collisione. I computer rilevano il verificarsi di una collisione, rilasciano la linea di trasmissione per un intervallo di tempo casuale (entro i limiti definiti dallo standard), dopo di che il tentativo di trasmissione viene ripetuto. Il computer che per primo ha catturato la linea di trasmissione inizia a trasmettere dati.

CSMA / CD è noto come metodo contraddittorio perché i computer di rete "competono" (competono) per il diritto di trasmettere dati.

La capacità di rilevare le collisioni è un motivo che limita l'ambito del CSMA / CD stesso. A causa della velocità di propagazione finita del segnale nei fili a distanze superiori a 2500 m (1,5 miglia), il meccanismo di rilevamento delle collisioni non è efficace. Se la distanza dal computer trasmittente supera questo limite, alcuni computer non hanno il tempo di rilevare il carico del cavo e iniziare a trasferire i dati, il che porta alla collisione e alla distruzione dei pacchetti di dati.

Esempi di protocolli CDSMA / CD sono Ethernet versione 2 di DEC e IEEE 802.3.

Specifiche dei supporti fisici Ethernet

Sono state sviluppate varie opzioni per lo strato fisico per la tecnologia Ethernet, che differiscono non solo per il tipo di cavo e i parametri elettrici degli impulsi, come avviene nella tecnologia Ethernet a 10 Mb / s, ma anche per il modo in cui i segnali sono codificati e il numero di conduttori utilizzati nel cavo. Pertanto, il livello Ethernet fisico ha una struttura più complessa rispetto alla classica Ethernet.

Le specifiche della tecnologia Ethernet oggi includono i seguenti supporti.

  • 10Base-2   - un cavo coassiale con un diametro di 0,25 pollici, chiamato sottile coassiale. Ha un'impedenza d'onda di 50 ohm. La lunghezza massima del segmento è di 185 metri (senza ripetitori).
  • 10Base-5   - cavo coassiale con un diametro di 0,5 pollici, chiamato coassiale "spesso". Ha un'impedenza d'onda di 50 Ohm. La lunghezza massima del segmento senza ripetitore è di 500 metri.
  • 10Base-T   - cavo basato su doppino non schermato (UTP). Forma una topologia a forma di stella basata su hub. La distanza tra l'hub e il nodo finale non è superiore a 100 metri.
  • 10Base-F   - cavo in fibra ottica. La topologia è simile alla topologia dello standard 10Base-T. Esistono diverse varianti di questa specifica: FOIRL (distanza fino a 1000 m), 10Base-FL (distanza fino a 2000 m).

Formati frame Ethernet

Come nella produzione, i frame Ethernet sono tutto. Servono da archivio per tutti i pacchetti di alto livello, quindi, per capirsi, il mittente e il destinatario devono usare lo stesso tipo di frame Ethernet. Lo standard della tecnologia Ethernet definito in IEEE802.3 fornisce una descrizione di un singolo formato di frame a livello MAC, che può essere di soli quattro formati diversi e anche non molto diversi l'uno dall'altro. Inoltre, ci sono solo due formati di frame di base (nella terminologia inglese sono chiamati "formati grezzi") - Ethernet_II ed Ethernet_802.3, e differiscono nello scopo di un solo campo.

  • cornice Ethernet DIX (Ethernet II). È apparso a seguito di un consorzio di tre aziende Digital, Intel e Xerox nel 1980, che ha presentato al comitato 802.3 la sua versione proprietaria dello standard Ethernet come bozza di standard internazionale.
  • 802.3 / LLC, 802.3 / 802.2  o Novell 802.2. Adottato dal comitato 802.3 ha adottato uno standard che differisce in alcuni dettagli da Ethernet DIX.
  • Frame 802.3 grezzoo Novell 802.3  - è apparso come risultato degli sforzi di Novell per accelerare il suo stack di protocollo nelle reti Ethernet

Ogni frame inizia con un preambolo (Preambolo) Lunghezza di 7 byte, riempito con il modello 0b10101010 (per la sincronizzazione di origine e destinazione). Dopo il preambolo arriva il byte del delimitatore di frame iniziale (Inizio del delimitatore di frame, SFD), contenente la sequenza 0b10101011 e che indica l'inizio del proprio frame. Successivamente ci sono i campi Indirizzo di destinazione (DA) e Indirizzo (SA) di origine. Ethernet utilizza indirizzi di livello IEEE MAC a 48 bit.

Il campo seguente ha significati diversi e lunghezze diverse a seconda del tipo di cornice.

Alla fine del frame si trova un campo Checksum a 32 bit (Frame Check Sequence, FCS). Il checksum viene calcolato utilizzando l'algoritmo CRC-32. Dimensione frame Ethernet da 64 a 1518 byte (escluso il preambolo, ma tenendo conto del campo checksum)

  Tipo di frame Ethernet DIX

Un frame Ethernet DIX, chiamato anche frame Ethernet II, è simile a un frame Raw 802.3 in quanto non utilizza le intestazioni del sublayer LLC, ma differisce dal fatto che un campo del tipo di protocollo (campo Tipo) è definito al posto del campo lunghezza in esso. Questo campo è destinato agli stessi scopi dei campi DSAP e SSAP del frame LLC - per indicare il tipo di protocollo di livello superiore che ha incorporato il suo pacchetto nel campo dati di questo frame. Per codificare il tipo di protocollo, vengono utilizzati valori che superano la lunghezza massima del campo di dati di 1500, pertanto i frame Ethernet II e 802.3 sono facilmente distinguibili.

  Tipo di frame Raw 802.3.

Dietro l'indirizzo di origine, contiene un campo di lunghezza a 16 bit (L), che determina il numero di byte che seguono il campo di lunghezza (escluso il campo di checksum). Un pacchetto di protocollo IPX è sempre incorporato in questo tipo di frame. I primi due byte dell'intestazione del protocollo IPX contengono il checksum del datagramma IPX. Tuttavia, questo campo non è utilizzato per impostazione predefinita e ha un valore di 0xFFFF.

  Tipo di telaio 802.3.LLC

Dietro il campo dell'indirizzo di origine c'è un campo di lunghezza di 16 bit che determina il numero di byte che seguono questo campo (escluso il campo di checksum), seguito dall'intestazione LLC. L'intestazione del frame 802.3 / LLC è il risultato della combinazione dei campi dell'intestazione del frame definiti in 802.3 e 802.2.

Lo standard 802.3 definisce otto campi di intestazione:

Preamboloè costituito da sette byte di dati di sincronizzazione. Ogni byte contiene la stessa sequenza di bit - 10101010. Nella codifica Manchester, questa combinazione è rappresentata nel mezzo fisico da un segnale di onda periodica. Il preambolo è usato per dare tempo e opportunità ai circuiti del ricetrasmettitore di entrare in sincronismo stabile con i segnali di clock ricevuti.

Avvia limitatore  il frame è costituito da un byte con un set di bit 10101011. L'aspetto di questa combinazione è un'indicazione dell'imminente ricezione del frame.

Indirizzo del destinatario- può essere lungo 2 o 6 byte (indirizzo MAC di destinazione). Il primo bit dell'indirizzo del destinatario indica se l'indirizzo è individuale o di gruppo: se 0, allora l'indirizzo indica una stazione specifica, se 1, questo è l'indirizzo multicast di diverse (possibilmente tutte) stazioni di rete. Nell'indirizzamento broadcast, tutti i bit del campo dell'indirizzo sono impostati su 1. È generalmente accettato l'uso di indirizzi a 6 byte.

Indirizzo del mittente  - Campo a 2 o 6 byte contenente l'indirizzo della stazione mittente. Il primo bit è sempre 0.

Doppio byte campo di lunghezza  determina la lunghezza del campo dati nel frame.

Campo dati  può contenere da 0 a 1500 byte. Ma se la lunghezza del campo è inferiore a 46 byte, viene utilizzato il seguente campo: il campo di riempimento per integrare il frame alla lunghezza minima consentita.

Compila il campo  è composto da così tanti byte segnaposto che fornisce una certa lunghezza minima del campo dati (46 byte). Ciò garantisce il corretto funzionamento del meccanismo di rilevamento delle collisioni. Se la lunghezza del campo dati è sufficiente, il campo di riempimento non appare nel riquadro.

Campo di checksum- 4 byte contenenti il \u200b\u200bvalore, che viene calcolato da un algoritmo specifico (CRC-32 polinomiale). Dopo aver ricevuto il frame, la workstation esegue il proprio calcolo del checksum per questo frame, confronta il valore ricevuto con il valore del campo checksum e, quindi, determina se il frame ricevuto è distorto.

Un frame 802.3 è un frame sublayer MAC; in conformità con lo standard 802.2, un frame sublayer LLC con flag di inizio e fine rimossi di un frame è incorporato nel suo campo dati.

Il frame 802.3 / LLC risultante è mostrato in basso. Poiché il frame LLC ha un'intestazione di 3 byte, la dimensione massima del campo dati è ridotta a 1497 byte.

  Tipo di frame Ethernet SNAP

Il frame Ethernet SNAP (SNAP - SubNetwork Access Protocol) è un'estensione del frame 802.3 / LLC introducendo un'intestazione del protocollo SNAP aggiuntiva. L'intestazione è composta da un campo identificatore di organizzazione (OUI) a 3 byte e un campo di tipo a 2 byte (Tipo, Ethertype). Il tipo identifica il protocollo di livello superiore e il campo OUI identifica l'identificatore dell'organizzazione che controlla l'assegnazione dei codici del tipo di protocollo. I codici protocollo per gli standard IEEE 802 sono controllati da IEEE, che ha un codice OUI di 0x000000. Per questo codice OUI, il campo del tipo per Ethernet SNAP è lo stesso del tipo Ethernet DIX.

Tabella riassuntiva sull'uso di diversi tipi di frame con protocolli di livello superiore.

tipocornice

Ethernet II

Ethernet Raw 802.3

Ethernet 802.3 / LLC

Ethernet SNAP

reteprotocolli

IPX, IP, AppleTalk Fase I

IPX, IP, AppleTalk Fase II

  Ethernet veloce

  La differenza tra Fast Ethernet ed Ethernet

Tutte le differenze tra la tecnologia Ethernet e Fast Ethernet sono focalizzate sul livello fisico. Lo scopo della tecnologia Fast Ethernet è quello di ottenere in modo significativo, un ordine di grandezza più veloce, velocità rispetto a 10 Base T Ethernet - IEEE 802.3, mantenendo lo stesso metodo di accesso, formato di frame e sistema di registrazione. I livelli MAC e LLC in Fast Ethernet sono rimasti assolutamente gli stessi stesso.

L'organizzazione del livello fisico della tecnologia Fast Ethernet è più complessa, poiché utilizza tre opzioni per i sistemi via cavo:

  • Cavo a fibre ottiche multimodale (due fibre)
  • Twisted pair categoria 5 (due coppie)
  • Twisted pair categoria 3 (quattro coppie)

Il cavo coassiale in Fast Ethernet non viene utilizzato. Le reti Fast Ethernet su un ambiente condiviso come le reti 10Base-T / 10Base-F hanno una struttura ad albero gerarchica costruita su hub. La principale differenza nella configurazione delle reti Fast Ethernet è una riduzione del diametro a 200 metri, che è spiegata da una riduzione di 10 volte del tempo di trasmissione di una lunghezza minima del frame rispetto a una rete Ethernet da 10 megabyte.

Ma quando si utilizzano gli switch, il protocollo Fast Ethernet può funzionare in modalità duplex, in cui non vi sono restrizioni sulla lunghezza totale della rete, ma solo su singoli segmenti fisici.

Specifiche dell'ambiente fisicoEthernet

  • 100BASE-T   - Un termine generale per uno dei tre standard Ethernet da 100 Mbit / s, che utilizza una coppia twistata come supporto. Lunghezza del segmento fino a 200-250 metri. Include 100BASE-TX, 100BASE-T4 e 100BASE-T2.
  • 100BASE-TX, IEEE 802.3u  - Sviluppo della tecnologia 10BASE-T, viene utilizzata la topologia a stella, viene utilizzato un cavo a doppino intrecciato di categoria 5, in cui vengono effettivamente utilizzate 2 coppie di conduttori, la velocità massima di trasferimento dei dati è di 100 Mbps.
  • 100BASE-T4   - Cavo Ethernet 100 Mbit / s su categoria 3. Tutte e 4 le coppie sono coinvolte. Ora quasi mai usato. La trasmissione dei dati è in modalità half duplex.
  • 100BASE-T2   - Non utilizzato. Ethernet a 100 Mbps tramite cavo di categoria 3. Vengono utilizzate solo 2 coppie. La modalità di trasmissione full duplex è supportata quando i segnali si propagano in direzioni opposte su ciascuna coppia. La velocità di trasmissione in una direzione è di 50 Mbps.
  • 100BASE-FX   - Ethernet a 100 Mbps con cavo in fibra ottica. La lunghezza massima del segmento è di 400 metri in modalità half-duplex (per il rilevamento garantito delle collisioni) o 2 chilometri in modalità full duplex su fibra ottica multi-mode e fino a 32 chilometri su single-mode.

  Ethernet Gigabit

  • 1000BASE-T, IEEE 802.3ab  - Standard Ethernet 1 Gb / s. Viene utilizzato un cavo a doppino intrecciato di categoria 5e o categoria 6. Tutte e 4 le coppie partecipano alla trasmissione dei dati. Velocità di trasferimento dati - 250 Mbps per una coppia.
  • 1000BASE-TX, - Ethernet standard 1 Gbit / s, utilizzando solo la categoria a doppino ritorto 6. Praticamente non usato.
  • 1000Base-X   - Un termine generico per la tecnologia Gigabit Ethernet che utilizza un cavo in fibra ottica come supporto include 1000BASE-SX, 1000BASE-LX e 1000BASE-CX.
  • 1000BASE-SX, IEEE 802.3z  - Tecnologia Ethernet 1 Gbit / s, utilizza la gamma di trasmissione del segnale in fibra multimodale senza un ripetitore fino a 550 metri.
  • 1000BASE-LX, IEEE 802.3z  - Tecnologia Ethernet 1 Gbit / s, utilizza la gamma di trasmissione del segnale in fibra multimodale senza un ripetitore fino a 550 metri. Ottimizzato per lunghe distanze utilizzando la fibra monomodale (fino a 10 chilometri).
  • 1000BASE-CX - Tecnologia Gigabit Ethernet per brevi distanze (fino a 25 metri), viene utilizzato uno speciale cavo in rame (schermato twisted pair (STP)) con impedenza d'onda di 150 Ohm. Sostituito dallo standard 1000BASE-T e ora non usato.
  • 1000BASE-LH (lungo raggio)  - 1 Gbit / s tecnologia Ethernet, utilizza un cavo ottico monomodale, il raggio di trasmissione del segnale senza ripetitore è fino a 100 chilometri.

Problemi Ethernet Gigabit

  • Fornire un diametro di rete accettabile per i media condivisi. A causa delle limitazioni imposte dal metodo CSMA / CD sulle lunghezze dei cavi, la versione Gigabit Ethernet per un ambiente condiviso consentirebbe solo una lunghezza del segmento di 25 metri. È stato necessario risolvere questo problema.
  • Raggiungimento di una velocità in bit di 1000 Mbps su un cavo ottico. La tecnologia Fibre Channel, il cui strato fisico è stato preso come base per la versione in fibra ottica di Gigabit Ethernet, fornisce una velocità di trasferimento dati di soli 800 Mbps.
  • Utilizzare come cavo a doppino intrecciato.

Per risolvere questi problemi, è stato necessario apportare modifiche non solo a livello fisico, ma anche a livello MAC.

Mezzi per garantire un diametro della rete di 200 m su un supporto condiviso

Per espandere il diametro massimo della rete Gigabit Ethernet in modalità half-duplex a 200 m, gli sviluppatori di tecnologia hanno adottato misure del tutto naturali basate sul rapporto noto tra il tempo di trasmissione del frame della lunghezza minima e il tempo di doppio giro.

La dimensione minima del frame è stata aumentata (escluso il preambolo) da 64 a 512 byte o a 4096 bt. Di conseguenza, il tempo di doppio giro ora potrebbe anche essere aumentato fino a 4095 bt, il che rende ammissibile un diametro di rete di circa 200 m quando si utilizza un singolo ripetitore. Con un doppio ritardo del segnale di 10 bt / m, i cavi in \u200b\u200bfibra ottica da 100 m contribuiscono durante una doppia rotazione di 1000 bt e se il ripetitore e gli adattatori di rete introducono gli stessi ritardi della tecnologia Fast Ethernet (i cui dati sono stati forniti nella sezione precedente) , quindi un ritardo del ripetitore di 1000 bt e una coppia di adattatori di rete di 1000 bt forniranno un tempo totale di doppia rotazione di 4000 bt, che soddisfa la condizione di riconoscimento delle collisioni. Per aumentare la lunghezza del frame al valore richiesto nella nuova tecnologia, l'adattatore di rete deve integrare il campo dati con una lunghezza di 448 byte, la cosiddetta estensione, che è un campo riempito con caratteri di codice vietati a 8 V / 10 V che non possono essere confusi con codici di dati.

Per ridurre il sovraccarico quando si utilizzano frame troppo lunghi per trasmettere ricevute brevi, gli sviluppatori dello standard hanno consentito ai nodi finali di trasmettere più frame di fila, senza trasferire il supporto ad altre stazioni. Questa modalità è chiamata Burst Mode - modalità pacchetto esclusivo. Una stazione può trasmettere più frame di fila con una lunghezza totale non superiore a 65 536 bit o 8192 byte. Se una stazione deve trasmettere più piccoli frame, potrebbe non integrarli con una dimensione di 512 byte, ma trasmetterli in fila fino a quando il limite di 8192 byte non sarà esaurito (questo limite include tutti i byte del frame, inclusi preambolo, intestazione, dati e checksum) . Il limite di 8192 byte si chiama BurstLength. Se la stazione ha iniziato a trasmettere un frame e il limite di BurstLength è stato raggiunto al centro del frame, il frame è autorizzato a trasmettere fino alla fine.

L'aumento del frame "combinato" a 8192 byte ritarda in qualche modo l'accesso all'ambiente condiviso di altre stazioni, ma a una velocità di 1000 Mbps questo ritardo non è così significativo

  letteratura

  1. V.G. Olifer, N.A. Olifer Reti di computer

1000Base-X

La specifica 1000BASE-X prevede l'uso di un mezzo sotto forma di fibre ottiche. Questo standard si basa sulla tecnologia ANSI Fibre Channel (ANSI X3T11).

La tecnologia 1000BASE-X consente l'uso di tre diversi mezzi di trasmissione, quindi le tre varietà: 1000BASE-SX, 1000BASE-LX e 1000BASE-CX.

1000Base-SX

La tecnologia più comunemente usata ed economica basata sulla fibra multimodale standard. La distanza massima per 1000BASE-SX è di 220 metri. Viene utilizzata una lunghezza d'onda di 850 nm, S sta per lunghezza d'onda corta.

Ovviamente, questo valore può essere raggiunto solo con il trasferimento di dati full duplex, poiché il tempo di doppio giro del segnale in due segmenti di 220 metri è di 4400 bt, che supera il limite di 4095 bt anche senza tenere conto del ripetitore e degli adattatori di rete. Per la trasmissione half duplex, i valori massimi del segmento di fibra devono essere sempre inferiori a 100 metri.

1000Base-LX

La tecnologia 1000BASE-LX viene solitamente utilizzata con fibre monomodali, qui la distanza consentita è di 5 chilometri. La specifica 1000Base-LX può funzionare anche su un cavo multimodale. In questo caso, la distanza limite è piccola - 550 metri.

Per la specifica 1000Base-LX, come sorgente di radiazione viene sempre utilizzato un laser a semiconduttore da 1300 nm.

1000Base-CX

La tecnologia 1000BASE-CX utilizza il più unico dei tre ambienti. Questa è una soluzione basata su una soluzione che utilizza cavi realizzati con coppie intrecciate schermate prefabbricate.

Il connettore non è un semplice RJ-45, comunemente usato in 10/100 / 1000Base-T. Invece, DB-9 o HSSDS viene utilizzato per terminare queste due coppie di fili. La tecnologia 1000BASE-CX funziona a distanze fino a 25 m, il che ne limita l'uso a piccole aree.

1000Base-T

La specifica 1000Base-T funziona con cavo a doppino intrecciato di categoria 5.

Ogni coppia di cavi di categoria 5 ha una larghezza di banda garantita fino a 100 MHz. Per trasferire dati attraverso tale cavo a una velocità di 1000 Mbps, è stato deciso di organizzare la trasmissione parallela simultaneamente su tutte e 4 le coppie di cavi.

Ciò ha immediatamente ridotto la velocità di trasferimento dei dati per ciascuna coppia a 250 Mbps.

Per la codifica dei dati, è stato utilizzato il codice RAM5, utilizzando 5 livelli di potenziale: -2, -1, 0, +1, +2. Pertanto, in un ciclo di clock, vengono trasmessi 2.322 bit di informazioni per coppia. Pertanto, la frequenza di clock anziché 250 MHz può essere ridotta a 125 MHz. Inoltre, se non si utilizzano tutti i codici, ma si trasmettono 8 bit per ciclo (in 4 coppie), viene mantenuta la velocità di trasferimento richiesta di 1000 Mbps e vi è ancora una riserva di codici inutilizzati, poiché il codice RAM5 contiene 5 4 \u003d 625 combinazioni e se 8 bit di dati vengono trasmessi in un ciclo di clock su tutte e quattro le coppie, ciò richiede solo 2 8 \u003d 256 combinazioni. Il ricevitore può utilizzare le combinazioni rimanenti per controllare le informazioni ricevute ed evidenziare le combinazioni corrette sullo sfondo del rumore. Il codice PAM5 a una frequenza di clock di 125 MHz si adatta alla banda 100 MHz di un cavo di categoria 5.

Per identificare le collisioni e organizzare la modalità full duplex, la specifica utilizza una tecnica in cui entrambi i trasmettitori lavorano l'uno verso l'altro per ciascuna delle 4 coppie nella stessa gamma di frequenza, poiché utilizzano lo stesso potenziale codice PAM5 (Fig. 12) . Il circuito di isolamento ibrido H consente al ricevitore e al trasmettitore dello stesso nodo di utilizzare un cavo a doppino intrecciato sia per la ricezione che per la trasmissione.

Figura 12. Trasmissione bidirezionale su 4 coppie di UTP cat5 in Gigabit

Per separare il segnale ricevuto dal proprio, il ricevitore sottrae il suo segnale noto dal segnale risultante. Questa non è una semplice operazione e speciali processori di segnali digitali - DSP (Digital Signal Processor) vengono utilizzati per eseguirlo.

Lo sviluppo di tecnologie multimediali ha portato alla necessità di aumentare la produttività delle linee di comunicazione. A questo proposito, è stata sviluppata la tecnologia Gigabit Ethernet, che fornisce la trasmissione di dati a una velocità di 1 Gb / s. In questa tecnologia, così come in Fast Ethernet, è stata preservata la continuità con la tecnologia Ethernet: i formati dei frame sono rimasti praticamente invariati, conservatometodo di accesso CSMA/ CD  in modalità half duplex. A livello logico, viene utilizzata la codifica 8 B/10 B. Poiché la velocità di trasmissione è aumentata di 10 volte rispetto a Fast Ethernet, è stato necessario o  ridurre il diametro della rete a 20-25 m, aumentare la lunghezza minima del telaio. Nella tecnologia Gigabit Ethernet, sono andati nella seconda direzione, aumentando la lunghezza minima del frame a 512 byte invece 64   byte in tecnologia Ethernet e Fast Ethernet. Il diametro della rete è 200   m, proprio come in Fast Ethernet. L'aumento della lunghezza del frame può avvenire in due modi. Il primo metodo prevede la compilazione nel campo dati di un breve frame con simboli di combinazioni di codici proibiti, mentre la rete sarà improduttiva. Nel secondo metodo, è consentito trasmettere più brevi frame di fila con una lunghezza totale di fino a 8192   byte.

Le moderne reti Gigabit Ethernet, di regola, sono costruite sulla base di switch e funzionano in modalità full duplex. In questo caso, non stanno parlando del diametro della rete, ma della lunghezza del segmento, che è determinata dai mezzi tecnici del livello fisico, principalmente dal mezzo fisico di trasferimento dei dati. Gigabit Ethernet prevede l'uso di:

    cavo in fibra ottica monomodale; 802.3 z

    cavo in fibra ottica multimodale; 802.3 z

    cavo bilanciato UTP categoria 5 802.3 ab

    cavo coassiale.

Quando si trasmettono dati tramite cavo a fibre ottiche, vengono utilizzati come emettitori LED basati sulla lunghezza d'onda 830   nm, o laser a una lunghezza d'onda 1300   nm. In conformità con questo standard 802.3 z  definito due specifiche 1000 base- SX  e 1000 base- LX. La lunghezza massima del segmento implementata sul cavo multimodale 62.5 / 125 della specifica 1000Base-SX è di 220 m, e sul cavo 50/125 non è superiore a 500 m. La lunghezza massima del segmento implementata sulla specifica di modalità singola 1000Base-LX è 5000   La lunghezza del segmento sul cavo coassiale non supera i 25 m.

È stato sviluppato uno standard per utilizzare i cavi bilanciati UTP di categoria 5 esistenti. 802.3 ab. Poiché nella tecnologia Gigabit Ethernet i dati devono essere trasmessi a una velocità di 1000 Mbps e il cavo a doppino intrecciato di Categoria 5 ha una larghezza di banda di 100 MHz, si è deciso di trasmettere i dati in parallelo su 4 cavi a doppino intrecciato e utilizzare la categoria UTP 5 o 5e con una larghezza di banda di 125 MHz. Pertanto, per ciascun cavo a doppino intrecciato, è necessario trasmettere dati a una velocità di 250 Mbps, che è 2 volte superiore alle capacità della categoria UTP 5e. Per eliminare questa contraddizione, viene utilizzato il codice 4D-PAM5 con cinque livelli potenziali (-2, -1, 0, +1, +2). Per ogni coppia di fili, i dati vengono trasmessi e ricevuti contemporaneamente a una velocità di 125 Mbps in ciascuna direzione. In questo caso, si verificano collisioni in cui si formano segnali di forma complessa di cinque livelli. La separazione dei flussi di input e output viene effettuata mediante l'uso di schemi di isolamento ibrido H  (Fig. 5.4). Come tali schemi vengono utilizzati processori di segnale. Per isolare il segnale ricevuto, il ricevitore sottrae il proprio segnale trasmesso dal segnale totale (trasmesso e ricevuto).

Pertanto, la tecnologia Gigabit Ethernet consente lo scambio di dati ad alta velocità e viene utilizzata principalmente per il trasferimento di dati tra sottoreti, nonché per lo scambio di informazioni multimediali.

Fig. 5.4. Trasmissione dati su 4 coppie di UTP categoria 5

Lo standard IEEE 802.3 raccomanda che la tecnologia Gigabit Ethernet con trasmissione dati su fibra sia la spina dorsale. Le fasce orarie, il formato dei fotogrammi e la trasmissione sono comuni a tutte le versioni di 1000 Mbps. Lo strato fisico è determinato da due schemi di codifica del segnale (Fig. 5.5). schema 8 B/10 B  è usato per fibra ottica  e cavi schermati in rame. Per cavi bilanciati UTP  viene utilizzata la modulazione dell'ampiezza dell'impulso (codice PAM5 ). tecnologia 1000 BASE- X  utilizza la codifica logica 8 B/10 B  e codifica lineare ( NRZ).

Figura 5.5. Specifiche della tecnologia Gigabit Ethernet

segnali NRZ  trasmesso su fibra usando un'onda corta ( breve- lunghezza d'onda) o onda lunga ( lungo- lunghezza d'onda) sorgenti luminose. Come fonti di onde corte, vengono utilizzati LED con una lunghezza d'onda 850   nm per trasmissione su fibra ottica multimodale (1000BASE-SX). Questa opzione meno costosa viene utilizzata per la trasmissione su brevi distanze. Sorgenti laser a onde lunghe ( 1310   nm) usa una fibra ottica monomodale o multimodale (1000BASE-LX). Le sorgenti laser a fibra monomodale possono trasmettere informazioni fino a 5000   m.

Nelle connessioni punto-punto ( punto- a- punto) per trasmettere ( Tx) e ricezione ( Rx) vengono utilizzate fibre separate, quindi è realizzato full duplex  Us. La tecnologia Gigabit Ethernet installa solo ripetitore singolo  tra due stazioni. Di seguito sono riportati i parametri delle tecnologie 1000BASE (Tabella 5.2).

Tabella 5.2

Confronti delle specifiche Gigabit Ethernet

Le reti Gigabit Ethernet si basano su switch, quando la distanza delle connessioni full duplex è limitata solo dall'ambiente e non dal tempo di doppio giro. Inoltre, di regola, la topologia " la stella"O" stella estesa", E i problemi sono determinati dalla topologia logica e dal flusso di dati.

Lo standard 1000BASE-T utilizza quasi lo stesso cavo UTP degli standard 100BASE-T e 10BASE-T. Il cavo UTP con tecnologia 1000BASE-T è uguale al cavo 10BASE-T e 100BASE-TX, tranne per il fatto che si consiglia di utilizzare un cavo di categoria 5e. Con una lunghezza del cavo di 100 m, 1000BASE-T funziona al limite delle sue capacità.

Distinguiamo tre elementi principali dello standard: il formato del frame, un sistema di allarme tra le stazioni di lavoro durante la trasmissione di dati mediante il protocollo CSMA / CD e un set di supporti fisici: cavo coassiale, doppino intrecciato, cavo in fibra ottica.

Formato frame Ethernet

In fig. 7-2 mostra il formato del frame Ethernet. I campi hanno i seguenti scopi:
  - Preambolo: 7 byte, ognuno dei quali rappresenta un'alternanza di uno e zero 10101010. Il preambolo consente di impostare la sincronizzazione dei bit sul lato ricevente.
  - Avvia delimitatore frame (SFD): 1 byte, sequenza 10101011. indica che seguiranno i campi informativi del frame. Questo byte può essere assegnato al preambolo.
  - Indirizzo di destinazione (DA, indirizzo di destinazione): 6 byte, indica l'indirizzo MAC della stazione (indirizzi MAC delle stazioni) a cui è destinato questo frame. Può essere un singolo indirizzo fisico (unicast), un indirizzo multicast o un indirizzo di trasmissione.
  - Indirizzo mittente (SA, indirizzo sorgente): byte, indica l'indirizzo MAC della stazione che invia il frame.
- Campo di tipo o lunghezza del frame (T o L, tipo o lunghezza): 2 byte. Esistono due formati di frame Ethernet di base (nei formati raw della terminologia inglese): EthernetII e IEEE 802.3 (Fig. 7.2) e il campo in questione ha uno scopo diverso per loro. Per un frame EthernetII, questo campo contiene informazioni sul tipo di frame. Di seguito sono riportati i valori esadecimali per questo campo per alcuni protocolli di rete comuni: 0x0800 per IP, 0x0806 per ARP, 0x809V per AppleTalk, 0x0600 per XNS e 0x8137 per IPX / SPX. Con l'indicazione di un valore specifico (uno dei elencati) in questo campo, il frame acquisisce il formato reale e in questo formato il frame può già essere distribuito sulla rete.
  - Per un frame IEEE 802.3, questo campo contiene le dimensioni del campo successivo, espresso in byte, nel campo Dati LLC. Se questo numero determina una lunghezza totale del frame inferiore a 64 byte, il campo Pad viene aggiunto dietro il campo Dati LLC. Per un protocollo di livello superiore, non c'è confusione con la determinazione del tipo di frame, poiché per un frame IEEE 802.3 il valore di questo campo non può essere superiore a 1500 (0x05DC). Pertanto, entrambi i formati di frame possono coesistere liberamente sulla stessa rete; inoltre, una scheda di rete può interagire con entrambi i tipi attraverso lo stack di protocollo.
  - Dati (dati LLC): un campo dati che viene elaborato dal sublayer LLC. Il frame IEEE 802.3 non è ancora definitivo. A seconda dei valori dei primi byte di questo campo, potrebbero esserci tre formati finali per questo frame IEEE 802.3:
  - Ethernet_802.3 (non un formato standard attualmente non aggiornato utilizzato da Novell) - i primi due byte di LLC Data sono 0xFFFF;
  - EthernetSNAP (formato standard IEEE 802.2 SNAP, che è maggiormente preferito nelle reti moderne, in particolare per il protocollo TCP / IP) - il primo byte di LLC Data è 0xAA;
  - Ethernet_802.2 (formato standard IEEE 802.2 utilizzato da Novell in NetWare 4.0) - il primo byte di LLC Data non è né 0xFF (11111111) né 0xAA (10101010).

Un campo aggiuntivo (pad - filler) - viene compilato solo se il campo dati è piccolo, al fine di estendere la lunghezza del frame a una dimensione minima di 64 byte - il preambolo non viene preso in considerazione. Il limite inferiore sulla lunghezza minima del telaio è necessario per la corretta risoluzione delle collisioni.

Frame Check Sequence (FCS): un campo a 4 byte che indica il checksum calcolato utilizzando il codice di ridondanza ciclico sui campi del frame, ad eccezione dei preamboli SDF e FCS.

Fig. 7.2. Due formati base di frame MAC Ethernet

Varianti di base di algoritmi di accesso casuale per l'ambiente

Il protocollo CSMA / CD definisce la natura dell'interazione delle stazioni di lavoro nella rete con un comune mezzo di trasmissione dati comune a tutti i dispositivi. Tutte le stazioni hanno pari condizioni per la trasmissione dei dati. Non esiste una sequenza specifica in base alla quale le stazioni possono accedere al supporto per la trasmissione. È in questo senso che l'accesso all'ambiente viene effettuato in modo casuale. L'implementazione di algoritmi di accesso casuale sembra essere un compito molto più semplice rispetto all'implementazione di algoritmi di accesso deterministico. Poiché in quest'ultimo caso è necessario un protocollo speciale che monitora il funzionamento di tutti i dispositivi di rete (ad esempio, il protocollo di circolazione token inerente alle reti Token Ring e FDDI) o uno speciale dispositivo hub master dedicato, che in una certa sequenza consentirebbe a tutte le altre stazioni di trasmettere (reti Arcnet, 100 VG AnyLAN).

Tuttavia, la rete con accesso casuale presenta uno, forse il principale, svantaggio: non è un'operazione abbastanza stabile della rete ad alta congestione, quando può impiegare molto tempo prima che questa stazione riesca a trasmettere dati. La ragione di ciò sono le collisioni che si verificano tra le stazioni che hanno iniziato la trasmissione simultaneamente o quasi contemporaneamente. Quando si verifica una collisione, i dati trasmessi non raggiungono i destinatari e le stazioni trasmittenti devono riprendere la trasmissione.

Diamo una definizione: l'insieme di tutte le stazioni di rete, la trasmissione simultanea di qualsiasi coppia che porta a una collisione, viene chiamato dominio di collisione (dominio di collisione). A causa della collisione (conflitto), possono verificarsi ritardi imprevedibili durante la distribuzione dei frame sulla rete, soprattutto quando la rete è molto occupata (molte stazioni tentano di trasmettere simultaneamente all'interno del dominio di conflitto,\u003e 20-25) e con un diametro elevato del dominio del conflitto (\u003e 2 km). Pertanto, quando si creano reti, è consigliabile evitare tali modalità operative estreme.

Il problema della costruzione di un protocollo in grado di risolvere le collisioni nel modo più razionale e di ottimizzare il funzionamento della rete a carichi elevati è stato uno dei problemi chiave nella fase di formazione dello standard Ethernet IEEE 802.3. Tre approcci primari sono stati inizialmente considerati candidati per l'implementazione dello standard di accesso casuale all'ambiente (Fig. 7.3): non costante, 1 costante e p-costante.

Fig. 7.3. Algoritmi ad accesso casuale multiplo (CSMA) e ritardo in una situazione di conflitto (backoff di collisione)

Algoritmo non persistente (non persistente). Con questo algoritmo, la stazione che vuole trasmettere è guidata dalle seguenti regole.

1. Ascolta il supporto e se il supporto è libero (ovvero, se non vi è altra trasmissione o non vi è alcun segnale di collisione), trasmette, altrimenti il \u200b\u200bmezzo è occupato - procede al passaggio 2.
  2. Se il supporto è occupato, attende un tempo casuale (in conformità con una determinata curva di distribuzione della probabilità) e ritorna al passaggio 1.

L'uso di un valore di attesa casuale quando l'ambiente è occupato riduce la probabilità di collisioni. Supponiamo, in caso contrario, che le due stazioni stessero per trasmettere quasi simultaneamente, mentre la terza stava già trasmettendo. Se i primi due non avessero avuto un tempo di attesa casuale prima dell'inizio della trasmissione (se il mezzo era occupato), ma solo ascoltato il mezzo e aspettato che si liberasse, quindi dopo che la terza stazione ha smesso di trasmettere i primi due avrebbero iniziato a trasmettere contemporaneamente, il che avrebbe inevitabilmente portato a alle collisioni. Pertanto, l'attesa casuale elimina la possibilità di tali collisioni. Tuttavia, l'inconveniente di questo metodo si manifesta nell'uso inefficiente della larghezza di banda del canale. Dal momento che può accadere che quando il supporto è libero, la stazione che desidera trasmettere continuerà ad attendere qualche tempo a caso prima di decidere di ascoltare il supporto, perché prima stava già ascoltando il mezzo che era occupato. Di conseguenza, il canale resterà inattivo per qualche tempo, anche se solo una stazione è in attesa di trasmissione.

Algoritmo 1-persistente. Per ridurre i tempi in cui l'ambiente non è occupato, è possibile utilizzare un algoritmo a 1 costante. Con questo algoritmo, la stazione che vuole trasmettere è guidata dalle seguenti regole.

1. Ascolta il supporto e, se il supporto non è occupato, trasmette, altrimenti procede al passaggio 2;
2. Se il supporto è occupato, continua ad ascoltare il supporto fino a quando il supporto è libero e non appena il supporto è libero, inizia immediatamente la trasmissione.

Confrontando gli algoritmi non costanti e 1 costante, possiamo dire che in un algoritmo 1 costante una stazione che vuole trasmettere si comporta in modo più "egoistico". Pertanto, se due o più stazioni sono in attesa di trasmissione (in attesa che il supporto sia libero), si può dire che una collisione è garantita. Dopo una collisione, le stazioni iniziano a decidere cosa fare dopo.

Algoritmo P-persistente. Le regole di questo algoritmo sono le seguenti:
  1. Se il mezzo è libero, la stazione con probabilità p inizia la trasmissione immediatamente o con probabilità (1-p) attende l'intervallo di tempo T. L'intervallo T è di solito considerato uguale al tempo massimo di propagazione del segnale dalla fine alla fine della rete;
  2. Se il supporto è occupato, la stazione continua ad ascoltare fino a quando il supporto è libero, quindi passa al punto 1;
  3. Se la trasmissione è ritardata di un intervallo T, la stazione torna al passaggio 1.

E qui sorge la domanda di scegliere il valore più efficace del parametro p. Il problema principale è come evitare l'instabilità a download elevati. Considerare una situazione in cui n stazioni intendono trasmettere frame mentre la trasmissione è già in corso. Alla fine della trasmissione, il numero previsto di stazioni che proveranno a trasmettere sarà uguale al prodotto del numero di persone che vogliono trasmettere stazioni in base alla probabilità di trasmissione, ovvero, ecc. Se np\u003e 1, in media diverse stazioni proveranno a trasmettere immediatamente, il che provocherà una collisione. Inoltre, non appena viene rilevata una collisione, tutte le stazioni passeranno nuovamente al punto 1, che causerà una collisione ripetuta. Nel peggiore dei casi, nuove stazioni che desiderano trasmettere possono essere aggiunte ad n, il che aggraverà ulteriormente la situazione, portando, in definitiva, a una collisione continua e a un flusso zero. Per evitare una simile catastrofe, la pr dovrebbe essere inferiore all'unità. Se la rete è soggetta al verificarsi di stati in cui molte stazioni desiderano trasmettere contemporaneamente, è necessario ridurre p. D'altra parte, quando p diventa troppo piccolo, anche una singola stazione può attendere in media (1 - p) / p intervalli T prima di trasmettere. Quindi, se p \u003d 0.1, il tempo medio di inattività che precede il trasferimento sarà 9T.

Lo standard Gigabit Ethernet che utilizza il cavo di categoria 5 (doppino intrecciato non schermato) come mezzo di trasmissione descritto nella sezione IEEE 802.3ab è stato finalmente approvato il 28 giugno 1999.

Il tempo è passato e ora possiamo già affermare che Gigabit Ethernet su rame è entrata saldamente nella storia dello sviluppo delle reti locali. Il forte calo dei prezzi sia per gli adattatori di rete gigabit 1000Base-T sia per i moduli gigabit per switch ha portato gradualmente al fatto che l'installazione di tali adattatori nei server sta diventando di fatto lo standard. Ad esempio, alcuni produttori di server hanno già iniziato a integrare adattatori gigabit 1000Base-T su schede madri per server e il numero di aziende produttrici di tali adattatori ha raggiunto i 25 all'inizio di quest'anno. Inoltre, hanno iniziato a essere prodotti adattatori progettati per l'installazione in workstation ( differiscono per il fatto che sono progettati per un bus PCI a 32 bit a 33 MHz). Tutto ciò ci consente di affermare con sicurezza che tra un anno o due gigabit gli adattatori di rete diventeranno comuni come lo sono gli adattatori Fast Ethernet.

Considera le innovazioni fondamentali incorporate nello standard IEEE 802.3ab e che consentono di raggiungere una velocità di trasmissione così elevata, mantenendo invariata la distanza massima tra due computer a 100 m, come nel caso di Fast Ethernet.

Innanzitutto, ricordiamo che gli adattatori di rete operano a livello fisico e di collegamento del modello OSI (Open System Interconnection) a sette livelli. Il livello di collegamento dati è generalmente diviso in due livelli secondari: MAC e LCC. Il livello secondario MAC (Media Access Control) è un sottostrato di controllo dell'accesso multimediale che garantisce la corretta condivisione di un comune supporto dati condiviso, rendendolo disponibile per una particolare stazione secondo un algoritmo specifico. Il livello secondario LCC (Logical Link Control) è responsabile della trasmissione di frame tra nodi con vari gradi di affidabilità e implementa anche le funzioni di interfaccia con il terzo livello (di rete) adiacente.

Tutte le differenze tra Ethernet e Fast Ethernet sono focalizzate solo sul livello fisico. Allo stesso tempo, MAC e LCC non hanno subito alcuna modifica.

Il livello fisico può essere suddiviso condizionatamente in tre elementi: il livello di coordinazione, l'interfaccia indipendente dai media (MII) e il dispositivo di livello fisico (dispositivo di livello fisico, PHY). Il dispositivo del livello fisico può anche essere diviso in diversi sotto-livelli: il sottostrato di codifica fisica, il sottostrato di collegamento del supporto fisico, il sottostrato dipendente dal mezzo fisico e il sotto-livello di negoziazione automatica.

Se le differenze tra Ethernet e Fast Ethernet sono minime e non influiscono sul livello MAC, durante lo sviluppo dello standard Gigabit Ethernet 1000Base-T, gli sviluppatori dovevano non solo apportare modifiche al livello fisico, ma anche influenzare il livello MAC (Fig. 1).

Tuttavia, c'è molto in comune tra tutte e tre le tecnologie. Prima di tutto, questo è il metodo di accesso ai supporti CSMA / CD, alle modalità di funzionamento half duplex e full duplex, nonché ai formati di frame Ethernet. Allo stesso tempo, l'uso del cavo a doppino intrecciato della 5a categoria ha richiesto seri cambiamenti nell'implementazione dello strato fisico dell'adattatore.

Il primo problema con l'implementazione della velocità di 1 Gbit / s era la fornitura di un diametro di rete accettabile quando si opera in modalità half-duplex. Come sapete, la dimensione minima del frame nelle reti Ethernet e Fast Ethernet è di 64 byte. Tuttavia, una dimensione dei frame di 64 byte a una velocità di trasferimento di 1 GB / s porta al fatto che per un rilevamento affidabile delle collisioni è necessario che il diametro massimo della rete (la distanza tra i due computer più distanti tra loro) non sia superiore a 25 m. che il riconoscimento riuscito delle collisioni è possibile solo se il tempo tra l'invio di due frame consecutivi della lunghezza minima è più lungo del tempo di doppia propagazione del segnale tra due nodi il più lontano possibile l'uno dall'altro nella rete. Pertanto, per garantire un diametro di rete massimo di 200 m (due cavi di 100 me uno switch), la lunghezza minima del frame nello standard Gigabit Ethernet è stata aumentata a 512 byte. Per aumentare la lunghezza del frame al necessario, l'adattatore di rete integra il campo dati a una lunghezza di 448 byte con la cosiddetta estensione. Un campo di estensione è un campo pieno di caratteri proibiti che non possono essere scambiati per codici dati (Fig. 2). Allo stesso tempo, l'aumento della lunghezza minima del frame influisce negativamente sulla trasmissione di brevi messaggi di servizio, come le ricevute, poiché le informazioni trasmesse utili diventano significativamente inferiori rispetto alle informazioni trasmesse totali. Al fine di ridurre il sovraccarico quando si utilizzano frame lunghi per la trasmissione di ricevute brevi con lo standard Gigabit Ethernet, è possibile trasmettere più frame di fila in modalità di acquisizione esclusiva, ovvero senza trasferire il supporto ad altre stazioni. Questa modalità di acquisizione esclusiva si chiama Burst Mode. In questa modalità, la stazione può trasmettere più frame di fila con una lunghezza totale non superiore a 8192 byte (BurstLength).

Come già notato, insieme al cambiamento nel livello MAC, il raggiungimento delle velocità di trasferimento gigabit è diventato possibile a causa di un cambiamento significativo nel livello fisico, ovvero la tecnologia per presentare i dati (codifica) durante la trasmissione di dati su doppino.

Per far fronte alle modifiche apportate a livello fisico, ricordiamo che cos'è un cavo per la trasmissione dei dati e che tipo di interferenza si verifica durante la trasmissione del segnale.

Il cavo non schermato di categoria 5 è costituito da quattro coppie di fili, con ciascuna coppia intrecciata insieme. Tale cavo è progettato per funzionare a una frequenza di 100 MHz (Fig. 3).

Dal corso della fisica è noto che qualsiasi cavo ha, oltre alle resistenze attive, anche capacitive e induttive, le ultime due a seconda della frequenza del segnale. Tutti e tre i tipi di resistenza determinano la cosiddetta impedenza del circuito. La presenza di impedenza porta al fatto che quando il segnale si propaga attraverso il cavo, si attenua gradualmente, perdendo parte della sua potenza originale.

Se l'induzione reciproca viene calcolata all'inizio del cavo, il tipo di interferenza corrispondente verrà chiamato NEXT (perdita di diafonia quasi-fine). Se l'interferenza causata dall'induzione reciproca viene considerata all'estremità del cavo, viene chiamata FEXT (Perdita di diafonia remota - Fig. 4).

Inoltre, durante la propagazione del segnale, si verifica un altro tipo di interferenza, associata a una discrepanza nell'impedenza di ingresso dell'adattatore di rete e del cavo. Come risultato di una tale discrepanza, si verifica un riflesso del segnale, che porta anche alla formazione di rumore.

La trasmissione del segnale nelle condizioni di interferenza sopra descritte richiede l'uso di metodi ingegnosi per garantire la velocità di trasmissione necessaria e allo stesso tempo garantire il riconoscimento senza errori dei segnali trasmessi.

Prima di tutto, ricorda quali metodi sono usati per rappresentare segnali di informazione.

Nella codifica digitale dei bit "zeri" e "uni", vengono utilizzati codici di potenziale o di impulso. Nei codici potenziali (Fig. 5), solo il valore potenziale del segnale viene utilizzato per rappresentare zeri logici e uno. Ad esempio, uno è rappresentato come un potenziale di alto livello e zero è rappresentato come un potenziale di basso livello. I codici impulsi consentono di rappresentare i bit con una potenziale caduta di una determinata direzione. Pertanto, il potenziale calo da basso ad alto può corrispondere a uno zero logico.

Quando si utilizzano impulsi rettangolari per la trasmissione dei dati, è necessario scegliere un metodo di codifica che soddisfi contemporaneamente diversi requisiti.

Innanzitutto, con la stessa velocità in bit, avrebbe la larghezza di spettro più piccola del segnale risultante.

In secondo luogo, avrebbe la capacità di riconoscere gli errori.

In terzo luogo, fornirebbe la sincronizzazione tra il ricevitore e il trasmettitore.

  Codice NRZ

Nel caso più semplice di potenziale codifica, un'unità logica può essere rappresentata da un potenziale elevato e uno zero logico - da uno basso. Un metodo simile di presentazione del segnale era chiamato "codifica senza ritorno a zero o codifica NRZ (Non ritorno a zero)". Il termine "nessun ritorno" in questo caso significa che durante l'intero intervallo di clock non vi è alcun cambiamento nel livello del segnale. Il metodo NRZ è semplice da implementare, ha un buon riconoscimento degli errori, ma non ha la proprietà di auto-sincronizzazione. La mancanza di auto-sincronizzazione porta al fatto che quando compaiono lunghe sequenze di zeri o di uno, il ricevitore è privato della possibilità di determinare dal segnale di ingresso quelle volte in cui è necessario leggere nuovamente i dati. Pertanto, una leggera discrepanza nelle frequenze di clock del ricevitore e del trasmettitore può causare errori se il ricevitore non legge i dati al momento giusto. Questo fenomeno è particolarmente critico ad alte velocità di trasmissione, quando il tempo di un impulso è estremamente breve (ad una velocità di trasmissione di 100 Mbit / s, il tempo di un impulso è di 10 ns). Un altro svantaggio del codice NRZ è la presenza di un componente a bassa frequenza nello spettro del segnale quando compaiono lunghe sequenze di zeri o di uno. Pertanto, il codice NRZ non viene utilizzato nella sua forma pura per la trasmissione dei dati.

  Codice NRZI

Un altro tipo di codifica è un codice NRZ leggermente modificato chiamato NRZI (Non Return to Zero con uno invertito). Il codice NRZI è l'implementazione più semplice del principio di codifica modificando il livello del segnale o la codifica differenziale. Con questa codifica, quando si trasmette zero, il livello del segnale non cambia, ovvero il potenziale del segnale rimane lo stesso del precedente ciclo di clock. Quando un'unità viene trasferita, il potenziale viene invertito al contrario. Un confronto tra i codici NRZ e NRZI mostra che il codice NRZI ha una migliore auto-sincronizzazione se ci sono più unità logiche che zero logici nelle informazioni codificate. Pertanto, questo codice consente di "combattere" con lunghe sequenze di unità, ma non fornisce la corretta auto-sincronizzazione quando compaiono lunghe sequenze di zeri logici.

  Codice di Manchester

Nel codice di Manchester, la differenza di potenziale viene utilizzata per codificare zeri e uno, ovvero la codifica viene eseguita dal fronte dell'impulso. La caduta potenziale si verifica nel mezzo dell'impulso di clock, mentre l'unità è codificata dalla caduta da potenziale basso a alto e zero è viceversa. All'inizio di ogni misura in caso di comparsa di più zeri o unità in una riga, può verificarsi una differenza di potenziale ambientale.

Di tutti i codici che abbiamo esaminato, Manchester ha una migliore auto-sincronizzazione, poiché si verifica una caduta del segnale almeno una volta per ciclo. Ecco perché il codice Manchester viene utilizzato nelle reti Ethernet con una velocità di trasmissione di 10 Mbps (10Base 5, 10Base 2, 10Base-T).

  Codice MLT-3

Il codice MLT-3 (Multi Level Transmission-3) è implementato in modo simile al codice NRZI. Una variazione del livello di un segnale lineare si verifica solo se si è immessi nell'encoder, tuttavia, a differenza del codice NRZI, l'algoritmo di formazione viene scelto in modo che due modifiche adiacenti abbiano sempre direzioni opposte. Lo svantaggio del codice MLT-3 è lo stesso di quello del codice NRZI: la mancanza di una corretta sincronizzazione quando compaiono lunghe sequenze di zeri logici.

Come già notato, codici diversi differiscono l'uno dall'altro non solo per il grado di auto-sincronizzazione, ma anche per l'ampiezza dello spettro. L'ampiezza dello spettro del segnale è determinata principalmente da quelle armoniche che danno il principale contributo energetico alla formazione del segnale. L'armonica fondamentale è facile da calcolare per ogni tipo di codice. Nel codice NRZ o NRZI, la frequenza massima dell'armonica fondamentale (Fig. 6) corrisponde a una sequenza periodica di zeri logici e uno, cioè quando più zeri o uno non si verificano in una riga. In questo caso, il periodo fondamentale è uguale all'intervallo di tempo di due bit, ovvero a una velocità di trasmissione di 100 Mbit / s, la frequenza fondamentale dovrebbe essere di 50 Hz.

Nel codice di Manchester, la frequenza massima dell'armonica fondamentale corrisponde alla situazione in cui una lunga sequenza di zeri viene immessa nell'encoder. In questo caso, il periodo fondamentale è uguale all'intervallo di tempo di un bit, ovvero a una velocità di trasmissione di 100 Mbit / s, la frequenza fondamentale massima sarà di 100 Hz.

Nel codice MLT-3, la frequenza massima dell'armonica fondamentale (Fig. 7) si ottiene applicando lunghe sequenze di unità logiche all'ingresso dell'encoder. In questo caso, il periodo fondamentale corrisponde a un intervallo di tempo di quattro bit. Pertanto, ad una velocità di trasmissione di 100 Mbit / s, la frequenza fondamentale massima sarà di 25 MHz.

Come già notato, la codifica Manchester viene utilizzata nelle reti Ethrnet 10 Mbps, che è associata a buone proprietà di auto-sincronizzazione del codice e alla frequenza fondamentale massima consentita, che quando si opera a 10 Mbps è di 10 MHz. Questo valore è sufficiente per il cavo non solo della 5a, ma anche della 3a categoria, progettata per una frequenza di 20 MHz.

Allo stesso tempo, l'uso della codifica Manchester per reti ad alta velocità (100 Mbit / s, 1 Gbit / s) è inaccettabile, poiché i cavi non sono progettati per funzionare a frequenze così elevate. Pertanto, vengono utilizzati altri codici (NRZI e MLT-3), ma per migliorare le proprietà di auto-sincronizzazione del codice vengono sottoposti a ulteriore elaborazione.

  Codici ridondanti

Tale elaborazione aggiuntiva consiste nella codifica a blocchi logici, quando un gruppo di bit viene sostituito da un altro gruppo secondo un determinato algoritmo. I tipi più comuni di tale codifica sono i codici ridondanti 4B / 5B, 8B / 6T e 8B / 10T.

In questi codici, i gruppi di bit originali vengono sostituiti con gruppi nuovi, ma più lunghi. Nel codice 4B / 5B, un gruppo di quattro bit è mappato su un gruppo di cinque bit. Sorge la domanda: perché sono necessarie tutte queste complicazioni? Il fatto è che tale codifica è ridondante. Ad esempio, in un codice 4B / 5B, nella sequenza iniziale di quattro bit ci sono 16 diverse combinazioni di bit di zero e uno, e in un gruppo di cinque bit ci sono già 32 di tali combinazioni. Pertanto, nel codice risultante, è possibile selezionare 16 di tali combinazioni che non contengono un numero elevato di zeri (ricorda che nei codici sorgente NRZI e MLT-3, lunghe sequenze di zeri portano alla perdita di sincronizzazione). Inoltre, le restanti combinazioni inutilizzate possono essere considerate sequenze proibite. Pertanto, oltre a migliorare le proprietà di auto-sincronizzazione del codice sorgente, un'eccessiva codifica consente al ricevitore di riconoscere gli errori, poiché la comparsa di una sequenza proibita di bit indica un errore. La corrispondenza dei codici sorgente e risultanti è riportata nella tabella. 1.

La tabella mostra che dopo aver usato il codice ridondante 4B / 5B nelle sequenze risultanti, non si verificano più di due zeri in una riga, il che garantisce l'auto-sincronizzazione della sequenza di bit.

Nel codice 8B / 6T, una sequenza di otto bit di informazioni sulla sorgente è sostituita da una sequenza di sei segnali, ognuno dei quali può assumere tre stati. La sequenza di otto bit ha 256 stati diversi e la sequenza di sei segnali a tre livelli di tali stati ha già 729 (3 6 \u003d 729), quindi 473 stati sono considerati proibiti.

Nel codice 8B / 10T, ogni sequenza di otto bit è sostituita da una di dieci bit. Inoltre, la sequenza originale contiene 256 diverse combinazioni di zeri e uno e il risultante 1024 contiene, pertanto sono proibite 768 combinazioni.

Tutti i codici di ridondanza considerati sono utilizzati nelle reti Ethernet. Pertanto, il codice 4B / 5B viene utilizzato nello standard 100Base-TX e il codice 8B / 6T viene utilizzato nello standard 100Base-4T, che ora non viene praticamente più utilizzato. Il codice 8B / 10T viene utilizzato nello standard 1000Base-X (quando la fibra ottica viene utilizzata come mezzo di trasmissione).

Oltre a utilizzare la codifica ridondante, un altro modo è ampiamente utilizzato per migliorare le proprietà iniziali dei codici: questo è il cosiddetto scrambling.

  rimescolando

Scramble (scramble - mixing) consiste nel mescolare la sequenza originale di zeri e di quelli al fine di migliorare le caratteristiche spettrali e le proprietà di auto-sincronizzazione della sequenza di bit risultante. Lo scrambling viene eseguito mediante un'operazione bit a bit dell'OR esclusivo (XOR) della sequenza originale con una sequenza pseudo-casuale. Il risultato è un flusso "crittografato", che viene ripristinato sul lato ricevitore utilizzando un descrambler.

Da un punto di vista hardware, uno scrambler è costituito da diversi elementi logici XOR e registri di spostamento. Ricordiamo che l'elemento logico XOR (OR esclusivo) esegue su due operandi booleani xey, che può assumere il valore 0 o 1, un'operazione logica basata sulla tabella di verità (Tabella 2).

La proprietà principale dell'operazione OR esclusiva segue direttamente da questa tabella:

Inoltre, è facile vedere che la legge combinata si applica a un'operazione OR esclusiva:

Nei diagrammi è consuetudine indicare l'elemento logico XOR come mostrato in Fig. 8.

Come già notato, l'altro elemento dello scrambler è il registro a scorrimento. Il registro a scorrimento è costituito da diverse celle di memoria elementare collegate in sequenza tra loro, realizzate sulla base di circuiti di trigger e che trasmettono un segnale di informazione dall'ingresso all'uscita da un segnale di controllo: un impulso di clock. I registri a scorrimento possono rispondere sia al fronte positivo dell'impulso di clock (cioè quando il segnale di controllo passa dallo stato 0 allo stato 1), sia al fronte negativo.

Considera la cella di memoria più semplice del registro a scorrimento, controllata dalla parte anteriore positiva dell'impulso di clock C (Fig. 9).

Nel momento in cui l'impulso di clock cambia dallo stato 0 allo stato 1, il segnale che era al suo ingresso nel momento precedente nel tempo viene trasmesso all'uscita della cella, cioè quando il segnale di controllo C era 0. Successivamente, lo stato dell'uscita non cambia (la cella è bloccata) fino a l'arrivo del successivo fronte positivo dell'impulso di clock.

Usando una catena composta da più celle di memoria collegate in serie con lo stesso segnale di controllo, possiamo comporre un registro a scorrimento (Fig. 10), in cui i bit di informazione verranno trasmessi sequenzialmente da una cella all'altra in modo sincrono lungo il bordo positivo dell'impulso di clock.

Un elemento integrale di qualsiasi scrambler è un generatore di sequenze pseudo-casuali. Tale generatore è formato dal registro a scorrimento quando si crea feedback tra l'ingresso e le uscite delle celle di memoria del registro a scorrimento mediante elementi logici XOR.

Considera il generatore di sequenze pseudo-casuali mostrato in Fig. 11. Supponiamo che al momento iniziale, tutte e quattro le celle di memoria memorizzino uno stato predefinito. Ad esempio, possiamo supporre che Q1 \u003d 1, Q2 \u003d 0, Q3 \u003d 0 e Q4 \u003d 1 e all'ingresso della prima cella D \u003d 0. Dopo l'arrivo dell'impulso di clock, tutti i bit si sposteranno di un bit e verrà ricevuto un segnale all'ingresso D, il cui valore sarà determinato dalla formula:

Usando questa formula, non è difficile determinare i valori delle uscite delle celle di memoria ad ogni ciclo di clock del generatore. Nella tabella. La Figura 3 mostra lo stato delle uscite delle celle di memoria del generatore di sequenze pseudo-casuali ad ogni ciclo di clock. Allo stesso tempo, è facile notare che nel momento iniziale del tempo e dopo 15 cicli lo stato del generatore è completamente ripetuto, cioè 15 cicli di funzionamento è il periodo di ripetizione della nostra sequenza pseudo-casuale (è dalla presenza del periodo di ripetizione che la sequenza è chiamata pseudo-casuale). Nel caso generale, se il generatore è costituito da n-celle, il periodo di ripetizione è uguale a:

Il generatore considerato da noi usava uno stato iniziale arbitrario delle celle, cioè aveva un preset. Tuttavia, al posto di una tale preimpostazione, gli scrambler spesso usano la sequenza sorgente stessa, che è criptata. Tali scrambler sono chiamati auto-sincronizzanti. Un esempio di tale scrambler è mostrato in Fig. 12.

Se denotiamo la cifra binaria del codice sorgente che arriva all'i-esimo orologio dell'opera all'ingresso dello scrambler, da A i, e la cifra binaria del codice risultante ricevuta all'i-esimo orologio dell'opera, da B i, allora è facile notare che lo scrambler in esame implementa il seguente logico operazione :, dove B i -3 e B i -4 sono le cifre binarie del codice risultante ottenuto su precedenti cicli di clock scrambler, rispettivamente 3 e 4 cicli di clock precedenti al momento attuale.

Dopo aver decodificato la sequenza così ottenuta, viene utilizzato un descrittore sul lato ricevitore. Più sorprendentemente, il circuito di descrambler è completamente identico al circuito di scrambler. Il fatto che ciò sia vero non è difficile da verificare mediante semplici ragionamenti. Se indichiamo con B i la cifra binaria del codice sorgente che arriva all'i-esima fase di lavoro all'ingresso del descrambler, e la cifra binaria del codice risultante ottenuta nell'i-esima fase di lavoro, da C i, quindi il descrambler, che lavora secondo lo stesso schema di scrambler dovrebbe implementare il seguente algoritmo:

Pertanto, se il circuito del descrambler corrisponde al circuito dello scrambler, il descrambler ripristina completamente la sequenza originale di bit di informazioni.

Lo schema di scrambler a quattro cifre considerato è uno dei più semplici. La tecnologia 1000Base-T utilizza uno scrambler significativamente più complesso di 33 bit, il che aumenta il periodo di ripetizione a 8 589 934 591 bit (2 33 -1), ovvero le sequenze pseudo-casuali generate vengono ripetute dopo 68,72 s.

  Codifica PAM-5

Dopo aver scoperto quali codici vengono utilizzati per rappresentare i dati e aver esaminato i metodi per migliorare le proprietà auto-sincronizzanti e spettrali di questi codici, proveremo a scoprire se queste misure sono sufficienti per garantire la trasmissione dei dati a una velocità di 1000 Mbps utilizzando un cavo a quattro coppie di 5a categoria.

Come già notato, la codifica Manchester ha buone proprietà di auto-sincronizzazione e in questo senso non richiede alcuna modifica, tuttavia, la frequenza massima dell'armonica fondamentale è numericamente uguale alla velocità di trasferimento dei dati, cioè il numero di bit trasmessi al secondo. Questo è sufficiente per trasferire dati a una velocità di 10 Mbps, poiché un cavo di 3a categoria (e tale cavo può essere utilizzato nello standard 10Base-T) è limitato a 16 MHz. Tuttavia, la codifica Manchester non è adatta per il trasferimento di dati a una velocità di 100 Mbps e superiore.

L'uso del codice NRZI dopo un ulteriore perfezionamento utilizzando il codice ridondante di blocco 4B / 5B e rimescolamento, nonché il codice a tre posizioni MLT-3 (al fine di ridurre la frequenza massima dell'armonica fondamentale) consente di trasferire i dati a una velocità di 100 Mbps tramite cavo di 5a categoria. In effetti, quando si utilizza il codice MLT-3, la frequenza massima dell'armonica fondamentale è numericamente uguale a un quarto della velocità di trasferimento dei dati, cioè ad una velocità di trasmissione di 100 Mbps, la frequenza fondamentale non supera i 25 MHz, che è abbastanza per un cavo di categoria 5. Tuttavia, questo metodo non è adatto per il trasferimento di dati a una velocità di 1000 Mbps.

Pertanto, lo standard 1000Base-T utilizza un metodo di codifica sostanzialmente diverso. Per ridurre la frequenza di clock a valori che consentono la trasmissione di dati su cavi di categoria 5 a doppino intrecciato, i dati nella linea sono presentati nel cosiddetto codice PAM-5 (Fig. 13). In esso, il segnale trasmesso ha un set di cinque livelli fissi (–2, –1, 0, +1, +2). Quattro di questi vengono utilizzati per codificare bit di informazioni e il quinto è per la correzione degli errori. Su un set di quattro livelli fissi con uno stato di segnale discreto, è possibile codificare contemporaneamente due bit di informazioni, poiché una combinazione di due bit ha quattro possibili combinazioni (le cosiddette dibit) - 00, 01, 10 e 11.

La transizione alle dibit ti consente di raddoppiare il bit rate. Al fine di distinguere tra bit rate o velocità di informazione e velocità di vari stati di segnale discreti, viene introdotto il concetto di baud rate. Baud è il numero di diversi stati discreti di un segnale per unità di tempo. Pertanto, se due bit sono codificati in uno stato discreto, la velocità in bit è doppia rispetto alla velocità in baud, ovvero 1 Baud \u003d 2 bit / s.

Se prendiamo in considerazione che il cavo della 5a categoria è progettato per una frequenza di 125 MHz, ovvero è in grado di funzionare con una velocità di trasmissione di 125 MBaud, la velocità delle informazioni di un cavo a doppino intrecciato sarà di 250 Mbps. Ricorda che il cavo ha quattro coppie intrecciate, quindi se usi tutte e quattro le coppie (Fig. 14), puoi aumentare la velocità di trasmissione a 250 Mbit / sx4 \u003d 1000 Mbit / s, cioè per raggiungere la velocità desiderata.

Come già notato, ci sono cinque livelli discreti nella codifica PAM-5, tuttavia, solo quattro livelli vengono utilizzati per trasmettere le abitudini. Il quinto livello di codice ridondante (Forward Error Correction, FEC) viene utilizzato per il meccanismo di costruzione della correzione degli errori. È implementato dall'encoder Trellis e dal decoder Viterbi. L'uso del meccanismo di correzione degli errori consente di aumentare l'immunità al rumore del ricevitore di 6 dB.

  Codifica a traliccio

Considera i principi della codifica a traliccio basata sull'encoder più semplice, che consiste di due celle di memorizzazione ed elementi XOR (Fig. 15). Lascia che una sequenza di bit 0101110010 arrivi all'ingresso di un tale encoder a una velocità di k bit / s. Se installi una cella di lettura sull'uscita dell'encoder che funziona al doppio della frequenza della velocità di arrivo dei bit sull'ingresso dell'encoder, la velocità del flusso di uscita sarà due volte più veloce del flusso di ingresso . In questo caso, la cella di lettura per la prima metà del ciclo operativo dell'encoder legge prima i dati dall'elemento logico XOR 2 e la seconda metà del ciclo - dall'elemento logico XOR 3. Di conseguenza, due bit di uscita sono mappati su ciascun bit di ingresso, ovvero un bit, il primo bit del quale è formato elemento XOR 2 e il secondo elemento XOR 3. Secondo il diagramma temporale dello stato dell'encoder, è facile vedere che con il bit della sequenza di ingresso 0101110010, la sequenza di uscita sarà 00 11 10 00 01 10 01 11 11 10.

Notiamo una caratteristica importante del principio della formazione delle diete. Il valore di ciascun dibit generato dipende non solo dal bit di informazioni in entrata, ma anche dai due bit precedenti, i cui valori sono memorizzati in due celle di memorizzazione. Infatti, se si accetta che A i è un bit di input, allora il valore dell'elemento XOR 2 è determinato dall'espressione e il valore dell'elemento XOR 3 è determinato dall'espressione. Pertanto, un bit è formato da una coppia di bit, il valore del primo dei quali è uguale e il secondo -. Pertanto, il valore di dibit dipende da tre stati: il valore del bit di input, il valore della prima cella di memoria e il valore della seconda cella di memoria. Tali encoder sono chiamati encoder convoluzionali per tre stati (K \u003d 3) con una velocità di uscita di ½.

Il lavoro dell'encoder è conveniente da considerare non basandosi su diagrammi di temporizzazione, ma sul cosiddetto diagramma di stato. Lo stato dell'encoder verrà indicato usando due valori: i valori della prima e della seconda cella di memoria. Ad esempio, se la prima cella memorizza il valore 1 (Q1 \u003d 1) e la seconda - 0 (Q2 \u003d 0), lo stato dell'encoder è descritto dal valore 10. In totale, sono possibili quattro diversi stati dell'encoder: 00, 01, 10 e 11.

Supponiamo che ad un certo punto lo stato dell'encoder sia 00. Siamo interessati a quale sarà lo stato dell'encoder al momento successivo e quale bit verrà formato. Sono possibili due risultati, a seconda del bit che verrà immesso nell'encoder. Se 0 viene ricevuto all'ingresso dell'encoder, anche lo stato successivo dell'encoder sarà 00, se viene ricevuto 1, lo stato successivo (cioè dopo lo spostamento) sarà 10. Il valore delle dibit generate viene calcolato usando le formule e. Se 0 entra nell'ingresso dell'encoder, verrà generato un dibit 00 (), se 1 viene immesso, viene formato un dibit 11 (). È conveniente presentare visivamente il ragionamento di cui sopra con l'aiuto di un diagramma di stato (Fig. 16), in cui gli stati dell'encoder sono indicati in cerchi e il bit di input e il bit generato sono scritti attraverso una barra. Ad esempio, se il bit di input è 1 e il bit generato è 11, quindi scrivere: 1/11.

Continuando considerazioni simili per tutti gli altri possibili stati dell'encoder, è facile costruire un diagramma di stato completo, sulla base del quale il valore del dibit generato dall'encoder è facilmente calcolabile.

Utilizzando il diagramma di stato dell'encoder, non è difficile costruire un diagramma di transizione temporaneo per la sequenza di input dei bit 0101110010 che abbiamo già esaminato.Per fare questo, costruiamo una tabella nelle colonne di cui sono indicati i possibili stati dell'encoder e nelle righe, i tempi. Le possibili transizioni tra i vari stati dell'encoder sono indicate da frecce (basate sul diagramma di stato completo dell'encoder - Fig. 17), su cui sono indicati il \u200b\u200bbit di ingresso corrispondente a questa transizione e il bit corrispondente. Ad esempio, per i primi due momenti, il diagramma di stato dell'encoder è simile a quello mostrato in Fig. 18. La freccia rossa mostra la transizione corrispondente alla sequenza di bit considerata.

Continuando a visualizzare le possibili e reali transizioni tra diversi stati dell'encoder, corrispondenti a diversi punti nel tempo (Fig. 19,), otteniamo un diagramma temporale completo degli stati dell'encoder (Fig. 22).

Il vantaggio principale del metodo di codifica a traliccio sopra descritto è la sua immunità al rumore. Come verrà mostrato in seguito, a causa della ridondanza di codifica (ricordare che a ciascun bit di informazione viene assegnato un bit, ovvero la ridondanza di codice è 2) anche in caso di ricezione di errori (ad esempio, invece del bit 11, il bit 10 viene accettato per errore), la sequenza di bit iniziale può essere inconfondibilmente restaurato.

Per ripristinare la sequenza originale di bit sul lato ricevitore, viene utilizzato un decodificatore di Viterbi.

  Decodificatore Viterbi

Il decodificatore di Viterbi in caso di ricezione priva di errori dell'intera sequenza di abitudini 00 11 10 00 01 10 01 11 11 10 avrà informazioni su questa sequenza, nonché sulla struttura dell'encoder (cioè il suo diagramma di stato) e il suo stato iniziale (00). Sulla base di queste informazioni, deve ripristinare la sequenza originale di bit. Considera come ripristinare le informazioni sulla fonte.

Conoscendo lo stato iniziale dell'encoder (00), nonché eventuali cambiamenti in questo stato (00 e 10), costruiamo un diagramma temporale per i primi due istanti temporali (Fig. 22). In questo diagramma dallo stato 00, ci sono solo due possibili percorsi corrispondenti a differenti dibit di input. Poiché il bit di ingresso del decodificatore è 00, quindi, utilizzando il diagramma di stato dell'encoder Trellis, stabiliamo che lo stato successivo dell'encoder sarà 00, che corrisponde al bit iniziale 0.

Tuttavia, non abbiamo una garanzia del 100% che il bit 00 ricevuto sia corretto, quindi non spazzare via il secondo percorso possibile dallo stato 00 allo stato 10, corrispondente al bit 11 e al bit sorgente 1. I due percorsi mostrati nel diagramma sono diversi l'uno dall'altro. altre cosiddette metriche di errore, che per ciascun percorso sono calcolate come segue. Per la transizione corrispondente al dibit accettato (ovvero, per la transizione considerata vera), la metrica di errore è considerata pari a zero e per le restanti transizioni viene calcolata dal numero di bit diversi nel dibit ricevuto e dal dibit corrispondente alla transizione in questione. Ad esempio, se il dibit ricevuto è 00 e il dibit corrispondente alla transizione in questione è 11, la metrica di errore per questa transizione è 2.

Per il prossimo momento corrispondente al bit 11 adottato, saranno possibili due stati iniziali dell'encoder: 00 e 10, e gli stati finali saranno quattro: 00, 01, 10 e 11 (Fig. 23). Di conseguenza, per questi stati finali ci sono diversi modi possibili che differiscono l'uno dall'altro per la metrica dell'errore. Nel calcolare la metrica di errore, è necessario tenere conto della metrica dello stato precedente, ovvero se per il momento temporale precedente la metrica per lo stato 10 era uguale a 2, quindi quando si passa da questo stato allo stato 01, la metrica di errore del nuovo stato (metrica dell'intero percorso) diventerà 2 + 1 \u003d 3 .

Per il momento successivo corrispondente al dibit adottato 10, notiamo che negli stati 00, 01 e 11, due percorsi conducono (Fig. 24). In questo caso, è necessario lasciare solo quelle transizioni a cui corrisponde la metrica di errore più piccola. Inoltre, poiché le transizioni dallo stato 11 allo stato 11 e allo stato 01 vengono scartate, la transizione dallo stato 10 allo stato 11 corrispondente al momento temporale precedente non continua, pertanto può anche essere scartata. Allo stesso modo, la transizione corrispondente alla volta precedente dallo stato 00 a 00 viene scartata.

Continuando questo ragionamento, possiamo calcolare la metrica di tutti i possibili percorsi e rappresentare tutti i possibili percorsi.

Allo stesso tempo, il numero di possibili percorsi stessi non è così grande come potrebbe sembrare, poiché la maggior parte di essi viene scartata durante il processo di costruzione, in quanto non ha seguito (Fig. 25). Ad esempio, sul sesto ciclo di clock del decodificatore secondo l'algoritmo descritto, ci sono solo quattro modi possibili.

Allo stesso modo, nell'ultimo ciclo di clock del decodificatore, ci sono solo quattro possibili percorsi (Fig. 26) e il vero percorso, che ripristina in modo univoco la sequenza di bit originale 0101110010, corrisponde a una metrica di errore pari a 0.

Quando si costruiscono i diagrammi temporali considerati, è conveniente visualizzare la metrica degli errori accumulati per vari stati dell'encoder sotto forma di tabella. È questa tabella che è la fonte delle informazioni sulla base delle quali è possibile ripristinare la sequenza originale di bit (Tabella 4).

Nel caso sopra descritto, abbiamo ipotizzato che tutte le abitudini ricevute dal decodificatore non contenessero errori. Consideriamo ulteriormente la situazione in cui due errori sono contenuti nella sequenza accettata di dibit. Consenti invece della sequenza corretta 00 11 10 00 01 10 01 11 11 10, il decodificatore riceve la sequenza 00 11 11 00 11 10 01 11 11 10, in cui il terzo e il quinto addebito non hanno esito positivo. Proviamo ad applicare l'algoritmo di Viterbi sopra discusso, basato sulla scelta del percorso con la minima metrica di errore, a questa sequenza e scopriamo se possiamo ripristinare la sequenza originale di bit nella forma corretta, ovvero correggere gli errori non riusciti.

Fino a quando non si ottiene il terzo dibit (non riuscito), l'algoritmo per il calcolo della metrica di errore per tutte le possibili transizioni non differisce dal caso considerato in precedenza. Fino a questo punto, il percorso contrassegnato in Fig. 2 aveva la metrica più piccola di errori accumulati. 27 in rosso. Dopo aver ricevuto un tale dibit, non esiste più un percorso con una metrica di errori accumulati pari a 0. Tuttavia, ci saranno due percorsi alternativi con una metrica di 1. Pertanto, in questa fase è impossibile scoprire quale bit della sequenza originale corrisponde al dibit ottenuto.

Una situazione simile si presenterà alla ricezione della quinta dibite (anch'essa fallita) (Fig. 28). In questo caso, ci saranno già tre percorsi con una metrica uguale di errori accumulati e stabilire il percorso vero è possibile solo dopo aver ricevuto le seguenti abitudini.

Dopo aver ricevuto la decima dibit, il numero di possibili percorsi con una diversa metrica di errori accumulati diventerà piuttosto grande (Fig. 29), tuttavia, nel diagramma (utilizzando la Tabella 5, in cui viene presentata la metrica degli errori accumulati per diversi percorsi), è facile scegliere l'unico percorso con la metrica più piccola (per fig.29

L'esempio considerato di un codificatore convoluzionale aveva solo quattro stati diversi: 00, 01, 10 e 11. La tecnologia 1000Base-T utilizza un codificatore convoluzionale per già otto stati diversi (con tre elementi di ritardo), motivo per cui viene chiamato a otto posizioni. Inoltre, poiché i caratteri vengono trasmessi simultaneamente su tutte e quattro le coppie intrecciate del cavo utilizzando la codifica PAM-5 a cinque livelli, questa codifica viene chiamata 4D / PAM-5 quadridimensionale.

Un'altra differenza significativa tra l'encoder Trellis utilizzato nella tecnologia 1000Base-T è l'algoritmo per la transizione tra diversi stati dell'encoder. Nell'esempio più semplice considerato da noi, lo stato dell'encoder al momento successivo è stato determinato esclusivamente dallo stato corrente e dal bit di ingresso. Quindi, se lo stato corrente è 00 e il bit di ingresso è 1, lo stato successivo, ovvero il campo di spostamento bit nelle celle di memoria, corrisponderà a 10. Nel vero encoder Trellis a otto posizioni, ci sono due bit di controllo (input) e le transizioni tra stati diversi sono determinate dall'algoritmo la massima distanza tra i punti della costellazione del segnale. Come segue dalla fig. 30, l'encoder Trellis implementa il rapporto:

dove d 6, d 7 e d 8 sono i bit di dati sulle linee 6, 7 e 8, rispettivamente.

Spieghiamo questo con un esempio specifico.

Ricordiamo che il codice PAM-5 utilizza cinque livelli per la trasmissione del segnale: –2, –1, 0, +1, +2. In questo caso, i livelli di tensione + 1 / –1 V corrispondono ai livelli + 2 / –2 e la tensione + 0,5 / –0,5 V. corrisponde ai livelli + 1 / –1. Dato che quattro livelli di segnale vengono trasmessi simultaneamente su quattro coppie intrecciate ciascuno di questi livelli può assumere uno di cinque valori, in totale otteniamo 625 (5x5x5x5) diverse combinazioni di segnali. Vari possibili stati del segnale sono convenientemente rappresentati sul cosiddetto piano del segnale. Su questo piano, ogni possibile stato del segnale è rappresentato da un punto del segnale e la totalità di tutti i punti del segnale è chiamata costellazione del segnale. Naturalmente, non è possibile rappresentare lo spazio quadridimensionale, quindi, per chiarezza, consideriamo la costellazione del segnale 5x5 bidimensionale. Tale costellazione può formalmente corrispondere a due coppie intrecciate. Disegniamo lungo i punti dell'asse X corrispondenti a una coppia attorcigliata e lungo l'asse Y un'altra. Quindi la nostra costellazione 2D apparirà come quella mostrata in fig. 31.

Si noti che la distanza minima tra due punti di tale costellazione è 1.

Sotto l'influenza del rumore e dell'attenuazione del segnale, la costellazione del segnale subisce distorsioni (Fig. 32), a seguito della quale la posizione di ciascun punto del segnale si diffonde e la distanza tra loro diminuisce. Di conseguenza, i punti nella costellazione del segnale diventano difficili da distinguere e c'è un'alta probabilità della loro confusione.

Pertanto, uno dei compiti dell'encoder Trellis è la formazione di una costellazione di segnali, che fornirebbe la massima distanza tra punti di segnale diversi. Per capire come questo viene fatto, denotiamo i livelli del segnale –1 e +1 per X, e i livelli –2, 0, +2 per Y. Quindi la costellazione iniziale può essere rappresentata nella forma mostrata in Fig. 33.

Dividendo questa costellazione in due costellazioni secondarie, una delle quali è formata dai punti XX e YY e l'altra dai punti XY e YX, è possibile aumentare la distanza tra i punti del segnale a (Fig. 34).

Quando si usano due coppie intrecciate, il compito dell'encoder Trellis è di inviare solo simboli appartenenti a una qualsiasi delle costellazioni del segnale per una coppia intrecciata, ad esempio D0 \u003d XX + YY, e per i simboli per la seconda coppia intrecciata, per i simboli appartenenti all'altra costellazione, ad esempio D1 \u003d XY + YX. Quindi la distanza tra i personaggi inviati sarà doppia rispetto alla costellazione originale. Di conseguenza, il riconoscimento dei punti nella costellazione del segnale migliora, cioè aumenta l'immunità al rumore.

Il codificatore a traliccio reale funziona approssimativamente allo stesso modo, generando caratteri inviati in quattro coppie intrecciate, tuttavia, poiché ogni punto della costellazione ha quattro coordinate (una per ogni coppia) e ogni punto può assumere il valore X o Y, quindi c'è 16 diverse combinazioni da cui è possibile formare otto sotto-costellazioni:

Nelle costellazioni risultanti, la distanza minima tra i punti è due volte maggiore rispetto alla costellazione originale. Inoltre, la distanza minima tra i punti di due diverse costellazioni secondarie è uguale a 2. Sono queste otto costellazioni di segnale che formano il diagramma di stato dell'encoder trellis. Ad esempio, lo stato dell'encoder 000 corrisponde a una combinazione di punti dalle costellazioni D0D2D4D6, nel senso che i punti della costellazione D0 sono trasmessi lungo la prima coppia, dalla costellazione D2 lungo la seconda coppia, ecc. Il successivo stato possibile dell'encoder corrisponderà a una combinazione in cui la distanza minima tra i caratteri inviati per ciascuna coppia è 2.

L'uso della codifica a traliccio secondo lo schema descritto consente di ridurre il rapporto segnale-rumore (SNR) di 6 dB, ovvero aumentare significativamente l'immunità al rumore durante la trasmissione dei dati.

ComputerPress 2 "2002

LA CAMPANA

C'è chi legge queste notizie prima di te.
Iscriviti per ricevere articoli freschi.
E-mail
Nome
cognome
Come vuoi leggere The Bell
No spam