DZWONEK

Są tacy, którzy czytają te wiadomości przed tobą.
Subskrybuj, aby otrzymywać świeże artykuły.
E-mail
Imię
Nazwisko
Jak chcesz przeczytać Dzwon
Bez spamu

W sieci kilka komputerów musi mieć wspólny dostęp do medium transmisyjnego. Jeśli jednak dwa komputery spróbują jednocześnie przesyłać dane, nastąpi kolizja i dane zostaną utracone.

Wszystkie komputery w sieci muszą korzystać z tej samej metody dostępu, w przeciwnym razie sieć ulegnie awarii. Poszczególne komputery, których metody będą dominować, uniemożliwią innym transmisję. Stosowane są metody dostępu, aby zapobiec jednoczesnemu dostępowi do kabla kilku komputerów, usprawniając transmisję i odbiór danych przez sieć oraz zapewniając, że tylko jeden komputer może pracować jednocześnie.

Dzięki wielokrotnemu dostępowi z kontrolą operatora i wykrywaniem kolizji (w skrócie CSMA / CD), wszystkie komputery w sieci - zarówno klienci, jak i serwery - nasłuchują na kablu, próbując wykryć przesyłane dane (to znaczy ruch).

1) Komputer „rozumie”, że kabel jest wolny (to znaczy, że nie ma ruchu).

2) Komputer może rozpocząć przesyłanie danych.

3) Do momentu zwolnienia kabla (podczas przesyłania danych) żaden komputer sieciowy nie może transmitować.

Podczas próby jednoczesnego dostępu do nośnika transmisji więcej niż jednego urządzenia sieciowego dochodzi do kolizji. Komputery rejestrują wystąpienie kolizji, zwalniają linię transmisyjną na jakiś losowo określony (w granicach określonych przez standardowy) przedział czasu, po którym próba transmisji jest powtarzana. Komputer, który jako pierwszy przechwycił linię transmisyjną, zaczyna transmitować dane.

CSMA / CD jest znany jako metoda przeciwna, ponieważ komputery w sieci „konkurują” (konkurują) o prawo do transmisji danych.

Zdolność do wykrywania kolizji jest powodem, który ogranicza zakres samego CSMA / CD. Ze względu na skończoną prędkość propagacji sygnału w przewodach na odległościach większych niż 2500 m (1,5 mil) mechanizm wykrywania kolizji nie działa. Jeśli odległość do komputera przesyłającego przekroczy ten limit, niektóre komputery nie mają czasu na wykrycie obciążenia kabla i rozpoczęcie przesyłania danych, co prowadzi do kolizji i zniszczenia pakietów danych.

Przykładami protokołów CDSMA / CD są Ethernetowa wersja 2 DEC i IEEE 802.3.

Specyfikacja fizycznych nośników Ethernet

Opracowano różne opcje warstwy fizycznej dla technologii Ethernet, które różnią się nie tylko rodzajem kabla i parametrami elektrycznymi impulsów, jak ma to miejsce w przypadku technologii Ethernet 10 Mb / s, ale także sposobem kodowania sygnałów i liczbą przewodników zastosowanych w kablu. Dlatego fizyczna warstwa Ethernet ma bardziej złożoną strukturę niż klasyczny Ethernet.

Obecnie specyfikacje technologii Ethernet obejmują następujące media.

  • 10Base-2    - kabel koncentryczny o średnicy 0,25 cala, zwany cienkim koncentrycznym. Ma impedancję falową 50 omów. Maksymalna długość segmentu wynosi 185 metrów (bez repeaterów).
  • 10Base-5    - kabel koncentryczny o średnicy 0,5 cala, zwany „grubym” koncentrycznym. Ma impedancję falową 50 omów. Maksymalna długość segmentu bez repeatera wynosi 500 metrów.
  • 10Base-T    - kabel oparty na nieekranowanej skrętce (UTP). Tworzy topologię w kształcie gwiazdy opartą na hubach. Odległość między hubem a węzłem końcowym jest nie większa niż 100 metrów.
  • 10Base-F.    - światłowód. Topologia jest podobna do topologii standardu 10Base-T. Istnieje kilka wariantów tej specyfikacji - FOIRL (odległość do 1000 m), 10Base-FL (odległość do 2000 m).

Formaty ramek Ethernet

Podobnie jak w produkcji, ramki Ethernet są wszystkim. Służą one jako repozytorium dla wszystkich pakietów wysokiego poziomu, dlatego aby się zrozumieć, nadawca i odbiorca muszą używać tego samego typu ramek Ethernet. Standard technologii Ethernet zdefiniowany w IEEE802.3 zawiera opis pojedynczego formatu ramki na poziomie MAC. Ramki mogą być tylko czterema różnymi formatami, a także niezbyt różniącymi się od siebie. Ponadto istnieją tylko dwa podstawowe formaty ramek (w angielskiej terminologii nazywane są one „formatami surowymi”) - Ethernet_II i Ethernet_802.3, i różnią się przeznaczeniem tylko jednego pola.

  • Rama Ethernet DIX (Ethernet II). Pojawiło się w wyniku konsorcjum trzech firm Digital, Intel i Xerox w 1980 r., Które przedłożyło komitetowi 802.3 swoją zastrzeżoną wersję standardu Ethernet jako projekt standardu międzynarodowego.
  • 802.3 / LLC, 802.3 / 802.2   lub Novell 802.2. Przyjęty przez komitet 802.3 przyjął standard, który różni się w niektórych szczegółach od Ethernet DIX.
  • Surowa ramka 802.3lub Novell 802.3   - pojawił się w wyniku starań Novella o przyspieszenie stosu protokołów w sieciach Ethernet

Każda ramka zaczyna się od preambuły (preambuły) o długości 7 bajtów, wypełnionej szablonem 0b10101010 (do synchronizacji źródła i miejsca docelowego). Po preambule przychodzi bajt początkowego ogranicznika ramki (Start of Frame Delimiter, SFD), zawierający sekwencję 0b10101011 i wskazujący początek własnej ramki. Następnie znajdują się pola Adres docelowy (DA) i Adres źródłowy (SA). Ethernet wykorzystuje 48-bitowe adresy warstw IEEE MAC.

Następne pole ma różne znaczenie i różne długości w zależności od rodzaju ramki.

Na końcu ramki znajduje się 32-bitowe pole sumy kontrolnej (Frame Check Sequence, FCS). Suma kontrolna jest obliczana przy użyciu algorytmu CRC-32. Rozmiar ramki Ethernet od 64 do 1518 bajtów (z wyłączeniem preambuły, ale z uwzględnieniem pola sumy kontrolnej)

  Typ ramki Ethernet DIX

Ramka Ethernet DIX, zwana również ramką Ethernet II, jest podobna do ramki Raw 802.3, ponieważ nie używa również nagłówków podwarstw LLC, ale różni się tym, że zamiast pola długości jest zdefiniowane pole typu protokołu (pole Typ). To pole jest przeznaczone do tych samych celów, co pola DSAP i SSAP ramki LLC - aby wskazać typ protokołu najwyższego poziomu, który osadził swój pakiet w polu danych tej ramki. Wartości przekraczające maksymalną długość pola danych 1500 są używane do kodowania typu protokołu, więc ramki Ethernet II i 802.3 są łatwe do rozróżnienia.

  Typ ramki Raw 802.3.

Za adresem źródłowym zawiera 16-bitowe pole długości (L), które określa liczbę bajtów następujących po polu długości (wyłączając pole sumy kontrolnej). Pakiet protokołu IPX jest zawsze osadzony w tego typu ramce. Pierwsze dwa bajty nagłówka protokołu IPX zawierają sumę kontrolną datagramu IPX. Jednak domyślnie to pole nie jest używane i ma wartość 0xFFFF.

  Typ ramki 802.3.LLC

Po polu adresu źródłowego znajduje się pole o długości 16 bitów, które określa liczbę bajtów następujących po tym polu (z wyłączeniem pola sumy kontrolnej), a następnie nagłówek LLC. Nagłówek ramki 802.3 / LLC jest wynikiem połączenia pól nagłówka ramki zdefiniowanych w 802.3 i 802.2.

Standard 802.3 definiuje osiem pól nagłówka:

Pole preambułyskłada się z siedmiu bajtów danych synchronizacji. Każdy bajt zawiera tę samą sekwencję bitów - 10101010. W kodowaniu Manchester kombinacja ta jest reprezentowana w medium fizycznym przez sygnał fali okresowej. Preambuła służy do zapewnienia czasu i możliwości, aby obwody nadawczo-odbiorcze miały stabilną synchronizację z odebranymi sygnałami zegarowymi.

Uruchom ogranicznik   ramka składa się z jednego bajtu z zestawem bitów 10101011. Wygląd tej kombinacji jest wskaźnikiem zbliżającego się odbioru ramki.

Adres odbiorcy- może mieć długość 2 lub 6 bajtów (docelowy adres MAC). Pierwszy bit adresu odbiorcy jest znakiem, czy adres jest indywidualny, czy grupowy: jeśli 0, to adres wskazuje konkretną stację, jeśli 1, to jest to adres multiemisji kilku (być może wszystkich) stacji sieciowych. W adresowaniu rozgłoszeniowym wszystkie bity pola adresu są ustawione na 1. Zasadniczo przyjmuje się stosowanie adresów 6-bajtowych.

Adres nadawcy   - 2 lub 6 bajtowe pole zawierające adres stacji nadawczej. Pierwszy bit to zawsze 0.

Podwójny bajt pole długości   określa długość pola danych w ramce.

Pole danych   może zawierać od 0 do 1500 bajtów. Ale jeśli długość pola jest mniejsza niż 46 bajtów, wówczas używane jest następujące pole - pole wypełnienia w celu uzupełnienia ramki do minimalnej dopuszczalnej długości.

Wypełnij pole   składa się z takiej liczby bajtów symboli zastępczych, która zapewnia pewną minimalną długość pola danych (46 bajtów). Zapewnia to prawidłowe działanie mechanizmu wykrywania kolizji. Jeśli długość pola danych jest wystarczająca, to pole dopełniania nie pojawia się w ramce.

Pole sumy kontrolnej- 4 bajty zawierające wartość obliczoną przez określony algorytm (wielomian CRC-32). Po odebraniu ramki stacja robocza wykonuje własne obliczenie sumy kontrolnej dla tej ramki, porównuje otrzymaną wartość z wartością pola sumy kontrolnej, a tym samym określa, czy odebrana ramka jest zniekształcona.

Ramka 802.3 jest ramką podwarstwy MAC; zgodnie ze standardem 802.2 ramka podwarstwy LLC z usuniętymi flagami początkowymi i końcowymi ramki jest osadzona w jej polu danych.

Powstała ramka 802.3 / LLC jest pokazana w dół. Ponieważ ramka LLC ma 3-bajtowy nagłówek, maksymalny rozmiar pola danych jest zredukowany do 1497 bajtów.

  Typ ramki Ethernet SNAP

Ramka Ethernet SNAP (SNAP - SubNetwork Access Protocol) jest rozszerzeniem ramki 802.3 / LLC poprzez wprowadzenie dodatkowego nagłówka protokołu SNAP. Nagłówek składa się z 3-bajtowego pola identyfikatora organizacji (OUI) i 2-bajtowego pola typu (Type, Ethertype). Typ identyfikuje protokół wyższej warstwy, a pole OUI identyfikuje identyfikator organizacji, która kontroluje przypisywanie kodów typów protokołów. Kody protokołów dla standardów IEEE 802 są kontrolowane przez IEEE, który ma kod OUI 0x000000. W przypadku tego kodu OUI pole typu dla Ethernet SNAP jest takie samo jak typ Ethernet DIX.

Tabela podsumowująca użycie różnych typów ramek przez protokoły wyższego poziomu.

Typrama

Ethernet II

Ethernet Raw 802.3

Ethernet 802.3 / LLC

Ethernet SNAP

Siećprotokoły

IPX, IP, AppleTalk Faza I

IPX, IP, AppleTalk Phase II

  Szybki Ethernet

  Różnica między Fast Ethernet a Ethernet

Wszystkie różnice między technologią Ethernet i Fast Ethernet koncentrują się na warstwie fizycznej. Celem technologii Fast Ethernet jest uzyskanie znacznie wyższego rzędu wielkości, prędkości w porównaniu do 10 Base T Ethernet - IEEE 802.3, przy zachowaniu tej samej metody dostępu, formatu ramki i systemu zapisu. Poziomy MAC i LLC w Fast Ethernet pozostały absolutnie takie same podobnie.

Organizacja fizycznej warstwy technologii Fast Ethernet jest bardziej złożona, ponieważ wykorzystuje trzy opcje dla systemów kablowych:

  • Światłowodowy kabel wielomodowy (dwa włókna)
  • Skrętka kategorii 5 (dwie pary)
  • Skrętka kategorii 3 (cztery pary)

Kabel koncentryczny w Fast Ethernet nie jest używany. Sieci Fast Ethernet we wspólnym środowisku, takim jak sieci 10Base-T / 10Base-F, mają hierarchiczną strukturę drzewa zbudowaną na hubach. Główną różnicą w konfiguracji sieci Fast Ethernet jest zmniejszenie średnicy do 200 metrów, co tłumaczy się 10-krotnym skróceniem czasu transmisji minimalnej długości ramki w porównaniu z 10-megabajtową siecią Ethernet.

Jednak w przypadku korzystania z przełączników protokół Fast Ethernet może działać w trybie dupleksowym, w którym nie ma ograniczeń co do całkowitej długości sieci, a jedynie poszczególnych segmentów fizycznych.

Specyfikacja środowiska fizycznegoEthernet

  • 100BASE-T    - Ogólny termin określający jeden z trzech standardów Ethernet 100 Mbit / s, wykorzystujący skrętkę jako medium. Długość segmentu do 200-250 metrów. Obejmuje 100BASE-TX, 100BASE-T4 i 100BASE-T2.
  • 100BASE-TX, IEEE 802.3u   - Opracowano technologię 10BASE-T, zastosowano topologię gwiazdy, zastosowano skrętkę kategorii 5, w której faktycznie zastosowano 2 pary przewodów, maksymalna prędkość przesyłania danych wynosi 100 Mb / s.
  • 100BASE-T4    - Ethernet 100 Mbit / s kablem kategorii 3. Zaangażowane są wszystkie 4 pary. Teraz prawie nigdy nie używany. Transmisja danych odbywa się w trybie półdupleksowym.
  • 100BASE-T2    - Nieużywany. Ethernet 100 Mbps przez kabel kategorii 3. Używane są tylko 2 pary. Tryb transmisji w trybie pełnego dupleksu jest obsługiwany, gdy sygnały propagują się w przeciwnych kierunkach dla każdej pary. Prędkość transmisji w jednym kierunku wynosi 50 Mb / s.
  • 100BASE-FX    - Ethernet 100 Mbps przy użyciu kabla światłowodowego. Maksymalna długość segmentu wynosi 400 metrów w trybie półdupleksowym (dla gwarantowanego wykrywania kolizji) lub 2 kilometry w trybie pełnego dupleksu za pomocą światłowodu wielomodowego i do 32 kilometrów w trybie pojedynczym.

  Gigabit Ethernet

  • 1000BASE-T, IEEE 802.3ab   - Standard Ethernet 1 Gb / s. Używany jest skrętka komputerowa kategorii 5e lub kategorii 6. Wszystkie 4 pary uczestniczą w transmisji danych. Szybkość przesyłania danych - 250 Mb / s dla jednej pary.
  • 1000BASE-TX, - Standard Ethernet 1 Gbit / s, przy użyciu tylko skrętki kategorii 6. Praktycznie nieużywany.
  • 1000Base-X    - Ogólny termin określający technologię Gigabit Ethernet wykorzystującą kabel światłowodowy jako medium, obejmuje 1000BASE-SX, 1000BASE-LX i 1000BASE-CX.
  • 1000BASE-SX, IEEE 802.3z   - Technologia Ethernet 1 Gbit / s wykorzystuje wielomodowy zasięg transmisji sygnału światłowodowego bez repeatera do 550 metrów.
  • 1000BASE-LX, IEEE 802.3z   - Technologia Ethernet 1 Gbit / s wykorzystuje wielomodowy zasięg transmisji sygnału światłowodowego bez repeatera do 550 metrów. Zoptymalizowany pod kątem dużych odległości za pomocą światłowodu jednomodowego (do 10 kilometrów).
  • 1000BASE-CX - Technologia Gigabit Ethernet na krótkie odległości (do 25 metrów), specjalny kabel miedziany (ekranowana skrętka (STP)) o impedancji falowej 150 omów. Zastąpiony przez standard 1000BASE-T, a teraz nieużywany.
  • 1000BASE-LH (Long Haul)   - Technologia Ethernet 1 Gbit / s, wykorzystuje jednomodowy kabel optyczny, zasięg transmisji sygnału bez repeatera wynosi do 100 kilometrów.

Problemy z Gigabit Ethernet

  • Zapewnienie akceptowalnej średnicy sieci dla współdzielonych mediów. Ze względu na ograniczenia narzucone przez metodę CSMA / CD dla długości kabli, wersja Gigabit Ethernet dla środowiska współdzielonego zezwala na odcinek o długości jedynie 25 metrów. Konieczne było rozwiązanie tego problemu.
  • Osiągnięcie szybkości transmisji 1000 Mb / s na kablu optycznym. Technologia Fibre Channel, której warstwa fizyczna została przyjęta jako podstawa światłowodowej wersji Gigabit Ethernet, zapewnia transfer danych tylko 800 Mb / s.
  • Użyj jako skrętki.

Aby rozwiązać te problemy, konieczne było wprowadzenie zmian nie tylko w warstwie fizycznej, ale także w warstwie MAC.

Sposób zapewnienia średnicy sieci 200 m na wspólnym nośniku

Aby rozszerzyć maksymalną średnicę sieci Gigabit Ethernet w trybie półdupleksu do 200 m, twórcy technologii podjęli dość naturalne środki w oparciu o znany stosunek czasu transmisji ramki o minimalnej długości i czasie podwójnego obrotu.

Minimalny rozmiar ramki został zwiększony (z wyłączeniem preambuły) z 64 do 512 bajtów lub do 4096 bt. Odpowiednio, czas podwójnego obrotu można teraz również zwiększyć do 4095 bt, co sprawia, że \u200b\u200bśrednica sieci około 200 m jest dopuszczalna przy zastosowaniu pojedynczego repeatera. Przy podwójnym opóźnieniu sygnału 10 bt / m, kable światłowodowe 100 m przyczyniają się podczas podwójnego zwoju 1000 bt, a jeśli repeater i karty sieciowe wprowadzają takie same opóźnienia jak w technologii Fast Ethernet (dane podano w poprzedniej sekcji) , następnie opóźnienie repeatera wynoszące 1000 bt i para kart sieciowych o wartości 1000 bt da całkowity czas podwójnego obrotu wynoszący 4000 bt, co spełnia warunek rozpoznania kolizji. Aby zwiększyć długość ramki do wymaganej wartości w nowej technologii, karta sieciowa musi uzupełnić pole danych o długość 448 bajtów, tak zwane rozszerzenie, które jest polem wypełnionym niedozwolonymi znakami 8V / 10V, których nie można pomylić z kodami danych.

Aby zmniejszyć narzut podczas używania ramek zbyt długich, aby przesyłać krótkie potwierdzenia, twórcy standardu zezwalali węzłom końcowym na przesyłanie kilku ramek z rzędu, bez przesyłania medium do innych stacji. Ten tryb nazywa się Burst Mode - wyłączny tryb pakietowy. Stacja może transmitować kilka ramek z rzędu o łącznej długości nie większej niż 65 536 bitów lub 8192 bajtów. Jeśli stacja musi przesłać kilka małych ramek, może nie uzupełnić ich do rozmiaru 512 bajtów, ale przesyłać w rzędzie, dopóki limit 8192 bajtów nie zostanie wyczerpany (limit ten obejmuje wszystkie bajty ramki, w tym preambułę, nagłówek, dane i sumę kontrolną) . Limit 8192 bajtów nazywa się BurstLength. Jeśli stacja zaczęła transmitować ramkę i limit BurstLength został osiągnięty w środku ramki, wówczas ramka może transmitować do końca.

Zwiększenie „połączonej” ramki do 8192 bajtów nieco opóźnia dostęp do wspólnego środowiska innych stacji, ale przy prędkości 1000 Mb / s to opóźnienie nie jest tak znaczące

  Literatura

  1. V.G. Olifer, N.A. Olifer Sieci komputerowe

1000Base-X

Specyfikacja 1000BASE-X przewiduje zastosowanie nośnika w postaci światłowodów. Ten standard oparty jest na technologii ANSI Fibre Channel (ANSI X3T11).

Technologia 1000BASE-X pozwala na użycie trzech różnych mediów transmisyjnych, stąd trzy odmiany: 1000BASE-SX, 1000BASE-LX i 1000BASE-CX.

1000Base-SX

Najczęściej stosowana i najtańsza technologia oparta na standardowym włóknie wielomodowym. Maksymalna odległość dla 1000BASE-SX wynosi 220 metrów. Zastosowano długość fali 850 nm, S oznacza krótką długość fali.

Oczywiście tę wartość można osiągnąć tylko przy transmisji danych w pełnym dupleksie, ponieważ czas podwójnego obrotu sygnału w dwóch segmentach po 220 metrów wynosi 4400 bt, co przekracza limit 4095 bt, nawet bez uwzględnienia repeatera i kart sieciowych. W przypadku transmisji półdupleksowej maksymalne segmenty światłowodów muszą zawsze być mniejsze niż 100 metrów.

1000Base-LX

Technologia 1000BASE-LX jest zwykle używana z włóknami jednomodowymi, tutaj dopuszczalna odległość wynosi 5 kilometrów. Specyfikacja 1000Base-LX może również działać na kablu wielomodowym. W tym przypadku granica jest niewielka - 550 metrów.

W specyfikacji 1000Base-LX jako źródło promieniowania zawsze wykorzystywany jest laser półprzewodnikowy 1300 nm.

1000Base-CX

Technologia 1000BASE-CX wykorzystuje najbardziej unikalne z trzech środowisk. Jest to rozwiązanie oparte na rozwiązaniu, które wykorzystuje kable wykonane z wstępnie skręconych ekranowanych skręconych par.

Złącze to nie jest zwykłe złącze RJ-45, powszechnie używane w 10/100 / 1000Base-T. Zamiast tego do zakończenia tych dwóch par przewodów służy DB-9 lub HSSDS. Technologia 1000BASE-CX działa w odległości do 25 m, co ogranicza jej zastosowanie do małych obszarów.

1000Base-T

Specyfikacja 1000Base-T działa na skrętce dwużyłowej kategorii 5.

Każda para kabla kategorii 5 ma gwarantowaną przepustowość do 100 MHz. Aby przesyłać dane przez taki kabel z prędkością 1000 Mb / s, postanowiono zorganizować równoległą transmisję jednocześnie na wszystkich 4 parach kabli.

To natychmiast zmniejszyło szybkość przesyłania danych dla każdej pary do 250 Mb / s.

Do kodowania danych wykorzystano kod RAM5, wykorzystując 5 poziomów potencjału: -2, -1, 0, +1, +2. Dlatego w jednym cyklu zegara na parę przesyłanych jest 2 322 bity informacji. Dlatego częstotliwość zegara zamiast 250 MHz można zmniejszyć do 125 MHz. Co więcej, jeśli nie użyjesz wszystkich kodów, ale przesyłasz 8 bitów na cykl (w 4 parach), wówczas wymagana prędkość transferu wynosi 1000 Mb / s, a ilość niewykorzystanych kodów jest nadal utrzymywana, ponieważ kod RAM5 zawiera 5 4 \u003d 625 kombinacji, oraz jeśli 8 bitów danych jest transmitowanych w jednym cyklu zegara we wszystkich czterech parach, wymaga to tylko 28 \u003d 256 kombinacji. Odbiornik może wykorzystać pozostałe kombinacje do kontroli otrzymanych informacji i wyróżnienia prawidłowych kombinacji na tle szumu. Kod PAM5 o częstotliwości taktowania 125 MHz pasuje do pasma 100 MHz kabla kategorii 5.

Aby zidentyfikować kolizje i zorganizować tryb pełnego dupleksu, specyfikacja wykorzystuje technikę, w której oba nadajniki pracują względem siebie dla każdej z 4 par w tym samym zakresie częstotliwości, ponieważ używają tego samego potencjalnego kodu PAM5 (ryc. 12) . Hybrydowy obwód odsprzęgający H umożliwia odbiornikowi i nadajnikowi tego samego węzła jednoczesne użycie kabla skrętki do odbioru i transmisji.

Rysunek 12. Dwukierunkowa transmisja przez 4 pary UTP cat5 w Gigabit

Aby oddzielić odbierany sygnał od własnego, odbiornik odejmuje swój sygnał od sygnału wynikowego. Nie jest to prosta operacja i do tego służą specjalne cyfrowe procesory sygnałowe - DSP (Digital Signal Processor).

Rozwój technologii multimedialnych doprowadził do konieczności zwiększenia przepustowości linii komunikacyjnych. W związku z tym opracowano technologię Gigabit Ethernet, która zapewnia transmisję danych z prędkością 1 Gb / s. W tej technologii, podobnie jak w Fast Ethernet, zachowano ciągłość z technologią Ethernet: formaty ramek pozostały praktycznie niezmienione, zachowanemetoda dostępu CSMA/ Płyta CD   w trybie półdupleksowym. Na poziomie logicznym stosowane jest kodowanie 8 b/10 b. Ponieważ prędkość transmisji wzrosła 10 razy w porównaniu z Fast Ethernet, było to konieczne lub   zmniejszyć średnicę sieci do 20-25 m, albo zwiększ minimalną długość ramki. W technologii Gigabit Ethernet przeszli drugą drogę, zwiększając minimalną długość ramki do 512 bajt zamiast 64   bajty w technologii Ethernet i Fast Ethernet. Średnica sieci wynosi 200   m, podobnie jak w Fast Ethernet. Zwiększenie długości ramki może nastąpić na dwa sposoby. Pierwsza metoda polega na wypełnieniu pola danych krótkiej ramki symbolami zabronionych kombinacji kodów, podczas gdy sieć będzie nieproduktywna. W drugim sposobie dozwolone jest przesyłanie kilku krótkich ramek pod rząd o łącznej długości do 8192   bajt.

Nowoczesne sieci Gigabit Ethernet z reguły budowane są w oparciu o przełączniki i działają w trybie pełnego dupleksu. W tym przypadku nie mówią o średnicy sieci, ale o długości segmentu, która jest określana przez techniczne środki na poziomie fizycznym, przede wszystkim fizycznym nośniku przesyłania danych. Gigabit Ethernet wymaga użycia:

    jednomodowy kabel światłowodowy; 802.3 z

    wielomodowy kabel światłowodowy; 802.3 z

    kabel zrównoważony kategorii UTP 5; 802.3 ab

    kabel koncentryczny.

Podczas przesyłania danych za pomocą kabla światłowodowego jako emitery używane są diody LED oparte na długości fali 830   nm lub lasery o długości fali 1300   nm Zgodnie z tym standardem 802.3 z   zdefiniowano dwie specyfikacje 1000 Baza- Sx   i 1000 Baza- Lx. Maksymalna długość segmentu zaimplementowanego na kablu wielomodowym 62,5 / 125 w specyfikacji 1000Base-SX wynosi 220 m, a na kablu 50/125 nie przekracza 500 m. Maksymalna długość segmentu zaimplementowanego w specyfikacji jednomodowej 1000Base-LX wynosi 5000   m. Długość segmentu na kablu koncentrycznym nie przekracza 25 m.

Standard został opracowany w celu wykorzystania istniejących kabli zbalansowanych UTP kategorii 5. 802.3 ab. Ponieważ w technologii Gigabit Ethernet dane muszą być przesyłane z prędkością 1000 Mb / s, a skrętka dwużyłowa kategorii 5 ma szerokość pasma 100 MHz, zdecydowano o równoległym przesyłaniu danych za pomocą 4 skrętek dwużyłowych i stosować UTP kategorii 5 lub 5e o szerokości pasma 125 MHz. Zatem dla każdego kabla skrętki konieczne jest przesyłanie danych z prędkością 250 Mb / s, która jest 2 razy wyższa niż możliwości kategorii UTP 5e. Aby wyeliminować tę sprzeczność, stosuje się kod 4D-PAM5 z pięcioma potencjalnymi poziomami (-2, -1, 0, +1, +2). Dla każdej pary przewodów dane są jednocześnie przesyłane i odbierane z prędkością 125 Mb / s w każdym kierunku. W tym przypadku dochodzi do kolizji, w których powstają sygnały o złożonym kształcie pięciu poziomów. Rozdzielanie strumieni wejściowych i wyjściowych odbywa się za pomocą hybrydowych schematów izolacji H.   (Ryc. 5.4). Jako takie schematy są używane procesory sygnałowe. Aby odizolować odebrany sygnał, odbiornik odejmuje swój własny przesyłany sygnał od całkowitego (transmitowanego i odbieranego) sygnału.

Tak więc technologia Gigabit Ethernet zapewnia szybką wymianę danych i jest używana głównie do przesyłania danych między podsieciami, a także do wymiany informacji multimedialnych.

Figa. 5.4 Transmisja danych przez 4 pary kategorii 5 UTP

Standard IEEE 802.3 zaleca, aby technologia Gigabit Ethernet z transmisją danych przez światłowód była szkieletem. Przedziały czasowe, format ramki i transmisja są wspólne dla wszystkich wersji 1000 Mb / s. Warstwa fizyczna jest określana przez dwa schematy kodowania sygnału (ryc. 5.5). Schemat 8 b/10 b   jest używany dla światłowodu   oraz miedziane kable ekranowane. Do kabli zbalansowanych UTP   stosowana jest modulacja amplitudy impulsów (kod PAM5 ) Technologia 1000 BAZA- X   wykorzystuje kodowanie logiczne 8 b/10 b   i kodowanie liniowe ( Nrz).

Ryc.5.5. Dane techniczne technologii Gigabit Ethernet

Sygnały Nrz   transmitowane przez światłowód za pomocą jednej z fal krótkich ( krótki- długość fali) lub fali długiej ( długo- długość fali) źródła światła. Jako źródła fal krótkich stosuje się diody LED o długości fali 850   nm dla transmisji przez światłowód wielomodowy (1000BASE-SX). Ta tańsza opcja służy do transmisji na krótkie odległości. Długofalowe źródła laserowe ( 1310   nm) użyj światłowodu jednomodowego lub wielomodowego (1000BASE-LX). Jednomodowe światłowodowe źródła laserowe są w stanie przesyłać informacje do 5000   m

W połączeniach punkt-punkt ( punkt- do- punkt) do transmisji ( TX) i odbiór ( Rx) stosowane są oddzielne włókna, dlatego jest to realizowane pełny dupleks   Komunikacja. Instalowana jest tylko technologia Gigabit Ethernet pojedynczy repeater   między dwiema stacjami. Poniżej znajdują się parametry technologii 1000BASE (tabela 5.2).

Tabela 5.2

Porównania specyfikacji Gigabit Ethernet

Sieci Gigabit Ethernet budowane są w oparciu o przełączniki, gdy odległość połączeń w trybie pełnego dupleksu jest ograniczona tylko przez otoczenie, a nie czas podwójnego zwrotu. Ponadto z reguły topologia „ gwiazda„lub” rozszerzona gwiazda”, A problemy są określane przez logiczną topologię i przepływ danych.

Standard 1000BASE-T przewiduje użycie prawie tego samego kabla UTP, co standardy 100BASE-T i 10BASE-T. Kabel UTP w technologii 1000BASE-T jest taki sam, jak kabel 10BASE-T i 100BASE-TX, z tym wyjątkiem, że zaleca się stosowanie kabla kategorii 5e. Przy długości kabla 100 m 1000BASE-T działa na granicy swoich możliwości.

Wyróżniamy trzy główne elementy standardu: format ramki, system alarmowy między stacjami roboczymi podczas przesyłania danych za pomocą protokołu CSMA / CD oraz zestaw nośników fizycznych: kabel koncentryczny, skrętka, kabel światłowodowy.

Format ramki Ethernet

Na ryc. 7-2 pokazuje format ramki Ethernet. Pola mają następujące cele:
  - Preambuła: 7 bajtów, z których każdy reprezentuje przemianę zer i jedynek 10101010. Preambuła umożliwia ustawienie synchronizacji bitów po stronie odbierającej.
  - Uruchom ogranicznik ramki (SFD): 1 bajt, sekwencja 10101011. wskazuje, że pojawią się pola informacyjne ramki. Ten bajt można przypisać do preambuły.
  - Adres docelowy (DA, adres docelowy): 6 bajtów, wskazuje adres MAC stacji (adresy MAC stacji), dla których ta ramka jest przeznaczona. Może to być pojedynczy adres fizyczny (emisji pojedynczej), adres multiemisji lub adres rozgłoszeniowy.
  - Adres nadawcy (SA, adres źródłowy): bajty, wskazuje adres MAC stacji, która wysyła ramkę.
- Pole typu lub długość ramki (T lub L, typ lub długość): 2 bajty. Istnieją dwa podstawowe formaty ramek Ethernet (w angielskich terminach surowe formaty) —EthernetII i IEEE 802.3 (ryc. 7.2), i to pole ma dla nich inny cel. W przypadku ramki EthernetII pole to zawiera informacje o typie ramki. Poniżej przedstawiono wartości w systemie szesnastkowym tego pola dla niektórych popularnych protokołów sieciowych: 0x0800 dla IP, 0x0806 dla ARP, 0x809V dla AppleTalk, 0x0600 dla XNS i 0x8137 dla IPX / SPX. Po wskazaniu określonej wartości (jednej z wymienionych) w tym polu ramka uzyskuje format rzeczywisty, aw tym formacie ramka może być już rozproszona w sieci.
  - W przypadku ramki IEEE 802.3 pole to zawiera rozmiar następnego pola wyrażonego w bajtach w polu LLC LLC. Jeśli wynikiem tej liczby jest całkowita długość ramki mniejsza niż 64 bajty, pole Pad jest dodawane za polem LLC Data. W przypadku protokołu wyższego poziomu nie ma pomyłek z określaniem rodzaju ramki, ponieważ dla ramki IEEE 802.3 wartość tego pola nie może być większa niż 1500 (0x05DC). Dlatego oba formaty ramek mogą swobodnie współistnieć w tej samej sieci, a ponadto jedna karta sieciowa może współpracować z oboma typami za pośrednictwem stosu protokołów.
  - Dane (dane LLC): Pole danych przetwarzane przez podwarstwę LLC. Sama ramka IEEE 802.3 nie jest jeszcze ostateczna. W zależności od wartości pierwszych kilku bajtów tego pola mogą istnieć trzy końcowe formaty dla tej ramki IEEE 802.3:
  - Ethernet_802.3 (nie jest to standardowy, obecnie nieaktualny format używany przez Novell) - pierwsze dwa bajty danych LLC to 0xFFFF;
  - EthernetSNAP (standardowy format IEEE 802.2 SNAP, który jest najbardziej preferowany w nowoczesnych sieciach, szczególnie w przypadku protokołu TCP / IP) - pierwszy bajt danych LLC to 0xAA;
  - Ethernet_802.2 (standardowy format IEEE 802.2 używany przez Novell w systemie NetWare 4.0) - pierwszy bajt danych LLC nie ma wartości 0xFF (11111111) ani 0xAA (10101010).

Dodatkowe pole (pad - wypełniacz) - wypełnia się tylko wtedy, gdy pole danych jest małe, aby wydłużyć ramkę do minimalnego rozmiaru 64 bajtów - preambuła nie jest brana pod uwagę. Dolny limit minimalnej długości ramy jest niezbędny do prawidłowego rozwiązania kolizji.

Frame Check Sequence (FCS): 4-bajtowe pole, które wyświetla sumę kontrolną obliczoną przy użyciu cyklicznego kodu redundancji nad polami ramki, z wyjątkiem preambuł SDF i FCS.

Figa. 7.2 Dwa podstawowe formaty ramek MAC Ethernet

Podstawowe warianty algorytmów losowego dostępu dla środowiska

Protokół CSMA / CD określa charakter interakcji stacji roboczych w sieci z pojedynczym nośnikiem transmisji danych wspólnym dla wszystkich urządzeń. Wszystkie stacje mają takie same warunki transmisji danych. Nie ma określonej sekwencji, według której stacje mogą uzyskać dostęp do medium w celu transmisji. W tym sensie dostęp do środowiska odbywa się losowo. Implementacja algorytmów losowego dostępu wydaje się być znacznie prostszym zadaniem niż implementacja deterministycznych algorytmów dostępu. Ponieważ w tym drugim przypadku wymagany jest albo specjalny protokół, który monitoruje działanie wszystkich urządzeń sieciowych (na przykład protokół obiegu tokena nieodłącznie związany z sieciami Token Ring i FDDI), lub specjalne dedykowane główne urządzenie koncentrujące, które w określonej sekwencji umożliwiłoby wszystkim innym stacjom nadawanie (sieci Arcnet, 100 VG AnyLAN).

Jednak sieć z dostępem losowym ma jedną, być może główną wadę - nie jest to dość stabilna praca sieci przy dużym przeciążeniu, gdy może zająć dość dużo czasu, zanim stacja zdoła przesłać dane. Powodem tego są kolizje, które powstają między stacjami, które rozpoczęły transmisję jednocześnie lub prawie jednocześnie. Gdy dojdzie do kolizji, przesyłane dane nie docierają do odbiorców, a stacje nadawcze muszą wznowić transmisję.

Podajemy definicję: zbiór wszystkich stacji sieciowych, których jednoczesna transmisja dowolnej pary prowadzi do kolizji, nazywa się domeną kolizyjną (domeną kolizyjną). Z powodu kolizji (konfliktu) mogą wystąpić nieprzewidywalne opóźnienia podczas dystrybucji ramek w sieci, szczególnie gdy sieć jest mocno obciążona (wiele stacji próbuje transmitować jednocześnie w domenie konfliktu,\u003e 20-25) i przy dużej średnicy domeny konfliktu (\u003e 2 km). Dlatego przy budowaniu sieci zaleca się unikanie tak ekstremalnych trybów działania.

Problem konstruowania protokołu zdolnego do rozwiązywania kolizji w najbardziej racjonalny sposób i optymalizowania pracy sieci przy dużych obciążeniach był jednym z kluczowych problemów na etapie tworzenia standardu Ethernet IEEE 802.3. Początkowo rozważano trzy podstawowe podejścia do wdrożenia standardu losowego dostępu do środowiska (ryc. 7.3): niestałe, 1-stałe i p-stałe.

Figa. 7.3 Wiele algorytmów losowego dostępu (CSMA) i opóźnienie czasowe w sytuacji konfliktu (wycofanie kolizji)

Algorytm nietrwały (nietrwały). Dzięki temu algorytmowi stacja, która chce nadawać, kieruje się następującymi zasadami.

1. Słucha nośnika, a jeśli nośnik jest wolny (to znaczy, jeśli nie ma innej transmisji lub nie ma sygnału kolizji), nadaje, w przeciwnym razie nośnik jest zajęty - przechodzi do kroku 2.
  2. Jeśli środowisko jest zajęte, czeka na losowy (zgodnie z pewną krzywą rozkładu prawdopodobieństwa) czas i wraca do kroku 1.

Korzystanie z losowej wartości oczekiwania, gdy środowisko jest zajęte, zmniejsza prawdopodobieństwo kolizji. Rzeczywiście, załóżmy inaczej, że dwie stacje miały nadawać prawie jednocześnie, podczas gdy trzecia już nadawała. Jeśli pierwsze dwa nie miałyby przypadkowego czasu oczekiwania przed rozpoczęciem transmisji (gdyby medium było zajęte), ale tylko słuchało medium i czekało na jego uwolnienie, to po zatrzymaniu transmisji przez trzecią stację pierwsze dwa zaczną nadawać jednocześnie, co nieuchronnie doprowadzi do do kolizji. Tak więc losowe oczekiwanie eliminuje możliwość takich kolizji. Jednak niedogodność tej metody przejawia się w nieefektywnym wykorzystaniu przepustowości kanału. Ponieważ może się zdarzyć, że do czasu, gdy medium będzie wolne, stacja, która chce nadawać, będzie jeszcze czekać przez pewien losowy czas, zanim zdecyduje się słuchać medium, ponieważ wcześniej słuchało już medium, które okazało się być zajęte. W rezultacie kanał będzie nieaktywny przez pewien czas, nawet jeśli tylko jedna stacja czeka na transmisję.

1-trwały algorytm. Aby skrócić czas, gdy środowisko nie jest zajęte, można zastosować algorytm 1-stały. Dzięki temu algorytmowi stacja, która chce nadawać, kieruje się następującymi zasadami.

1. Słucha nośnika, a jeśli nośnik nie jest zajęty, nadaje, w przeciwnym razie przechodzi do kroku 2;
2. Jeśli medium jest zajęte, kontynuuje słuchanie medium, dopóki medium nie będzie wolne, a gdy tylko medium będzie wolne, natychmiast rozpocznie transmisję.

Porównując algorytmy niestałe i 1-stałe, możemy powiedzieć, że w algorytmie 1-stałym stacja, która chce transmitować, zachowuje się bardziej „samolubnie”. Dlatego, jeśli dwie lub więcej stacji oczekuje na transmisję (czekając, aż medium będzie wolne), można powiedzieć, że kolizja jest gwarantowana. Po zderzeniu stacje zaczynają decydować, co dalej.

Algorytm P-trwały. Reguły tego algorytmu są następujące:
  1. Jeśli medium jest wolne, stacja z prawdopodobieństwem p rozpoczyna transmisję natychmiast lub z prawdopodobieństwem (1-p) czeka na przedział czasu T. Przedział T jest zwykle przyjmowany jako równy maksymalnemu czasowi propagacji sygnału od końca do końca sieci;
  2. Jeśli medium jest zajęte, stacja kontynuuje słuchanie, dopóki medium nie będzie wolne, następnie przechodzi do kroku 1;
  3. Jeżeli transmisja jest opóźniona o jeden przedział T, stacja wraca do kroku 1.

I tu pojawia się pytanie o wybór najbardziej efektywnej wartości parametru p. Głównym problemem jest to, jak uniknąć niestabilności przy wysokich pobraniach. Rozważ sytuację, w której n stacji zamierza transmitować ramki, gdy transmisja jest już w toku. Pod koniec transmisji oczekiwana liczba stacji, które będą próbowały transmitować, będzie równa iloczynowi liczby osób, które chcą transmitować stacje według prawdopodobieństwa transmisji, tj. Jeśli np.\u003e 1, wówczas średnio kilka stacji spróbuje transmitować natychmiast, co spowoduje kolizję. Co więcej, natychmiast po wykryciu kolizji wszystkie stacje ponownie przejdą do kroku 1, co spowoduje powtarzającą się kolizję. W najgorszym przypadku nowe stacje, które chcą transmitować, mogą zostać dodane do n, co dodatkowo pogorszy sytuację, prowadząc ostatecznie do ciągłej kolizji i zerowej przepustowości. Aby uniknąć takiej katastrofy, pr powinien być mniejszy niż jedność. Jeśli sieć jest podatna na występowanie stanów, w których wiele stacji chce jednocześnie nadawać, konieczne jest zmniejszenie p. Z drugiej strony, gdy p staje się zbyt małe, nawet pojedyncza stacja może czekać średnio (1 - p) / p przedziały T przed transmisją. Więc jeśli p \u003d 0,1, to średni czas przestoju poprzedzający transfer wyniesie 9T.

Standard Gigabit Ethernet wykorzystujący kabel kategorii 5 (nieekranowana skrętka) jako medium transmisyjne opisane w sekcji IEEE 802.3ab został ostatecznie zatwierdzony 28 czerwca 1999 r.

Czas mijał, a teraz możemy już powiedzieć, że gigabitowy Ethernet na miedzi mocno wpisał się w historię rozwoju sieci lokalnych. Gwałtowny spadek cen zarówno gigabitowych adapterów sieciowych 1000Base-T, jak i modułów gigabitowych do przełączników stopniowo doprowadził do tego, że instalacja takich adapterów na serwerach staje się de facto standardem. Na przykład niektórzy producenci serwerów już rozpoczęli integrację adapterów gigabitowych 1000Base-T na płytach głównych serwerów, a liczba firm produkujących takie adaptery osiągnęła na początku tego roku 25. Ponadto zaczęto produkować adaptery przeznaczone do instalacji na stacjach roboczych ( różnią się tym, że są przeznaczone do 32-bitowej magistrali PCI 33 MHz). Wszystko to pozwala nam z pewnością powiedzieć, że za rok lub dwa gigabitowe karty sieciowe staną się tak powszechne, jak obecnie karty Fast Ethernet.

Rozważ podstawowe innowacje zawarte w standardzie IEEE 802.3ab i pozwalające na osiągnięcie tak wysokiej prędkości transmisji, przy zachowaniu maksymalnej odległości między dwoma komputerami na 100 m bez zmian, tak jak było to w standardzie Fast Ethernet.

Przede wszystkim przypominamy, że karty sieciowe działają w warstwie fizycznej i warstwie łącza w siedmiopoziomowym modelu OSI (Open System Interconnection). Warstwa łącza danych jest zwykle podzielona na dwa podpoziomy: MAC i LCC. Podwarstwa MAC (Media Access Control) jest podwarstwą kontroli dostępu do mediów, która zapewnia prawidłowe współdzielenie wspólnego współdzielonego nośnika danych, udostępniając go określonej stacji zgodnie z określonym algorytmem. Podpoziom LCC (Logical Link Control) odpowiada za przesyłanie ramek między węzłami o różnym stopniu niezawodności, a także realizuje funkcje interfejsu z trzecim poziomem (sieci) przylegającym do niego.

Wszystkie różnice między Ethernetem a Fast Ethernetem koncentrują się tylko na warstwie fizycznej. Jednocześnie MAC i LCC nie uległy żadnym zmianom.

Warstwę fizyczną można warunkowo podzielić na trzy elementy: warstwę koordynacyjną, niezależny od mediów interfejs (MII) i urządzenie warstwy fizycznej (urządzenie warstwy fizycznej, PHY). Urządzenie warstwy fizycznej można również podzielić na kilka podpoziomów: podwarstwę kodowania fizycznego, podwarstwę Podłączenie nośnika fizycznego, podwarstwę zależną od nośnika fizycznego i podwarstwę autonegocjacji z automatycznymi negocjacjami.

Jeśli różnice między Ethernetem a Fast Ethernetem są minimalne i nie wpływają na poziom MAC, to przy opracowywaniu standardu Gigabit Ethernet 1000Base-T programiści musieli nie tylko wprowadzać zmiany w warstwie fizycznej, ale także wpływać na warstwę MAC (ryc. 1).

Niemniej jednak wszystkie trzy technologie mają wiele wspólnego. Przede wszystkim jest to metoda dostępu do mediów CSMA / CD, trybów pracy w trybie półdupleksu i pełnego dupleksu, a także formatów ramek Ethernet. Jednocześnie zastosowanie skrętki 5-tej kategorii wymagało poważnych zmian w implementacji warstwy fizycznej adaptera.

Pierwszym problemem związanym z wdrożeniem prędkości 1 Gbit / s było zapewnienie akceptowalnej średnicy sieci podczas pracy w trybie półdupleksu. Jak wiadomo, minimalny rozmiar ramki w sieciach Ethernet i Fast Ethernet wynosi 64 bajty. Jednak rozmiar ramki 64 bajtów przy szybkości transferu 1 GB / s prowadzi do tego, że do niezawodnego wykrywania kolizji konieczne jest, aby maksymalna średnica sieci (odległość między dwoma komputerami najbardziej oddalonymi od siebie) nie była większa niż 25 m. pomyślne rozpoznanie kolizji jest możliwe tylko wtedy, gdy czas między wysłaniem dwóch kolejnych ramek o minimalnej długości jest dłuższy niż czas podwójnej propagacji sygnału między dwoma węzłami jak najdalej od siebie w sieci. Dlatego, aby zapewnić maksymalną średnicę sieci 200 m (dwa kable po 100 mi przełącznik), minimalna długość ramki w standardzie Gigabit Ethernet została zwiększona do 512 bajtów. Aby zwiększyć długość ramki do wymaganej, karta sieciowa uzupełnia pole danych do długości 448 bajtów tak zwanym rozszerzeniem. Pole rozszerzenia to pole wypełnione niedozwolonymi znakami, których nie można pomylić z kodami danych (ryc. 2). Jednocześnie wzrost minimalnej długości ramki negatywnie wpływa na transmisję krótkich komunikatów serwisowych, takich jak potwierdzenia, ponieważ użyteczna przesyłana informacja staje się znacznie mniejsza niż całkowita przesyłana informacja. W celu zmniejszenia narzutu podczas korzystania z długich ramek do przesyłania krótkich paragonów ze standardem Gigabit Ethernet, możliwe jest przesyłanie kilku ramek z rzędu w wyłącznym trybie przechwytywania, to znaczy bez przesyłania medium do innych stacji. Ten ekskluzywny tryb przechwytywania nazywa się trybem zdjęć seryjnych. W tym trybie stacja może przesyłać kilka ramek z rzędu o łącznej długości nie większej niż 8192 bajtów (BurstLength).

Jak już wspomniano, wraz ze zmianą poziomu MAC osiągnięcie prędkości transferu gigabit stało się możliwe dzięki znacznej zmianie warstwy fizycznej, to znaczy technologii prezentacji danych (kodowania) podczas przesyłania danych za pomocą skrętki.

Aby poradzić sobie ze zmianami dokonanymi na poziomie fizycznym, przypominamy sobie, czym jest kabel do transmisji danych i jaki rodzaj zakłóceń występuje podczas transmisji sygnału.

Kabel nieekranowany kategorii 5 składa się z czterech par drutów, z których każda jest skręcona. Taki kabel jest zaprojektowany do pracy na częstotliwości 100 MHz (ryc. 3).

Z przebiegu fizyki wiadomo, że każdy kabel oprócz aktywnych ma również rezystancje pojemnościowe i indukcyjne, przy czym dwa ostatnie zależą od częstotliwości sygnału. Wszystkie trzy rodzaje rezystancji określają tak zwaną impedancję obwodu. Obecność impedancji powoduje, że sygnał rozchodzący się przez kabel stopniowo osłabia się, tracąc część pierwotnej mocy.

Jeśli wzajemna indukcja jest obliczana na początku kabla, odpowiedni rodzaj zakłóceń zostanie nazwany NASTĘPNY (utrata przesłuchu bliskiego końca). Jeśli zakłócenia wywołane wzajemną indukcją są brane pod uwagę na końcu kabla, wówczas nazywa się to FEXT (utrata przesłuchu dalekiego zasięgu - ryc. 4).

Ponadto, gdy sygnał się rozchodzi, pojawia się inny rodzaj zakłóceń, związany z niedopasowaniem impedancji wejściowej karty sieciowej i kabla. W wyniku takiego niedopasowania dochodzi do odbicia sygnału, co również prowadzi do powstawania szumu.

Transmisja sygnału w wyżej opisanych warunkach zakłóceń wymaga zastosowania genialnych metod w celu zapewnienia niezbędnej prędkości transmisji, a jednocześnie zagwarantowania bezbłędnego rozpoznawania przesyłanych sygnałów.

Przede wszystkim przypominamy sobie, jakie metody są stosowane do reprezentowania sygnałów informacyjnych.

W cyfrowym kodowaniu bitów „zer” i „jedynek” stosowane są kody potencjalne lub impulsowe. W potencjalnych kodach (ryc. 5) tylko wartość potencjału sygnału jest używana do reprezentowania zer logicznych i jedynek. Na przykład jeden jest reprezentowany jako potencjał wysokiego poziomu, a zero jest reprezentowany jako potencjał niskiego poziomu. Kody impulsowe umożliwiają reprezentację bitów z potencjalnym spadkiem określonego kierunku. Tak więc spadek potencjału od niskiego do wysokiego może odpowiadać logicznemu zero.

W przypadku korzystania z prostokątnych impulsów do transmisji danych konieczne jest wybranie metody kodowania, która jednocześnie spełniałaby kilka wymagań.

Po pierwsze, przy tej samej przepływności miałby najmniejszą szerokość widma otrzymanego sygnału.

Po drugie, miałby zdolność rozpoznawania błędów.

Po trzecie, zapewni synchronizację między odbiornikiem a nadajnikiem.

  Kod NRZ

W najprostszym przypadku kodowania potencjału, jednostka logiczna może być reprezentowana przez wysoki potencjał, a logiczne zero - przez niski. Podobną metodę prezentacji sygnału nazwano „kodowaniem bez powrotu do zera lub kodowaniem NRZ (Non Return to Zero)”. Termin „bez powrotu” w tym przypadku oznacza, że \u200b\u200bprzez cały przedział czasu nie ma zmiany poziomu sygnału. Metoda NRZ jest prosta do wdrożenia, ma dobre rozpoznawanie błędów, ale nie ma właściwości samosynchronizacji. Brak samosynchronizacji prowadzi do tego, że gdy pojawiają się długie sekwencje zer lub jedynek, odbiornik jest pozbawiony możliwości określenia przez sygnał wejściowy czasów, w których konieczne jest ponowne odczytanie danych. Dlatego niewielkie niedopasowanie częstotliwości taktowania odbiornika i nadajnika może prowadzić do błędów, jeśli odbiornik nie odczyta danych we właściwym czasie. Zjawisko to jest szczególnie ważne przy wysokich prędkościach transmisji, gdy czas jednego impulsu jest wyjątkowo krótki (przy prędkości transmisji 100 Mbit / s czas jednego impulsu wynosi 10 ns). Inną wadą kodu NRZ jest obecność komponentu niskiej częstotliwości w widmie sygnału, gdy pojawiają się długie sekwencje zer lub jedynek. Dlatego kod NRZ nie jest używany w czystej postaci do transmisji danych.

  Kod NRZI

Innym rodzajem kodowania jest nieco zmodyfikowany kod NRZ o nazwie NRZI (Non Return to Zero with one Inverted). Kod NRZI jest najprostszą implementacją zasady kodowania poprzez zmianę poziomu sygnału lub kodowania różnicowego. Dzięki takiemu kodowaniu podczas transmisji zera poziom sygnału nie zmienia się, tzn. Potencjał sygnału pozostaje taki sam, jak w poprzednim cyklu zegara. Kiedy jednostka jest przenoszona, potencjał jest odwracany na odwrót. Porównanie kodów NRZ i NRZI pokazuje, że kod NRZI ma lepszą samosynchronizację, jeśli w zakodowanej informacji jest więcej jednostek logicznych niż zer logicznych. Dlatego ten kod pozwala „walczyć” z długimi sekwencjami jednostek, ale nie zapewnia właściwej samosynchronizacji, gdy pojawiają się długie sekwencje zer logicznych.

  Kod Manchester

W kodzie Manchester różnica potencjałów służy do kodowania zer i jedynek, tzn. Kodowanie jest wykonywane przez przód impulsu. Spadek potencjału występuje w środku impulsu zegarowego, podczas gdy jednostka jest kodowana przez spadek od niskiego do wysokiego potencjału, a zero jest odwrotnie. Na początku każdej miary w przypadku pojawienia się kilku zer lub jednostek z rzędu może wystąpić różnica napowietrznych potencjałów.

Ze wszystkich kodów, które sprawdziliśmy, Manchester ma lepszą samosynchronizację, ponieważ spadek sygnału występuje co najmniej raz na cykl. Dlatego kod Manchester jest wykorzystywany w sieciach Ethernet o prędkości transmisji 10 Mbps (10Base 5, 10Base 2, 10Base-T).

  Kod MLT-3

Kod MLT-3 (Multi Level Transmission-3) jest implementowany podobnie jak kod NRZI. Zmiana poziomu sygnału liniowego następuje tylko wtedy, gdy zostanie on wprowadzony do enkodera, jednak w przeciwieństwie do kodu NRZI algorytm formowania jest wybierany tak, aby dwie sąsiednie zmiany zawsze miały przeciwne kierunki. Wada kodu MLT-3 jest taka sama jak w przypadku kodu NRZI - brak właściwej synchronizacji, gdy pojawiają się długie ciągi zer logicznych.

Jak już wspomniano, różne kody różnią się od siebie nie tylko stopniem samosynchronizacji, ale także szerokością widma. Szerokość widma sygnału zależy przede wszystkim od tych harmonicznych, które wnoszą główny udział energii w tworzeniu sygnału. Podstawową harmoniczną można łatwo obliczyć dla każdego rodzaju kodu. W kodzie NRZ lub NRZI maksymalna częstotliwość harmonicznej podstawowej (ryc. 6) odpowiada okresowej sekwencji logicznych zer i jedynek, to znaczy, gdy kilka zer lub jedynek nie występuje w jednym rzędzie. W tym przypadku okres podstawowy jest równy odstępowi czasu dwóch bitów, to znaczy przy prędkości transmisji 100 Mbit / s częstotliwość podstawowa powinna wynosić 50 Hz.

W kodzie Manchester maksymalna częstotliwość harmonicznej podstawowej odpowiada sytuacji, gdy do enkodera wprowadzana jest długa sekwencja zer. W tym przypadku okres podstawowy jest równy odstępowi czasu jednego bitu, to znaczy przy prędkości transmisji 100 Mbit / s maksymalna częstotliwość podstawowa wyniesie 100 Hz.

W kodzie MLT-3 maksymalna częstotliwość harmonicznej podstawowej (ryc. 7) jest osiągana, gdy długie sekwencje jednostek logicznych są podawane na wejście enkodera. W tym przypadku okres podstawowy odpowiada przedziałowi czasowemu czterech bitów. Dlatego przy prędkości transmisji 100 Mbit / s maksymalna częstotliwość podstawowa wyniesie 25 MHz.

Jak już wspomniano, kodowanie Manchester jest stosowane w sieciach Ethrnet 10 Mbit / s, co wiąże się z dobrymi samosynchronizującymi właściwościami kodu i dopuszczalną maksymalną częstotliwością podstawową, która przy pracy z prędkością 10 Mbit / s będzie wynosić 10 MHz. Ta wartość jest wystarczająca dla kabla nie tylko 5., ale także 3. kategorii, która jest zaprojektowana dla częstotliwości 20 MHz.

Jednocześnie stosowanie kodowania Manchester do szybszych sieci (100 Mbit / s, 1 Gbit / s) jest niedopuszczalne, ponieważ kable nie są zaprojektowane do pracy na tak wysokich częstotliwościach. Dlatego wykorzystywane są inne kody (NRZI i MLT-3), ale w celu poprawy właściwości samosynchronizujących kodu są one poddawane dodatkowemu przetwarzaniu.

  Zbędne kody

Takie dodatkowe przetwarzanie polega na logicznym kodowaniu blokowym, gdy jedna grupa bitów jest zastępowana inną grupą zgodnie z pewnym algorytmem. Najpopularniejsze typy tego kodowania to kody redundantne 4B / 5B, 8B / 6T i 8B / 10T.

W tych kodach oryginalne grupy bitów są zastępowane nowymi, ale dłuższymi grupami. W kodzie 4B / 5B grupa czterech bitów jest odwzorowana na grupę pięciu bitów. Powstaje pytanie - dlaczego wszystkie te komplikacje są konieczne? Faktem jest, że takie kodowanie jest zbędne. Na przykład w kodzie 4B / 5B w początkowej sekwencji czterech bitów występuje 16 różnych kombinacji bitów zer i jedynek, a w grupie pięciu bitów są już 32 takie kombinacje. Dlatego w wynikowym kodzie można wybrać 16 takich kombinacji, które nie zawierają dużej liczby zer. (pamiętaj, że w kodach źródłowych NRZI i MLT-3 długie sekwencje zer prowadzą do utraty synchronizacji). Ponadto pozostałe niewykorzystane kombinacje można uznać za zabronione sekwencje. Zatem, oprócz poprawy właściwości samosynchronizujących kodu źródłowego, nadmierne kodowanie pozwala odbiornikowi rozpoznać błędy, ponieważ pojawienie się zabronionej sekwencji bitów wskazuje na błąd. Zgodność kodów źródłowych i wynikowych podano w tabeli. 1.

Tabela pokazuje, że po zastosowaniu nadmiarowego kodu 4B / 5B w wynikowych sekwencjach nie występują więcej niż dwa zera w rzędzie, co gwarantuje samosynchronizację sekwencji bitów.

W kodzie 8B / 6T sekwencja ośmiu bitów informacji źródłowej jest zastępowana sekwencją sześciu sygnałów, z których każdy może przyjmować trzy stany. W sekwencji ośmiobitowej jest 256 różnych stanów, aw sekwencji sześciu trzypoziomowych sygnałów takich stanów jest już 729 (3 6 \u003d 729), dlatego 473 stany są uważane za zabronione.

W kodzie 8B / 10T każda ośmiobitowa sekwencja jest zastępowana dziesięciobitową. Co więcej, oryginalna sekwencja zawiera 256 różnych kombinacji zer i jedynek, a wynikowa liczba 1024. Zatem 768 kombinacji jest zabronionych.

Wszystkie rozważane kody redundancji są używane w sieciach Ethernet. Tak więc kod 4B / 5B jest używany w standardzie 100Base-TX, a kod 8B / 6T jest używany w standardzie 100Base-4T, który jest już praktycznie nieużywany. Kod 8B / 10T jest stosowany w standardzie 1000Base-X (gdy światłowód jest wykorzystywany jako medium transmisyjne).

Oprócz stosowania kodowania redundantnego, szeroko stosowana jest inna metoda poprawiania początkowych właściwości kodów - jest to tak zwane szyfrowanie.

  Mieszanie się

Mieszanie (mieszanie - mieszanie) polega na mieszaniu oryginalnej sekwencji zer i jedynek w celu poprawy właściwości spektralnych i właściwości samosynchronizujących wynikowej sekwencji bitów. Mieszanie odbywa się poprzez bitową operację wyłącznego OR (XOR) oryginalnej sekwencji z sekwencją pseudolosową. Rezultatem jest „zaszyfrowany” strumień, który jest przywracany po stronie odbiornika za pomocą deszyfratora.

Z punktu widzenia sprzętowego szyfrator składa się z kilku elementów logicznych XOR i rejestrów przesuwnych. Przypomnijmy, że element logiczny XOR (wyłączny OR) wykonuje na dwóch operandach boolowskich x i y, które mogą przyjmować wartość 0 lub 1, operację logiczną opartą na tabeli prawdy (Tabela 2).

Główna właściwość wyłącznej operacji OR wynika bezpośrednio z tej tabeli:

Ponadto łatwo zauważyć, że prawo kombinacji dotyczy wyłącznej operacji LUB:

Na schematach element logiczny XOR jest zwykle oznaczony, jak pokazano na ryc. 8

Jak już wspomniano, drugim elementem szyfratora jest rejestr przesuwny. Rejestr przesuwny składa się z kilku elementarnych komórek pamięci połączonych kolejno ze sobą, wykonanych na podstawie obwodów wyzwalających i przesyłających sygnał informacyjny z wejścia na wyjście za pomocą sygnału sterującego - impulsu zegarowego. Rejestry przesuwne mogą reagować zarówno na dodatnią krawędź impulsu zegarowego (to znaczy, gdy sygnał sterujący przechodzi ze stanu 0 do stanu 1), jak i na ujemną krawędź.

Rozważ najprostszą komórkę pamięci rejestru przesuwnego, kontrolowaną przez dodatni przód impulsu zegarowego C (ryc. 9).

W chwili, gdy impuls zegarowy zmienia się ze stanu 0 na stan 1, sygnał, który był na swoim wejściu w poprzednim momencie, jest przesyłany do wyjścia komórki, to znaczy, gdy sygnał kontrolny C wynosił 0. Następnie stan wyjściowy nie zmienia się (komórka jest zablokowana) aż do nadejście kolejnego dodatniego zbocza impulsu zegarowego.

Za pomocą łańcucha składającego się z kilku połączonych szeregowo komórek pamięci z tym samym sygnałem sterującym można skomponować rejestr przesuwny (ryc. 10), w którym bity informacyjne będą sekwencyjnie przesyłane z jednej komórki do drugiej synchronicznie wzdłuż dodatniej krawędzi impulsu zegara.

Integralnym elementem każdego szyfratora jest pseudolosowy generator sekwencji. Taki generator jest tworzony z rejestru przesuwnego podczas tworzenia sprzężenia zwrotnego między wejściami i wyjściami komórek pamięci rejestru przesuwnego za pomocą elementów logicznych XOR.

Rozważ generator pseudolosowych sekwencji pokazany na ryc. jedenaście. Załóżmy, że w początkowej chwili wszystkie cztery komórki pamięci przechowują pewien ustawiony stan. Na przykład możemy założyć, że Q1 \u003d 1, Q2 \u003d 0, Q3 \u003d 0 i Q4 \u003d 1, a na wejściu pierwszej komórki D \u003d 0. Po nadejściu impulsu zegarowego wszystkie bity przesuną się o jeden bit, a na wejściu D zostanie odebrany sygnał, którego wartość będzie określona wzorem:

Za pomocą tej formuły łatwo jest określić wartości wyjść komórek pamięci w każdym cyklu zegara generatora. Na stole. Ryc. 3 pokazuje stan wyjść komórek pamięci generatora sekwencji pseudolosowych w każdym cyklu zegarowym. Jednocześnie łatwo zauważyć, że w początkowym momencie czasu i po 15 cyklach zegarowych stan generatora jest całkowicie powtarzany, to znaczy 15 cykli zegarowych to okres powtarzania naszej pseudolosowej sekwencji (to z obecności okresu powtarzania sekwencję nazywa się pseudolosową). W ogólnym przypadku, jeśli generator składa się z komórek n, okres powtarzania jest równy:

Rozważany przez nas generator używał dowolnego dowolnego stanu początkowego komórek, to znaczy miał ustalone ustawienie. Jednak zamiast takiego ustawienia wstępnego szyfratory często używają samej sekwencji źródłowej, która jest zakodowana. Takie szyfratory nazywane są samosynchronizacją. Przykład takiego szyfratora pokazano na ryc. 12

Jeśli oznaczymy cyfrę binarną kodu źródłowego, która dociera do i-tego zegara pracy na wejściu szyfratora, przez A i, oraz cyfrę binarną kodu wynikowego otrzymanego w i-tym zegarze pracy przez BI, łatwo zauważyć, że analizowany szyfrator wykonuje następującą logikę operacja: gdzie Bi i -3 i Bi i -4 są cyframi binarnymi wynikowego kodu uzyskanego w poprzednich cyklach szyfrujących, odpowiednio 3 i 4 cykle wcześniej niż bieżący moment.

Po zdekodowaniu tak otrzymanej sekwencji po stronie odbiornika używany jest deszyfrator. Najbardziej zaskakujące jest to, że obwód deszyfrujący jest całkowicie identyczny z obwodem szyfrującym. Fakt, że jest to prawda, nie jest trudny do zweryfikowania na podstawie prostego uzasadnienia. Jeśli przez B i oznaczymy cyfrę binarną kodu źródłowego, która dociera do i-tego kroku roboczego na wejściu deszyfratora, oraz cyfrę binarną wynikowego kodu uzyskanego w i-tym kroku roboczym, za pomocą C i, następnie deszyfrator działa zgodnie z tym samym schematem co program szyfrujący powinien zaimplementować następujący algorytm:

Dlatego jeśli schemat deszyfratora pokrywa się ze schematem szyfratora, wówczas deszyfrator całkowicie przywraca pierwotną sekwencję bitów informacji.

Czterocyfrowy schemat szyfrujący jest jednym z najprostszych. Technologia 1000Base-T wykorzystuje znacznie bardziej złożony szyfrator o 33 bity, co wydłuża okres powtarzania do 8 589 934 591 bitów (2 33–1), to znaczy generowane sekwencje pseudolosowe są powtarzane po 68,72 s.

  Kodowanie PAM-5

Po ustaleniu, jakie kody są używane do reprezentacji danych i po zbadaniu metod poprawy samosynchronizacji i właściwości spektralnych tych kodów, postaramy się dowiedzieć, czy te środki są wystarczające, aby zapewnić transfer danych z prędkością 1000 Mb / s za pomocą czteroparowego kabla kategorii 5.

Jak już wspomniano, kodowanie Manchester ma dobre właściwości samosynchronizujące iw tym sensie nie wymaga żadnych modyfikacji, jednak maksymalna częstotliwość podstawowa jest liczbowo równa szybkości przesyłania danych, tj. Liczbie przesyłanych bitów na sekundę. To wystarczy, aby przesłać dane z prędkością 10 Mb / s, ponieważ kabel trzeciej kategorii (i taki kabel może być używany w standardzie 10Base-T) jest ograniczony do 16 MHz. Jednak kodowanie Manchester nie nadaje się do transmisji danych z prędkością 100 Mb / s i wyższą.

Korzystanie z kodu NRZI po dodatkowym udoskonaleniu za pomocą redundantnego kodu blokowego 4B / 5B i szyfrowania, a także trzypozycyjnego kodu MLT-3 (w celu zmniejszenia maksymalnej częstotliwości harmonicznej podstawowej) umożliwia przesyłanie danych z prędkością 100 Mb / s za pomocą kabla 5. kategorii. Rzeczywiście, przy użyciu kodu MLT-3 maksymalna częstotliwość harmonicznej podstawowej jest liczbowo równa jednej czwartej szybkości przesyłania danych, to znaczy przy prędkości transmisji 100 Mb / s częstotliwość podstawowa nie przekracza 25 MHz, co wystarcza dla kabla kategorii 5. Jednak ta metoda nie nadaje się do przesyłania danych z prędkością 1000 Mb / s.

Dlatego standard 1000Base-T wykorzystuje zasadniczo inną metodę kodowania. Aby zredukować częstotliwość taktowania do wartości, które pozwalają na przesyłanie danych za pomocą skrętki komputerowej kategorii 5, dane w linii są przedstawione w tak zwanym kodzie PAM-5 (ryc. 13). W nim transmitowany sygnał ma zestaw pięciu ustalonych poziomów (–2, –1, 0, +1, +2). Cztery z nich służą do kodowania bitów informacji, a piąty służy do korekcji błędów. Na zestawie czterech ustalonych poziomów z jednym dyskretnym stanem sygnału można jednocześnie zakodować dwa bity informacji, ponieważ kombinacja dwóch bitów ma cztery możliwe kombinacje (tak zwane dibity) - 00, 01, 10 i 11.

Przejście na dibits pozwala podwoić przepływność. W celu rozróżnienia między szybkością transmisji lub szybkością informacji a szybkością różnych dyskretnych stanów sygnału wprowadzono pojęcie szybkości transmisji. Baud to liczba różnych dyskretnych stanów sygnału na jednostkę czasu. Dlatego, jeśli dwa bity są kodowane w jednym dyskretnym stanie, przepływność jest dwa razy wyższa niż szybkość transmisji, tj. 1 Baud \u003d 2 bity / s.

Jeśli weźmiemy pod uwagę, że kabel piątej kategorii jest zaprojektowany na częstotliwość 125 MHz, to znaczy, jest zdolny do pracy z szybkością transmisji 125 MBaud, wówczas prędkość informacji jednej skrętki wyniesie 250 Mb / s. Przypomnij sobie, że kabel ma cztery skręcone pary, więc jeśli użyjesz wszystkich czterech par (ryc. 14), możesz zwiększyć prędkość transmisji do 250 Mbit / sx4 \u003d 1000 Mbit / s, to znaczy, aby osiągnąć pożądaną prędkość.

Jak już wspomniano, istnieje pięć dyskretnych poziomów w kodowaniu PAM-5, jednak tylko cztery poziomy są używane do transmisji dwubitów. Piąty nadmiarowy poziom kodu (Forward Error Correction, FEC) jest wykorzystywany w mechanizmie konstruowania korekcji błędów. Jest realizowany przez koder Trellis i dekoder Viterbi. Zastosowanie mechanizmu korekcji błędów pozwala zwiększyć odporność odbiornika na szum o 6 dB.

  Kodowanie krata

Rozważ zasady kodowania kraty oparte na najprostszym koderze, który składa się z dwóch komórek pamięci i elementów XOR (ryc. 15). Niech sekwencja bitów 0101110010 dociera do wejścia takiego enkodera z prędkością k bitów / s. Jeśli zainstalujesz komórkę odczytu na wyjściu enkodera, która działa z częstotliwością dwukrotnie większą niż szybkość dotarcia bitów na wejściu enkodera, wówczas prędkość strumienia wyjściowego będzie dwa razy większa niż strumienia wejściowego . W tym przypadku komórka czytająca dla pierwszej połowy cyklu pracy enkodera odczytuje najpierw dane z elementu logicznego XOR 2, a drugą połowę cyklu - z elementu logicznego XOR 3. W rezultacie z każdym bitem wejściowym są powiązane dwa bity wyjściowe, czyli bit, którego pierwszy bit jest tworzony element XOR 2 i drugi element XOR 3. Zgodnie ze schematem czasowym stanu enkodera łatwo zauważyć, że w przypadku bitu sekwencji wejściowej 0101110010 sekwencją wyjściową będzie 00 11 10 00 01 10 01 11 11 10.

Zwracamy uwagę na jedną ważną cechę zasady tworzenia dibitów. Wartość każdego wygenerowanego dibitu zależy nie tylko od przychodzącego bitu informacji, ale także od poprzednich dwóch bitów, których wartości są przechowywane w dwóch komórkach pamięci. Rzeczywiście, jeśli zostanie przyjęte, że AI jest bitem wejściowym, to wartość elementu XOR 2 jest określona przez wyrażenie, a wartość elementu XOR 3 jest określona przez wyrażenie. Tak więc bit jest tworzony z pary bitów, których wartość pierwszego z nich jest równa, a drugiego -. Dlatego wartość dibit zależy od trzech stanów: wartości bitu wejściowego, wartości pierwszej komórki pamięci i wartości drugiej komórki pamięci. Takie enkodery nazywane są enkoderami splotowymi dla trzech stanów (K \u003d 3) o prędkości wyjściowej ½.

Dogodnie jest rozważyć pracę enkodera na podstawie nie tak zwanych diagramów czasowych, ale tak zwanego diagramu stanu. Stan enkodera wskażemy za pomocą dwóch wartości - wartości pierwszej i drugiej komórki pamięci. Na przykład, jeśli pierwsza komórka przechowuje wartość 1 (Q1 \u003d 1), a druga - 0 (Q2 \u003d 0), wówczas stan enkodera jest opisany wartością 10. W sumie możliwe są cztery różne stany enkodera: 00, 01, 10 i 11.

Załóżmy, że w pewnym momencie stan enkodera wynosi 00. Interesuje nas, jaki będzie stan enkodera w następnym momencie i jaki bit zostanie utworzony. Możliwe są dwa wyniki, w zależności od tego, który bit zostanie wprowadzony do enkodera. Jeśli na wejściu enkodera zostanie odebrane 0, to kolejnym stanem enkodera będzie również 00, jeśli 1 zostanie odebrane, to następnym stanem (to znaczy po przesunięciu) będzie 10. Wartość wygenerowanych dwubitów jest obliczana przy użyciu wzorów i. Jeśli 0 wejdzie na wejście enkodera, wygenerowany zostanie bit 00 (); jeśli wprowadzony zostanie 1, powstanie bit 11 (). Wygodnie jest przedstawić powyższe rozumowanie za pomocą diagramu stanu (ryc. 16), w którym okręgi wskazują status enkodera, a bit wejściowy i wygenerowany bit są zapisywane ukośnikiem. Na przykład, jeśli bitem wejściowym jest 1, a wygenerowanym bitem jest 11, to napisz: 1/11.

Kontynuując podobne rozważania dla wszystkich innych możliwych stanów enkodera, łatwo jest zbudować pełny diagram stanów, na podstawie którego łatwo obliczyć wartość dibitu wygenerowanego przez enkoder.

Korzystając ze schematu stanu enkodera, łatwo jest zbudować tymczasowy schemat przejścia dla sekwencji wejściowej bitów 0101110010, które już sprawdziliśmy. W tym celu tworzymy tabelę, w której kolumnach wskazane są możliwe stany enkodera, a w wierszach czasy. Możliwe przejścia między różnymi stanami enkodera są wskazane strzałkami (w oparciu o pełny schemat stanu enkodera - ryc. 17), na których wskazany jest bit wejściowy odpowiadający temu przejściu i odpowiedni bit. Na przykład przez pierwsze dwa momenty schemat stanu enkodera wygląda tak, jak pokazano na ryc. osiemnaście . Czerwona strzałka pokazuje przejście odpowiadające rozważanej sekwencji bitów.

Kontynuując wyświetlanie możliwych i rzeczywistych przejść między różnymi stanami enkodera, odpowiadającymi różnym punktom w czasie (ryc. 19,), otrzymujemy pełny wykres czasowy stanów enkodera (ryc. 22).

Główną zaletą opisanego powyżej sposobu kodowania kraty jest jego odporność na zakłócenia. Jak zostanie pokazane później, ze względu na nadmiarowość kodowania (pamiętaj, że każdemu bitowi informacji jest przypisany bit, to znaczy nadmiarowość kodu wynosi 2) nawet w przypadku otrzymania błędów (na przykład zamiast bitu 11, bit 10 jest błędnie zaakceptowany), początkowa sekwencja bitów może być bez wątpienia przywróconym.

Aby przywrócić pierwotną sekwencję bitów po stronie odbiornika, stosuje się dekoder Viterbi.

  Dekoder Viterbi

Dekoder Viterbi w przypadku bezbłędnego odbioru całej sekwencji cyfr 00 11 10 00 01 10 01 11 11 10 będzie zawierał informacje o tej sekwencji, a także o strukturze enkodera (czyli schemacie stanu) i jego stanie początkowym (00). Na podstawie tych informacji musi przywrócić pierwotną sekwencję bitów. Zastanów się, jak przywrócić informacje o źródle.

Znając stan początkowy enkodera (00), a także możliwe zmiany tego stanu (00 i 10), tworzymy diagram czasowy dla pierwszych dwóch chwil czasowych (ryc. 22). Na tym schemacie ze stanu 00 istnieją tylko dwie możliwe ścieżki odpowiadające różnym dwóm wejściowym. Ponieważ bitem wejściowym dekodera jest 00, wówczas, korzystając ze schematu stanu enkodera Trellis, ustalamy, że następnym stanem kodera będzie 00, co odpowiada początkowemu bitowi 0.

Jednak nie mamy 100% gwarancji, że odebrany bit 00 jest poprawny, więc nie odchodź od drugiej możliwej ścieżki od stanu 00 do stanu 10, odpowiadającej bitowi 11 i oryginalnemu bitowi 1. Do tej pory dwie ścieżki pokazane na schemacie różnią się od siebie. inne tak zwane miary błędów, które dla każdej ścieżki oblicza się w następujący sposób. Dla przejścia odpowiadającego zaakceptowanemu dwóm celom (to znaczy dla przejścia, które uważa się za prawdziwe), metryka błędu jest przyjmowana jako zero, a dla pozostałych przejść jest obliczana na podstawie liczby różnych bitów w otrzymanym dwójce i dwójki odpowiadającej danemu przejściu. Na przykład, jeśli odebrany dibit to 00, a dibit odpowiadający danemu przejściu wynosi 11, to metryka błędu dla tego przejścia wynosi 2.

Dla następnego momentu czasu odpowiadającego przyjętemu bitowi 11 możliwe będą dwa początkowe stany enkodera: 00 i 10, a końcowe stany to cztery: 00, 01, 10 i 11 (ryc. 23). W związku z tym dla tych stanów końcowych istnieje kilka możliwych sposobów, które różnią się między sobą wskaźnikiem błędu. Przy obliczaniu metryki błędu należy wziąć pod uwagę metrykę poprzedniego stanu, to znaczy, jeśli dla poprzedniej chwili czasowej metryka dla stanu 10 była równa 2, to przy przejściu z tego stanu do stanu 01 metryka błędów nowego stanu (metryka całej ścieżki) staje się 2 + 1 \u003d 3 .

W kolejnym momencie czasu odpowiadającym przyjętemu dibitowi 10 zauważamy, że w stanach 00, 01 i 11 prowadzą dwie ścieżki (ryc. 24). W takim przypadku konieczne jest pozostawienie tylko tych przejść, którym odpowiada mniejszy wskaźnik błędu. Ponadto, ponieważ przejścia ze stanu 11 do stanu 11 i do stanu 01 są odrzucane, przejście ze stanu 10 do stanu 11 odpowiadającego poprzedniej chwili w czasie nie jest kontynuowane, dlatego można je również odrzucić. Podobnie przejście odpowiadające poprzedniej chwili ze stanu 00 na 00 jest odrzucane.

Kontynuując tę \u200b\u200bdyskusję, możemy obliczyć metrykę wszystkich możliwych ścieżek i zobrazować wszystkie możliwe ścieżki.

Jednocześnie sama liczba możliwych ścieżek nie jest tak duża, jak mogłoby się wydawać, ponieważ większość z nich jest odrzucana podczas procesu budowy, ponieważ nie mają one kontynuacji (ryc. 25). Na przykład w szóstym cyklu dekodera zgodnie z opisanym algorytmem istnieją tylko cztery możliwe sposoby.

Podobnie w ostatnim cyklu taktowania dekodera istnieją tylko cztery możliwe ścieżki (ryc. 26), a prawdziwa ścieżka, która jednoznacznie przywraca oryginalną sekwencję bitów 0101110010, odpowiada metodzie błędu 0.

Podczas konstruowania rozważanych diagramów czasowych wygodnie jest wyświetlić metrykę skumulowanych błędów dla różnych stanów enkodera w formie tabeli. To właśnie ta tabela jest źródłem informacji, na podstawie których można przywrócić pierwotną sekwencję bitów (Tabela 4).

W przypadku opisanym powyżej przyjęliśmy, że wszystkie dibity otrzymane przez dekoder nie zawierają błędów. Rozważmy dalej sytuację, w której dwa błędy są zawarte w akceptowanej sekwencji dibitów. Niech zamiast prawidłowej sekwencji 00 11 10 00 01 10 01 11 11 10 dekoder odbierze sekwencję 00 11 11 00 11 10 01 11 11 10, w której trzeci i piąty debet nie powiodą się. Spróbujmy zastosować do tej sekwencji algorytm Viterbi omówiony powyżej, w oparciu o wybór ścieżki o najmniejszej metodzie błędu, i przekonajmy się, czy możemy przywrócić pierwotną sekwencję bitów w prawidłowej formie, to znaczy naprawić nieudane błędy.

Do czasu uzyskania trzeciego (nieudanego) dibitu algorytm obliczania metryki błędu dla wszystkich możliwych przejść nie różni się od rozważanego wcześniej przypadku. Do tego momentu ścieżka oznaczona na ryc. 2 miała najmniejszą miarę skumulowanych błędów. 27 na czerwono. Po otrzymaniu takiego dibitu nie ma już ścieżki z metryką skumulowanych błędów równą 0. Jednakże pojawią się dwie alternatywne ścieżki z metryką 1. Dlatego na tym etapie nie można ustalić, który bit oryginalnej sekwencji odpowiada uzyskanemu dibitowi.

Podobna sytuacja wystąpi po otrzymaniu piątego (również nieudanego) dibitu (ryc. 28). W takim przypadku będą już istniały trzy ścieżki z jednakową miarą skumulowanych błędów, a ustalenie prawdziwej ścieżki jest możliwe tylko po otrzymaniu następujących dibitów.

Po otrzymaniu dziesiątego dibitu liczba możliwych ścieżek z inną metryką skumulowanych błędów stanie się dość duża (ryc. 29), jednak na schemacie (przy użyciu tabeli 5, gdzie przedstawiono metrykę skumulowanych błędów dla różnych ścieżek), łatwo jest wybrać jedyną ścieżkę o najmniejszej metryki (dla rys. 29

Rozważany przykład enkodera splotowego miał tylko cztery różne stany: 00, 01, 10 i 11. Technologia 1000Base-T wykorzystuje enkoder splotowy dla już ośmiu różnych stanów (z trzema elementami opóźniającymi), dlatego nazywa się go ósemkowym. Ponadto, ponieważ znaki są przesyłane jednocześnie przez wszystkie cztery skręcone pary kabla przy użyciu pięciopoziomowego kodowania PAM-5, kodowanie to nazywane jest czterowymiarowym 4D / PAM-5.

Inną znaczącą różnicą między koderem Trellis stosowanym w technologii 1000Base-T jest algorytm przejścia między różnymi stanami enkodera. W najprostszym rozpatrywanym przez nas przykładzie stan enkodera w następnym momencie był określony wyłącznie przez stan bieżący i bit wejściowy. Tak więc, jeśli bieżącym stanem jest 00, a bit wejściowy to 1, to następny stan, to znaczy pole przesunięcia bitów przez komórki pamięci, będzie odpowiadać 10. W prawdziwym ośmiopozycyjnym koderze Trellis istnieją dwa bity sterujące (wejściowe), a algorytm określa przejścia między różnymi stanami największa odległość między punktami konstelacji sygnału. Jak wynika z rys. 30, koder Trellis realizuje stosunek:

gdzie d 6, d 7 i d 8 są bitami danych odpowiednio w liniach 6, 7 i 8.

Wyjaśnijmy to konkretnym przykładem.

Przypomnijmy, że kod PAM-5 wykorzystuje pięć poziomów do transmisji sygnału: –2, –1, 0, +1, +2. W tym przypadku poziomy napięcia + 1 / –1 V odpowiadają poziomom + 2 / –2, a napięcie + 0,5 / –0,5 V. odpowiada poziomom + 1 / –1, biorąc pod uwagę, że cztery poziomy sygnałów są przesyłane jednocześnie przez cztery skręcone pary każdy z tych poziomów może przyjąć jedną z pięciu wartości, w sumie otrzymujemy 625 (5x5x5x5) różnych kombinacji sygnałów. Różne możliwe stany sygnału są dogodnie przedstawione na tak zwanej płaszczyźnie sygnału. Na tej płaszczyźnie każdy możliwy stan sygnału jest reprezentowany przez punkt sygnałowy, a całość wszystkich punktów sygnałowych nazywana jest konstelacją sygnału. Oczywiście nie jest możliwe przedstawienie czterowymiarowej przestrzeni, dlatego dla jasności rozważamy dwuwymiarową konstelację sygnału 5x5. Taka konstelacja może formalnie odpowiadać dwóm skręconym parom. Narysujmy wzdłuż punktów osi X odpowiadających jednej skręconej parze, a wzdłuż osi Y drugiej. Wtedy nasza konstelacja 2D będzie wyglądać jak ta pokazana na ryc. 31

Zauważ, że minimalna odległość między dwoma punktami takiej konstelacji wynosi 1.

Pod wpływem szumu i tłumienia sygnału konstelacja sygnału ulega zniekształceniu (ryc. 32), w wyniku czego pozycja każdego punktu sygnału się rozszerza, a odległość między nimi maleje. W wyniku tego punkty w konstelacji sygnału stają się trudne do rozróżnienia i istnieje duże prawdopodobieństwo ich pomylenia.

Dlatego jednym z zadań kodera kratowego jest utworzenie konstelacji sygnału, która zapewniłaby maksymalną odległość między różnymi punktami sygnału. Aby zrozumieć, jak to się dzieje, oznaczamy poziomy sygnału –1 i +1 przez X, a poziomy –2, 0, +2 przez Y. Następnie początkową konstelację można przedstawić w postaci pokazanej na ryc. 33

Dzieląc tę \u200b\u200bkonstelację na dwie konstelacje, z których jedna jest utworzona z punktów XX i YY, a druga z punktów XY i YX, możesz zwiększyć odległość między punktami sygnałowymi do (ryc. 34).

Podczas korzystania z dwóch skręconych par zadaniem kodera kratowego jest wysyłanie tylko symboli należących do jednej z konstelacji sygnału dla jednej skręconej pary, na przykład D0 \u003d XX + YY, oraz dla symboli dla drugiej skręconej pary w celu wysyłania symboli należących do drugiej konstelacji, na przykład D1 \u003d XY + YX. Wtedy odległość między wysłanymi postaciami będzie dwa razy większa niż w oryginalnej konstelacji. W rezultacie poprawia się rozpoznawanie punktów w konstelacji sygnału, tj. Zwiększa się odporność na zakłócenia.

Prawdziwy enkoder kratowy działa w przybliżeniu w ten sam sposób, generując znaki wysłane w czterech skręconych parach, jednak ponieważ każdy punkt w konstelacji ma cztery współrzędne (po jednej dla każdej pary), a każdy punkt może przyjąć wartość X lub Y, wtedy jest 16 różnych kombinacji, z których można utworzyć osiem konstelacji:

W powstałych konstelacjach minimalna odległość między punktami jest dwa razy większa niż w oryginalnej konstelacji. Ponadto minimalna odległość między punktami dwóch różnych konstelacji jest również równa 2. To właśnie te osiem konstelacji sygnałów tworzy schemat stanu enkodera kratowego. Na przykład stan kodera 000 odpowiada kombinacji punktów z konstelacji D0D2D4D6 w tym sensie, że punkty z konstelacji D0 są przesyłane wzdłuż pierwszej pary, z konstelacji D2 wzdłuż drugiej pary itp. Następny możliwy stan kodera będzie odpowiadał kombinacji, w której minimalna odległość między wysyłanymi znakami dla każdej pary wynosi 2.

Zastosowanie kodowania kratownicy zgodnie z opisanym schematem pozwala zmniejszyć stosunek sygnału do szumu (SNR) o 6 dB, czyli znacznie zwiększyć odporność na zakłócenia podczas transmisji danych.

ComputerPress 2 "2002

DZWONEK

Są tacy, którzy czytają te wiadomości przed tobą.
Subskrybuj, aby otrzymywać świeże artykuły.
E-mail
Imię
Nazwisko
Jak chcesz przeczytać Dzwon
Bez spamu