Dzwon.

Są ci, którzy przeczytali tę wiadomość przed tobą.
Subskrybuj odbieranie artykułów świeżych.
E-mail
Nazwa
Nazwisko
Jak chcesz przeczytać dzwonek
Bez spamu

Technologia sieci - Jest to skoordynowany zestaw standardowych protokołów i wdrażanie ich oprogramowania i sprzętu (na przykład adaptery sieciowe, sterowniki, kable i złącza), wystarczające do zbudowania sieci komputerowej. Epityto "wystarczający" podkreśla fakt, że ten zestaw jest minimalnym zestawem funduszy, z którymi można zbudować sieć roboczą. Możliwe jest, że ta sieć można poprawić, na przykład, wybierając w nim podsieci, które natychmiast wymaga zastosowań aplikacji protokołu Ethernet, a także specjalne urządzenia komunikacyjne - routery. Ulepszona sieć będzie najprawdopodobniej bardziej niezawodna i szybka, ale ze względu na dodatki do środków technologii Ethernet, która była podstawą sieci.

Termin "technologia sieci" jest najczęściej stosowana w powyższym wąskim sensie, ale czasami jego zaawansowana interpretacja jest również wykorzystywana jako każdy zestaw funduszy i zasad budowy sieci, na przykład "poprzez technologię routingu", "technologia chronionego Kanał "," sieci technologii IP.

Protokoły, na podstawie których powstaje sieć konkretnej technologii (w wąskim sensie), specjalnie opracowany do współpracy, dlatego deweloperem sieci nie wymaga dodatkowych wysiłków na rzecz zorganizowania ich interakcji. Czasami nazywają technologie sieciowe podstawowe technologie., mając na uwadze, że na podstawie nich opiera się na podstawie dowolnej sieci. Przykłady podstawowych technologii sieciowych mogą służyć jako Ethernet, takie znane lokalne technologie sieciowe jak, pierścień tokenowy i FDDI lub technologii sieci terytorialnych X.25 i przekaźnik ramowy. Aby uzyskać sieć roboczą, w tym przypadku wystarczy zakupić oprogramowanie i sprzęt związany z jedną podstawową technologią - adaptery sieciowe z kierowcami, koncentratami, przełącznikami, systemem kablowym itp. - i podłączyć je zgodnie z wymaganiami standardu Do tej technologii.

Tworzenie standardowych technologii lokalnych sieci

W połowie lat 80. stan sprawy w sieciach lokalnych zaczął zmieniać się dramatycznie. Standardowe technologie łączenia komputerów w sieci - Ethernet, Arcnet, pierścień tokenowy. Potężny bodziec do ich rozwoju służył komputerom osobistym. Te produkty były idealnym elementami do budowy sieci - z jednej strony, były one dość potężne do obsługi oprogramowania sieciowego, a z drugiej strony wyraźnie potrzebne do łączenia mocy obliczeniowej w celu rozwiązania złożonych zadań, a także oddzielenie Drogie urządzenia obwodowe i tablice dyskowe. Dlatego komputery osobiste zaczęły zwyciężyć w sieciach lokalnych, a nie tylko jako komputery klienckie, ale także jako centra magazynowania i przetwarzania danych, tj. Serwery sieciowe, pocenie się z tych znajomych ról mini komputerów i mainframek.

Standardowe technologie sieciowe zmieniły proces budowy sieci lokalnej ze sztuki do rutynowej pracy. Aby utworzyć sieć, wystarczył zakup adapterów sieciowych odpowiednich standardów, takich jak Ethernet, standardowy kabel, dołączyć adaptery do standardowych złączy i zainstalować jeden z popularnych systemów operacyjnych sieciowych, na przykład, NetWare. Po tym sieć zaczął pracować i dołączyć do każdego nowego komputera nie spowodować żadnych problemów - naturalnie, jeśli adapter sieciowy tej samej technologii został zainstalowany na nim.

Lokalne sieci w porównaniu z siecią globalnymi dokonały wielu sposobów zorganizowania prac użytkownikowych. Dostęp do wspólnych zasobów stało się znacznie bardziej wygodne - użytkownik może po prostu wyświetlić listy dostępnych zasobów, a nie pamiętać ich identyfikatorów ani nazw. Po połączeniu z zasobem zdalnym, możliwe było współpracowanie z nim za pomocą użytkownika już znanego do pracy z lokalnymi zasobami poleceń. W konsekwencji, a jednocześnie siłą napędową takiego postępu była pojawienie się ogromnej liczby osób nieprofesjonalnych, którzy nie musieli studiować specjalnych (i dość skomplikowanych) poleceń do pracy sieciowej. A zdolność do realizacji wszystkich tych udogodnień, deweloperzy lokalnych sieci uzyskano w wyniku pojawienia się wysokiej jakości liniami kablowymi komunikacyjnymi, na których nawet adaptery sieciowe pierwszej generacji zapewniły szybkość przesyłania danych do 10 Mb / s.

Oczywiście, takie prędkości, deweloperzy globalnych sieci nie mogli nawet śnić - musieli korzystać z tych kanałów komunikacyjnych, które były dostępne, ponieważ uszczelka nowych systemów kablowych do komputerów w sieciach tysięcy kilometrów wymagałaby inwestycji kapitałowych Colossal. I "W ręku" były tylko kanały komunikacji telefonicznej, słabo przystosowane do szybkiej transmisji danych dyskretnych - prędkość 1200 bitów / s była dobrym osiągnięciem dla nich. Dlatego ekonomiczne wydatki poprzez przepustowość kanałów komunikacyjnych były często podstawowym kryterium skuteczności metod transmisji danych w sieciach globalnych. W tych warunkach, różne procedury przejrzystego dostępu do zdalnych zasobów, standardu dla sieci lokalnych, dla sieci globalnych przez długi czas pozostawały niepełnosprawności.

Nowoczesne tendencje.

Dziś sieci komputerowe nadal rozwijają się i dość szybko. Gap między lokalnymi i światowymi sieciami jest stale obniżona w dużej mierze ze względu na pojawienie się szybkich kanałów komunikacyjnych terytorialnych, które nie są gorsze od jakości systemów kablowych sieci lokalnych. W globalnych sieciach pojawiają się usługi dostępu do zasobów, takie same wygodne i przejrzyste, a także lokalne usługi sieciowe. Takie przykłady w dużych ilościach wykazują najpopularniejszą sieć globalną - Internet.

Sieci lokalne są zmieniane. Zamiast łączyć komputery pasywnego kabla w nich, różnorodne sprzęt komunikacyjny pojawił się w dużych ilościach - przełączniki, routery, bramy. Dzięki takim sprzętem stało się możliwe budowanie dużych sieci korporacyjnych, numeracji tysięcy komputerów i posiadający złożoną strukturę. Zażywało zainteresowanie dużymi komputerami - głównie ze względu na fakt, że po recesji Euforii przez łatwość pracy z komputerami osobistymi, okazało się, że systemy składające się z setek serwerów są bardziej skomplikowane niż kilka dużych komputerów. Dlatego na nowym obrotu spirali ewolucyjnej, mainframe zaczął powracać do systemów obliczeniowych korporacyjnych, ale już jako pełnoprawne węzły sieciowe, które obsługują pierścień Ethernet lub Token, a także stos protokołu TCP / IP, który stał się DE Facto Network Standard.

Pojawiła się kolejna bardzo ważna tendencja, wpływająca na równie zarówno lokalne, jak i globalne sieci. W nich zaczęły być przetwarzane przez wcześniejsze informacje o sieciach obliczeniowych - Głos, obrazy wideo, rysunki. Domagał się zmian w działaniu protokołów, systemów operacyjnych sieciowych i sprzętu komunikacyjnego. Złożoność przesyłania takich informacji multimedialnych w sieci jest związana z jego wrażliwością opóźnienia podczas przesyłania pakietów danych - opóźnienia zwykle prowadzą do zniekształcenia takich informacji w węzłach końcowych sieci. Ponieważ tradycyjne sieci komputerowe - takie jak przesyłanie plików lub e-mail - tworzenie małych opóźnień ruchu i opracowano na nim wszystkie elementy sieciowe, pojawienie się ruchu w czasie rzeczywistym doprowadziło do dużych problemów.

Obecnie problemy te są rozwiązywane na różne sposoby, w tym korzystanie z bankomatu specjalnie zaprojektowanego do przesyłania różnych rodzajów ruchu, jednak pomimo znaczących wysiłków dokonanych w tym kierunku, aż do akceptowalnego rozwiązania problemu jest daleko, a w tej dziedzinie Jest jeszcze wiele do zrobienia, aby osiągnąć ceniony cel - fuzja technologii nie tylko lokalnych i globalnych sieci, ale także technologie jakichkolwiek sieci informacyjnych - komputerów, telefon, telewizji itp. Chociaż dziś ten pomysł wydaje się dzisiaj utopia, poważni specjalistów wierzą Że są już warunki takiej syntezy, są już, a ich opinie różnią się jedynie w ocenie przybliżonych terminów takich stowarzyszenia - nazywane są czasem od 10 do 25 lat. Ponadto uważa się, że podstawa Unii będzie służyć jako technologia przełączania pakietów używana dzisiaj w sieciach obliczeniowych, a nie technologii przełączania kanału stosowanej w telefonii, która prawdopodobnie zwiększa zainteresowanie tego typu sieciami.

(Centrum badań sieciowych sieci komputerowych)

CPIKAS - projekt badawczy do tworzenia technologii i produktów do sieci komputerowych nowej generacji w Rosji. Opracowujemy i wdrażamy najnowsze i obiecujące technologie w dziedzinie sieci komputerowych i Internetu, wykazują i sprawdzają skuteczność tych technologii na temat zadań przemysłu i biznesu. Resident IT Klusta Funduszu Innowacji Skolkovo.

Trendy w rozwoju sieci komputerowych i Internetu

Materiał przygotowany specjalnie dla magazynuPrzegląd Skolkovo.

Dziś niemożliwe jest przedłożenie naszego życia bez technologii internetowej i informatycznej. Mocno wszedł do naszego życia, znacznie upraszczając go. Wraz z opracowaniem technologii informacyjnych stajemy się dostępne dla nowych narzędzi, które sprawiają, że procesy znają nam szybsze, wygodniejsze i tańsze. Jednak te zmiany, które teraz widzimy tylko szczyt góry lodowej. Technologie sieciowe znajdują się dopiero na początku ich wzrostu, a prawdziwie duże innowacje czekają na nas przed sobą. Jak więc ewolucja na nadchodząca dziesięciolecia można dziś przewidzieć, widząc, w którym kierunku jest rozwój sieci komputerowych i Internetu?
1. Publiczność będzie rosła, internet pojawi się w najbardziej oddalonych miejscach planety.
Do końca 2012 r. Liczba użytkowników Internetu na całym świecie osiągnęła 2,4 miliarda użytkowników na całym świecie. Do 2020 r., Zgodnie z prognozami USA National Science Foundation, liczba użytkowników Internetu wzrośnie do 5 mld. Internet stanie się bardziej rozproszony geograficznie. Największy wzrost użytkowników w ciągu najbliższych 10 lat nastąpi na koszt mieszkańców krajów rozwijających się w Afryce (obecnie nie więcej niż 7%), Azja (około 19%) i Bliskiego Wschodu (Bliski Wschód) (około 28%) . Aby porównać teraz, ponad 72% mieszkańców Ameryki Północnej korzystają z Internetu. Tendencja ta oznacza, że \u200b\u200bInternet do 2020 r. Osiągnie zdalne miejsca na całym świecie, ale także obsługuje znacznie więcej języków, a nie tylko system kodujący ASCII znany nam. Rosyjscy Internet, zgodnie z Ministerstwem Komunikacji Federacji Rosyjskiej, na początku 2012 r. Wyniosły 70 milionów ludzi. Według tego wskaźnika Rosja wyszła na pierwszym miejscu w Europie i szóstym miejscu na świecie. Zgodnie z wynikami badania agencji RBC.Research, poziom penetracji internetowej w Rosji w 2018 r. Przekroczy 80%.
2. Technologie informacyjne rozpoczynają erę oprogramowania.
Teraz doświadczamy etapu intelektualizacji żelaza, gdy oprogramowanie staje się ważniejsze niż sam sprzęt. Przemysł oprogramowania wzrośnie w dużym tempie: w 2010 roku. Roczna stopa wzrostu oprogramowania wynosiła co najmniej 6%, 2015 r. Woluminy rynkowe osiągną 365 mld USD, jedna czwarta, której spada na rynek aplikacji biznesowych. Rynek żelaza zostanie zmniejszony: wielkość rynku w 2013 r. Wyniosła 608 mld USD, tempo wzrostu z 2008 r. Do 2013 r. Jest ujemne -0,7%. Do 2018 r. Wzrost o 2,1% przewiduje się głównie ze względu na wzrost rynku PC (wzrośnie o 7,5%) i urządzeń peryferyjnych (drukarki, skanery itp.). XXI wieku to wiek technologii bezprzewodowej. Dopiero w 2009 r. Liczba abonentów mobilnych szerokopasmowych (3G, WIMAX i inne technologie transmisji danych o dużej prędkości) wzrosły o 85%. Do 2014 r. Przewidują, że 2,5 miliarda ludzi na całym świecie korzystałaby do mobilnego dostępu szerokopasmowego.
3. Wskaźnik przesyłania danych i przepustowość wzrasta.
Do tej pory szybkość transferu danych w dobrych komputerach wynosi 40 GB / s. Na przykład 4 objętości powieści "wojny i pokoju" L. Tolstoy wynosi około 40 Mb / s, tj. 1000 razy mniej! Możesz przekazać te 4 objętości mniej niż 1 mikrosekund. Ale w najbliższej przyszłości będzie możliwe przesyłanie danych z prędkością światła. Już dziś jest technologia WIGIK, która pozwala na kilka kilometrów do przesyłania informacji z prędkości 7 GB / s. Metoda kodowania informacji na poziomie fizycznym. Również z przepustowością. Według Cisco, dziś w tym samym czasie w Skype, na Facebooku jest ponad 200 milionów użytkowników, 72 godziny wideo są pobierane co minutę na YouTube. Eksperci przewidują, że do 2015 r. Liczba urządzeń w sieci będzie dwa razy wyższa niż populacja planety. Do 2014 r. Około 80% tego ruchu będzie ruch wideo. Obrazy i pliki wideo, wymiana, które stale występują w "World Wide Web" wymagają wyższej przepustowości. A technologia rozwija się w tym kierunku. Użytkownicy będą komunikować się i udostępnią informacje poprzez wideo i głosy w czasie rzeczywistym. Pojawiają się coraz więcej aplikacji sieciowych, wymagających interakcji w roli czasu.
4. Semantyczna sieć.
Zgodnie z prawem ruszamy w kierunku "semantycznego Internetu", w którym informacje mają dokładnie pewne znaczenie, co pozwala komputerom "zrozumieć" i przetworzyć go na poziomie semantycznym. Obecnie komputery pracują na poziomie składniowym, na poziomie znaków, czytają i przetwarzają informacje na temat funkcji zewnętrznych. Termin "Semantic Web" został po raz pierwszy wprowadzony przez Sir Tim Berners-Lee (jeden z wynalazców World Wide Web) w czasopiśmie Amerykanin naukowy. Semantyczna sieć pozwolą na znalezienie informacji, aby wyszukać: "Znajdź informacje o zwierzętach, które używają lokalizacji dźwięku, ale nie nudne ani Dolphin, na przykład.
5. Nowe obiekty transmisyjne.
Dzięki rozwojowi nowych technologii, możliwe będzie przeniesienie przez sieci komputerowe, które były niemożliwe. Na przykład zapach. Maszyna analizuje skład cząsteczkowy powietrza w jednym punkcie i przesyła te dane w sieci. W innym punkcie sieci, ta kompozycja molekularna, tj. Zapach jest syntetyzowany. Prototyp takiego urządzenia wydał już amerykańską Firmę Mint Foundry, nazywa się to Olly, aż wszedł do wolnej sprzedaży. Jednak wkrótce będziemy mogli zobaczyć przykład wykonania tych możliwości w życiu codziennym.
6. Internet stanie się siecią rzeczy, a nie tylko komputerów. Dziś istnieje już 700 milionów komputerów (według CIA World FactBook 2012) w Internecie (według CIA World Factbook 2012). Każdego roku użytkownik ma liczbę urządzeń, które udają się do sieci: komputery, numery telefonów, tablety itp. Już dziś liczba adresów IP przekracza liczbę populacji Ziemi (potrzebne są adresy IP do działania urządzeń gospodarstwa domowego). Dzięki nowej architekturze sieci komputerowych pojawi się erę "Internet-rzeczy". Rzeczy i przedmioty będą współdziałać za pośrednictwem sieci, otworzy wielkie możliwości dla wszystkich sfer ludzkich życia. Jednym z najbliższych wydarzeń jest "Smart Dust" - czujniki rozrzucone na dużym obszarze zbieraniu informacji. Krajowy fundusz naukowy USA przewiduje, że około miliardów czujników na budynkach, mostach, drogi zostaną podłączone do Internetu do celów, takich jak monitorowanie wykorzystania energii elektrycznej, aby zapewnić bezpieczeństwo itp. Ogólnie oczekuje się, że do 2020 r. Liczba połączonych przez Internet czujniki będą rzędną wielkości większą niż liczba użytkowników. W kontynuacji tej myśli możesz dać refleksje do Vinton Graha Surf (American Mathematics Scientific, jest uważany za jednego z protokołu TCP / IP TCP, Google Wiceprezesa): "Załóżmy, że wszystkie produkty umieszczane w lodówce są wyposażone w specjalny kod kreskowy. lub Microchip, aby lodówka naprawiła wszystko, co włączysz. W tym przypadku, będąc na uniwersytecie lub w pracy, możesz zobaczyć te informacje z telefonu, aby oglądać różne opcje dla przepisów, a lodówka zasugerowałaby, że to kosztuje dzisiaj. Jeśli rozszerzysz ten pomysł, będzie to w przybliżeniu następujący obraz. Idziesz do sklepu, a kiedy tam jesteś, nazywasz telefonem komórkowym - nazywa Cię lodówką, która doradza, co dokładnie warto kupować. Smart Internet zmieni sieci społecznościowe (w formie, którą mamy dzisiaj) do systemów mediów społecznościowych. W pomieszczeniach zainstalowano kamery i różne czujniki. Dzięki własnym koncie możesz podawać zwierzęta domowe i na przykład prowadzić pralkę.
7. Robotyzacja społeczeństwa.
Już dziś znamy przykłady bezzałogowych aparatów latających, odkurzaczy, w Japonii "Praca" roboty policyjne - wszystkie te technologie wykonują swoje funkcje bez interwencji człowieka. I każdego roku przenikanie takich samochodów wzrośnie tylko. Jednym z nierozwiązanych zadań w technologii obliczeniowych jest problem rekreacji komputera myślenia. Jednak możliwe jest połączenie ludzkiego mózgu z cybernetycznym systemem komputerowym. Przypomnij sobie film "Robocop". Już dziś są podobne eksperymenty, gdy proteza nóg lub rąk osoby dołączają do rdzenia kręgowego. Przypomnijmy przykładem South African Burnner of Oscar Pistorius, ponieważ dzieciństwo pozbawione obu nóg, ale w konkursach wyprzedzających absolutnie zdrowych konkurentów dzięki protezie węgla. Według ekspertów pierwszy taki "poza człowiekiem", cyberorganizmpojawi się do 2030 roku. On będzie F. amially doskonały, odporny na choroby, promieniowanie i ekstremalne temperatury. I jednocześnie będzie miał ludzki mózg.
8. Nowy status ludzki w Internecie.
Internet zmienia ludzkie życie. "World Wide Web" staje się nie tylko platformą do informacji i komunikacji, ale także narzędziem do realizacji potrzeb gospodarstwa domowego: takie jak dokonywanie zakupów, płatność narzędzi i innych Internetu zmienił postawę osoby ze stanem. Komunikacja osobista, dostęp osobisty do usług specjalnych zostanie zminimalizowany. Prześlij dokumenty na Uniwersytecie, zadzwoń do karetki, napisz oświadczenie na policję, umieść paszport - wszystko to jest już możliwe, aby wykonać elektronicznie. Państwo będzie nadal generować usługi za pośrednictwem Internetu. Już dziś, dokument elektroniczny przebiegi w całym kraju jest najważniejszym priorytetem Ministerstwa Komunikacji i Masowej Komunikacji Federacji Rosyjskiej. Musisz porozmawiać o nowym statusie osoby w świecie technologii internetowych. Dostęp do sieci będzie prawo cywilne każdej osoby, będzie święte chronione i kontrolowane przez prawo wraz z innymi wolnościami cywilnymi. Jest to niedaleko przyszłości. Więc pojęcie demokracji w społeczeństwie zmienia się. W przypadku napięcia obywateli, specjalne miejsca nie są już potrzebne, stojaki, media. W tym względzie stanie się minimum anonimowości. Luksus, aby zmienić hasła i rozpocząć konta pod nieistniejącymi nazwami, pozostawiają komentarze kaustyczne pod niewidoczne cale - najprawdopodobniej nie stanie się. Logowanie / hasło do wejścia do sieci mogą być środkiem identyfikacji osoby, a jego prawdziwe dane paszportowe będą związane. Ponadto najprawdopodobniej nie będzie "top", jako próba cenzury i kontroli. I pragnienie samego społeczeństwa, potrzeba "dna". Dlatego Im więcej życia w Internecie jest prawdziwe, tym bardziej przejrzystość będzie chciała być używana przez użytkowników. Reputacja osoby w życiu określi jego reputację, aw sieci globalnej, wynaleziono biografie. Określając dane ludzkie, sama sieć tworzy filtry i przejścia, aby uzyskać dostęp do informacji o granicach wieku, do prywatnych informacji, do różnych usług zgodnie z wymaganiami, a nawet społecznym zaufaniem.
9. Zmiany na rynku pracy i edukacji.
Aktywna penetracja technologii sieciowych i Internetu doprowadzi do zmian na rynku pracy oraz w dziedzinie edukacji. Internet już przekształcił się w globalne i kluczowe narzędzie komunikacyjne, zamienia wszystko bardziej dynamiczne z dziedziny rozrywki na platformie roboczej. Sieci społecznościowe, e-mail, Skype, zasoby informacyjne, witryny korporacyjne i programy wbudowane w komputerze wiążą ludzie nie tak wiele do określonego biura co do samego komputera. I tutaj nie ma znaczenia, skąd pochodzisz: z pracy, z domu, z kawiarnią lub z wybrzeża Oceanu Indyjskiego. Pracownicy, którzy wykonywali swoją pracę zdalnie będą coraz bardziej. I będzie coraz więcej biur w "Pocket", tj. Wirtualne przedsiębiorstwa, które istnieją tylko w Internecie. Ludzie, którzy otrzymują edukację zdalnie dzięki nowym formatom dostarczonym przez Internet - również. Na przykład, dziś na Uniwersytecie Standford, wykład dwóch profesorów słucha w tym samym czasie 25 000 osób!
10. Internet stanie się bardziej "zielony".
Technologie sieciowe zużywają zbyt dużo energii, objętość rośnie, a eksperci zgadzają się, że przyszła architektura sieci komputerowych powinna być bardziej energooszczędna. Zgodnie z krajowym laboratorium Lawrence Uniwersytetu w Berkeley, ilość energii zużywanej przez sieć światową w okresie od 2000 r. Do 2006 r. Podwojona (!). Internet zajmuje 2% światowej zużycia energii elektrycznej, która jest równoważna pojemności 30. elektrowni jądrowych - 30 mld W. Tendencja do "krajobrazu" lub "ekologizacji" Internetu zostanie przyspieszona jako ceny energii.
11. Cyberorazhe i Cyberwomen.
W sprawie rozwoju technologii internetowych i możliwości sieci komputerowych znajdują się kolejna strona monet. Począwszy od cyberprzestępczości związanej ze wzrostem e-commerce w Internecie, do Cybervan. Cyberprzestrzeń jest już oficjalnie uznany za piąty "pole bitwy" (tak samo jak sushi, morze, przestrzeń powietrzna i przestrzeń). Siły marynarki w 2010 r. W 2010 r. Nawet stworzyły Cyberfor Cyberfor, którzy są w bezpośrednim zgłoszeniu na komendzie US Navy. Obecnie, nie tylko zwykłych użytkowników PC, ale także systemy przemysłowe, kontrolowanie zautomatyzowanych procesów produkcyjnych, spadają pod atakami wirusów hakerów. Złośliwy robak może być wykorzystywany jako szpiegostwo, a także różnorodność elektrowni, lotnisk i innych przedsiębiorstw wspierających życie. Tak więc w 2010 r. Komputerowy Robak Stuxnet uderzył w obiekty jądrowe Iran, upuszczając w ten sposób program jądrowy tego kraju przez dwa lata temu. Wykorzystanie szkodliwego programu okazało się porównywane z pełnoprawną operacją wojskową, ale w przypadku braku ofiar wśród ludzi. Wyjątkowość tego programu była to po raz pierwszy w historii Kiberatach, wirus fizycznie zniszczył infrastrukturę. Ostatnio, 27 marca tego roku, największy atak hakerowy w historii, co nawet zmniejszyło szybkość transferu danych na całym świecie. Celem ataku był firma Europejska Spamhaus, zaangażowana w opozycję wysyłki spamu. Moc DDO-ataku wynosiła 300 Gb / s, choć moc 50 GB / sekundy wystarczy, aby zawodzić infrastrukturę dużej organizacji finansowej. Krajowy problem bezpieczeństwa jest jednym z najważniejszych kwestii w porządku obrad w krajach rozwiniętych. Obecna architektura sieci komputerowych nie może zapewnić takiego bezpieczeństwa. Dlatego przemysł antywirusowy / ochrony sieci i rozwój nowych technologii bezpieczeństwa rosną co roku.
12. Dostęp do Internetu i technologie sieciowe w przestrzeni.
Dzisiaj sieć internetowa jest skalą planetarną. W porządku obrad - przestrzeń międzyplanetarna, przestrzeni Internet.

Międzynarodowa stacja kosmiczna jest podłączona do Internetu, co znacznie przyspiesza procesy pracy i interakcji stacji z ziemią. Ale zwykłe ustanowienie komunikacji z włóknem optycznym lub prostym kablem, który jest bardzo wydajny na warunkach ziemskich, jest niemożliwe w przestrzeni. W szczególności, ze względu na fakt, że w przestrzeni międzyplanetarnej niemożliwe jest użycie zwykłego protokołu TCP / IP (protokół jest specjalnym "językiem" sieci komputerowych dla "komunikacji" ze sobą).

Prace badawcze na temat tworzenia nowego protokołu, dzięki którym Internet może działać na stacjach księżycowych, a na Marsie są prowadzone. Tak więc jeden z podobnych protokołów nazywa się zakłóceń tolerancyjnej sieci (DTN). Sieci komputerowe z niniejszym protokołem zostały już zastosowane do komunikatu ISS z ziemią, w szczególności fotografie soli zostały wysłane przez kanały komunikacyjne, które uzyskano w stanie nieważkości. Ale eksperymenty w tej dziedzinie kontynuują.

Internet dla dwóch kilkunastu lat jej rozwoju praktycznie nie zmienił koncepcyjnie i architektonicznie. Z jednej strony wprowadzono nowe technologie transmisji danych, z drugiej strony, utworzono nowe usługi, ale główna koncepcja sieci, architektura sieci komputerowych pozostaje na poziomie lat 80. XX wieku. Zmiany nie tylko dawno zwane, ale także niezbędne. Dlatego Na podstawie starej architektury innowacja jest niemożliwa. Sieci komputerowe już dziś pracował nad limitem ich możliwości, a obciążenie, które sieci będą musiały doświadczyć z takim aktywnym wzrostem, mogą po prostu nie wytrzymać. Rozwój i wdrażanie wszystkich wymienionych trendów jest możliwe dopiero po wprowadzeniu nowej, bardziej elastycznej architektury sieci komputerowych. W całym świecie naukowym jest to pytanie numer 1.

Najbardziej obiecująca technologia / architektura sieci komputerowych, która jest w stanie wycofać się z kryzysu Technologia sieciowo konfigurowalnych sieci (softwere.zdefiniowany.sieć). W 2007 r. Personel Uniwersytetu Stanforda i Berkeley opracował nowy "język" komunikacji sieci komputerowych - protokół OpenFlo.w.i nowy algorytm sieci komputerowych - technologia PKS . Jego podstawową wartością jest to, że umożliwia przejście z zarządzania siecią "Ręczne". W nowoczesnych sieciach funkcje zarządzania i transmisji danych są łączone, co sprawia, że \u200b\u200bkontrola i zarządzanie są bardzo złożone. Architektura komputerów podziela proces zarządzania i proces przesyłania danych. Co otwiera ogromne możliwości rozwoju technologii internetowych, ponieważ PKS nie ogranicza nas, wycofując oprogramowanie na pierwszy plan. W Rosji badanie PKS zajmuje się centrum sieci komputerowych.

Ostatnio, amerykański inwestor Mike Maples zgłosił się na technologiach sieciowych jako przyszłego biznesu, - raportów Edycja Fortune. Mapl zaczęły inwestować więcej niż 10 lat temu. Wcześniej był prywatnym przedsiębiorcą, więc inwestycja była dla niego nowym wyzwaniem.

Już w tym czasie zdał sobie sprawę, że przyszłość za technologiami sieciowymi, a nie dla firm w zwykłym zrozumieniu. Dlatego pierwsze inwestycje zostały popełnione tylko w projektach pochodzących Twitter i Twitch. Niski, wraz z partnerem Annmiura-KO, wdrożono projekty Lyft, OKTA i wiele innych.

Do tej pory Mike Maples jest przekonany o następujących:

- Sieć oparta na oprogramowaniu będzie najdroższym biznesem i z czasem zostanie dostarczona z tradycyjnymi firmami.

- sieci mogą znacząco poprawić dobre samopoczucie ludności we wszystkich regionach świata

- Firmy sieciowe będą stawić czoła poważnym oporem ze strony państw i tradycyjnych firm

Aby potwierdzić swoje słowa, Mapls odwołuje się do historii. Mówi, że stworzenie silnika parowego i kolei jednocześnie z nadejściem na giełdzie pozwoliło biznesowi, aby przejść daleko przed sobą, co z kolei doprowadziło do skoku w dobrobycie ludności. Od 1800 do 2000 r. Mapls zatwierdza, prawdziwe dochody ludności wzrosły średnio 14 razy, co wcześniej nie było wcześniej dla takiego stosunkowo krótkiego okresu historii.

Wcześniej duże korporacje miały znaczące zalety kosztem produkcji i znacznego podziału pracy. Jednakże, dziś nawet największe tradycyjne korporacje tracą sieci, ponieważ te ostatnie mają ogromną liczbę użytkowników, którzy sami tworzą tak zwane efekty sieciowe, w tym natychmiastową promocję różnych pomysłów, opinii, towarów i usług.

Przykłady nie muszą iść daleko. Uber i Lyft są liderami na rynku transportu prywatnego w USA; Airbnb jest wiodącą nieruchomością na wynajem nieruchomości, a Apple skończył 10 lat temu na telefonie komórkowym.

Teraz wszyscy możemy przestrzegać zaostrzających walkę tradycyjnych systemów korporacyjnych z sieciami. Uber i Airbnb podlegają presji z władz lokalnych na temat podatków i rzekomo stosującej "niekonkurencyjne" metody konkurencji. Mapl uważa, że \u200b\u200bjeszcze rozwój technologii sieciowych w końcu powinien prowadzić do dobrobytu osób, choć w średnich etapach tworzenia niektórych branż reaguje na postęp poprzez zmniejszenie miejsc pracy.

Sektor standaryzacji telekomunikacji Międzynarodowego Unia Telekomunikacyjnego (ITU-T) uważa, że \u200b\u200bdo 2020 r. Należy pojawić się sieć przyszłości, FN (przyszłych sieci).

Ich główna różnica z nowoczesnych sieci (NGN) jest to, że są one w stanie zapewnić nowe usługi infoComunikujące, które są trudne do wdrożenia przy użyciu istniejących technologii sieciowych.

Ponieważ na stronach "X" () przeanalizowano pierwsze dwa zalecenia ITU-T - Y.2001 i Y.2011 - w stosunku do nowego kierunku rozwoju telekomunikacji, sieci nowej generacji, NGN (następna generacja Sieci), sieci te były w pełni standaryzowane w dokumentach regulacyjnych ITU-T (w specjalnej serii Y.2000 poświęconych tym sieciom, już 124 zaleceń *), operatorzy pomyślnie je zbudują i wykorzystują **.

Prace na temat standaryzacji przyszłych sieci Fn rozpoczęły ITU-T w 2009 r. Komisja badawcza SG13 opracowała pierwsze zalecenia dotyczące FN w nowej serii Zalecenia ITU-T - Y.3000-3499. Obecnie w tej serii istnieją już dziewięć zaleceń, cztery dodatkowe dokumenty znajdują się na etapie dyskusji. Krótki przegląd zaleceń ITU-T w przyszłych sieciach jest poświęcony artykułu.

Zadania i cele tworzenia przyszłych sieci

Zalecenie Y.3001 opisuje główne postanowienia przyszłych sieci i 12 celów do ich stworzenia, które są podzielone na cztery segmenty podstawowe (Fig. 1). Część zadań, takich jak zarządzanie siecią, mobilność, identyfikacja, a także niezawodność i bezpieczeństwo, może odnosić się do kilku segmentów, ale liczba pokazuje relację między segmentem a zadaniami, które mają największy stosunek do niego.

Usługi usługcharakteryzuje się faktem, że w sieciach przyszłości będzie ogromna liczba usług / wniosków, aby sprostać praktycznie wszelkich wniosków konsumentów. Zgodnie z oczekiwaniami, w przyszłych sieciach, liczba usług i ich objętość będzie rosła jak lawina. Ponadto planowane jest wprowadzenie nowych usług bez znacznych inwestycji i rosnących kosztów operacyjnych, zapewniając jednocześnie wysoką niezawodność i bezpieczeństwo przyszłych sieci.

Segment danych.zapewnia optymalizację przyszłych sieci w związku z gigantycznymi ilościami informacji przesyłanych i przetworzonych. Daty są rozumiane przez wszystkie informacje dostępne w przyszłej sieci. Zakłada się również, że dostęp do usług przyszłych sieci będzie łatwy, szybki i jakościowy, niezależnie od lokalizacji użytkownika. Każda osoba w przyszłości sieć otrzyma swój unikalny adres, który będzie mógł zalogować się w dowolnym punkcie na świecie i otrzymać wszystkie potrzebne usługi.

Segment ekologiczny Oznacza, że \u200b\u200bsieć przyszłości będzie przyjazna dla środowiska dla środowiska. Ich rozwiązania techniczne powinny zminimalizować wpływ na ekosystem, zmniejszyć zużycie materiałów i energii.

Segment społeczno-ekonomiczny Przewiduje rozwiązanie wielu zadań związanych z ograniczeniem kosztów w celu zapewnienia cyklu życia usług i ujednolicenie szerokopasmowego dostępu do zasobów przyszłych sieci do szerokich segmentów ludności, które z kolei będą służyć jako zachęta do rozwoju gospodarki światowej i wyeliminować "cyfrową nierówność".

Wirtualizacja sieci

Wsparcie wirtualizacji zasobów jest niezbędną charakterystyczną cechą sieci FN z sieci NGN. Zapewnia logiczne oddzielenie zasobów sieciowych między usługami a jednoczesnym udostępnianiem jednego zasobów fizycznych z wielu zasobów wirtualnych.

Architektura wirtualizacji sieci dla przyszłych sieci przedstawionych w zaleceniu Y.3011 zawiera trzy poziomy (rys. 2). Podobnie jak każda sieć komunikacyjna, sieć FN na pierwszym poziomie składa się z zasobów fizycznych (przełączników, routerów, linii komunikacyjnych, systemów przesyłowych itp.), Które są własnością i obsługiwane przez operatorów sieci fizycznych. Na podstawie fizycznych zasobów sieciowych, zorganizowane są zasoby wirtualne (przepustowość, trasa transmisyjna, przestrzeń adresowa itp.), Które mogą być kontrolowane przez odpowiedni operator. A na podstawie tych wirtualnych zasobów sieciowych jest tworzona własna wirtualna sieć w każdej usłudze, zwana logicznie izolowaną częścią sieci, Linp (Logonialnie izolowana partycja sieciowa). Taki podział umożliwia wdrożenie kilku usług w tej samej sieci fizycznej o różnych wymaganiach zasobów sieciowych. Dzięki wirtualizacji sieciowej dostawca i użytkownik zasobów sieciowych są rozdzielone. Oznacza to, że użytkownik sieci wirtualnej nie musi mieć własnych zasobów sieci fizycznych. Umożliwia to dynamiczne dodawanie i usuwanie niezbędnych zasobów w wirtualnej sieci z puli ogólnych wirtualnych zasobów w odpowiedzi na zmiany, które się znajdują w nim (zwiększać lub zmniejszyć objętość ruchu, pojawienie się awarii lub awarii w działaniu Sprzęt sieciowy itp.). Ponieważ dodawanie wirtualnych zasobów jest przeprowadzane znacznie szybciej i bardziej ekonomiczne niż wdrażanie dodatkowych zasobów fizycznych, operacji i zarządzania w sieciach przyszłości bardziej wydajnych i elastycznych.

Oszczędność energii w przyszłych sieciach

Znaczenie kwestii środowiskowych wynika z faktu, że podczas opracowywania przyszłych sieci, jeden z głównych zadań staje się stosowaniem energooszczędnych technologii. Zgodnie z zaleceniem Y.3021 zmniejsz negatywny wpływ przyszłych sieci środowiskowych na dwa sposoby.

1. Wykorzystaj możliwości przyszłych sieci w dziedzinie ekonomii niezwiązanej z technologiami infoComuników. Przyszłe sieci powinny być użytecznym narzędziem do zmniejszenia negatywnego wpływu innych obszarów środowiskowych na środowisko. Przykładami takich aplikacji FN to inteligentna siatka, przeznaczona do rozkładu mocy elektrycznej lub wszystkie permisyjne sieci sensoryczne USN, które kontrolują zmiany ekoosfery Ziemi.

2. Zmniejsz negatywny wpływ na środowisko samych sieci, co czyni go podstawową zasadą przyszłych sieci. Zmniejszenie zużycia energii z obiektami sieciowymi, w szczególności routery, przełączniki i serwerów, charakterystyczne dla przyjaznych dla środowiska sieci przyszłych sieci.

Wewnątrz przyszłych sieci można wyróżnić trzy poziomy, z których każdy odpowiada jego technologiom oszczędzania energii:

Poziom urządzenia - Technologie używane do urządzeń elektronicznych, takich jak duże układy zintegrowane i urządzenia pamięci masowej;

Poziom sprzętu - Technologie, które mają zastosowanie do jednej jednostki urządzenia (zestaw urządzenia), takie jak router lub przełącznik;

Poziom sieci- Technologie, które mają zastosowanie w całej sieci (na przykład protokół routingu stosowane do kilku routerów).

Pomiar energii zużywanej w przyszłych sieciach

Zalecenie Y.3022 zawiera wymagania dotyczące pomiaru energii zużywanej przez różne elementy przyszłych sieci. W oparciu o te wymagania określono model odniesienia (rys. 3), architekturę funkcjonalną, metryki i metody pomiaru energii zużywanej przez elementy sieciowe (interfejs interfejsu E, Node E Węzeł, Server E Server) i Sieć jako całość (E Sieć). Aby uzyskać lepsze zrozumienie metryk w zakresie efektywności energetycznej w załączniku informacyjnym do zaleceń, opisują swoje poszczególne szczegółowe równania.

Identyfikacja w przyszłych sieciach

Zalecenie Y.3031 opisuje możliwe identyfikatory (ID) przyszłych sieci do identyfikacji abonentów, użytkowników, elementów sieciowych, funkcji, obiektów sieciowych, które świadczą usługi / aplikacje lub inne podmioty (takie jak obiekty fizyczne lub logiczne). Architektura identyfikacyjna przyszłych sieci, która obsługuje unikalną przestrzeń identyfikatora, zapewnia komunikację między pewnymi identyfikatorami reprezentujących obiekty sieciowe i dostarcza informacji o zależności między identyfikatorami, jeśli to konieczne. Obsługuje również wyszukiwanie identyfikatorów obiektów docelowych sieciowych w celu zapewnienia ich interakcji.

Architektura identyfikacyjna Fn łączy różne obiekty komunikacyjne i sieci fizyczne i składa się z czterech elementów (rys. 4).

1. Usługa rozpoznawania identyfikatoraktóry wykrywa różne typy identyfikatorów związanych z obiektami komunikacyjnymi.

2. przestrzeń ID, który określa i zarządza różnymi typami identyfikatorów: użytkowników, danych lub treści; Identyfikatory serwisowe, identyfikator węzłów i identyfikator lokalizacji.

3. rejestry ID, który obsługuje wyświetlanie linków między różnymi typami identyfikatorów.

4. Usługa wyświetlania IDKtóre konwertuje identyfikator jednej kategorii do identyfikatorów innych kategorii, aby osiągnąć ciągłą konserwację w heterogenicznych sieciach fizycznych, takich jak IP Wersja 6 (IPv6), w wersji 4 (IPv4) lub nie sieci, które mogą korzystać z różnych protokołów do przesyłania pakietów danych.

__________________________________________________________________________

* Zalecenia ITU-T Y.2000-Y.2999: Next Generation Networks [Zasób elektroniczny]. - Tryb dostępu: http://www.itu.int/itu-t/recommendations/index.aspx?ser\u003dY.

** Next Generation Networks / A.v. Roslakov, M.yu. Samsonov, I.v. Shibayeva, s.v. Vanyan, I.a. Czeczeniav; Ed. A.v. Roslakov. - M.: Eco-Trendz, 2008. - 424 p.

*** Zalecenia ITU-T Y.3000-Y.3499: Przyszłe sieci [zasób elektroniczny]. - Tryb dostępu: http://www.itu.int/itu-t/recommendations/index.aspx?ser\u003dY.

Koniec artykułu w następnym wydaniu "X".

Nie można argumentować ogromne.

Pręty koza.

Przyszły Ethernet.

Ogromne inwestycje poczyniły na całym świecie na wyniku i oprogramowaniu Ethernet (zgodnie z danymi statystycznymi, ponad 50% wszystkich lokalnych sieci na świecie korzystają z Ethernet) pchanie producentów deweloperów i producentów urządzeń sieciowych do poszukiwania sposobów przedłużenia jego życia. Główny minus Ethernet jest dziś powolność. 10 Mbit / s na segment, który nadal powinien być podzielony na wszystkie podłączone komputery - w wieku wideokonferencji i grafiki komputerowej nie pasuje do nikogo.

Pierwsza decyzja, która pojawiła się około rok temu, jest to, że tak zwany przełącznik Ethernet jest umieszczony w miejscu piasty. Widok z zewnątrz, przełącznik ma pewne właściwości wielokomportowanych bryczesów. Wykorzystuje fakt, że większość pakietów Ethernet wyraźnie zawiera adres odbiorcy. Jeśli taki pakiet zostanie przeniesiony do odbiorcy bez powiadamiania wszystkich innych subskrybentów sieci, nic nie stanie się straszna - nie był dla nich przeznaczony. Jest w ten sposób funkcjonować mosty, ale zwykle mają tylko dwa porty.

Nowoczesny przełącznik Ethernet może mieć do 16 portów i wytwarzanie opakowania między dwoma niezależnie od reszty. Na przykład, jeśli pakiet zostanie odebrany w porcie 1, którego odbiorca jest podłączony do portu 8 (rys. 6), a jednocześnie pakiet dla portu 2 przybył do portu 6, przełącznik będzie je przekazać oba równocześnie. W przypadku zwykłego koncentratora spowodowałoby to kolizja i pakiety powinny być przesyłane sekwencyjnie. Szczytowa przepustowość przełącznika 8-portowego-A może osiągnąć 40 Mb / s, a 16-portowy 80 Mb / s (4 lub 8 pakietów wysyłanych jednocześnie).

Przełącznik umożliwia znacząco rozszerzenie całkowitej przepustowości sieciowej, ale nie zwiększa limitu teoretycznego dla pojedynczego połączenia - wszystkie te same 10 Mb / s są dostępne na każdym portach. Należy przypisać zaletami tego rozwiązania, że \u200b\u200bnie wymaga wymiany adapterów sieciowych w komputerach, tylko koncentrator podlega wymianę. Oznacza to, że przejście nie będzie zbyt obciążeniowe z finansowego punktu widzenia.

Następujące rozwiązanie - Full-Duplex Ethernet, który znajduje się na etapie zatwierdzenia standardu, będzie wymagać użycia jako nowego koncentratora i nowego adaptera sieciowego. Ideą tej metody jest to, że transfer pakietów przy 10 bazie T Ethernet do komputera i od niego prowadzi się przez różne przewody. Dlatego możliwe jest jednocześnie wysyłanie dwóch pakietów, jeśli idą w różnych kierunkach. Więc możesz zwiększyć przepustowość prawie dwukrotnie. (W przypadku tradycyjnego kabla koncentrycznego jest naturalny, jest to niemożliwe. Muszę powiedzieć, że dziś, że pomyślał projekt opłaca niewieczną uwagę na modyfikację systemu za pomocą kabla koncentrycznego. Uwaga koncentruje się na skrętnej parze). Pierwsze piasty i adaptery przy użyciu tego mechanizmu powinny pojawić się w nadchodzącym roku - dwa.

Najbardziej rewolucyjne podejście rozważane również w komisjach w sprawie standardów, zapewnia wzrost szybkości transmisji w sieciach Ethernet w oparciu o skrętną parę do 100 Mb / s. Jest to możliwe, jeśli używasz tymczasowego przewodu. Rozważane są dwa projekty, na różne sposoby odpowiednie do mechanizmu przesyłowego. Chociaż praca nie jest tu tak bardzo zaawansowana, ale potrzeby rynku w takiej decyzji najwyraźniej doprowadzi do pojawienia się pierwszych projektów przemysłowych w nadchodzących latach.

Rozważane przykłady mogą powodować oszołomienie - po co zwiększyć przepustowość przestarzałej sieci? Nadal możesz rozumieć, gdy taki wzrost nie wymaga wymiany interfejsów w komputerach, ale jeśli nadal muszą się zmienić - dlaczego nie natychmiast użyć więcej prędkości (i już istniejących) sieci, FDDi na przykład. Nie powinniśmy zapominać, że oprócz zdolności sprzętowej do przesyłania danych, istnieje również strona oprogramowania - zawsze są programy, które faktycznie przesyłają dane. Wiele istniejących oprogramowania jest zapisywane dla protokołu Ethernet i znacząco stosować jego właściwości. Włączenie wsparcia nowych protokołów w najbliższej przyszłości jest mało prawdopodobne (popyt nie jest zbyt duży).

W przypadku zatwierdzenia nowych typów Ethernet i wygląd odpowiedniego sprzętu, zmiany wpłyną przede wszystkim części, w której (interfejsy i koncentraty) komunikują się ze sobą, tą samą stroną, z którą są adresowane do komputera i Użytkownik nie zostanie poddany znaczącym zmianom (lub ogólnie nie zmieni), umożliwiając korzystanie z dostępnego oprogramowania.

Tryb transferu ATSM-asynchroniczny

Podczas pisania tej części były poważne problemy - jakie nowe sieci powinny być wybrane do rozważenia? Po obfitości istniejących i utrzymywanych standardów - FDDI, przekaźnik ramowy, DQDB, SMD i innych - jasne jest, że niemożność nawet krótkiego opisu wszystkich w tej recenzji, której nie planowaliśmy w ogóle jako katalog. Co wybierz?

W końcu postanowiono zamieszkać w bankomacie, po pierwsze, ze względu na zasadniczo nowe podejścia, które zostały wykorzystane w swoim rozwoju, po drugie, ze względu na rolę, jaką powinno grać w transformacji świata sieci lokalnych i wreszcie Ze względu na fakt, że wydawało się, że otrzymał już "głosowanie zaufania", a producenci rzucili się, aby zostali zakwestionowani w reklamach nowych i nowych produktów i rozwoju (a potencjalni nabywcy są ładnymi rękami.).

Tryb transferu Asynchronouns) powstał w laboratoriach AT & T z powrotem w 1980 roku. Jako technologia zdolna do zapewnienia transferu różnych typów informacji (w tym czasie, telefonie i danych). Przez długi czas bankomat opracowany jako linia bazowa dla szerokopasmowej ISDN (szerokopasmowy ISDN - Standard sieci telekomunikacyjnej przeznaczonych do przesyłania heterogenicznych danych o bardzo dużych prędkościach (setki MBPS). W przeciwieństwie do szybkości pierwotnej ISDN (do 2 Mb / s) i podstawowej stawki ISDN (144 Kb / s), które są szeroko rozpowszechniane teraz, szerokopasmowy ISDN powinien być dystrybuowany do połowy lat 90., ponieważ opracowują technologię i potrzeby abonentów sieci telekomunikacyjnych.), Ale teraz jest dość niezależna technologia. Utworzony i aktywnie angażujący się w rozwój bankomatu i standaryzacji interfejsów Komitet Specjalny - Forum ATM.

Struktura ATM jest dość prosta (rys. 7), opiera się na sieci z przełącznika ATM (w najprostszym przypadku, może być jeden), połączone przez szybkie (zwykle światłowodowe) kanały komunikacyjne. Sieć przełączania ATM to szybki przełącznik do pakietów wchodzących do interfejsów zewnętrznych z urządzeń zewnętrznych - mostów, storników, poszczególnych komputerów lub innego sprzętu.

Jaka jest atrakcyjność ATM? Wszystkie istniejące sieci lokalne - Ethernet, Token Ring, FDDI i inne - Udostępnij jedną wadę: Wszystkie mają stałą przepustowość. Dla Ethernet jest to 10 Mb / s, do pierścienia tokena - 4 lub 16 Mb / s, dla FDDI - 100 Mb / s. Wszyscy użytkownicy sieci dzielą ten pas i połączenie nowych nieuchronnie prowadzi do zmniejszenia udziału na każdy. Nie tak w bankomacie, tutaj połączenie nowego użytkownika nie osłabiuje pozycji - wszyscy dostają do dyspozycji interfejs z gwarantowaną przepustowością (zazwyczaj -100-150 Mb / s, ale może mniej i znacznie więcej), co robi nie zależy od aktywności innych użytkowników. Osiąga się to fakt, że prędkość przełączania pakietów w przełączniku ATM przez rzędu 1-2 przekracza prędkość interfejsów, osiągających jednostki i dziesiątki GB / s.

Takie wysokie wskaźniki przełączania stały się możliwe zarówno ze względu na opracowanie technologii, jak i niekonwencjonalne podejście do kapsułek danych w pakietach. ATM używa pakietów (w terminologii ATM - komórki, komórki) małego i stałego rozmiaru - 53 bajtów, z których 5 bajtów są odprowadzane w ramach oficjalnych informacji i 48 - pod danymi. Zastosowanie pakietów o stałej długości może znacznie uprościć algorytmy buforujące w sprzęcie sieciowym i używać stałych buforów wielkości. Uproszczenie tych samych algorytmów buforujących pozwala im na wdrożenie ich sprzętu, podnosząc produktywność.

Należy zauważyć, że chociaż pakiety o stałej długości są wygodne, co pozwala osiągnąć wysoką szybkość transmisji, ale protokoły, które istnieją dzisiaj, zarówno wysokiego poziomu - TCP / IP, jak i niski, na przykład, Ethernet, stosować pakiety o zmiennej długości . Dlatego połączenie z istniejącymi sieciami ATM wymaga, aby odpowiednie urządzenia - bryczesy i rumerowi zapewniły partycję i montaż pakietów. W ten sposób muszą przybierać znaczącą część obciążenia, umożliwiając skuteczne działanie przełącznika ATM. Inną konsekwencją wykorzystania małych pakietów o stałym rozmiarze są małe i dobrze przewidywalne opóźnienia pakietów w sieci. Jest to dokładnie wymóg przedstawiony do aplikacji sieciowych aplikacji za pomocą informacji, audio lub wideo. ATM - w rzeczywistości pierwsza sieć, która może w pełni zapewnić wsparcie dla aplikacji za pomocą multimediów.

Ponadto, ATM jest w stanie zastąpić liczne sieci komunikacyjne w przyszłości, obecnie istniejące. Posiadanie ogromnej przepustowości i doskonała do przekazywania heterogenicznych informacji (audio, wideo, faks, dane itp.), ATM jest w stanie połączyć zarówno istniejące sieci telefoniczne, jak i z wyniku konstrukcji komunikacyjnych do telekonferencji i wiele innych.

Oprócz rozwiązywania najbardziej ostry problem niewystarczającej przepustowości nowoczesnych sieci, ATM również zapewnia środki uproszczenie innego zadania - rekonfiguracja sieci. W nowoczesnych sieciach, logiczne i fizyczne struktury są ściśle powiązane. Zmiana struktury fizycznej - na przykład, przenoszenie części Departamentu do nowego miejsca - wiąże się z zmianą i strukturą logiczną: tworzenie nowych podsieci, ponowne przypisanie adresów sieciowych, rekonfiguracji rumerów, określenie nowych praw dostępu itp. W jednej formie, problemy te są charakterystyczne dla wszystkich nowoczesnych sieci lokalnych.

ATM definiuje tak zwane połączenia wirtualne - połączenia logiczne między podłączonymi sieciami ATM. Dwie lub więcej sieci podłączonych do ATM przez most (rys. 8) tworzą logicznie jedną sieć, nie zauważając obecności przełącznika między nimi.

W ten sposób struktura logiczna sieci jest niezależna od położenia geograficznego składników jego części. Administrator sieci ma możliwość tworzenia sieci logicznych, praktycznie nie ograniczający się do prawdziwego fizycznego układu składników ich elementów.

Według ekspertów po raz pierwszy instalacji bankomatu zostanie przeprowadzone w ramach lokalnych sieci, co do zasady, jako kręgosłupa, w której ATM zastąpi FDDi i "FAT" Ethernet, chociaż nie ma przeszkód i podłączenia oddzielnych komputer i do korzystania z bankomatu jako globalnej sieci. W przyszłości ATM obiecuje całkowicie wymazać twarz, dzieląc dzisiaj sieci lokalne i globalne.

Dzwon.

Są ci, którzy przeczytali tę wiadomość przed tobą.
Subskrybuj odbieranie artykułów świeżych.
E-mail
Nazwa
Nazwisko
Jak chcesz przeczytać dzwonek
Bez spamu