DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chcesz czytać dzwonek?
Bez spamu

Z PIE Wiki

Nowoczesne technologie sieciowe przyczyniły się do nowej rewolucji technicznej. W Stanach Zjednoczonych tworzenie jednej sieci komputerów ma takie samo znaczenie, jak budowa dróg ekspresowych w latach sześćdziesiątych. Dlatego sieć komputerowa nazywana jest „autostradą informacyjną”. Aby podkreślić korzyści, jakie sieć przyniesie wszystkim użytkownikom, Microsoft mówi o informacjach „na wyciągnięcie ręki”.

SZYBKIE KANAŁY DANYCH

Do przesyłania informacji można używać szybkich kanałów X.25 i ISDN. ISDN (Integrated Services Digital Network) umożliwia przedstawicielom: różne kraje organizować wideokonferencje i omawiać interesujące ich tematy bez kosztownych podróży. Do realizacji zdalny dostęp komputery podłączają cyfrowe karty i mosty, a najwolniejsza karta ISDN jest wielokrotnie szybsza niż modem. Opracowano specjalne oprogramowanie umożliwiające współpracę systemu Windows 95 i jego przeglądarki internetowej z ISDN. Można go znaleźć i pobrać bezpłatnie z serwera WWW pod adresem http://www.microsoft.com. Obecnie Rosja buduje ogólnopolską sieć cyfrową z dostępem do zagranicy, która będzie mogła świadczyć usługi komunikacji ISDN i zapewniać zdalny dostęp użytkownikom końcowym do lokalnych sieci ich przedsiębiorstw oraz wchodzić w interakcję z sieciami komputerowymi, w tym z Internetem z prędkością z 64 - 128 Kbit / z. Niestety, wdrożenie ISDN napotyka wiele trudności, ponieważ wymagany jest drogi sprzęt i konieczne jest ułożenie specjalnych linii.

SIECI LOKALNE

Komputer podłączony do sieci nazywany jest Stacją Roboczą, komputer udostępniający swoje zasoby jest serwerem, komputer mający dostęp do współdzielonych zasobów jest klientem. Kilka komputerów znajdujących się w tym samym pomieszczeniu lub funkcjonalnie wykonujących ten sam rodzaj pracy: księgowość lub planowanie, rejestracja przychodzących produktów itp., jest ze sobą połączonych i połączonych w grupę roboczą, dzięki czemu mogą współdzielić różne zasoby: programy, dokumenty , drukarki, faksy itp. Grupa robocza jest zorganizowana tak, aby komputery w niej zawarte zawierały wszystkie zasoby niezbędne do: normalna praca... Z reguły grupa robocza składająca się z ponad 10-15 komputerów zawiera dedykowany serwer — wystarczająco wydajny komputer, który zawiera wszystkie współdzielone katalogi i specjalne oprogramowanie do kontroli dostępu do całej sieci lub jej części. Grupy serwerów są łączone w domeny. Użytkownik domeny może zarejestrować się w sieci na dowolnej stacji roboczej w tej domenie i uzyskać dostęp do wszystkich jej zasobów. Zazwyczaj w sieciach serwerów wszystkie udostępnione drukarki są podłączone do serwerów wydruku. Z punktu widzenia organizacji interakcji komputerów sieci dzielą się na peer-to-peer (Peer-to-Peer Network) oraz z dedykowanym serwerem (Dedicated Server Network). W sieci peer-to-peer każdy komputer odgrywa równą rolę. Jednak wzrost liczby komputerów w sieci oraz wzrost ilości przesyłanych danych powoduje, że przepustowość sieci staje się wąskim gardłem. Windows 95 jest przeznaczony przede wszystkim do pracy w sieciach równorzędnych, aby wspierać działanie komputera jako klienta innych sieci. Windows 95, podobnie jak Windows for Workgroups, może działać jako serwer w sieci. Zapewniona jest kompatybilność ze starymi sterownikami sieciowymi MS-DOS i Windows Z.x. Nowy system operacyjny umożliwia: udostępnianie dyski twarde, drukarki, tablice faksowe, organizować sieci lokalne typu peer-to-peer (LAN); korzystaj ze zdalnego dostępu i zamień komputer biurowy w serwer z możliwością połączenia; obsługuje 16-bitowe sterowniki sieciowe DOS. Administrator sieci może zdefiniować ogólny projekt systemu pulpitu, określić, jakie operacje są dostępne dla użytkowników sieci oraz kontrolować konfigurację systemu pulpitu. Sieć zlokalizowana na stosunkowo niewielkim obszarze nazywana jest siecią lokalną (LAN). W ostatnich latach nastąpił wzrost złożoności struktury sieci LAN ze względu na tworzenie heterogenicznych sieci, które łączą różne platformy komputerowe. Możliwość prowadzenia wideokonferencji i korzystania z multimediów zwiększa wymagania programowe sieci. Nowoczesne serwery mogą przechowywać duże obiekty binarne (BLOB) zawierające pliki tekstowe, graficzne, audio i wideo. W szczególności, jeśli potrzebujesz uzyskać bazę danych działu HR przez sieć, to technologia BLOB pozwoli Ci przenieść nie tylko dane osobowe: nazwisko, imię, patronimik, rok urodzenia, ale także portrety w formie cyfrowej . Dwie technologie serwerowe Istnieją dwie technologie serwerowe: technologia serwera plików i architektura klient/serwer. Pierwszy model wykorzystuje serwer plików, na którym znajduje się większość programów i danych. Na żądanie użytkownika przesyłany jest mu niezbędny program i dane. Przetwarzanie informacji odbywa się na stanowisku pracy. W systemach o architekturze klient-serwer wymiana danych odbywa się pomiędzy aplikacją kliencką (front-end) a aplikacją serwerową (back-end). Przechowywanie i przetwarzanie danych odbywa się w potężny serwer, który kontroluje również dostęp do zasobów i danych. Stacja robocza otrzymuje tylko wyniki zapytania. Twórcy aplikacji przetwarzających informacje zazwyczaj korzystają z tej technologii. Wykorzystanie dużych i złożonych aplikacji doprowadziło do rozwoju wielowarstwowej, przede wszystkim trójwarstwowej architektury z umieszczaniem danych na oddzielnym serwerze bazy danych (DB). Wszystkie wywołania do bazy danych przechodzą przez serwer aplikacji, gdzie są łączone. Zmniejszenie liczby wywołań bazy danych zmniejsza opłaty licencyjne za DBMS. Interfejs zarządzania pulpitem (DMI) Microsoft, IBM, Novell, DEC, HP, Sun i Synoptics opracowali standard DMI (Desktop Management Interface - interfejs bezpośredniej interakcji). Standard przewiduje możliwość zdalnej aktualizacji programów napisanych w ROM-ach, zarządzania grupami i klientami indywidualnymi. Wprowadzenie standardu obniży koszty funkcjonowania sieci lokalnych poprzez redukcję personelu i zwiększenie efektywności jego pracy.

SIECI GLOBALNE

Sieć lokalna może być częścią globalnej sieci, która zyskuje coraz większą akceptację na całym świecie. Rozwój mediów i komunikacji przyczynia się do jednoczenia ludzi żyjących na różnych kontynentach, zgodnie z ich zainteresowaniami. Obecnie kraje uprzemysłowione przywiązują dużą wagę do tworzenia ujednoliconego środowiska informacyjnego. Stworzenie autostrady informacyjnej ułatwi w przyszłości komunikację między ludźmi, którzy mają wspólne zainteresowania, ale znajdują się w różnych częściach świata. Prototypem takiej autostrady jest Internet, który obsługuje miliony użytkowników na całym świecie.

TECHNOLOGIE WYKORZYSTYWANE W INTERNECIE I INTRANECIE

Obecnie jednym z priorytetowych obszarów pracy firm dostarczających oprogramowanie jest integracja sieci lokalnej przedsiębiorstwa Intranet (Intranet), w którym odbywa się główna praca firmy, z siecią globalną, tak aby pracownicy tego przedsiębiorstwa mogli łatwo tworzyć swoje dokumenty w formacie HTML (HyperText Markup Language) i łączyć się z innymi dokumentami. Organizacja wirtualnych sieci korporacyjnych w oparciu o Internet pozwala na łączenie ze sobą wszystkich oddziałów dostawców i klientów, bez tworzenia własnej infrastruktury sieciowej. Integracja intranetu korporacyjnego z siecią globalną opiera się na wykorzystaniu tego samego rodzaju metod przechowywania i prezentacji informacji. System plików komputera jest zbudowany na zasadzie hierarchicznej, zapewniając strukturę przechowywania danych podobną do drzewa. Internetowe serwery WWW posiadają schemat prezentacji hipertekstowej, który umożliwia tworzenie w dokumentach odnośników do innych dokumentów zawierających objaśnienia różnych terminów, ilustracji, plików audio i wideo. Standard konstruowania takich dokumentów określa HTML. Powstaje oprogramowanie dla technologii zamiany tekstu na mowę - tłumaczenia tekstu na wiadomość głosową. W ostatnich latach firma Microsoft wprowadziła szereg nowych rozwiązań technicznych zapewniających użytkownikom wygodę korzystania z Internetu. Firma Microsoft współpracuje z firmą Intel nad opracowaniem nowego protokołu, który usprawnia sposób przesyłania informacji audio i wideo przez Internet. Protokół oparty na specyfikacjach ITL) i Internet Engineering Task Force (IETF) będzie zawierał następujące protokoły: T.120 do konferencji dokumentów, H.323 do konferencji audio i wideo, RTP / RTCP i RSVP do sterowania telekonferencją internetową. Należy zauważyć, że wiele firm telekomunikacyjnych z grupy Bell (RBOC) złożyło w Federalnej Komisji Telekomunikacyjnej (FCC) protest przeciwko stosowaniu technologii audio w Internecie.

Wartość Internetu.

Przyjęło się, że w dziedzinie technologii informatycznych proces innowacji odbywa się w niespotykanym dotąd tempie. „Gdyby od 1971 r. przemysł motoryzacyjny rozwijał się tak szybko, jak technologia mikroprocesorowa, to dzisiejsze auto gnałoby już z prędkością 480 tys. km/h i zużywało 1 litr paliwa na 335 tys. km przebiegu” – tak w przenośni porównał tempo postępu naukowego i technologicznego w dwóch wiodących branżach w Stanach Zjednoczonych specjaliści z Intela, światowego lidera w dziedzinie mikroelektroniki. Aby uzupełnić obraz, można dodać, że ten samochód kosztowałby tylko 75 centów! Na tym tle wyraźnie wyróżnia się tempo, w jakim w ciągu ostatnich trzech lat tworzyła się transnarodowa sieć internetowa. Wyspecjalizowane publikacje nazwały ją już „Siecią Sieci”, a popularny magazyn biznesowy „Business Week” określił najbliższą przyszłość jako „erę Internetu”. Internet otwiera nowy sposób komunikacji międzyludzkiej, który można nazwać horyzontalnym. Przed jego pojawieniem się odbywała się komunikacja i rozpowszechnianie informacji. Zasadniczo wertykalna: autor pisze książkę – czytelnicy ją czytają. Radio i telewizja coś nadają - widzowie i słuchacze słuchają i oglądają. Gazeta drukuje wiadomości - czytają je prenumeratorzy. Nie było prawie żadnego sprzężenia zwrotnego, chociaż zapotrzebowanie na nie było bardzo duże. Świadczą o tym listy do gazet, wnioski i odpowiedzi w stacjach radiowych i telewizyjnych itp. Wymiana informacji między samymi czytelnikami danej książki, słuchaczami konkretnego programu była praktycznie niemożliwa. Internet umożliwia rozpowszechnianie informacji niemal nieograniczonemu kręgowi konsumentów, którzy mogą łatwo włączyć się w dyskusję. Internet daje również wyjątkowe możliwości pionowej komunikacji informacyjnej: między władzą a obywatelami, w celu uzyskania informacji zwrotnej od tych ostatnich do tych pierwszych. Nie stoi żadna organizacja stojąca za powszechnym wprowadzeniem Internetu do naszego życia, World Wide Web jako zjawisko rozwija się niezależnie, cała ludzkość jest motorem Internetu. Główną ideą Internetu jest swobodny przepływ informacji i nawiązywanie połączeń między ludźmi. To najskuteczniejszy sposób na pokonanie barier rasowych, religijnych i ideologicznych między ludźmi, krajami, narodami. Internet jest jednym z najważniejszych demokratycznych postępów w technologii. Wraz z pojawieniem się informacja staje się potencjalną własnością większości mieszkańców świata. Cała globalna komunikacja związana z telegrafią, telefonem, radiem, telewizją i technologią komputerową jest obecnie integrowana w jedną całość - Internet. To jest o mechanizmie rozpowszechniania informacji, jednoczeniu ludzi i ich interakcji bez względu na odległość, czas, stan i wiele innych granic.

Historia Internetu w Rosji

Historia rosyjskiego Internetu sięga wczesnych lat 80-tych, kiedy Instytut Kurczatowa jako pierwszy w naszym kraju uzyskał dostęp do światowych sieci. Internet w Rosji, podobnie jak w innych częściach świata, coraz bardziej staje się elementem życia społeczeństwa, oczywiście coraz bardziej upodabniając się do tego społeczeństwa. Teraz do Internetu można się dostać z 300-400 tysięcy komputerów w Rosji i WNP, a ich liczba stale rośnie. W sprzyjających warunkach rosyjska publiczność może okazać się znacznie większa, np. niemiecka. Większość rodzajów usług internetowych jest już reprezentowana w Rosji. Niektóre (na przykład serwisy informacyjne) zostały już opanowane i są prawie tak dobre, jak amerykańskie. Najbardziej utytułowane serwery WWW w Rosji mają już kilkaset tysięcy stałych czytelników. Nie jest to złe w porównaniu np. z prasą biznesową. A jeśli porównamy jakościowe wskaźniki widowni internetowej i widowni telewizyjnej, w wielu przypadkach można preferować te pierwsze. Rosyjska publiczność internetowa, poza ilością i bezwzględnym poziomem dochodów, jest praktycznie taka sama pod względem innych parametrów jak amerykańska. Typowi użytkownicy serwisów internetowych należą do aktywnej społecznie i gospodarczo części społeczeństwa, są skłonni do poszukiwania nowych możliwości rozwoju osobistego i biznesowego i generalnie mają pozytywne nastawienie do reform przeprowadzanych w Rosji. W swoim rozwoju rosyjski Internet ogólnie powtarza etapy rozwoju światowej sieci. W ciągu ostatnich dwóch lat zrobiliśmy skok do prawie 2500 nowych serwerów. Przejdź do Yahoo, jednego z najpopularniejszych katalogów w Internecie. W sekcji regiony (kraje) naprzeciw każdej pozycji znajduje się liczba - jest to liczba linków. A zobaczysz, jak wygląda sekcja rosyjska. Tempo wzrostu jest zbliżone do najlepszych wskaźników na świecie, choć w pewnym stopniu ograniczają go problemy komunikacyjne i stosunkowo wysokie koszty grafiki w krajowych sieciach internetowych. Jeśli mówimy o poziomie wypełnienia informacyjnego rosyjskiego Internetu, to oczywiście może on być znacznie wyższy. Internet jest wizytówką kraju. Rosyjski Internet powinien jednoczyć wszystkich rosyjskojęzycznych użytkowników, być kustoszem i propagatorem naszej kultury i naszego języka. Niezbędna jest poprawa komfortu przestrzeni informacyjnej, w której żyjemy, jednego ze składników ogólnego poziomu życia człowieka. Główne problemy rosyjskich użytkowników to przede wszystkim: brak jednego standardu (który najwyraźniej nigdy nie będzie istniał, dopóki Rosja nie stanie się wiodącą światową potęgą w dziedzinie technologii komputerowych) dla kodowania znaków cyrylicy, co prowadzi do niekompatybilności programów. W rezultacie ci, którzy rozpowszechniają informacje tekstowe w języku rosyjskim w Internecie, muszą przesyłać je w kilku kodowaniach, zwykle trzech lub czterech, dla głównych systemów operacyjnych: MS Windows, UNIX (KOI-8, OS / 2, MacOS), co oznacza wzrost kosztów pracy przy przygotowywaniu dokumentów. W przeciwnym razie użytkownik, nawet mając dostęp do informacji, nie będzie mógł z nich skorzystać. B. brak rozwiniętych systemów telekomunikacyjnych w Rosji i niska jakość usług telekomunikacyjnych. Koszt dostępu do Internetu przez dial-up linie telefoniczne przy prędkości 14400-28800 bps w Moskwie średnia wynosi 3-5 USD za godzinę. W USA - 1 USD za godzinę lub mniej (przy nieporównywalnej jakości). Szybkie i wysokiej jakości połączenie, które pozwoli rosyjskiemu użytkownikowi w pełni wykorzystać potencjał Internetu, będzie kosztować dziesiątki, a czasem setki razy więcej niż jego amerykański odpowiednik.

Działanie aplikacji w Internecie

Aplikacje działające w Internecie są oparte na technologii Java, która obejmuje język programowania Java, wirtualną maszynę Java i przeglądarki internetowe, które działają Aplikacje Java... Język Java najlepiej nadaje się do pracy ze stronami HTML. Pozwala nie ograniczać się do prostego przeglądania stron WWW, ale umożliwia zorganizowanie interakcji interaktywnych programów z użytkownikiem. Rozszerzenie technologii Java, Java DataBase Connectivity (JDBC), dla intranetów, umożliwia aplikacji Java bezpośredni dostęp do serwera, który może znajdować się w sieci lokalnej. Opracowano koncepcję Cascade Style Sheets (CSS), która definiuje style używane przy tworzeniu stron HTML, ich części i poszczególnych elementów. Można go znaleźć pod adresem http // www.w3org / pub / WWW / TR / WD-style. Technologia ActiveX ActiveX to kolejny krok w ewolucji OLE, przeznaczony do tworzenia interaktywnych aplikacji dla Internetu i intranetów. Obsługuje aplikacje na Język Java i komponenty OLE. ActiveX jest oparty na modelu COM (Component Object Model) i umożliwia administratorom stron używanie efektów dźwiękowych i wideo podczas dokumentowania dokumentów. Formanty ActiveX zapewniają aplikacjom systemu Windows funkcjonalność opartą na sieci Web. Distributed Component Object Model (DCOM) umożliwia deweloperom tworzenie składników aplikacji, które komunikują się ze sobą przez Internet. Wtyczka ActiveX jest używana w przeglądarce Internet Explorer 3.0. Kodowanie znaków w Internecie Do kodowania znaków cyrylicy w Internecie stosuje się głównie cztery rodzaje kodowania: KOI8 (KOI8) - używane głównie na komputerach z systemem UNIX OS, ale nieobsługiwane przez Windows. Aby rozwiązać ten problem, zaleca się zainstalowanie dodatkowych czcionek KOI i specjalnych sterowników klawiatury, takich jak Cyrwin. CP-1251 - używany przez Microsoft w systemie Windows, szeroko stosowany na komputerach PC kompatybilnych z IBM. CP-866 - używany głównie na komputerach z systemem MS-DOS. ISO-8859-5 — dotyczy systemów zgodnych z systemem UNIX. Na większości serwerów używane są dwa pierwsze kodowania. Problem obsługi cyrylicy w Internecie tłumaczy się tym, że kody rosyjskich liter w systemach operacyjnych UNIX i Windows nie pasują do siebie. Trudności pojawiające się podczas kodowania w KOI8 są szczegółowo omówione na stronie WWW pod adresem: http://www.nagural.ru/~ache/koi8.html.

E-MAIL

Połączenie komputerów w sieć umożliwiło zorganizowanie przepływu pracy w nowy sposób zarówno w małych firmach, jak iw dużych organizacjach. Nie ma już potrzeby drukowania na papierze dokumentów, nad którymi pracuje zespół użytkowników. Za pomocą odpowiedniego oprogramowania zespół użytkowników może wspólnie tworzyć dokumenty, prezentacje i bazy danych oraz wysyłać je pocztą elektroniczną do innych uczestników projektu, którzy mogą pracować w tym samym budynku lub w innym mieście, w celu uzupełnienia i edycji. Mailing sekwencyjny pozwala określić kolejność przekazywania wiadomości pomiędzy uczestnikami projektu po jej dodaniu i edycji. Ta metoda Praca zespołowa na dokumencie oszczędza znaczną część czasu pracy, ponieważ nie musisz spędzać czasu na osobistych spotkaniach do wspólnej pracy. Nie sposób wyobrazić sobie nowoczesnego przedsiębiorstwa bez udostępniania danych i zaawansowanych środków gwarantowanej ochrony informacji. Protokoły używane przez pocztę e-mail Najpopularniejsze protokoły używane w Internecie do odbierania wiadomości e-mail to proste Przesyłka pocztowa Protokół, SMPT i Post Office Protocol, POP. WSPARCIE DLA SIECIOWYCH SYSTEMÓW OPERACYJNYCH Microsoft dokłada wszelkich starań, aby Windows był najbardziej odpowiednią platformą dla telekomunikacji i dostępu do Internetu. Windows 95 zawiera dużą liczbę sterowników karty sieciowe oraz narzędzia do zarządzania siecią. Zunifikowany interfejs użytkownika jest praktycznie niezależny od typu obsługiwanej sieci. Pracować z różne sieci konieczne jest, aby system operacyjny wspierał ich protokoły, tj. zbiór reguł (języka komunikacji między komputerami) wykorzystywanych w przekazywaniu informacji. Protokół sieciowy definiuje metody routingu, metody adresowania itp. Windows 95 ma wbudowaną obsługę popularnych sieciowych systemów operacyjnych: Windows NT Advanced Server firmy Microsoft, Novell NetWare, LAN Manager, LAN Manager dla UNIX, LANServer firmy IBM, 3 + Open i 3 + Share firmy 3Com, VINES firmy Banyan, Pathworks z Digital System operacyjny umożliwia pracę w sieci heterogenicznej i zapewnia obsługę znacznej części popularnych 32-bitowych protokołów sieciowych: TCP/IP, IPX/SPX oraz NetBEUI i ND1S 2.x, Zx lub sterowniki ODI. Protokół IP (Transmission Control Protocol / Internet Protocol) jest używany podczas pracy z sieciami globalnymi, takimi jak Internet oraz w sieciach Microsoft.Protokół IPX umożliwia łączenie się z serwerami plików NetWare.Windows 95 obejmuje obsługę różnych typów protokołów sieciowych: PPP (Protokół Point-to-Point), Serial Line Internet Protocol, NRN (NetWare Remote Node) i nowe protokół sieciowy Protokół PPTP (Point-to-Point Tunneling Protocol), opracowany przez firmę Microsoft we współpracy z firmą 3Com. Protokół umożliwia tworzenie wirtualnych sieci prywatnych (VPN) przez linie telefoniczne i wysyłanie bezpiecznych pakietów sieciowych przez Internet. PPTP jest używany podczas organizowania „tunelu” podczas komunikacji między zdalnymi użytkownikami a ich sieciami firmowymi przez Internet. Nie ma potrzeby, aby przedsiębiorstwa dzieliły się własną globalną infrastrukturą sieciową, aby uniknąć wycieku informacji. Bezpieczeństwo informacji gwarantują sprawdzone i sprawdzone narzędzia uwierzytelniania i szyfrowania wbudowane w usługę zdalnego dostępu systemu Windows NT. Wadą systemu Windows 95 jest to, że serwer przełączników z tym systemem operacyjnym nawiązuje jednorazowo tylko jedno połączenie. Aby zapewnić więcej wysoka wydajność i elastyczność jako serwer dostępu zdalnego, zaleca się korzystanie z systemu Windows NT, który zapewnia do 256 jednoczesnych połączeń i routingu równoległego.

W rozwoju technologii sieciowych można wyróżnić trzy główne trendy: wzrost liczby podłączonych klientów mobilnych, usprawnienie istniejących i pojawienie się nowych usług internetowych oraz wzrost udziału ruchu wideo online.

„Amerykanie potrzebują telefonu, a my nie. Mamy wielu posłańców.” Sir W. Preece, główny inżynier brytyjskiej poczty, 1878.

„Kto, do diabła, chce słuchać rozmów aktorów?” G.M. Warner, Warner Bros., 1927.

„Myślę, że globalny rynek może osiągnąć pięć komputerów”. Thomas Watson, dyrektor naczelny IBM, 1943.

„Telewizja nie będzie w stanie spędzić nawet pierwszych sześciu miesięcy na żadnym przejętym rynku. Ludzie wkrótce zmęczą się oglądaniem każdego wieczoru pudła ze sklejki”. Darryl Zanuck, 20th Century Fox, 1946.

W pierwszej dekadzie XXI wieku Internet „zmienił swój status” z globalnej sieci komputerowej na „globalną przestrzeń informacyjna”, Pokazując się zarówno w sferze społecznej, jak i gospodarczej i rozwijając się. Możliwość dostępu do Sieci nie tylko z komputera, ale także z innych urządzeń, rosnąca popularność internetowych wersji usług telekomunikacyjnych tradycyjnie off-line (telefonia, radio, telewizja), unikalne usługi online – wszystko to przyczynia się do dalszego wzrostu liczby internautów iw efekcie zwiększony ruch. Cisco przewiduje, że globalny ruch przekroczy 50 eksabajtów do 2015 r. (wzrost z 22 eksabajtów w 2010 r.). Wideo online przejmie lwią część generowania ruchu, którego wielkość w 2011 roku po raz pierwszy przekroczyła łączny ruch innych typów (głos + dane). Do 2015 r. ruch wideo przekroczy 30 eksabajtów (wzrost z 14-15 eksabajtów w 2010 r.). Internet pozostanie głównym sposobem dostępu do treści, a udział ruchu z urządzeń mobilnych bezpośrednio podłączonych do tej sieci będzie wzrastał. Głośność ruchu głosowego nieznacznie wzrośnie, gdy zastąpić "telefon" komunikacja głosowa trwa komunikacja wideo przez telefon.

Dostęp do zasobów

Przewidywany wzrost aktywność sieciowa może wpłynąć na przyspieszone przejście firm telekomunikacyjnych z istniejącej infrastruktury sieciowej do realizacji koncepcji sieć wielousługowa ().

Ryż. 1. Koncepcja sieci wielousługowej

Sieć wielousługowa to środowisko sieciowe zdolne do przesyłania strumieni audio, wideo i danych w zunifikowanym (cyfrowym) formacie za pomocą jednego protokołu (warstwa sieciowa: IP v6). Przełączanie pakietów, stosowane zamiast przełączania obwodów, sprawia, że ​​sieć wielousługowa jest zawsze gotowa do użycia. Protokoły rezerwacji przepustowości, priorytetów transmisji i jakości usług (QoS) różnicują usługi świadczone dla różnych typów ruchu. Zapewnia to przejrzystą i spójną łączność sieciową oraz dostęp do zasobów i usług sieciowych zarówno dla istniejących urządzeń klienckich, jak i tych, które pojawią się w najbliższej przyszłości. Dostęp przewodowy w sieci wielousługowej stanie się jeszcze szybszy, a dostęp mobilny jeszcze tańszy.

Radio internetowe

Streamingowe radio internetowe pojawiło się pod koniec lat 90. XX wieku. i szybko zyskał popularność. Wiodące stacje radiowe zapewniły użytkownikom możliwość słuchania programów na antenie przez przeglądarkę. Wraz ze wzrostem liczby sieciowych stacji radiowych twórcy zewnętrzni zaczęli oferować użytkownikom wyspecjalizowane aplikacje klienckie - radioodtwarzacze internetowe.

Przykładem radia internetowego jest Radiocent. Oprócz głównej funkcji, radia internetowego, odtwarzacz ten oferuje następujące funkcje: dostęp do dziesiątek tysięcy (!) internetowych stacji radiowych; elastyczne zarządzanie listą odtwarzania; wyszukiwanie muzyki i radia online według kraju i gatunku; możliwość nagrywania z powietrza w formacie mp3. Wersję Radiocent dla systemu Windows można pobrać bezpłatnie z oficjalnej strony internetowej.


Interfejs programu Radiocent

Usługi

Komunikacja wideo stanie się główną formą komunikacji abonenckiej, a telewizja ulegnie transformacji, w wyniku której nastąpi faktyczne połączenie telewizora i komputera osobistego. Telewizory z wbudowaną przeglądarką są już na rynku, a za 3-5 lat, nawet w Rosji, dostawcy zaprezentują niezdigitalizowane telewizja naziemna, ale prawdziwy cyfrowy (interaktywność + HDTV).

Zwiększy się udział internetowych usług multimedialnych, filmy i muzyka online staną się bardziej dostępne i lepszej jakości.

Rynek oprogramowania przesunie się w kierunku aplikacji na urządzenia mobilne, takie jak smartfony i tablety. Najpopularniejszymi będą serwisy internetowe zastępujące tradycyjne aplikacje offline. Możliwa będzie praca z pakietami sieciowymi stosowanych programów przez Internet w modelu „oprogramowanie jako usługa”. Tylko 20% -25% oprogramowania zostanie opracowane na PC.

Rozwój handlu internetowego doprowadzi do wzrostu liczby towarów i usług, które można zamawiać na rynkach sieciowych. Zwykłe zakupy mogą być zupełnie inne: nie musisz iść do sklepu spożywczego. Wystarczy wejść ze smartfona na stronę supermarketu i złożyć zamówienie na potrzebne produkty, opłacić je od razu ze smartfona i poczekać na dostawę.

Rozwój bankowości internetowej doprowadzi do pojawienia się aplikacji klient-bank na smartfony. Wielkość transakcji finansowych w takiej aplikacji będzie realizowana biometrycznie lub za pomocą dotykowych „gestów” na ekranie dotykowym.

Usługi " Wirtualna rzeczywistość„Pozwoli Ci zobaczyć” się w samochodzie modelu, który Ci się podoba lub „przymierzyć” ubrania określonego typu w danych warunkach.

Stały adres tej strony to:

Technologia sieci to uzgodniony zestaw standardowych protokołów oraz oprogramowania i sprzętu, który je implementuje (na przykład karty sieciowe, sterowniki, kable i złącza), wystarczający do zbudowania sieci komputerowej. Epitet „wystarczający” podkreśla fakt, że ten zestaw jest minimalnym zestawem narzędzi, za pomocą którego można zbudować działającą sieć. Być może tę sieć można ulepszyć, na przykład, przydzielając w niej podsieci, co od razu będzie wymagało, oprócz standardowych protokołów Ethernet, zastosowania protokołu IP, a także specjalnych urządzeń komunikacyjnych - routerów. Ulepszona sieć będzie najprawdopodobniej bardziej niezawodna i szybsza, ale kosztem dodatków do technologii Ethernet, która stanowiła podstawę sieci.

Termin „technologia sieciowa” jest najczęściej używany w wąskim znaczeniu opisanym powyżej, ale czasami jego rozszerzoną interpretację stosuje się również jako dowolny zestaw narzędzi i reguł budowania sieci, na przykład „technologia routingu end-to-end”, „technologia tworzenia bezpiecznego kanału”, „technologia IP. sieci”.

Protokoły, na podstawie których budowana jest sieć określonej technologii (w wąskim znaczeniu) zostały opracowane specjalnie do współpracy, dlatego nie jest wymagany dodatkowy wysiłek ze strony dewelopera sieci, aby zorganizować ich interakcję. Czasami nazywa się technologie sieciowe podstawowe technologie, pamiętając, że na ich podstawie budowana jest podstawa każdej sieci. Przykłady podstawowych technologii sieciowych obejmują, obok Ethernetu, takie dobrze znane technologie sieci lokalnych, jak: Pierścień żetonowy oraz technologie FDDI lub X.25 i Frame Relay LAN. Aby w tym przypadku uzyskać sprawną sieć, wystarczy zakupić oprogramowanie i sprzęt związany z jedną podstawową technologią - karty sieciowe ze sterownikami, koncentratorami, przełącznikami, okablowaniem itp. - i podłączyć je zgodnie z wymaganiami normy dla ta technologia.

Tworzenie standardowych technologii sieci lokalnych

W połowie lat 80. sytuacja w sieciach lokalnych zaczęła się dramatycznie zmieniać. Zatwierdzono standardowe technologie łączenia komputerów w sieć - Ethernet, Arcnet, Token Ring. Komputery osobiste stanowiły silną zachętę do ich rozwoju. Te masowo produkowane produkty były idealnymi elementami do budowy sieci - z jednej strony były wystarczająco wydajne, aby uruchamiać oprogramowanie sieciowe, a z drugiej wyraźnie musiały połączyć moc obliczeniową do rozwiązywania złożonych problemów, a także oddzielne drogie peryferia i macierze dyskowe. Dlatego komputery osobiste zaczęły dominować w sieciach lokalnych, nie tylko jako komputery klienckie, ale także jako centra przechowywania i przetwarzania danych, czyli serwery sieciowe, wypierając minikomputery i mainframe'y z tych zwykłych ról.

Standardowe technologie sieciowe zmieniły proces budowania sieci lokalnej ze sztuki w obowiązek. Aby stworzyć sieć wystarczyło zakupić adaptery sieciowe odpowiedniego standardu np. Ethernet, standardowy kabel, podłączyć adaptery do kabla standardowymi złączami i zainstalować jeden z popularnych sieciowych systemów operacyjnych np. NetWare , na komputerze. Następnie sieć zaczęła działać, a podłączenie każdego nowego komputera nie powodowało żadnych problemów - oczywiście, jeśli zainstalowano na niej kartę sieciową tej samej technologii.

Sieci LAN, w porównaniu z sieciami WAN, wniosły wiele nowych rzeczy do sposobu pracy użytkowników. Dostęp do współdzielonych zasobów stał się znacznie wygodniejszy – użytkownik mógł po prostu przeglądać listy dostępnych zasobów, a nie zapamiętywać ich identyfikatory czy nazwy. Po połączeniu się ze zdalnym zasobem można było z nim pracować za pomocą poleceń znanych już użytkownikowi podczas pracy z zasobami lokalnymi. Konsekwencją i jednocześnie motorem tego postępu było pojawienie się ogromnej liczby nieprofesjonalnych użytkowników, którzy w ogóle nie musieli uczyć się specjalnych (i raczej skomplikowanych) poleceń do pracy w sieci. A twórcy sieci lokalnych otrzymali możliwość realizacji wszystkich tych udogodnień w wyniku pojawienia się wysokiej jakości kablowych linii komunikacyjnych, na których nawet karty sieciowe pierwszej generacji zapewniały szybkość transmisji danych do 10 Mbit/s.

Oczywiście twórcy globalnych sieci nie mogli nawet marzyć o takich prędkościach - musieli korzystać z dostępnych kanałów komunikacji, ponieważ układanie nowych systemów kablowych dla sieci komputerowych o długości tysięcy kilometrów wymagałoby kolosalnych inwestycji kapitałowych. A „pod ręką” były tylko telefoniczne kanały komunikacji, słabo przystosowane do szybkiej transmisji danych dyskretnych – prędkość 1200 bit/s była dla nich dobrym osiągnięciem. Dlatego też ekonomiczne wykorzystanie przepustowości kanałów komunikacyjnych było często głównym kryterium efektywności metod transmisji danych w sieciach globalnych. W tych warunkach różne procedury przejrzystego dostępu do zdalnych zasobów, standardowe dla sieci lokalnych, dla sieci globalnych, przez długi czas pozostawały nieosiągalnym luksusem.

Nowoczesne tendencje

Obecnie sieci komputerowe nadal ewoluują i to dość szybko. Przepaść między sieciami lokalnymi i globalnymi stale się zmniejsza, w dużej mierze ze względu na pojawianie się szybkich kanałów komunikacji terytorialnej, które nie ustępują jakościowo systemom kablowym sieci lokalnych. W sieciach globalnych pojawiają się usługi dostępu do zasobów, które są równie wygodne i przejrzyste jak usługi sieci lokalnej. Najpopularniejsza globalna sieć, Internet, licznie pokazuje takie przykłady.

Zmieniają się również sieci lokalne. Zamiast pasywnego kabla łączącego komputery pojawiła się w nich duża liczba różnych urządzeń komunikacyjnych - przełączniki, routery, bramy. Dzięki takiemu sprzętowi możliwe stało się budowanie dużych sieci korporacyjnych z tysiącami komputerów i złożoną strukturą. Zainteresowanie dużymi komputerami ożyło, głównie dlatego, że po opadnięciu euforii związanej z łatwością pracy z komputerami osobistymi stało się jasne, że systemy z setkami serwerów są trudniejsze w utrzymaniu niż kilka dużych komputerów. Dlatego w nowej turze ewolucyjnej spirali mainframe'y zaczęły wracać do korporacyjnych systemów obliczeniowych, ale już jako pełnoprawne węzły sieciowe obsługujące Ethernet lub Token Ring, a także stos protokołów TCP/IP, który stał się fakt sieciowy standard dzięki Internetowi.

Pojawił się kolejny bardzo ważny trend, który dotyczy zarówno sieci lokalnych, jak i globalnych. Zaczęli przetwarzać informacje nietypowe dla sieci komputerowych - głos, obrazy wideo, obrazy. Wymagało to zmian w sposobie działania protokołów, sieciowych systemów operacyjnych i sprzętu komunikacyjnego. Złożoność przesyłania takich informacji multimedialnych przez sieć jest związana z jej wrażliwością na opóźnienia w transmisji pakietów danych – opóźnienia zwykle prowadzą do zniekształcenia takiej informacji w węzłach końcowych sieci. Ponieważ tradycyjne usługi sieci komputerowych, takie jak przesyłanie plików lub poczta e-mail, generują ruch wrażliwy na opóźnienia i wszystkie elementy sieci zostały zaprojektowane z myślą o tym, pojawienie się ruchu w czasie rzeczywistym doprowadziło do poważnych problemów.

Dziś problemy te są rozwiązywane na różne sposoby, m.in. za pomocą technologii ATM, zaprojektowanej specjalnie do transmisji różnych rodzajów ruchu. Jednak pomimo znacznych wysiłków w tym kierunku, do akceptowalnego rozwiązania problemu problem, a w tej dziedzinie jest jeszcze wiele do zrobienia, aby osiągnąć upragniony cel - połączenie technologii nie tylko sieci lokalnych i globalnych, ale także technologii dowolnych sieci informacyjnych - komputerowych, telefonicznych, telewizyjnych itp. Choć dziś ten pomysł wydaje się utopią, poważni eksperci uważają, że istnieją przesłanki do takiej syntezy, a ich opinie różnią się jedynie oceną przybliżonych terminów takiej fuzji - nazywa się terminami od 10 do 25 lat. Ponadto uważa się, że podstawą połączenia będzie technologia komutacji pakietów stosowana obecnie w sieciach komputerowych, a nie technologia komutacji łączy stosowana w telefonii, co zapewne powinno zwiększyć zainteresowanie tego typu sieciami.

Internet rzeczy (z angielskiego Internet of Things lub w skrócie IoT) to system urządzeń wokół ciebie, połączonych ze sobą i z Internetem. Dziś branża ta szybko się rozwija w rewolucyjnych skokach. Taki postęp techniczny w ewolucji ludzkości jest porównywalny jedynie z wynalezieniem silnika parowego czy późniejszą industrializacją elektryczności. Do dnia dzisiejszego transformacja cyfrowa całkowicie przekształca różnorodne branże w dziedzinie gospodarki i przekształca nasze znajome środowisko. Jednocześnie, jak to często bywa w takich przypadkach, będąc na początku ścieżki, ostateczny efekt wszelkich przekształceń jest trudny do przewidzenia.

Proces, który już się rozpoczął, najprawdopodobniej nie może być jednolity i na tym etapie niektóre sektory rynku wydają się być bardziej gotowe na zmiany niż inne. Pierwsze branże to elektronika użytkowa, pojazdy, logistyka, sektor finansowy i bankowy; drugi to rolnictwo itp. Chociaż warto zauważyć, że udane projekty pilotażowe zostały opracowane w tym kierunku, które następnie zapowiadają całkiem znaczące rezultaty.

Projekt o nazwie TracoVino to jedna z pierwszych prób wprowadzenia Internetu Rzeczy w słynnej Dolinie Mozeli, która nosi również tytuł najstarszego regionu winiarskiego we współczesnych Niemczech. Rozwiązanie opiera się na platformie w chmurze, która zautomatyzuje wszystkie procesy w winnicy, od uprawy produktu do ostatecznego butelkowania. Informacje niezbędne do podejmowania decyzji trafią do: system elektroniczny z kilku rodzajów czujników. Oprócz określania temperatury, wilgotności gleby i monitorowania środowiska, czujniki będą mogły określić ilość odbieranego promieniowania słonecznego, zakwaszenie ziemi oraz zawartość w niej różnych składników odżywczych. Co to może w końcu dać? Oraz fakt, że firma pozwoli winiarzom nie tylko uzyskać ogólny obraz stanu ich winnicy, ale także przeanalizować niektóre jej obszary. Ostatecznie zapewni to ludziom możliwość wcześniejszej identyfikacji problemów, otrzymania przydatnych informacji o możliwym skażeniu, a nawet prognozy na temat możliwej jakości i całkowitej ilości wina. Winiarze będą mogli zawierać kontrakty terminowe z partnerami biznesowymi.

Jakie inne obszary można powiązać z taką innowacją?

Najbardziej rozwinięte przypadki użycia IoT obejmują oczywiście „inteligentne miasta”. Według przebadanych danych, które uzyskano z różnych firm, takich jak Beecham Research, Pike Research, iSupply Telematics, a także z Departamentu Transportu USA, w chwili obecnej w ramach realizacji tych projektów na całym świecie około miliarda urządzeń technicznych, które odpowiadają za jedną lub więcej innych funkcji w systemach zaopatrzenia w wodę, zarządzaniu transportem miejskim, zdrowiu i bezpieczeństwie publicznym. Należą do nich inteligentne parkingi, które optymalizują wykorzystanie miejsc parkingowych, inteligentne systemy wodociągowe monitorujące jakość wody zużywanej przez mieszkańców miast, inteligentne przystanki autobusowe, które dostarczają szczegółowych informacji o czasie oczekiwania na pożądany transport i wiele innych.

W branży przemysłowej są już setki milionów gotowych do podłączenia urządzeń. Takie systemy obejmują inteligentne systemy konserwacji i napraw, rozliczanie i bezpieczeństwo logistyki, inteligentne pompy, sprężarki i zawory. W energetyce i systemie mieszkaniowym i usług komunalnych od dawna zaangażowanych jest wiele różnych urządzeń - są to liczne liczniki, elementy automatyki sieci dystrybucyjnych, urządzenia na potrzeby konsumentów, infrastruktura ładowania elektrycznego, a także wsparcie techniczne dla OZE i rozproszone źródła zasilania. W dziedzinie medycyny do Internetu Rzeczy pod adresem: ten moment są połączone i będą połączone w przyszłości narzędzia diagnostyczne, laboratoria mobilne, implanty różnych kierunków, urządzenia techniczne dla rozwoju telemedycyny.

Perspektywy liczby podłączonych urządzeń do Internetu w przyszłości

Według różnych obserwacji w niedalekiej przyszłości liczba przyłączy technicznych wzrośnie proporcjonalnie i będzie rosła o 25% każdego roku. Ogólnie rzecz biorąc, do 2021 r. na świecie będzie około 28 miliardów podłączonych gadżetów i urządzeń. Z tej sumy tylko 13 miliardów stanowić będą znane urządzenia konsumenckie, takie jak telefony, tablety, laptopy i komputery. A pozostałe 15 miliardów urządzeń to urządzenia konsumenckie i przemysłowe. Obejmują one różne czujniki, terminale do sprzedaży, samochody, tablice wyników itp.

Pomimo tego, że powyższe dane z najbliższej przyszłości zadziwiają wyobraźnię umysłową, wciąż nie są to liczby ostateczne. Internet Rzeczy będzie wprowadzany za każdym razem coraz aktywniej, a im dalej, tym więcej urządzeń (prostych lub skomplikowanych) będzie trzeba podłączyć. Wraz z postępem ludzkiej technologii, a zwłaszcza pod wpływem uruchomienia innowacyjnych sieci 5G po 2020 roku, łączny wzrost technologii połączonych będzie przebiegał w błyskawicznym tempie i bardzo szybko osiągnie wartość 50 miliardów.


Ogromny charakter połączeń sieciowych, a także liczne przypadki użycia, dyktują nowe wymagania dla technologii IoT w najszerszym zakresie. Szybkość przesyłania informacji, wszelkiego rodzaju opóźnienia, a także niezawodność (gwarancja) transmisji danych są zdeterminowane charakterystyką konkretnej aplikacji. Mimo to istnieje szereg wspólnych celów, które zmuszają nas do oddzielnego przyjrzenia się technologiom sieciowym dla IoT i ich różnicom w stosunku do zwykłych sieci telefonicznych.

Podstawowym problemem jest koszt wdrożenia technologii sieciowej. Rzeczywiście, w finalnym urządzeniu powinno to być znacznie mniej niż obecnie istniejących modułów GSM/WCDMA/LTE, które są wykorzystywane w produkcji telefonów i modemów. Jednym z powodów utrudniających masową adopcję podłączonych urządzeń jest zbyt wysoki komponent finansowy samego chipsetu, który implementuje pełen stos technologii sieciowych, w tym transmisję głosu i wiele innych funkcji, które nie są tak potrzebne w większości dostępnych scenariusze.

Główne wymagania dla nowych systemów

Powiązanym wymogiem, ale sformułowanym jako osobny, są niskie koszty energii i jak najdłużej praca autonomiczna... Duża liczba scenariuszy z zakresu zastosowania Internetu Rzeczy zapewnia autonomiczną pracę podłączonych urządzeń z wbudowanych w nie baterii. Uproszczenie modułów sieciowych i energooszczędny model pozwoli na osiągnięcie autonomicznej pracy, która będzie liczona do 10 lat, przy łącznej pojemności baterii 5 W*h. W szczególności takie liczby można osiągnąć, zmniejszając głośność przesyłane informacje podczas korzystania z długich okresów „ciszy”, podczas których gadżet nie będzie odbierać ani przesyłać informacji. W ten sposób praktycznie zużyje niewielką ilość energii elektrycznej. To prawda, warto zauważyć, że implementacja konkretnych mechanizmów oczywiście różni się w zależności od tego, do jakiej technologii zostanie zastosowana.

Zasięg sieci to kolejna cecha, którą należy dokładnie zbadać i rozważyć. W chwili obecnej zasięg sieci komórkowej o wystarczającym wolumenie zapewnia stabilną transmisję danych do osiedli, w tym również wewnątrz budynków. Ale jednocześnie podłączone urządzenia mogą znajdować się tam, gdzie przez większość czasu nie ma tłumów ludzi. Należą do nich odległe, trudno dostępne obszary, ogromne linie kolejowe, powierzchnia rozległych mórz i oceanów, ziemne piwnice, izolowane betonowe i metalowe skrzynie, szyby wind, żelazne kontenery itp. Celem rozwiązania tego problemu, zdaniem większości osób zajmujących się rynkiem IoT, jest poprawa budżetu linii o 20 dB w stosunku do tradycyjnych sieci GSM, które do dziś są liderami pod względem zasięgu wśród technologii mobilnych.


W przypadku Internetu Rzeczy pojawiają się zwiększone wymagania dotyczące standardów komunikacji

Różne scenariusze wykorzystania Internetu Rzeczy na różnych polach działalności niosą ze sobą zupełnie różne wymagania dotyczące komunikacji. I tu nie chodzi tylko o możliwość szybkiego skalowania sieci pod kątem ilości urządzeń wymagających połączenia. Na przykład widać, że we wspomnianym przykładzie „inteligentnej winnicy” stosuje się dużą liczbę dość prostych czujników, podczas gdy w przedsiębiorstwach przemysłowych będą już połączone raczej złożone jednostki, które wykonują niezależne działania, a nie tylko rejestrują pewne informacje występujące w środowisku. Możemy również wspomnieć o medycznym obszarze zastosowań, w szczególności sprzęcie technicznym dla telemedycyny. Wykorzystanie tych kompleksów, których praca polega na prowadzeniu zdalnej diagnostyki, monitorowaniu skomplikowanych manipulacji medycznych oraz zdalnym szkoleniu z wykorzystaniem treści wideo jako połączenia w czasie rzeczywistym, niewątpliwie będzie stawiać w przyszłości coraz to nowe wymagania w zakresie przerw w sygnale, transmisja informacji, a także niezawodność i bezpieczeństwo komunikacji.

Technologie IoT muszą być niezwykle elastyczne, aby zapewnić różnorodny zestaw cech sieci w zależności od zakresu zastosowania, nadając priorytet dziesiątkom i setkom różnych typów ruch sieciowy oraz właściwą alokację zasobów sieciowych w celu zapewnienia efektywności ekonomicznej. Ogromna ilość podłączonego sprzętu, dziesiątki różnych scenariuszy aplikacyjnych, elastyczne zarządzanie i kontrola – to wszystko, co trzeba wdrożyć w ramach wspólnej sieci.


Długofalowy rozwój i opracowane scenariusze ostatnich lat w dziedzinie bezprzewodowej transmisji informacji zostały już poświęcone obecnemu rozwiązaniu postawionych zadań. Wynika to zarówno z chęci wdrażania istniejących architektur i protokołów sieciowych, jak i tworzenia innowacyjnych rozwiązań systemowych dosłownie od samego początku. Z jednej strony bardzo wyraźnie śledzone są tak zwane „rozwiązania kapilarne”, które stosunkowo dobrze rozwiązują problemy komunikacji IoT w ramach jednego budynku lub terytorium o ograniczonym potencjale. Rozwiązania te obejmują tak popularne dziś sieci, jak Wi-Fi, Bluetooth, Z-Wave, Zigbee i ich inne cyfrowe odpowiedniki.

Z drugiej strony dzisiejsze technologie mobilne są wyraźnie nieszablonowe pod względem zasięgu sieci i skalowalności w dobrze zarządzanej infrastrukturze. Jak podano w raporcie badawczym Ericsson Mobility Report, całkowite pokrycie sieci GSM wynosi obecnie około 90% zaludnionego obszaru planety, sieci WCDMA i LTE pokrywają bezpośrednio 65% i 40% przy aktywnej budowie nowych sieci . Kroki podjęte w opracowywaniu standardów komunikacja mobilna, w szczególności specyfikacje 3GPP Release 13 mają na celu właśnie osiągnięcie celu dla wskaźników IoT przy jednoczesnym zachowaniu korzyści płynących z korzystania z globalnego ekosystemu. Udoskonalenie tych technologii w przyszłości stanie się solidnym fundamentem dla nadchodzących modyfikacji standardów komunikacji mobilnej, do których należą m.in. standardy sieci piątej generacji (5G).

Alternatywne projekty o niskiej mocy dla nielicencjonowanego spektrum częstotliwości są głównie przeznaczone do bardziej specjalistycznych zastosowań. Dodatkowo konieczność rozwoju nowej infrastruktury oraz zamknięty charakter technologii bezpośrednio wpływają na rozprzestrzenianie się takich globalnych sieci.

Perspektywy rozwoju technologii sieciowych

Siergiej Pachomow

Użytkownicy komputerów PC już dawno pogodzili się z myślą, że nie da się nadążyć za tempem aktualizacji komponentów PC. Nowy procesor ostatni model przestaje być taki po dwóch, trzech miesiącach. Inne komponenty komputera są równie szybko aktualizowane: pamięć, dyski twarde, płyty główne. I pomimo zapewnień sceptyków, którzy twierdzą, że procesor Celeron 400 MHz wystarczy dziś do normalnej pracy z komputerem PC, wiele firm (oczywiście kierowanych przez Microsoft) niestrudzenie pracuje nad znalezieniem godnego zastosowania dla „dodatkowych” gigaherców. I należy zauważyć, że robią to dobrze.

W kontekście rosnącej mocy komputerów osobistych w szybkim tempie rozwijają się również technologie sieciowe. Zwykle rozwój technologii sieciowych i sprzętu komputerowego tradycyjnie rozważano oddzielnie, ale te dwa procesy mają na siebie silny wpływ. Z jednej strony zwiększenie pojemności parku komputerowego zasadniczo zmienia zawartość aplikacji, co prowadzi do wzrostu ilości informacji przesyłanych przez sieci. Szybki wzrost ruchu IP oraz konwergencja zaawansowanych aplikacji do przesyłania głosu, danych i multimediów wymaga ciągłego zwiększania przepustowości sieci. Jednak technologia Ethernet pozostaje podstawą opłacalnych, wysokowydajnych rozwiązań sieciowych. Z drugiej strony technologie sieciowe nie mogą się rozwijać bez powiązania z możliwościami sprzętu komputerowego. Oto prosty przykład: Aby wykorzystać potencjał Gigabit Ethernet, potrzebujesz procesora Intel Pentium 4 z zegarem co najmniej 2 GHz. W przeciwnym razie komputer lub serwer po prostu nie będzie w stanie przetrawić tak dużego ruchu.

Wpływ technologii sieciowych i komputerowych na siebie stopniowo prowadzi do tego, że komputery osobiste przestają być tylko osobiste, a rozpoczęty proces konwergencji urządzeń komputerowych i komunikacyjnych stopniowo łagodzi Komputer osobisty i z „komputera”, to znaczy, że urządzenia komunikacyjne są wyposażone w możliwości obliczeniowe, co zbliża je do komputerów, a te z kolei zyskują możliwości komunikacyjne. W wyniku tej konwergencji komputerów i urządzeń komunikacyjnych stopniowo zaczyna tworzyć się klasa urządzeń nowej generacji, które już przerosną rolę komputerów osobistych.

Jednak proces konwergencji urządzeń komputerowych i komunikacyjnych wciąż nabiera tempa i jest zbyt wcześnie, aby oceniać jego konsekwencje. Jeśli mówimy o dzisiejszym dniu, to należy zauważyć, że po długiej stagnacji w rozwoju technologii dla sieci lokalnych, która charakteryzowała się dominacją Fast Ethernetu, następuje proces przechodzenia nie tylko na wyższe standardy szybkości, ale także do całkowicie nowych technologii interakcji sieciowej.

Deweloperzy mają teraz do wyboru cztery opcje aktualizacji sieci:

Gigabit Ethernet dla użytkowników korporacyjnych;

Bezprzewodowa sieć Ethernet w biurze iw domu;

Sieciowe magazyny;

10 Gigabit Ethernet w sieciach metropolitalnych.

Ethernet ma kilka cech, które doprowadziły do ​​wszechobecności tej technologii w sieciach IP:

Skalowalna wydajność;

Skalowalność do wykorzystania w różnych zastosowaniach sieciowych - od lokalnych sieci o małym zasięgu (do 100 m) po sieci miejskie (40 km lub więcej);

Niska cena;

Elastyczność i kompatybilność;

Łatwość użytkowania i administracji.

Razem te cechy Ethernetu umożliwiają zastosowanie tej technologii w czterech głównych obszarach rozwoju sieci:

Prędkości gigabitowe do użytku korporacyjnego;

Sieci bezprzewodowe;

Sieciowe systemy pamięci masowej;

Ethernet w sieciach metropolitalnych.

Ethernet jest obecnie najczęściej stosowaną technologią LAN na całym świecie. Według International Data Corporation (IDC 2000) ponad 85% wszystkich sieci LAN jest opartych na technologii Ethernet. Nowoczesne technologie Ethernet wyszły daleko poza specyfikacje zaproponowane przez dr Roberta Metcalfe i opracowane wspólnie przez Digital, Intel i Xerox PARC w 1980 roku.

Sekret sukcesu Ethernetu jest łatwy do wyjaśnienia: przez ostatnie dwie dekady standardy Ethernetu nieustannie ewoluowały, aby sprostać stale rosnącym wymaganiom sieć komputerowa... Opracowana na początku lat 80. technologia 10 Mbit/s Ethernet ewoluowała najpierw do wersji 100 Mbit/s, a teraz do nowoczesnych standardów Gigabit Ethernet i 10 Gigabit Ethernet.

Dzięki niskim kosztom rozwiązań Gigabit Ethernet i wyraźnemu zaangażowaniu dostawców rozwiązań, aby zapewnić swoim klientom zapas technologiczny na przyszłość, obsługa Gigabit Ethernet staje się koniecznością dla komputerów stacjonarnych dla przedsiębiorstw. IDC twierdzi, że szacuje się, że do połowy tego roku ponad 50% dostarczanych urządzeń LAN będzie obsługiwać Gigabit Ethernet.

Za rok lub dwa po rozpoczęciu migracji klientów na Gigabit Ethernet cała infrastruktura zostanie zmodernizowana. Podążając za historycznymi trendami, gdzieś w połowie 2004 roku nastąpi punkt zwrotny w popycie na przełączniki gigabitowe. Z kolei powszechne przyjęcie Gigabit Ethernet w komputerach stacjonarnych doprowadzi do zapotrzebowania na 10 Gigabit Ethernet w serwerach i korporacyjnych sieciach szkieletowych. Zastosowanie 10 Gigabit Ethernet spełnia kilka kluczowych wymagań dla szybkich sieci, w tym niższy całkowity koszt posiadania w porównaniu z obecnymi alternatywami, elastyczność i kompatybilność z istniejącymi sieciami Ethernet. Wszystkie te czynniki sprawiają, że 10 Gigabit Ethernet optymalne rozwiązanie dla sieci miejskich.

Producenci sprzętu i dostawcy usług mogą napotkać pewne wyzwania przy tworzeniu sieci metropolitalnych. Czy powinieneś rozbudować istniejącą infrastrukturę SONET/SDH, czy od razu przejść do bardziej ekonomicznej infrastruktury opartej na sieci Ethernet? W dzisiejszym środowisku, w którym operatorzy sieci muszą obniżyć koszty i zapewnić najszybszy zwrot z inwestycji, wybór jest trudniejszy niż kiedykolwiek.

Te elastyczne, bogate w funkcje rozwiązania z wieloma szybkościami transmisji danych i doskonałym stosunkiem ceny do wydajności, kompatybilne z istniejącym sprzętem, przyspieszają adopcję rozwiązań 10 Gigabit Ethernet w sieciach metropolitalnych.

Oprócz rozpoczęcia procesu przejścia z technologii Fast Ethernet na Gigabit Ethernet, rok 2003 charakteryzował się masowym przyjęciem technologie bezprzewodowe... W ciągu ostatnich kilku lat korzyści płynące z sieci bezprzewodowych stały się oczywiste dla szerszej społeczności ludzi, a same urządzenia dostępu bezprzewodowego są obecnie dostępne w większej liczbie i po niższych kosztach. Z tych powodów sieci bezprzewodowe stały się idealnym rozwiązaniem dla użytkowników mobilnych, a także służą jako infrastruktura natychmiastowego dostępu dla szerokiego grona klientów korporacyjnych.

Standard szybkiego przesyłu danych IEEE 802.11b został przyjęty przez prawie wszystkich producentów sprzętu dla sieci bezprzewodowych o szybkości transmisji danych do 11 Mb/s. Początkowo proponowano go jako alternatywę dla budowy sieci korporacyjnych i domowych. Ewolucja sieci bezprzewodowych była kontynuowana wraz z wprowadzeniem standardu IEEE 802.11g, przyjętego na początku tego roku. Ten standard obiecuje znaczny wzrost szybkości przesyłania danych - do 54 Mb/s. Jego misją jest zapewnienie użytkownikom korporacyjnym możliwości pracy z aplikacjami o dużej przepustowości bez poświęcania ilości przesyłanych danych, ale poprawiając skalowalność, odporność na zakłócenia i bezpieczeństwo danych.

Bezpieczeństwo nadal stanowi kluczową kwestię, ponieważ rosnąca liczba użytkowników mobilnych wymaga możliwości bezpiecznego, bezprzewodowego dostępu do swoich danych w dowolnym miejscu i czasie. Ostatnie badania wykazały lukę w szyfrowaniu Wired Equivalent Privacy (WEP), która sprawia, że ​​ochrona WEP jest niewystarczająca. Solidne i skalowalne zabezpieczenia są możliwe dzięki technologiom wirtualnej sieci prywatnej (VPN), ponieważ zapewniają one enkapsulację, uwierzytelnianie i pełne szyfrowanie danych w sieci bezprzewodowej.

Szybki wzrost popularności poczty elektronicznej i handlu elektronicznego doprowadził do gwałtownego wzrostu przepływu danych przesyłanych przez publiczny Internet i korporacyjne sieci IP. Wzrost ruchu danych napędzał przejście z tradycyjnego modelu pamięci masowej serwera (Direct Attached Storage, DAS) do infrastruktury samej sieci, co skutkuje powstaniem sieci pamięci masowej (SAN) i sieciowych urządzeń pamięci masowej (NAS).

Technologia pamięci masowej przechodzi ważne zmiany, które są możliwe dzięki pojawieniu się powiązanych technologii sieciowych i I/O. Trendy te obejmują:

Przejście na technologie Ethernet i iSCSI dla rozwiązań pamięci masowej opartych na protokole IP;

Implementacja architektury InfiniBand dla systemów klastrowych;

Opracowanie nowej architektury magistrali szeregowej PCI-Express dla uniwersalnych urządzeń I/O obsługujących prędkości do 10 Gb/s i wyższe.

Nowa technologia włączona Oparte na sieci Ethernet Nazywany iSCSI (Internet SCSI), jest to szybkie, niedrogie i długodystansowe rozwiązanie pamięci masowej dla witryn sieci Web, dostawców usług, firm i innych organizacji. Dzięki tej technologii tradycyjne polecenia SCSI i przesyłane dane są enkapsulowane w pakietach TCP/IP. Standard iSCSI umożliwia tworzenie tanich sieci SAN opartych na protokole IP z doskonałą interoperacyjnością.

DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chcesz czytać dzwonek?
Bez spamu