DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chcesz czytać dzwonek?
Bez spamu

Bitowość kodu binarnego, Konwersja informacji z postaci ciągłej na dyskretną, Uniwersalność kodowania binarnego, Kody jednolite i niejednolite, Informatyka stopień 7 Bosov, Informatyka stopień 7

1.5.1. Konwersja informacji z ciągłych na dyskretne
Aby rozwiązać swoje problemy, człowiek często musi przekształcić dostępne informacje z jednej formy prezentacji na inną. Na przykład podczas głośnego czytania informacje są konwertowane z formy dyskretnej (tekstowej) na formę ciągłą (dźwiękową). Natomiast podczas dyktando na lekcji języka rosyjskiego informacja jest przekształcana z formy ciągłej (głos nauczyciela) na dyskretną (zapisy ucznia).
Informacje prezentowane w formie dyskretnej są znacznie łatwiejsze do przesłania, przechowywania lub automatycznego przetwarzania. Dlatego w technologia komputerowa dużo uwagi poświęca się metodom konwersji informacji z postaci ciągłej na dyskretną.
Dyskretyzacja informacji to proces przekształcania informacji z ciągłej formy reprezentacji w dyskretną.
Rozważmy na przykładzie istotę procesu dyskretyzacji informacji.
Stacje meteorologiczne posiadają rejestratory do ciągłej rejestracji ciśnienia atmosferycznego. Efektem ich pracy są barogramy - krzywe pokazujące, jak zmieniało się ciśnienie na przestrzeni długich okresów czasu. Jedną z tych krzywych, wykreśloną przez urządzenie podczas siedmiu godzin obserwacji, pokazano na ryc. 1.9.

Na podstawie otrzymanych informacji można zbudować tabelę zawierającą odczyty przyrządu na początku pomiarów i na koniec każdej godziny obserwacji (rys. 1.10).

Otrzymana tabela nie daje pełnego obrazu tego, jak zmieniało się ciśnienie w okresie obserwacji: na przykład nie jest wskazana największa wartość ciśnienia, jaka miała miejsce podczas czwartej godziny obserwacji. Ale jeśli wpiszesz do tabeli wartości ciśnienia obserwowane co pół godziny lub 15 minut, to nowy stół da pełniejszy obraz tego, jak zmieniło się ciśnienie.
W ten sposób przekształciliśmy informacje przedstawione w postaci ciągłej (barogram, krzywa) na postać dyskretną (tabela) z pewną utratą dokładności.
W przyszłości poznasz metody dyskretnej prezentacji informacji dźwiękowej i graficznej.

Ciągi trzech symboli binarnych otrzymuje się uzupełniając dwubitowe kody binarne po prawej stronie 0 lub 1. W rezultacie kombinacje kodowe trzech symboli binarnych to 8 - dwa razy więcej niż z dwóch symboli binarnych:
W związku z tym czterobitowy plik binarny pozwala uzyskać 16 kombinacji kodów, pięciobitowy - 32, sześciobitowy - 64 itd. Długość ciągu binarnego - liczba znaków w kodzie binarnym - nazywana jest szerokością bitową kodu binarnego.
Zwróć uwagę, że:
4 = 2 * 2,
8 = 2 * 2 * 2,
16 = 2 * 2 * 2 * 2,
32 = 2 * 2 * 2 * 2 * 2 itd.
W tym przypadku liczba kombinacji kodu jest iloczynem liczby identycznych współczynników równych szerokości bitowej kodu binarnego.
Jeżeli liczbę kombinacji kodów oznaczymy literą N, a szerokość bitową kodu binarnego literą i, to ujawniony wzorzec w postaci ogólnej będzie zapisany w następujący sposób:
N = 2 * 2 * ... * 2.
ja czynniki
W matematyce takie produkty są napisane w postaci:
N = 2 ja.
Rekord 2 i czyta się tak: „2 w i-tej potędze”.

Zadanie. Przywódca plemienia Multi polecił swojemu ministrowi opracowanie binarnego i przetłumaczenie na niego wszystkich ważnych informacji. Jaki kod binarny jest wymagany, jeśli alfabet używany przez plemię Multi zawiera 16 znaków? Zapisz wszystkie kombinacje kodów.
Rozwiązanie. Ponieważ alfabet plemienia Multi składa się z 16 znaków, potrzebne są również kombinacje kodów 16. W tym przypadku długość (szerokość) kodu binarnego jest określana ze stosunku: 16 = 2 i. Stąd i = 4.
Aby wypisać wszystkie kombinacje kodów z czterech zer i jedynek, używamy obwodu na ryc. 1.13: 0000, 0001, 0010, 0011, 0100, 0101, 0110,0111,1000,1001,1010,1011,1100,1101,1110,1111.

1.5.3. Wszechstronność kodowania binarnego
Na początku tej sekcji dowiedziałeś się, że przedstawione w formie ciągłej można wyrazić za pomocą symboli jakiegoś języka naturalnego lub formalnego. Z kolei znaki dowolnego alfabetu można zamienić na binarne. Tak więc za pomocą kodu binarnego można przedstawić dowolne w językach naturalnych i formalnych, a także obrazy i dźwięki (rys. 1.14). Oznacza to uniwersalność kodowania binarnego.
Kody binarne są szeroko stosowane w technice komputerowej, wymagające tylko dwóch stanów układu elektronicznego - „włączony” (odpowiada to cyfrze 1) i „wyłączony” (odpowiadający cyfrze 0).
Łatwość implementacji technicznej to główna zaleta kodowania binarnego. Wadą kodowania binarnego jest duża długość wynikowego kodu.

1.5.4. Kody jednolite i niejednolite
Rozróżnij kody jednolite i niejednolite. Normy jednolite w kombinacjach normowych zawierają tę samą liczbę symboli, a nieparzyste - różne.
Powyżej przyjrzeliśmy się jednolitym kodom binarnym.
Przykładem nieparzystego kodu jest alfabet Morse'a, który definiuje sekwencję krótkich i długich dźwięków dla każdej litery i cyfry. Tak więc litera E odpowiada krótkiemu sygnałowi („kropka”), a litera Ш - czterem długim sygnałom (cztery „kreski”). Nierówna pozwala na zwiększenie szybkości transmisji wiadomości ze względu na to, że symbole najczęściej spotykane w przesyłanej informacji mają najkrótsze kombinacje kodowe.

Informacja, jaką daje ten symbol, jest równa entropii układu i jest maksymalna w przypadku, gdy oba stany są jednakowo prawdopodobne; w tym przypadku symbol elementarny przekazuje informację 1 (dwie jednostki). Dlatego podstawą optymalnego kodowania będzie wymóg, aby znaki elementarne w zakodowanym tekście występowały średnio równie często.

Opiszmy tutaj metodę konstruowania kodu, który spełnia postawiony warunek; ta metoda jest znana jako kod Shannona-Fano. Jego idea polega na tym, że zakodowane znaki (litery lub kombinacje liter) są podzielone na dwie w przybliżeniu równie prawdopodobne grupy: dla pierwszej grupy znaków pierwsze miejsce kombinacji to 0 (pierwszy znak liczby binarnej reprezentującej znak) ; dla drugiej grupy - 1. Ponadto, każda grupa jest ponownie podzielona na dwie w przybliżeniu równie prawdopodobne podgrupy; dla symboli pierwszej podgrupy zero jest umieszczane na drugim miejscu; dla drugiej podgrupy - jedna itd.

Zademonstrujmy zasadę konstruowania kodu Shannona - Feno na materiale alfabetu rosyjskiego (tabela 18.8.1). Policzmy pierwsze sześć liter (od „-” do „t”); sumując ich prawdopodobieństwa (częstotliwości), otrzymujemy 0,498; wszystkie inne litery (od „n” do „sf”) będą miały w przybliżeniu takie samo prawdopodobieństwo 0,502. Pierwsze sześć liter (od „-” do „t”) będzie miało na pierwszym miejscu znak binarny 0. Pozostałe litery (od „n” do „f”) będą miały na początku 1. Następnie ponownie podzielimy pierwszą grupę na dwie w przybliżeniu równie prawdopodobne podgrupy: od „-” do „o” i od „e” do „t”; dla wszystkich liter pierwszej podgrupy na drugim miejscu umieszczamy zero, a druga podgrupa "- jeden. Proces będzie trwał, dopóki w każdej podgrupie nie będzie dokładnie jednej litery, która zostanie zakodowana przez pewną liczbę binarną. Mechanizm dla konstruowanie kodu przedstawiono w tabeli 18.8.2, a sam kod w tabeli 18.8.3.

Tabela 18.8.2.

Znaki binarne

Tabela 18.8.3

Korzystając z tabeli 18.8.3, możesz kodować i dekodować dowolną wiadomość.

Jako przykład wpiszmy w kodzie binarnym frazę: „teoria informacji”

01110100001101000110110110000

0110100011111111100110100

1100001011111110101100110

Zwróć uwagę, że nie ma potrzeby oddzielania liter od siebie specjalnym znakiem, ponieważ dekodowanie odbywa się jednoznacznie nawet bez tego. Można to zweryfikować, dekodując następującą frazę za pomocą tabeli 18.8.2:

10011100110011001001111010000

1011100111001001101010000110101

010110000110110110

(„Metoda kodowania”).

Należy jednak zauważyć, że każdy błąd kodowania (przypadkowe pomylenie znaku 0 i 1) z takim kodem jest fatalny, ponieważ dekodowanie całego tekstu po błędzie staje się niemożliwe. Dlatego ta zasada kodowania może być zalecana tylko w przypadku, gdy błędy podczas kodowania i transmisji wiadomości są praktycznie wykluczone.

Powstaje naturalne pytanie: czy kod, który skompilowaliśmy bez błędów, jest naprawdę optymalny? Aby odpowiedzieć na to pytanie, znajdźmy średnią informację przypadającą na jeden symbol elementarny (0 lub 1) i porównajmy ją z maksymalną możliwą informacją, która jest równa jednemu binarnemu. Aby to zrobić, najpierw znajdujemy średnią informację zawartą w jednej literze przesyłanego tekstu, czyli entropię na literę:

,

gdzie jest prawdopodobieństwo, że litera przyjmie określony stan ("-", o, e, a, ..., f).

Ze stołu. 18.8.1 mamy

(dwie jednostki na literę tekstu).

Zgodnie z tabelą 18.8.2 określamy średnią liczbę podstawowych znaków na literę

Dzieląc entropię przez, otrzymujemy informację przez jeden elementarny symbol

(dwie jednostki).

Tak więc informacja na znak jest bardzo bliska górnej granicy 1, a wybrany przez nas kod jest bardzo bliski optymalnemu. Pozostanie w zakresie zadania ortograficznego nie jest niczym lepszym.

Zauważ, że w przypadku kodowania tylko binarnych liczb liter, mielibyśmy obraz każdej litery w pięciu binarnych znakach, a informacje na znak byłyby

(dwie jednostki),

czyli zauważalnie mniej niż przy optymalnym kodowaniu liter.

Należy jednak zauważyć, że kodowanie ortograficzne wcale nie jest ekonomiczne. Faktem jest, że zawsze istnieje zależność między sąsiednimi literami dowolnego sensownego tekstu. Na przykład po samogłosce w języku rosyjskim nie może być „ъ” ani „ь”; po sybilantach „ja” lub „u” nie mogą stać; po kilku spółgłoskach z rzędu wzrasta prawdopodobieństwo samogłoski itp.

Wiemy, że gdy układy zależne są połączone, całkowita entropia jest mniejsza niż suma entropii poszczególnych układów; dlatego informacja przekazywana przez fragment spójnego tekstu to zawsze mniej niż jeden znak pomnożony przez liczbę znaków. Biorąc pod uwagę tę okoliczność, bardziej ekonomiczny kod można zbudować, jeśli zakodujesz nie każdą literę osobno, ale całe „bloki” liter. Na przykład w tekście rosyjskim sensowne jest zakodowanie w całości niektórych często występujących kombinacji liter, takich jak „tsya”, „aet”, „nie” itp. Zakodowane bloki są ułożone w kolejności malejącej częstotliwości, tak jak litery w tabeli. 18.8.1, a kodowanie binarne odbywa się w ten sam sposób.

W niektórych przypadkach rozsądne okazuje się kodowanie nie nawet bloków liter, ale całych znaczących fragmentów tekstu. Na przykład, aby rozładować telegraf w święta, wskazane jest zakodowanie całych standardowych tekstów z numerami warunkowymi, takimi jak:

"Szczęśliwego Nowego Roku życzę dobrego zdrowia i sukcesów w pracy."

Nie zatrzymując się konkretnie na metodach kodowania blokowego, ograniczamy się do sformułowania powiązanego twierdzenia Shannona.

Niech będzie źródło informacji i odbiornik połączony kanałem komunikacyjnym (rys. 18.8.1).

Znana jest produktywność źródła informacji, czyli średnia liczba binarnych jednostek informacji pochodzących ze źródła w jednostce czasu (liczbowo jest równa średniej entropii komunikatu wytwarzanego przez źródła w jednostce czasu). Niech dodatkowo wiadomo wydajność kanał, czyli maksymalna ilość informacji (na przykład znaki binarne 0 lub 1), którą kanał może przesłać w tej samej jednostce czasu. Powstaje pytanie: jaka powinna być przepustowość kanału, aby „podołał” swojemu zadaniu, czyli aby informacja ze źródła do odbiorcy dotarła bez opóźnień?

Odpowiedź na to pytanie daje pierwsze twierdzenie Shannona. Powiedzmy to tutaj bez dowodu.

1. twierdzenie Shannona

Jeżeli przepustowość kanału komunikacyjnego jest większa niż entropia źródła informacji na jednostkę czasu

zawsze możliwe jest zakodowanie wystarczająco długiej wiadomości, aby została ona przekazana kanałem komunikacyjnym bez opóźnień. Jeśli wręcz przeciwnie,

wtedy przekazanie informacji bez zwłoki jest niemożliwe.


Ariabhata
cyrylica
grecki gruziński
etiopczyk
żydowski
Akshara-sankhya Inne babiloński
Egipcjanin
etruski
rzymski
Dunaj Strych
Kipu
Majowie
egejski
Symbole KPPU Pozycyjny , , , , , , , , , , Nonga-pozycyjny Symetryczny Systemy mieszane Fibonaccieva Niepozycyjny Pojedynczy (jednoargumentowy)

System liczb binarnych- system liczb pozycyjnych o podstawie 2. Dzięki bezpośredniej implementacji w cyfrowych układach elektronicznych na bramkach logicznych, system binarny jest stosowany w prawie wszystkich nowoczesnych komputerach i innych elektronicznych urządzeniach obliczeniowych.

Zapis binarny liczb

W systemie binarnym liczby zapisywane są za pomocą dwóch znaków ( 0 oraz 1 ). Aby nie pomylić, w jakim systemie liczbowym jest zapisany numer, jest on dostarczany ze wskaźnikiem w prawym dolnym rogu. Na przykład liczba dziesiętna 5 10 , binarnie 101 2 ... Czasami liczba binarna jest oznaczona prefiksem 0b lub symbol & (ampersand), na przykład 0b101 lub odpowiednio &101 .

W systemie liczb binarnych (podobnie jak w innych systemach liczbowych innych niż dziesiętne) znaki są odczytywane pojedynczo. Na przykład liczba 101 2 jest wymawiana „jeden zero jeden”.

Liczby całkowite

Liczba naturalna zapisana w systemie binarnym jako (a n - 1 a n - 2… a 1 a 0) 2 (\ styl wyświetlania (a_ (n-1) a_ (n-2) \ kropki a_ (1) a_ (0)) _ (2)), ma znaczenie:

(an - 1 an - 2… a 1 a 0) 2 = ∑ k = 0 n - 1 ak 2 k, (\ displaystyle (a_ (n-1) a_ (n-2) \ kropki a_ (1) a_ ( 0)) _ (2) = \ suma _ (k = 0) ^ (n-1) a_ (k) 2 ^ (k),)

Liczby ujemne

Ujemne liczby binarne są oznaczane w taki sam sposób jak liczby dziesiętne: znak „-” przed liczbą. Mianowicie ujemna binarna liczba całkowita (- a n - 1 za n - 2… a 1 a 0) 2 (\ styl wyświetlania (-a_ (n-1) a_ (n-2) \ kropki a_ (1) a_ (0)) _ (2)), ma wartość:

(- za n - 1 za n - 2… za 1 za 0) 2 = - ∑ k = 0 n - 1 za k 2 k. (\ styl wyświetlania (-a_ (n-1) a_ (n-2) \ kropki a_ (1) a_ (0)) _ (2) = - \ suma _ (k = 0) ^ (n-1) a_ ( k) 2 ^ (k).)

dodatkowy kod.

Liczby ułamkowe

Liczba ułamkowa zapisana binarnie jako (an - 1 an - 2… a 1 a 0, a - 1 a - 2… a - (m - 1) a - m) 2 (\ styl wyświetlania (a_ (n-1) a_ (n-2) \ kropki a_ (1) a_ (0), a _ (- 1) a _ (- 2) \ kropki a _ (- (m-1) a _ (- m)) _ (2)), ma wartość:

(an - 1 an - 2… a 1 a 0, a - 1 a - 2… a - (m - 1) a - m) 2 = ∑ k = - mn - 1 ak 2 k, (\ styl wyświetlania (a_ ( n-1) a_ (n-2) \ kropki a_ (1) a_ (0), a _ (- 1) a _ (- 2) \ kropki a _ (- (m-1)) a _ (- m )) _ ( 2) = \ suma _ (k = -m) ^ (n-1) a_ (k) 2 ^ (k),)

Dodawanie, odejmowanie i mnożenie liczb binarnych

Tabela dodawania

Przykład dodawania „kolumna” (wyrażenie dziesiętne 14 10 + 5 10 = 19 10 in dwójkowy wygląda na 1110 2 + 101 2 = 10011 2):

Przykład mnożenia „kolumna” (wyrażenie dziesiętne 14 10 * 5 10 = 70 10 w systemie binarnym wygląda tak: 1110 2 * 101 2 = 1000 110 2):

Począwszy od liczby 1, wszystkie liczby są mnożone przez dwa. Punkt po 1 nazywany jest punktem binarnym.

Konwersja liczb binarnych na dziesiętne

Powiedzmy, że podana jest liczba binarna 110001 2 ... Aby przekonwertować na dziesiętny, zapisz to jako sumę cyfr w następujący sposób:

1 * 2 5 + 1 * 2 4 + 0 * 2 3 + 0 * 2 2 + 0 * 2 1 + 1 * 2 0 = 49

To samo jest nieco inne:

1 * 32 + 1 * 16 + 0 * 8 + 0 * 4 + 0 * 2 + 1 * 1 = 49

Możesz to zapisać w formie tabeli w następujący sposób:

512 256 128 64 32 16 8 4 2 1
1 1 0 0 0 1
+32 +16 +0 +0 +0 +1

Przejdź od prawej do lewej. Pod każdą jednostką binarną wpisz jej odpowiednik w wierszu poniżej. Dodaj otrzymane liczby dziesiętne. Zatem liczba binarna 110001 2 jest równoważna dziesiętnemu 49 10.

Konwersja ułamkowych liczb binarnych na dziesiętne

Musisz przetłumaczyć numer 1011010,101 2 do systemu dziesiętnego. Zapiszmy tę liczbę w następujący sposób:

1 * 2 6 + 0 * 2 5 + 1 * 2 4 + 1 * 2 3 + 0 * 2 2 + 1 * 2 1 + 0 * 2 0 + 1 * 2 −1 + 0 * 2 −2 + 1 * 2 −3 = 90,625

To samo jest nieco inne:

1 * 64 + 0 * 32 + 1 * 16 + 1 * 8 + 0 * 4 + 1 * 2 + 0 * 1 + 1 * 0,5 + 0 * 0,25 + 1 * 0,125 = 90,625

Lub według tabeli:

64 32 16 8 4 2 1 0.5 0.25 0.125
1 0 1 1 0 1 0 , 1 0 1
+64 +0 +16 +8 +0 +2 +0 +0.5 +0 +0.125

Transformacja Hornera

W celu zamiany liczb z systemu binarnego na dziesiętny tą metodą należy zsumować cyfry od lewej do prawej, mnożąc uzyskany wcześniej wynik przez podstawę systemu (w tym przypadku 2). Metoda Hornera jest zwykle używana do konwersji z binarnego na dziesiętny. Operacja odwrotna jest trudna, ponieważ wymaga umiejętności dodawania i mnożenia w systemie liczb binarnych.

Na przykład liczba binarna 1011011 2 przetłumaczone na system dziesiętny w ten sposób:

0*2 + 1 = 1
1*2 + 0 = 2
2*2 + 1 = 5
5*2 + 1 = 11
11*2 + 0 = 22
22*2 + 1 = 45
45*2 + 1 = 91

Oznacza to, że w systemie dziesiętnym ta liczba zostanie zapisana jako 91.

Tłumaczenie części ułamkowej liczb metodą Hornera

Liczby są brane od liczby od prawej do lewej i dzielone przez podstawę systemu liczbowego (2).

Na przykład 0,1101 2

(0 + 1 )/2 = 0,5
(0,5 + 0 )/2 = 0,25
(0,25 + 1 )/2 = 0,625
(0,625 + 1 )/2 = 0,8125

Odpowiedź: 0,1101 2 = 0,8125 10

Konwersja liczb dziesiętnych na binarne

Powiedzmy, że musimy przekonwertować liczbę 19 na binarną. Możesz skorzystać z następującej procedury:

19/2 = 9 z resztą 1
9/2 = 4 z resztą 1
4/2 = 2 bez reszty 0
2/2 = 1 bez reszty 0
1/2 = 0 z resztą 1

Dzielimy więc każdy iloraz przez 2, a resztę zapisujemy na końcu notacji binarnej. Dzielimy dalej, aż iloraz wyniesie 0. Wynik zapisujemy od prawej do lewej. Oznacza to, że dolna cyfra (1) będzie skrajnie od lewej itd. W rezultacie otrzymujemy liczbę 19 w notacji binarnej: 10011 .

Konwertuj liczby ułamkowe dziesiętne na binarne

Jeśli w oryginalnej liczbie występuje część całkowita, jest ona konwertowana oddzielnie od części ułamkowej. Konwersja liczby ułamkowej z systemu liczb dziesiętnych na binarny odbywa się według następującego algorytmu:

  • Ułamek jest mnożony przez podstawę systemu liczb binarnych (2);
  • W otrzymanym iloczynie podświetlona jest część całkowita, która jest traktowana jako najbardziej znaczący bit liczby w systemie liczb binarnych;
  • Algorytm kończy się, gdy część ułamkowa iloczynu wynikowego jest równa zeru lub jeśli osiągnięta zostanie wymagana dokładność obliczeniowa. W przeciwnym razie obliczenia są kontynuowane w części ułamkowej produktu.

Przykład: chcesz przetłumaczyć ułamkową liczbę dziesiętną 206,116 do ułamka binarnego.

Przesunięcie całej części daje 206 10 = 11001110 2 zgodnie z wcześniej opisanymi algorytmami. Część ułamkowa 0,116 jest mnożona przez podstawę 2, umieszczając całe części produktu w cyfrach po przecinku poszukiwanej binarnej liczby ułamkowej:

0,116 2 = 0 ,232
0,232 2 = 0 ,464
0,464 2 = 0 ,928
0,928 2 = 1 ,856
0,856 2 = 1 ,712
0,712 2 = 1 ,424
0,424 2 = 0 ,848
0,848 2 = 1 ,696
0,696 2 = 1 ,392
0,392 2 = 0 ,784
itp.

Zatem 0,116 10 0, 0001110110 2

Otrzymujemy: 206.116 10 ≈ 11001110.0001110110 2

Aplikacje

W urządzeniach cyfrowych

System binarny stosowany jest w urządzeniach cyfrowych, ponieważ jest najprostszy i spełnia wymagania:

  • Im mniej wartości istnieje w systemie, tym łatwiej jest wykonać poszczególne elementy operujące tymi wartościami. W szczególności dwie cyfry systemu liczb binarnych mogą być łatwo reprezentowane przez wiele zjawisk fizycznych: jest prąd (prąd jest większy niż wartość progowa) - nie ma prądu (prąd jest mniejszy niż wartość progowa), indukcja pole magnetyczne więcej niż wartość progowa lub nie (indukcja pola magnetycznego jest mniejsza niż wartość progowa) itp.
  • Im mniej stanów ma element, tym wyższa odporność na zakłócenia i tym szybciej może działać. Na przykład, aby zakodować trzy stany poprzez wielkość napięcia, prądu lub indukcji pola magnetycznego, musisz wprowadzić dwa progi i dwa komparatory,

V przetwarzanie danych pisanie ujemnych liczb binarnych w uzupełnieniu do dwóch jest szeroko stosowane. Na przykład liczba -5 10 może być zapisana jako -101 2, ale zostanie zapisana jako 2 w komputerze 32-bitowym.

W angielskim systemie miar

Przy określaniu wymiarów liniowych w calach tradycyjnie używa się ułamków binarnych, a nie dziesiętnych, na przykład: 5¾ ″, 7 15/16 ″, 3 11/32 ″ itp.

Uogólnienia

System liczb binarnych jest połączeniem systemu kodowania binarnego i wykładniczej funkcji wagi o podstawie równej 2. Należy zauważyć, że liczba może być zapisana w kodzie binarnym, a system liczbowy w tym przypadku nie może być binarny, ale z inną podstawą. Przykład: kodowanie BCD, w którym cyfry dziesiętne są zapisywane w postaci binarnej, a system liczbowy jest dziesiętny.

Historia

  • Kompletny zestaw 8 trygramów i 64 heksagramów, odpowiednik liczb 3-bitowych i 6-bitowych, był znany w starożytnych Chinach w klasycznych tekstach Księgi Przemian. Kolejność heksagramów w Księga Przemian, ułożone zgodnie z wartościami odpowiednich cyfr binarnych (od 0 do 63), a sposób ich uzyskania został opracowany przez chińskiego naukowca i filozofa Shao Yuna w XI wieku. Nie ma jednak dowodów na to, że Shao Yong rozumiał zasady arytmetyki binarnej, układając dwuznakowe krotki w porządku leksykograficznym.
  • Zestawy, które są kombinacjami liczb binarnych, były używane przez Afrykanów w tradycyjnym wróżeniu (takim jak Ifa) wraz ze średniowieczną geomancją.
  • W 1854 roku angielski matematyk George Boole opublikował przełomową pracę opisującą systemy algebraiczne w zastosowaniu do logiki, która jest obecnie znana jako algebra Boole'a lub algebra logiki. Jego rachunek różniczkowy miał odegrać ważną rolę w rozwoju nowoczesnych cyfrowych układów elektronicznych.
  • W 1937 roku Claude Shannon przedstawił swoją pracę doktorską dotyczącą obrony Analiza symboliczna obwodów przekaźnikowych i przełączających w których zastosowano algebra Boole'a i arytmetykę binarną w odniesieniu do przekaźników i przełączników elektronicznych. Cała nowoczesna technologia cyfrowa jest zasadniczo oparta na rozprawie Shannona.
  • W listopadzie 1937 George Stiebitz, który później pracował w Bell Labs, stworzył komputer Model K oparty na przekaźniku. K itchen”, kuchnia, w której wykonano montaż), w której wykonywano dodawanie binarne. Pod koniec 1938 roku Bell Labs uruchomiło program badawczy kierowany przez Stibitz. Stworzony pod jego kierownictwem komputer, ukończony 8 stycznia 1940 r., był w stanie wykonywać operacje na liczbach zespolonych. Podczas demonstracji na konferencji American Mathematical Society w Dartmouth College 11 września 1940 r. Stiebitz zademonstrował możliwość wysyłania poleceń do zdalnego kalkulatora liczb zespolonych za pomocą linia telefoniczna za pomocą dalekopisu. Była to pierwsza próba użycia zdalnego komputera za pośrednictwem linii telefonicznej. Wśród uczestników konferencji, którzy byli świadkami demonstracji, byli John von Neumann, John Mauchly i Norbert Wiener, którzy później pisali o tym w swoich wspomnieniach.

Zobacz też

Notatki (edytuj)

  1. Popowa Olga Władimirowna. Samouczek informatyki (nieokreślony) .

Kod binarny to tekst, instrukcje procesora komputera lub inne dane przy użyciu dowolnego dwuznakowego systemu. Najczęściej jest to system 0 i 1. Każdemu znakowi i instrukcji przypisuje wzór cyfr binarnych (bitów). Na przykład ośmiobitowy ciąg binarny może reprezentować dowolną z 256 możliwych wartości, a zatem może generować wiele różnych elementów. Recenzje kodu binarnego światowej społeczności zawodowej programistów wskazują, że jest to podstawa zawodu i główne prawo funkcjonowania systemy komputerowe i urządzenia elektroniczne.

Dekodowanie kodu binarnego

W informatyce i telekomunikacji kody binarne są wykorzystywane do różnych metod kodowania znaków danych w ciągi bitów. Te metody mogą używać ciągów o stałej lub zmiennej szerokości. Istnieje wiele zestawów znaków i kodowań do tłumaczenia na binarny. W kodzie o stałej szerokości każda litera, cyfra lub inny znak jest reprezentowany przez ciąg bitów o tej samej długości. Ten ciąg bitów, interpretowany jako liczba binarna, jest zwykle wyświetlany w tabelach kodów w notacji ósemkowej, dziesiętnej lub szesnastkowej.

Dekodowanie kodu binarnego: ciąg bitów interpretowany jako liczba binarna może zostać przekonwertowany na liczbę dziesiętną. Na przykład mała litera a, jeśli jest reprezentowana przez ciąg bitów 01100001 (jak w standardowym kodzie ASCII), może być również reprezentowana jako dziesiętna 97. Tłumaczenie kodu binarnego na tekst to ta sama procedura, tylko w odwrotnej kolejności.

Jak to działa

Z czego składa się kod binarny? Kod używany w komputerach cyfrowych opiera się na tym, że możliwe są tylko dwa stany: włączony. i wyłączone, zwykle oznaczane przez zero i jeden. Jeśli w systemie dziesiętnym, który wykorzystuje 10 cyfr, każda pozycja jest wielokrotnością 10 (100, 1000 itd.), to w systemie binarnym każda pozycja cyfrowa jest wielokrotnością 2 (4, 8, 16 itd. ). Sygnał kodu binarnego to seria impulsów elektrycznych reprezentujących liczby, symbole i operacje, które należy wykonać.

Urządzenie zwane zegarem wysyła regularne impulsy, a komponenty, takie jak tranzystory, włączają się (1) lub wyłączają (0), aby przesyłać lub blokować impulsy. W systemie binarnym każda liczba dziesiętna (0-9) jest reprezentowana przez zestaw czterech cyfr lub bitów binarnych. Cztery podstawowe operacje arytmetyczne (dodawanie, odejmowanie, mnożenie i dzielenie) można zredukować do kombinacji podstawowych operacji algebraicznych Boole'a na liczbach binarnych.

Bit w teorii komunikacji i informacji jest jednostką danych równoważną wyborowi między dwiema możliwymi alternatywami w systemie liczb binarnych powszechnie używanym w komputerach cyfrowych.

Recenzje kodu binarnego

Charakter kodu i danych jest fundamentalną częścią fundamentalnego świata IT. Z narzędzia tego korzystają specjaliści ze świata IT „za kulisami” - programiści, których specjalizacja jest ukryta przed uwagą zwykłego użytkownika. Informacje zwrotne od programistów dotyczące kodu binarnego sugerują, że ten obszar wymaga głębokiego uczenia się. podstawy matematyczne oraz rozległa praktyka w zakresie analizy matematycznej i programowania.

Kod binarny to najprostsza forma kodu komputerowego lub danych programistycznych. Jest w pełni reprezentowany przez binarny system liczb. Według recenzji kodu binarnego jest on często kojarzony z kodem maszynowym, ponieważ zestawy binarne można łączyć w formę kod źródłowy który jest interpretowany przez komputer lub inny sprzęt. To częściowo prawda. używa zestawów cyfr binarnych do tworzenia instrukcji.

Wraz z najbardziej podstawową formą kodu, plik binarny to również najmniejsza ilość danych, która przepływa przez wszystkie złożone, złożone systemy sprzętowe i programowe, które obsługują dzisiejsze zasoby i zasoby danych. Najmniejsza ilość danych nazywana jest bitem. Bieżące ciągi bitów stają się kodem lub danymi, które są interpretowane przez komputer.

Liczba binarna

W matematyce i elektronice cyfrowej liczba binarna to liczba wyrażona w systemie o podstawie 2 lub binarnie system cyfrowy który używa tylko dwóch znaków: 0 (zero) i 1 (jeden).

System liczbowy o podstawie 2 jest notacją pozycyjną o promieniu 2. Każda cyfra jest określana jako bit. Ze względu na prostą implementację w wersji cyfrowej elektroniczne obwody stosując reguły logiczne, system binarny jest używany przez prawie wszystkie współczesne komputery i urządzenia elektroniczne.

Historia

Współczesny binarny system liczb jako podstawa kodu binarnego został wymyślony przez Gottfrieda Leibniza w 1679 r. i przedstawiony w artykule „Wyjaśnianie arytmetyki binarnej”. Liczby binarne miały kluczowe znaczenie dla teologii Leibniza. Uważał, że liczby binarne symbolizują chrześcijańską ideę kreatywności ex nihilo, czyli tworzenia z niczego. Leibniz próbował znaleźć system, który przekształca werbalne stwierdzenia logiki w czysto matematyczne dane.

Systemy binarne poprzedzające Leibniza istniały również w starożytnym świecie. Przykładem jest chiński system binarny I Ching, w którym tekst do przewidywania opiera się na dwoistości yin i yang. W Azji i Afryce do kodowania wiadomości używano bębnów szczelinowych z tonami binarnymi. Indyjski uczony Pingala (ok. V wpne) opracował binarny system opisu prozodii w swoim Chandashutrem.

Mieszkańcy wyspy Mangareva w Polinezji Francuskiej używali hybrydowego systemu dwójkowo-dziesiętnego do 1450 roku. W XI wieku naukowiec i filozof Shao Yong opracował metodę organizowania heksagramów, która odpowiada sekwencji od 0 do 63, przedstawionej w formacie binarnym, z yin równym 0, yang równym 1. Porządek jest również porządkiem leksykograficznym w blokach elementów wybranych z zestawu dwuelementowego.

Nowy czas

W 1605 omówił system, w którym litery alfabetu można sprowadzić do sekwencji cyfr binarnych, które następnie można zakodować jako subtelne odmiany kroju pisma w dowolnym losowy tekst... Należy zauważyć, że to Francis Bacon dodał ogólna teoria obserwacja kodowania binarnego, że ta metoda może być użyta z dowolnym obiektem.

Inny matematyk i filozof, George Boole, opublikował w 1847 roku artykuł zatytułowany „The Mathematical Analysis of Logic”, który opisuje algebraiczny system logiki znany dziś jako algebra Boole'a. System opierał się na podejściu binarnym, które składało się z trzech głównych operacji: AND, OR i NOT. System ten nie został uruchomiony, dopóki student MIT, Claude Shannon, nie zauważył, że algebra Boole'a, którą studiował, wygląda jak obwód elektryczny.

Shannon napisał rozprawę w 1937 roku, z której wyciągnął ważne wnioski. Teza Shannona stała się punktem wyjścia do wykorzystania kodu binarnego w praktycznych zastosowaniach, takich jak komputery i obwody elektryczne.

Inne formy kodu binarnego

Ciąg bitów nie jest jedynym typem kodu binarnego. System binarny jako całość to dowolny system, który pozwala tylko na dwie opcje, takie jak przełączenie w system elektroniczny lub prosty test prawda lub fałsz.

Braille to rodzaj kodu binarnego, który jest powszechnie używany przez osoby niewidome do czytania i pisania dotykiem, nazwany na cześć jego twórcy Louisa Braille'a. System ten składa się z siatek po sześć punktów każda, po trzy na kolumnę, w których każdy punkt ma dwa stany: podniesiony lub pogłębiony. Różne kombinacje kropek mogą przedstawiać wszystkie litery, cyfry i znaki interpunkcyjne.

amerykański standardowy kod for Information Interchange (ASCII) używa 7-bitowego kodu binarnego do reprezentowania tekstu i innych znaków w komputerach, sprzęcie komunikacyjnym i innych urządzeniach. Każda litera lub symbol ma przypisany numer od 0 do 127.

Binary Coded Decimal Value lub BCD to zakodowana binarnie reprezentacja wartości całkowitych, która wykorzystuje 4-bitowy wykres do kodowania cyfr dziesiętnych. Cztery bity binarne mogą zakodować do 16 różnych wartości.

W liczbach zakodowanych w BCD tylko pierwszych dziesięć wartości w każdym półbajtku jest prawidłowych i koduje cyfry dziesiętne od zera do dziewięciu. Pozostałe sześć wartości jest nieprawidłowych i może spowodować wyjątek komputera lub nieokreślone zachowanie, w zależności od implementacji arytmetyki BCD na komputerze.

Arytmetyka BCD jest czasami preferowana w stosunku do formatów liczb zmiennoprzecinkowych w zastosowaniach komercyjnych i finansowych, gdzie zaokrąglanie liczb zespolonych jest niepożądane.

Podanie

Większość nowoczesne komputery użyj programu kodu binarnego dla instrukcji i danych. Płyty CD, DVD i Blu-ray reprezentują audio i wideo w postaci binarnej. Rozmowy telefoniczne przesyłane cyfrowo w sieciach międzymiastowych i komórkowych połączenie telefoniczne z wykorzystaniem modulacji impulsowo-kodowej i sieci Voice over IP.

Zastanówmy się, jak to wszystko? przetłumacz teksty na kod cyfrowy? Przy okazji, na naszej stronie możesz przetłumaczyć dowolny tekst na kod dziesiętny, szesnastkowy, binarny za pomocą internetowego kalkulatora kodu.

Kodowanie tekstu.

Zgodnie z teorią komputerową każdy tekst składa się z pojedynczych znaków. Symbole te obejmują: litery, cyfry, małe znaki interpunkcyjne, znaki specjalne ("", nr, () itp.), zawierają również spacje między wyrazami.

Niezbędna baza wiedzy. Zestaw symboli, za pomocą których piszę tekst, nazywa się ALFABET.

Liczba znaków w alfabecie reprezentuje jego kardynalność.

Ilość informacji można określić wzorem: N = 2b

  • N - ta sama kardynalność (zestaw symboli),
  • b - Bit (waga pobieranego znaku).

Alfabet, którego będzie 256, może zawierać prawie wszystkie niezbędne znaki. Takie alfabety nazywane są WYSTARCZAJĄCYMI.

Jeśli weźmiemy alfabet o pojemności 256 i pamiętaj, że 256 = 28

  • 8 bitów jest zawsze określanych jako 1 bajt:
  • 1 bajt = 8 bitów.

Jeśli przetłumaczysz każdy znak na kod binarny, ten komputerowy kod tekstowy zajmie 1 bajt.

Jak informacje tekstowe mogą wyglądać w pamięci komputera?

Dowolny tekst jest wpisywany na klawiaturze, na klawiszach klawiatury widzimy znane nam znaki (cyfry, litery itp.). Wchodzą do pamięci RAM komputera tylko w postaci kodu binarnego. Kod binarny każdego znaku wygląda jak ośmiocyfrowa liczba, na przykład 00111111.

Ponieważ bajt jest najmniejszą adresowalną cząstką pamięci, a pamięć adresowana jest do każdego znaku z osobna – wygoda takiego kodowania jest oczywista. Jednak 256 znaków to bardzo wygodna liczba dla dowolnych informacji znakowych.

Naturalnie pojawiło się pytanie: co dokładnie ośmiobitowy kod należy do każdej postaci? A jak przetłumaczyć tekst na kod cyfrowy?

Ten proces jest warunkowy i mamy prawo wymyślać różne sposoby kodowania znaków... Każdy znak alfabetu ma swój własny numer od 0 do 255. A każdemu numerowi przypisany jest kod od 00000000 do 11111111.

Tabela kodowania jest „ściągawką”, w której znaki alfabetu są wskazane zgodnie z liczbą porządkową. Do różne rodzaje Komputery używają różnych tabel do kodowania.

ASCII (lub Aski) stał się międzynarodowym standardem dla komputerów osobistych. Stół składa się z dwóch części.

Pierwsza połowa dotyczy tabeli ASCII. (To była pierwsza połowa, która stała się standardem.)

Zgodność z porządkiem leksykograficznym, to znaczy w tabeli litery (małe i wielkie) są wskazane w ścisłej kolejności alfabetycznej, a liczby w kolejności rosnącej, nazywa się zasadą sekwencyjnego kodowania alfabetu.

W przypadku alfabetu rosyjskiego również obserwują zasada kodowania sekwencyjnego.

Teraz, w naszych czasach, używają całości pięć systemów kodowania Alfabet rosyjski (KOI8-R, Windows. MS-DOS, Macintosh i ISO). Ze względu na liczbę systemów kodowania i brak jednego standardu bardzo często pojawiają się nieporozumienia przy przenoszeniu tekstu rosyjskiego do jego postaci komputerowej.

Jeden z pierwszych standardy kodowania alfabetu rosyjskiego i dalej komputery osobiste rozważ KOI8 („Kod wymiany informacji, 8-bitowy”). To kodowanie było używane w połowie lat siedemdziesiątych na serii komputerów ES, a od połowy lat osiemdziesiątych zaczęło być używane w pierwszych systemach operacyjnych UNIX przetłumaczonych na język rosyjski.

Od początku lat dziewięćdziesiątych, czyli od tak zwanego czasu dominacji systemu operacyjnego MS DOS, pojawił się system kodowania CP866 ("CP" to skrót od "Code Page").

Potężne firmy komputerowe APPLE, ze swoim innowacyjnym systemem, w ramach którego działały (Mac OS), zaczynają używać własnego systemu kodowania alfabetu MAC.

Międzynarodowa Organizacja Normalizacyjna (Międzynarodowa Organizacja Normalizacyjna, ISO) wyznacza kolejny standard dla języka rosyjskiego system kodowania alfabetu o nazwie ISO 8859-5.

A najpopularniejszy obecnie system kodowania alfabetu został wymyślony w Microsoft Windows i nazywa się CP1251.

Od drugiej połowy lat dziewięćdziesiątych problem standardu tłumaczenia tekstu na kod cyfrowy dla języka rosyjskiego i nie tylko został rozwiązany poprzez wprowadzenie standardu systemowego o nazwie Unicode. Jest reprezentowany przez szesnastobitowe kodowanie, co oznacza, że ​​na każdy znak są przydzielone dokładnie dwa bajty. pamięć o dostępie swobodnym... Oczywiście przy takim kodowaniu koszty pamięci są podwojone. Jednak taki system kodowania pozwala przetłumaczyć na: kod elektroniczny do 65536 znaków.

Specyfiką standardowego systemu Unicode jest włączenie absolutnie dowolnego alfabetu, czy to istniejącego, wymarłego, wynalezionego. Ostatecznie absolutnie każdy alfabet, oprócz systemu Unicode, zawiera wiele symboli matematycznych, chemicznych, muzycznych i ogólnych.

Użyjmy tabeli ASCII, aby zobaczyć, jak słowo może wyglądać w pamięci Twojego komputera.

Często zdarza się, że Twój tekst pisany literami alfabetu rosyjskiego nie jest czytelny, wynika to z różnicy w systemach kodowania alfabetu na komputerach. Jest to bardzo częsty problem, który występuje dość często.

Zbiór znaków, którymi pisany jest tekst, nazywa się alfabet.

Liczba znaków w alfabecie jest jego moc.

Wzór na określenie ilości informacji: N = 2b,

gdzie N to moc alfabetu (liczba znaków),

b - liczba bitów (informacyjna waga znaku).

Alfabet o pojemności 256 znaków może pomieścić prawie wszystkie potrzebne znaki. Ten alfabet nazywa się wystarczający.

Ponieważ 256 = 2 8, wtedy waga 1 znaku wynosi 8 bitów.

Nazwano jednostkę 8-bitową 1 bajt:

1 bajt = 8 bitów.

Kod binarny każdego znaku w tekście komputerowym zajmuje 1 bajt pamięci.

W jaki sposób informacje tekstowe są reprezentowane w pamięci komputera?

Wygoda bajtowego kodowania znaków jest oczywista, ponieważ bajt jest najmniejszą adresowalną częścią pamięci, a zatem procesor może uzyskać dostęp do każdego znaku osobno, wykonując przetwarzanie tekstu. Z drugiej strony 256 znaków to wystarczająca liczba, aby reprezentować szeroką gamę informacji znakowych.

Teraz pojawia się pytanie, jaki ośmiobitowy kod binarny przypisać do każdego znaku.

Oczywiste jest, że jest to kwestia warunkowa, możesz wymyślić wiele metod kodowania.

Wszystkie znaki w alfabecie komputerowym są ponumerowane od 0 do 255. Każda liczba odpowiada ośmiocyfrowemu kodowi binarnemu od 00000000 do 11111111. Ten kod jest po prostu liczbą porządkową znaku w systemie binarnym.

Tablica, w której wszystkie znaki alfabetu komputerowego są przypisane do numerów seryjnych, nazywana jest tablicą kodowania.

Do różne rodzaje Komputery używają różnych tabel kodowania.

Międzynarodowy standard dla komputerów PC stał się stołem ASCII(czytaj asci) (American Standard Code for Information Interchange).

Tabela ASCII jest podzielona na dwie części.

Międzynarodowy standard to tylko pierwsza połowa tabeli, czyli symbole z numerami od 0 (00000000), do 127 (01111111).

Struktura tabeli ASCII

Numer seryjny

Kod

Symbol

0 - 31

00000000 - 00011111

Symbole o numerach od 0 do 31 są zwykle nazywane znakami kontrolnymi.
Ich funkcją jest sterowanie procesem wyświetlania tekstu na ekranie lub drukowania, podawania sygnał dźwiękowy, znaczniki tekstowe itp.

32 - 127

00100000 - 01111111

Standardowa część stołu (angielski). Obejmuje to małe i wielkie litery alfabetu łacińskiego, cyfry dziesiętne, znaki interpunkcyjne, wszelkiego rodzaju nawiasy, symbole handlowe i inne.
Znak 32 to spacja, tj. pusta pozycja w tekście.
Wszystkie inne znajdują odzwierciedlenie w pewnych znakach.

128 - 255

10000000 - 11111111

Alternatywna część stołu (rosyjski).
Druga połowa tabeli kodów ASCII, zwana stroną kodową (128 kodów, począwszy od 10000000, a kończąc na 11111111), może mieć różne warianty, każdy wariant ma swój własny numer.
Strona kodowa jest używana głównie do obsługi alfabetów narodowych innych niż łaciński. W rosyjskich kodowaniach narodowych ta część tabeli zawiera symbole alfabetu rosyjskiego.

Pierwsza połowa tabeli ASCII


Zwracam uwagę na fakt, że w tabeli kodowania litery (wielkie i małe) są ułożone w kolejności alfabetycznej, a liczby w kolejności rosnącej wartości. To przestrzeganie porządku leksykograficznego w układzie znaków nazywa się zasadą sekwencyjnego kodowania alfabetu.

W przypadku liter alfabetu rosyjskiego przestrzegana jest również zasada kodowania sekwencyjnego.

Druga połowa tabeli ASCII


Niestety obecnie istnieje pięć różnych kodowań cyrylicy (KOI8-R, Windows. MS-DOS, Macintosh i ISO). Z tego powodu często pojawiają się problemy z przesyłaniem tekstu rosyjskiego z jednego komputera na drugi, z jednego system oprogramowania do innego.

Chronologicznie jednym z pierwszych standardów kodowania rosyjskich liter na komputerach był KOI8 („Kod wymiany informacji, 8-bitowy”). To kodowanie było używane w latach 70. na komputerach z serii ES EVM, a od połowy lat 80. zaczęło być używane w pierwszych zrusyfikowanych wersjach system operacyjny UNIX.

Od początku lat 90-tych, czasu dominacji systemu operacyjnego MS DOS, kodowanie CP866 pozostało ("CP" to skrót od "Code Page").

Komputery Apple z salą operacyjną Systemy Mac OS, użyj własnego kodowania Mac.

Ponadto Międzynarodowa Organizacja Normalizacyjna (Międzynarodowa Organizacja Normalizacyjna, ISO) zatwierdziła inne kodowanie o nazwie ISO 8859-5 jako standard dla języka rosyjskiego.

Obecnie najpopularniejszym kodowaniem jest Microsoft Windows, w skrócie CP1251.

Od końca lat 90. problem standaryzacji kodowania znaków został rozwiązany przez wprowadzenie nowego standardu międzynarodowego o nazwie Unicode... Jest to kodowanie 16-bitowe, tj. przydziela 2 bajty pamięci na każdy znak. Oczywiście podwaja to ilość używanej pamięci. Ale z drugiej strony taka tabela kodów pozwala na uwzględnienie do 65536 znaków. Pełna specyfikacja standardu Unicode obejmuje wszystkie istniejące, wymarłe i sztucznie stworzone alfabety świata, a także wiele symboli matematycznych, muzycznych, chemicznych i innych.

Spróbujmy użyć tabeli ASCII, aby wyobrazić sobie, jak słowa będą wyglądały w pamięci komputera.

Wewnętrzna reprezentacja słów w pamięci komputera

Czasami zdarza się, że tekst składający się z liter alfabetu rosyjskiego, otrzymany z innego komputera, nie może być odczytany - na ekranie monitora widać jakiś „bełkot”. Wynika to z faktu, że komputery używają innego kodowania znaków języka rosyjskiego.

DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chcesz czytać dzwonek?
Bez spamu