DZWONEK

Są tacy, którzy czytają tę wiadomość przed wami.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chcesz przeczytać The Bell
Bez spamu

Bitowa głębia kodu binarnego, Konwersja informacji z postaci ciągłej do dyskretnej, Uniwersalność kodowania binarnego, Jednolite i niejednorodne kody, Informatyka klasa 7 Bosov, Informatyka klasa 7

1.5.1. Konwersja informacji z ciągłej na dyskretną
Aby rozwiązać swoje problemy, osoba często musi przekształcić dostępne informacje z jednej formy prezentacji na inną. Na przykład podczas czytania na głos informacja jest konwertowana z postaci dyskretnej (tekstowej) na ciągłą (dźwiękową). Natomiast podczas dyktanda na lekcji języka rosyjskiego informacja jest konwertowana z formy ciągłej (głos nauczyciela) na dyskretną (akta ucznia).
Informacje prezentowane w formie dyskretnej są znacznie łatwiejsze do przesyłania, przechowywania lub automatycznego przetwarzania. Dlatego w technologia komputerowa dużą wagę przywiązuje się do metod konwersji informacji z postaci ciągłej na dyskretną.
Dyskretyzacja informacji to proces przekształcania informacji z ciągłej formy prezentacji na dyskretną.
Rozważmy istotę procesu dyskretyzacji informacji na przykładzie.
Stacje meteorologiczne posiadają urządzenia samorejestracyjne do ciągłej rejestracji ciśnienia atmosferycznego. Efektem ich pracy są barogramy - krzywe pokazujące, jak ciśnienie zmieniało się na przestrzeni długich okresów czasu. Jedna z tych krzywych, wykreślona przez urządzenie podczas siedmiogodzinnych obserwacji, została przedstawiona na rys. 1.9.

Na podstawie otrzymanych informacji można zbudować tabelę zawierającą odczyty przyrządu na początku pomiarów i na koniec każdej godziny obserwacji (rys. 1.10).

Otrzymana tabela daje niepełny obraz tego, jak zmieniało się ciśnienie w okresie obserwacji: nie podano na przykład największej wartości ciśnienia, która miała miejsce w czwartej godzinie obserwacji. Ale jeśli wprowadzisz do tabeli wartości ciśnienia obserwowane co pół godziny lub 15 minut, to nowy stół da pełniejszy obraz zmian ciśnienia.
W związku z tym, z pewną utratą dokładności, przekonwertowaliśmy informacje przedstawione w postaci ciągłej (barogram, krzywa) na postać dyskretną (tabela).
W przyszłości zapoznasz się z metodami dyskretnej prezentacji informacji dźwiękowej i graficznej.

Ciągi trzech symboli binarnych uzyskuje się poprzez uzupełnienie dwubitowych kodów binarnych po prawej stronie o symbol 0 lub 1. W efekcie kombinacje kodowe trzech symboli binarnych to 8 - dwa razy więcej niż z dwóch symboli binarnych:
W związku z tym czterobitowy plik binarny pozwala uzyskać 16 kombinacji kodu, pięciobitowy - 32, sześciobitowy - 64 itd. Długość ciągu binarnego - liczba znaków w kodzie binarnym - nazywana jest szerokością bitową kodu binarnego.
Zauważ, że:
4 = 2 * 2,
8 = 2 * 2 * 2,
16 = 2 * 2 * 2 * 2,
32 \u003d 2 * 2 * 2 * 2 * 2 itd.
Tutaj liczba kombinacji kodu jest iloczynem wielu identycznych współczynników równych szerokości bitowej kodu binarnego.
Jeśli liczba kombinacji kodów jest oznaczona literą N, a szerokość bitową kodu binarnego literą i, wówczas ujawniony wzór w formie ogólnej zostanie zapisany w następujący sposób:
N \u003d 2 * 2 * ... * 2.
czynniki
W matematyce takie produkty są zapisywane w postaci:
N \u003d 2 i.
Rekord 2 i czytamy w ten sposób: „2 w i-tej potędze”.

Zadanie. Wódz plemienia Multi poinstruował swojego ministra, aby opracował binarny i przetłumaczył na niego wszystkie ważne informacje. Jaki rodzaj pliku binarnego jest wymagany, jeśli alfabet używany przez plemię Multi zawiera 16 znaków? Zapisz wszystkie kombinacje norm.
Decyzja. Ponieważ alfabet plemienia Multi składa się z 16 znaków, potrzeba również 16 kombinacji kodów, w tym przypadku długość (szerokość) kodu binarnego jest określana ze stosunku: 16 \u003d 2 i. Stąd i \u003d 4.
Aby wypisać wszystkie kombinacje kodów czterech zer i jedynek, używamy obwodu na ryc. 1.13: 0000, 0001, 0010, 0011, 0100, 0101, 0110,0111,1000,1001,1010,1011,1100,1101,1110,1111.

1.5.3. Wszechstronność kodowania binarnego
Na początku tej sekcji dowiedziałeś się, że prezentowany w formie ciągłej można go wyrazić za pomocą symboli jakiegoś języka naturalnego lub formalnego. Z kolei znaki dowolnego alfabetu można zamienić na binarne. W ten sposób za pomocą kodu binarnego można przedstawić dowolny język naturalny i formalny, a także obrazy i dźwięki (ryc. 1.14). Oznacza to uniwersalność kodowania binarnego.
Kody binarne są szeroko stosowane w technice komputerowej, wymagając tylko dwóch stanów obwodu elektronicznego - „włączony” (odpowiada to cyfrze 1) i „wyłączony” (odpowiada to cyfrze 0).
Łatwość implementacji technicznej jest główną zaletą kodowania binarnego. Wadą kodowania binarnego jest duża długość wynikowego kodu.

1.5.4. Jednolite i niejednolite kody
Rozróżnij kody jednolite i niejednolite. Jednolite kody w kombinacjach norm zawierają tę samą liczbę symboli, nierówne - różne.
Powyżej przyjrzeliśmy się jednolitym kodom binarnym.
Przykładem nieparzystego kodu jest alfabet Morse'a, który definiuje sekwencję krótkich i długich dźwięków dla każdej litery i cyfry. Zatem litera E odpowiada krótkiemu sygnałowi („kropka”), a litera Ш - czterem długim sygnałom (cztery „myślniki”). Nierównomierne pozwala na zwiększenie szybkości transmisji wiadomości ze względu na to, że symbole najczęściej spotykane w przesyłanych informacjach mają najkrótsze kombinacje kodów.

Informacja, którą daje ten symbol, jest równa entropii układu i jest maksymalna w przypadku, gdy oba stany są jednakowo prawdopodobne; w tym przypadku symbol elementarny przekazuje informację 1 (dwie jednostki). Dlatego podstawą optymalnego kodowania będzie wymaganie, aby symbole elementarne w zakodowanym tekście występowały średnio równie często.

Opiszmy tutaj metodę konstruowania kodu spełniającego podany warunek; ta metoda jest znana jako kod Shannon-Fano. Jego idea polega na tym, że zakodowane znaki (litery lub kombinacje liter) są podzielone na dwie w przybliżeniu jednakowo prawdopodobne grupy: dla pierwszej grupy znaków na pierwszym miejscu kombinacji jest 0 (pierwszy znak liczby binarnej reprezentującej znak); dla drugiej grupy - 1. Ponadto, każda grupa jest ponownie podzielona na dwie w przybliżeniu jednakowo prawdopodobne podgrupy; w przypadku symboli z pierwszej podgrupy na drugim miejscu umieszcza się zero; dla drugiej podgrupy - jedna itp.

Pokażmy zasadę konstruowania kodu Shannona - Fano na materiale alfabetu rosyjskiego (tabela 18.8.1). Policzmy pierwsze sześć liter (od „-” do „t”); sumując ich prawdopodobieństwa (częstości) otrzymujemy 0,498; wszystkie inne litery (od „n” do „sp”) będą miały w przybliżeniu takie samo prawdopodobieństwo 0,502. Pierwsze sześć liter (od „-” do „t”) będzie miało na pierwszym miejscu znak binarny 0. Pozostałe litery (od „n” do „f”) będą miały 1 na pierwszym miejscu. Następnie ponownie podzielimy pierwszą grupę na dwie w przybliżeniu jednakowo prawdopodobne podgrupy: od „-” do „o” i od „e” do „t”; dla wszystkich liter pierwszej podgrupy na drugim miejscu stawiamy zero, a drugiej podgrupy - jedynkę. Proces będzie kontynuowany do momentu, gdy w każdej podgrupie będzie dokładnie jedna litera, która zostanie zakodowana przez pewną liczbę binarną. Mechanizm konstruowania kodu przedstawiono w tabeli 18.8. .2, a sam kod przedstawiono w tabeli 18.8.3.

Tabela 18.8.2.

Znaki binarne

Tabela 18.8.3

Każdy komunikat może zostać zakodowany i zdekodowany przy użyciu tabeli 18.8.3.

Jako przykład napiszmy w kodzie binarnym frazę: „teoria informacji”

01110100001101000110110110000

0110100011111111100110100

1100001011111110101100110

Zwróć uwagę, że tutaj nie ma potrzeby oddzielania od siebie liter specjalnym znakiem, ponieważ dekodowanie odbywa się jednoznacznie nawet bez tego. Można to sprawdzić, dekodując następującą frazę przy użyciu tabeli 18.8.2:

10011100110011001001111010000

1011100111001001101010000110101

010110000110110110

(„Metoda kodowania”).

Należy jednak zauważyć, że jakikolwiek błąd w kodowaniu (przypadkowe pomylenie znaków 0 i 1) z takim kodem jest fatalny, ponieważ dekodowanie całego tekstu następującego po błędzie staje się niemożliwe. Dlatego ta zasada kodowania może być zalecana tylko w przypadku, gdy błędy podczas kodowania i transmisji wiadomości są praktycznie wykluczone.

Powstaje naturalne pytanie: czy kod, który skompilowaliśmy bez błędów, jest naprawdę optymalny? Aby odpowiedzieć na to pytanie, znajdźmy średnią informację na jeden symbol elementarny (0 lub 1) i porównajmy ją z maksymalną możliwą informacją, która jest równa jednej binarnej. Aby to zrobić, najpierw znajdujemy średnią informację zawartą w jednej literze przesłanego tekstu, czyli entropię na literę:

,

gdzie jest prawdopodobieństwo, że litera przyjmie określony stan („-”, o, e, a, ..., f).

Ze stołu. 18.8.1 mamy

(dwie jednostki na literę tekstu).

Zgodnie z tabelą 18.8.2 określamy średnią liczbę podstawowych znaków przypadających na jedną literę

Dzieląc entropię przez, otrzymujemy informację przez jeden elementarny symbol

(dwie jednostki).

Tak więc informacja na znak jest bardzo bliska górnej granicy 1, a wybrany przez nas kod jest bardzo bliski optymalnego. Pozostawanie w zakresie zadania ortograficznego nie jest lepsze.

Zwróć uwagę, że w przypadku kodowania tylko binarnych liczb liter, obraz każdej litery byłby złożony z pięciu znaków binarnych, a informacja o każdym znaku byłaby

(dwie jednostki),

to znaczy znacznie mniej niż przy optymalnym kodowaniu liter.

Należy jednak zauważyć, że kodowanie pisowni generalnie nie jest ekonomiczne. Faktem jest, że zawsze istnieje zależność między sąsiednimi literami dowolnego znaczącego tekstu. Na przykład po rosyjskiej samogłosce nie może występować „" ”ani„ ь ”; po sybilantach „ja” lub „u” nie mogą ostać się; po kilku spółgłosek z rzędu zwiększa się prawdopodobieństwo wystąpienia samogłoski itp.

Wiemy, że kiedy układy zależne są połączone, całkowita entropia jest mniejsza niż suma entropii poszczególnych systemów; dlatego informacja przekazywana przez spójny tekst jest zawsze mniejsza niż informacja o jeden znak pomnożony przez liczbę znaków. Biorąc pod uwagę tę okoliczność, można zbudować bardziej ekonomiczny kod, kodując nie każdą literę osobno, ale całe „bloki” liter. Na przykład w tekście rosyjskim sensowne jest zakodowanie w całości niektórych często występujących kombinacji liter, takich jak „tsya”, „aet”, „nie” itp. Zakodowane bloki są ułożone malejąco według częstotliwości, podobnie jak litery w tabeli. 18.8.1, a kodowanie binarne odbywa się w ten sam sposób.

W niektórych przypadkach rozsądne okazuje się kodowanie nie nawet bloków liter, ale całych znaczących fragmentów tekstu. Na przykład, aby rozładować telegraf w święta, zaleca się kodowanie całych standardowych tekstów za pomocą konwencjonalnych liczb, takich jak:

„Szczęśliwego Nowego Roku życzę zdrowia i sukcesów w pracy”.

Nie zajmując się konkretnie metodami kodowania blokowego, ograniczamy się do sformułowania powiązanego twierdzenia Shannona.

Niech będzie źródło informacji i odbiornik połączony kanałem komunikacyjnym (rys. 18.8.1).

Znana jest produktywność źródła informacji, czyli średnia liczba binarnych jednostek informacji pochodzących ze źródła w jednostce czasu (liczbowo jest równa średniej entropii wiadomości wytwarzanej przez źródła w jednostce czasu). Dajmy dodatkowo wiedzieć wydajność kanał, czyli maksymalna ilość informacji (na przykład znaki binarne 0 lub 1), które kanał może przesłać w tej samej jednostce czasu. Powstaje pytanie: jaka powinna być szerokość pasma kanału, aby „sprostał” swojemu zadaniu, czyli tak, aby informacje ze źródła do odbiornika docierały bez opóźnień?

Odpowiedź na to pytanie daje pierwsze twierdzenie Shannona. Podajmy to tutaj bez dowodu.

1. twierdzenie Shannona

Jeśli szerokość pasma kanału komunikacyjnego jest większa niż entropia źródła informacji na jednostkę czasu

zawsze jest możliwe zakodowanie wystarczająco długiej wiadomości, aby można ją było bezzwłocznie przesłać kanałem komunikacyjnym. Jeśli wręcz przeciwnie,

wówczas niezwłoczne przekazanie informacji jest niemożliwe.


Ariabhata
Cyrylica
grecki gruziński
etiopczyk
żydowski
Akshara-sankhya Inni babiloński
Egipcjanin
etruski
rzymski
Dunaj Poddasze
Kipu
Majów
egejski
Symbole KPPU Pozycyjny , , , , , , , , , , Nie-pozycyjne Symetryczny Systemy mieszane Fibonaccieva Nie-pozycyjne Pojedynczy (jednoargumentowy)

System liczb binarnych - system liczb pozycyjnych z podstawą 2. Dzięki bezpośredniej implementacji w cyfrowych układach elektronicznych na bramkach logicznych, system binarny jest stosowany w prawie wszystkich nowoczesnych komputerach i innych komputerowych urządzeniach elektronicznych.

Binarny zapis liczb

W systemie binarnym liczby zapisuje się za pomocą dwóch znaków ( 0 i 1 ). Aby nie pomylić, w jakim systemie liczbowym zapisany jest numer, jest on zaopatrzony w wskaźnik w prawym dolnym rogu. Na przykład liczba dziesiętna 5 10 , binarnie 101 2 ... Czasami liczba binarna jest oznaczona prefiksem 0blub symbol & (ampersand) , np 0b101lub odpowiednio &101 .

W systemie liczb binarnych (podobnie jak w innych systemach liczbowych z wyjątkiem dziesiętnych) znaki są odczytywane pojedynczo. Na przykład liczba 101 2 jest wymawiana jako „jeden zero jeden”.

Liczby całkowite

Liczba naturalna zapisana binarnie jako (za n - 1 za n - 2… za 1 za 0) 2 (\\ Displaystyle (a_ (n-1) a_ (n-2) \\ kropki a_ (1) a_ (0)) _ (2))ma znaczenie:

(za - 1 za - 2… za 1 za 0) 2 \u003d ∑ k \u003d 0 n - 1 ak 2 k, (\\ Displaystyle (a_ (n-1) a_ (n-2) \\ kropki a_ (1) a_ ( 0)) _ (2) \u003d \\ sum _ (k \u003d 0) ^ (n-1) a_ (k) 2 ^ (k),)

Liczby ujemne

Ujemne liczby binarne są oznaczane w taki sam sposób jak liczby dziesiętne: znak „-” przed liczbą. Mianowicie ujemna binarna liczba całkowita (- za n - 1 za n - 2… za 1 za 0) 2 (\\ Displaystyle (-a_ (n-1) a_ (n-2) \\ kropki a_ (1) a_ (0)) _ (2))ma wartość:

(- a n - 1 a n - 2… a 1 a 0) 2 \u003d - ∑ k \u003d 0 n - 1 a k 2 k. (\\ Displaystyle (-a_ (n-1) a_ (n-2) \\ kropki a_ (1) a_ (0)) _ (2) \u003d - \\ suma _ (k \u003d 0) ^ (n-1) a_ ( k) 2 ^ (k).)

dodatkowy kod.

Liczby ułamkowe

Liczba ułamkowa zapisana w systemie dwójkowym jako (za - 1 za - 2… za 1 za 0, za - 1 za - 2… za - (m - 1) za - m) 2 (\\ Displaystyle (a_ (n-1) a_ (n-2) \\ kropki a_ (1) a_ (0), a _ (- 1) a _ (- 2) \\ dots a _ (- (m-1)) a _ (- m)) _ (2))ma wartość:

(za - 1 za - 2… za 1 za 0, za - 1 za - 2… za - (m - 1) za - m) 2 \u003d ∑ k \u003d - mn - 1 ak 2 k, (\\ Displaystyle (a_ ( n-1) a_ (n-2) \\ dots a_ (1) a_ (0), a _ (- 1) a _ (- 2) \\ dots a _ (- (m-1)) a _ (- m)) _ ( 2) \u003d \\ suma _ (k \u003d -m) ^ (n-1) a_ (k) 2 ^ (k),)

Dodawanie, odejmowanie i mnożenie liczb binarnych

Tabela dodatkowa

Przykład dodania „kolumna” (wyrażenie dziesiętne 14 10 + 5 10 \u003d 19 10 in dwójkowy wygląda jak 1110 2 + 101 2 \u003d 10011 2):

Przykład mnożenia „kolumna” (wyrażenie dziesiętne 14 10 * 5 10 \u003d 70 10 w systemie dwójkowym wygląda następująco: 1110 2 * 101 2 \u003d 1000 110 2):

Począwszy od cyfry 1, wszystkie liczby są mnożone przez dwa. Punkt po 1 nazywany jest punktem binarnym.

Zamiana liczb dwójkowych na dziesiętne

Powiedzmy, że podana jest liczba binarna 110001 2 ... Aby zamienić na dziesiętne, zapisz to jako sumę cyfr w następujący sposób:

1 * 2 5 + 1 * 2 4 + 0 * 2 3 + 0 * 2 2 + 0 * 2 1 + 1 * 2 0 = 49

To samo jest nieco inne:

1 * 32 + 1 * 16 + 0 * 8 + 0 * 4 + 0 * 2 + 1 * 1 = 49

Możesz zapisać to jako tabelę w następujący sposób:

512 256 128 64 32 16 8 4 2 1
1 1 0 0 0 1
+32 +16 +0 +0 +0 +1

Przejdź od prawej do lewej. Pod każdą jednostką binarną wpisz jej odpowiednik w wierszu poniżej. Dodaj wynikowe liczby dziesiętne. Zatem liczba binarna 110001 2 jest równoważna dziesiętnemu 49 10.

Zamiana ułamkowych liczb dwójkowych na dziesiętne

Musisz przetłumaczyć liczbę 1011010,101 2 do systemu dziesiętnego. Zapiszmy ten numer w następujący sposób:

1 * 2 6 + 0 * 2 5 + 1 * 2 4 + 1 * 2 3 + 0 * 2 2 + 1 * 2 1 + 0 * 2 0 + 1 * 2 −1 + 0 * 2 −2 + 1 * 2 −3 = 90,625

To samo jest nieco inne:

1 * 64 + 0 * 32 + 1 * 16 + 1 * 8 + 0 * 4 + 1 * 2 + 0 * 1 + 1 * 0,5 + 0 * 0,25 + 1 * 0,125 = 90,625

Lub według tabeli:

64 32 16 8 4 2 1 0.5 0.25 0.125
1 0 1 1 0 1 0 , 1 0 1
+64 +0 +16 +8 +0 +2 +0 +0.5 +0 +0.125

Transformacja Hornera

Aby przekonwertować tą metodą liczby z systemu dwójkowego na dziesiętny, należy zsumować cyfry od lewej do prawej, mnożąc uzyskany wcześniej wynik przez podstawę systemu (w tym przypadku 2). Metoda Hornera jest zwykle konwertowana z systemu dwójkowego na dziesiętny. Operacja odwrotna jest trudna, ponieważ wymaga umiejętności dodawania i mnożenia w systemie liczb binarnych.

Na przykład liczba binarna 1011011 2 przetłumaczone na system dziesiętny, taki jak ten:

0*2 + 1 = 1
1*2 + 0 = 2
2*2 + 1 = 5
5*2 + 1 = 11
11*2 + 0 = 22
22*2 + 1 = 45
45*2 + 1 = 91

Oznacza to, że w systemie dziesiętnym liczba ta zostanie zapisana jako 91.

Tłumaczenie ułamkowej części liczb metodą Hornera

Liczby są pobierane z liczby od prawej do lewej i dzielone przez podstawę systemu liczbowego (2).

na przykład 0,1101 2

(0 + 1 )/2 = 0,5
(0,5 + 0 )/2 = 0,25
(0,25 + 1 )/2 = 0,625
(0,625 + 1 )/2 = 0,8125

Odpowiedź: 0,1101 2 \u003d 0,8125 10

Zamiana liczb dziesiętnych na dwójkowe

Powiedzmy, że musimy zamienić liczbę 19 na binarną. Możesz skorzystać z następującej procedury:

19/2 \u003d 9 z resztą 1
9/2 \u003d 4 z resztą 1
4/2 \u003d 2 bez reszty 0
2/2 \u003d 1 bez reszty 0
1/2 \u003d 0 z resztą 1

Tak więc dzielimy każdy iloraz przez 2 i resztę zapisujemy na końcu notacji binarnej. Kontynuujemy dzielenie, aż iloraz będzie wynosił 0. Zapisz wynik od prawej do lewej. Oznacza to, że dolna cyfra (1) będzie najbardziej na lewo itd. W rezultacie otrzymujemy liczbę 19 w zapisie binarnym: 10011 .

Konwertuj ułamkowe liczby dziesiętne na dwójkowe

Jeśli oryginalna liczba zawiera część całkowitą, to jest konwertowana oddzielnie od części ułamkowej. Konwersja liczby ułamkowej z dziesiętnego systemu liczbowego na dwójkową odbywa się zgodnie z następującym algorytmem:

  • Ułamek jest mnożony przez podstawę systemu liczb binarnych (2);
  • W wyniku iloczynu część całkowita jest podświetlona, \u200b\u200bktóra jest traktowana jako najbardziej znaczący bit liczby w systemie liczb binarnych;
  • Algorytm kończy się, gdy część ułamkowa wynikowego iloczynu jest równa zeru lub jeśli zostanie osiągnięta wymagana dokładność obliczeń. W przeciwnym razie obliczenia będą kontynuowane na ułamkowej części iloczynu.

Przykład: Chcesz przetłumaczyć ułamkową liczbę dziesiętną 206,116 do ułamka binarnego.

Tłumaczenie całej części daje 206 10 \u003d 11001110 2 według wcześniej opisanych algorytmów. Część ułamkowa 0,116 jest mnożona przez podstawę 2, umieszczając całe części iloczynu w cyfrach po przecinku dziesiętnym żądanej binarnej liczby ułamkowej:

0,116 2 = 0 ,232
0,232 2 = 0 ,464
0,464 2 = 0 ,928
0,928 2 = 1 ,856
0,856 2 = 1 ,712
0,712 2 = 1 ,424
0,424 2 = 0 ,848
0,848 2 = 1 ,696
0,696 2 = 1 ,392
0,392 2 = 0 ,784
itp.

Zatem 0,116 10 ≈ 0, 0001110110 2

Otrzymujemy: 206,116 10 ≈ 11001110,0001110110 2

Aplikacje

W urządzeniach cyfrowych

System binarny jest stosowany w urządzeniach cyfrowych, ponieważ jest najprostszy i spełnia wymagania:

  • Im mniej wartości istnieje w systemie, tym łatwiej jest wykonać poszczególne elementy operujące tymi wartościami. W szczególności dwie cyfry systemu liczb binarnych można łatwo przedstawić za pomocą wielu zjawisk fizycznych: występuje prąd (prąd jest większy niż wartość progowa) - nie ma prądu (prąd jest mniejszy niż wartość progowa), indukcja pole magnetyczne więcej niż wartość progowa lub nie (indukcja pola magnetycznego jest mniejsza niż wartość progowa) itp.
  • Im mniej stanów ma element, tym wyższa jest odporność na zakłócenia i tym szybciej może on działać. Na przykład, aby zakodować trzy stany pod względem wielkości napięcia, prądu lub indukcji pola magnetycznego, dwa wartości progowe i dwa komparatory,

W informatyce jest szeroko stosowany do zapisywania ujemnych liczb binarnych w kodzie dopełnienia do dwóch. Na przykład liczba -5 10 może być zapisana jako -101 2, ale będzie przechowywana jako 2 na komputerze 32-bitowym.

W angielskim systemie miar

Podczas określania wymiarów liniowych w calach tradycyjnie stosuje się ułamki binarne, a nie dziesiętne, na przykład: 5¾ ″, 7 15/16 ″, 3 11/32 ″ itd.

Uogólnienia

System liczb binarnych to połączenie binarnego systemu kodowania i wykładniczej funkcji wagowej o podstawie równej 2. Należy zauważyć, że liczbę można zapisać w kodzie binarnym, a system liczbowy w tym przypadku może nie być binarny, ale z inną podstawą. Przykład: kodowanie BCD, w którym cyfry dziesiętne są zapisywane binarnie, a system liczbowy jest dziesiętny.

Historia

  • Kompletny zestaw 8 trygramów i 64 heksagramów, analog 3-bitowych i 6-bitowych liczb, był znany w starożytnych Chinach w klasycznych tekstach Księgi zmian. Kolejność heksagramów w księga zmian, ułożone zgodnie z wartościami odpowiednich cyfr binarnych (od 0 do 63), a sposób ich uzyskiwania został opracowany przez chińskiego naukowca i filozofa Shao Yun w XI wieku. Nie ma jednak dowodów na to, że Shao Yong rozumiał zasady arytmetyki binarnej, porządkując dwuznakowe krotki w porządku leksykograficznym.
  • Zbiory, które są połączeniami liczb binarnych, były używane przez Afrykanów w tradycyjnym wróżeniu (takim jak Ifa) wraz ze średniowieczną geomancją.
  • W 1854 roku angielski matematyk George Boole opublikował przełomową pracę opisującą systemy algebraiczne stosowane w logice, która jest obecnie znana jako algebra Boole'a lub algebra logiki. Jego rachunek różniczkowy miał odegrać ważną rolę w rozwoju nowoczesnych cyfrowych układów elektronicznych.
  • W 1937 roku Claude Shannon przedstawił pracę doktorską na obronę Analiza symboliczna obwodów przekaźnikowych i przełączających c, w którym zastosowano algebrę Boole'a i arytmetykę binarną w odniesieniu do elektronicznych przekaźników i przełączników. Cała nowoczesna technologia cyfrowa jest zasadniczo oparta na rozprawie Shannona.
  • W listopadzie 1937 roku George Stiebitz, który później pracował w Bell Labs, stworzył komputer Model K oparty na przekaźniku. K.itchen ”, kuchnia, w której dokonano montażu), który wykonywał dodawanie binarne. Pod koniec 1938 roku Bell Labs uruchomił program badawczy prowadzony przez Stibitza. Komputer stworzony pod jego kierownictwem, ukończony 8 stycznia 1940 roku, był w stanie wykonywać operacje na liczbach zespolonych. Podczas demonstracji na konferencji American Mathematical Society w Dartmouth College 11 września 1940 roku Stiebitz zademonstrował umiejętność wysyłania poleceń do zdalnego kalkulatora liczb zespolonych za pomocą linia telefoniczna za pomocą teletypewriter. Była to pierwsza próba użycia zdalnego komputera przez linię telefoniczną. Wśród uczestników konferencji, którzy byli świadkami demonstracji, byli John von Neumann, John Mauchly i Norbert Wiener, którzy opisali ją później w swoich wspomnieniach.

Zobacz też

Uwagi

  1. Popova Olga Vladimirovna. Samouczek informatyki (nieokreślony) .

Kod binarny to tekst, instrukcje procesora komputera lub inne dane w dowolnym systemie dwuznakowym. Najczęściej jest to układ 0 i 1. przypisuje binarny wzór cyfr (bitów) do każdego znaku i instrukcji. Na przykład ośmiobitowy ciąg binarny może reprezentować dowolną z 256 możliwych wartości i dlatego może generować wiele różnych elementów. Recenzje binarnego kodu światowej społeczności zawodowej programistów wskazują, że to jest podstawa zawodu i główne prawo funkcjonowania systemy komputerowe i urządzeń elektronicznych.

Dekodowanie kodu binarnego

W informatyce i telekomunikacji kody binarne są używane do różnych metod kodowania znaków danych w ciągi bitów. Te metody mogą używać ciągów o stałej lub zmiennej szerokości. Istnieje wiele zestawów znaków i kodowań do tłumaczenia na binarny. W kodzie o stałej szerokości każda litera, cyfra lub inny znak jest reprezentowany przez ciąg bitów o tej samej długości. Ten ciąg bitowy, interpretowany jako liczba binarna, jest zwykle wyświetlany w tabelach kodów w notacji ósemkowej, dziesiętnej lub szesnastkowej.

Dekodowanie kodu binarnego: ciąg bitowy interpretowany jako liczba binarna można przekształcić w liczbę dziesiętną. Na przykład mała litera a, jeśli jest reprezentowana przez ciąg bitów 01100001 (jak w standardowym kodzie ASCII), może być również reprezentowana jako dziesiętna 97. Tłumaczenie kodu binarnego na tekst jest tą samą procedurą, tylko w odwrotnej kolejności.

Jak to działa

Z czego składa się kod binarny? Kod używany w komputerach cyfrowych jest oparty na którym są tylko dwa możliwe stany: włączony. i wyłączone, zwykle oznaczone przez zero i jeden. Podczas gdy w systemie dziesiętnym, który wykorzystuje 10 cyfr, każda pozycja jest wielokrotnością 10 (100, 1000 itd.), To w systemie dwójkowym każda pozycja cyfrowa jest wielokrotnością 2 (4, 8, 16 itd.). Sygnał kodu binarnego to seria impulsów elektrycznych, które reprezentują liczby, symbole i operacje do wykonania.

Urządzenie zwane zegarem wysyła regularne impulsy, a komponenty, takie jak tranzystory, włączają się (1) lub wyłączają (0), aby przesyłać lub blokować impulsy. W systemie binarnym każda liczba dziesiętna (0-9) jest reprezentowana przez zestaw czterech cyfr binarnych lub bitów. Cztery podstawowe operacje arytmetyczne (dodawanie, odejmowanie, mnożenie i dzielenie) można sprowadzić do kombinacji podstawowych algebraicznych operacji Boole'a na liczbach binarnych.

Trochę w teorii komunikacji i informacji to jednostka danych równoważna wynikowi wyboru między dwiema możliwymi alternatywami w systemie liczb binarnych powszechnie używanym w komputerach cyfrowych.

Przeglądy kodu binarnego

Charakter kodu i danych jest fundamentalną częścią podstawowego świata IT. Z narzędzia tego korzystają specjaliści ze świata IT „za kulisami” - programiści, których specjalizacja jest ukryta przed zwykłym użytkownikiem. Informacje zwrotne od programistów na temat kodu binarnego wskazują, że obszar ten wymaga dogłębnej analizy podstaw matematycznych i sporej praktyki w zakresie analizy matematycznej i programowania.

Kod binarny to najprostsza forma kodu komputerowego lub danych programistycznych. Jest w pełni reprezentowany przez binarny system liczb. Według recenzji kodu binarnego jest on często kojarzony z kodem maszynowym, ponieważ zestawy binarne można łączyć w formę kod źródłowyktóry jest interpretowany przez komputer lub inny sprzęt. To częściowo prawda. używa zestawów cyfr binarnych do tworzenia instrukcji.

Wraz z najbardziej podstawową formą kodu plik binarny reprezentuje również najmniejszą ilość danych przepływających przez wszystkie złożone, złożone systemy sprzętowe i programowe, które obsługują dzisiejsze zasoby i zasoby danych. Najmniejsza ilość danych nazywana jest bitem. Bieżące ciągi bitów stają się kodem lub danymi, które są interpretowane przez komputer.

Liczba binarna

W matematyce i elektronice cyfrowej liczba binarna to liczba wyrażona w systemie dwójkowym lub dwójkowym system cyfrowyktóry używa tylko dwóch znaków: 0 (zero) i 1 (jeden).

System liczbowy o podstawie 2 to notacja pozycyjna o promieniu 2. Każda cyfra jest określana jako bit. Ze względu na prostą implementację w formacie cyfrowym elektroniczne obwody Korzystając z reguł logicznych, system binarny jest używany przez prawie wszystkie współczesne komputery i urządzenia elektroniczne.

Historia

Współczesny dwójkowy system liczb jako podstawa kodu binarnego został wynaleziony przez Gottfrieda Leibniza w 1679 roku i przedstawiony w jego artykule „Explaining Binary Arithmetic”. Liczby binarne zajmowały centralne miejsce w teologii Leibniza. Uważał, że liczby binarne symbolizują chrześcijańską ideę kreatywności ex nihilo, czyli tworzenia z niczego. Leibniz próbował znaleźć system, który przekształca słowne zdania logiczne w dane czysto matematyczne.

Systemy binarne poprzedzające Leibniza istniały również w starożytnym świecie. Przykładem jest chiński system podwójny I Ching, w którym tekst do przewidywania oparty jest na dwoistości yin i yang. W Azji i Afryce do kodowania wiadomości używano bębnów szczelinowych z binarnymi tonami. Indyjski uczony Pingala (około V wpne) opracował binarny system opisu prozodii w swoim Chandashutrem.

Mieszkańcy wyspy Mangareva w Polinezji Francuskiej używali hybrydowego systemu binarno-dziesiętnego do 1450 roku. W XI wieku naukowiec i filozof Shao Yong opracował metodę porządkowania heksagramów, która odpowiada sekwencji od 0 do 63, przedstawionej w formacie binarnym, gdzie yin jest równe 0, yang równe 1. Porządek jest również porządkiem leksykograficznym w blokach elementów wybranych z zestawu dwuelementowego.

Nowy czas

W 1605 r. Omówił system, w którym litery alfabetu można by zredukować do sekwencji cyfr binarnych, które następnie można by zakodować jako subtelne odmiany czcionki w dowolnym losowy tekst... Należy zauważyć, że to Francis Bacon dodał ogólna teoria obserwacja kodowania binarnego, że ta metoda może być używana z dowolnym obiektem.

Inny matematyk i filozof, George Boole, opublikował w 1847 r. Artykuł zatytułowany „Matematyczna analiza logiki”, który opisuje algebraiczny system logiki znany dziś jako algebra Boole'a. System był oparty na podejściu binarnym, które składało się z trzech głównych operacji: AND, OR i NOT. System ten nie został uruchomiony, dopóki absolwent MIT, Claude Shannon, nie zauważył, że algebra Boole'a, którą studiował, wyglądała jak obwód elektryczny.

Shannon napisał rozprawę w 1937 roku, w której wyciągnął ważne wnioski. Teza Shannona stała się punktem wyjścia do wykorzystania kodu binarnego w praktycznych zastosowaniach, takich jak komputery i obwody elektryczne.

Inne formy kodu binarnego

Ciąg bitów nie jest jedynym rodzajem kodu binarnego. System binarny jako całość to dowolny system, który dopuszcza tylko dwie opcje, takie jak przełączanie system elektroniczny lub prosty test prawda lub fałsz.

Braille to rodzaj kodu binarnego powszechnie używanego przez niewidomych do czytania i pisania dotykiem, nazwany na cześć jego twórcy Louisa Braille'a. System ten składa się z siatek po sześć punktów, po trzy na kolumnę, w których każdy punkt ma dwa stany: podniesiony lub pogłębiony. Różne kombinacje kropek mogą przedstawiać wszystkie litery, cyfry i znaki interpunkcyjne.

amerykański standardowy kod for Information Interchange (ASCII) wykorzystuje 7-bitowy kod binarny do reprezentowania tekstu i innych znaków w komputerach, sprzęcie komunikacyjnym i innych urządzeniach. Każda litera lub symbol ma przypisaną liczbę od 0 do 127.

Binary Coded Decimal Value lub BCD to binarnie kodowana reprezentacja wartości całkowitych, która używa 4-bitowego wykresu do kodowania cyfr dziesiętnych. Cztery binarne bity mogą zakodować do 16 różnych wartości.

W liczbach zakodowanych w formacie BCD tylko pierwszych dziesięć wartości w każdym półbajcie jest poprawnych i koduje cyfry dziesiętne od zera do dziewięciu. Pozostałe sześć wartości jest nieprawidłowych i może powodować wyjątek maszyny lub nieokreślone zachowanie, w zależności od implementacji arytmetyki BCD w komputerze.

Arytmetyka BCD jest czasami preferowana zamiast formatów liczb zmiennoprzecinkowych w zastosowaniach komercyjnych i finansowych, gdzie zaokrąglanie liczb zespolonych jest niepożądane.

Podanie

Większość nowoczesnych komputerów używa programu kodu binarnego do instrukcji i danych. Dyski CD, DVD i Blu-ray przedstawiają audio i wideo w formie binarnej. Rozmowy telefoniczne przesyłane cyfrowo w sieciach dalekobieżnych i komórkowych połączenie telefoniczne z wykorzystaniem modulacji kodu impulsowego i sieci Voice over IP.

Zastanówmy się, jak to wszystko jest takie samo tłumaczyć teksty na kod cyfrowy? Nawiasem mówiąc, na naszej stronie możesz przetłumaczyć dowolny tekst na kod dziesiętny, szesnastkowy, binarny za pomocą kalkulatora kodów online.

Kodowanie tekstu.

Zgodnie z teorią komputerów każdy tekst składa się z pojedynczych znaków. Te symbole to: litery, cyfry, małe znaki interpunkcyjne, znaki specjalne („”, nr, () itp.), Zawierają również spacje między wyrazami.

Niezbędna baza wiedzy. Zbiór symboli, którymi piszę, nazywa się ALFABET.

Liczba znaków w alfabecie określa jego liczność.

Ilość informacji można określić wzorem: N \u003d 2b

  • N - ta sama liczność (zbiór symboli),
  • b - Bit (waga przyjmowanego znaku).

Alfabet, w którym będzie 256, może zawierać prawie wszystkie niezbędne znaki. Takie alfabety nazywane są WYSTARCZAJĄCYMI.

Jeśli weźmiemy alfabet o pojemności 256 i pamiętajmy, że 256 \u003d 28

  • 8 bitów jest zawsze określanych jako 1 bajt:
  • 1 bajt \u003d 8 bitów.

Jeśli przetłumaczysz każdy znak na kod binarny, ten komputerowy kod tekstowy zajmie 1 bajt.

Jak mogą wyglądać informacje tekstowe w pamięci komputera?

Każdy tekst wpisywany jest na klawiaturze, na klawiszach klawiatury widzimy znane nam znaki (cyfry, litery itp.). Wchodzą do pamięci RAM komputera tylko w postaci kodu binarnego. Kod binarny każdego znaku wygląda jak ośmiocyfrowa liczba, na przykład 00111111.

Ponieważ bajt jest najmniejszą adresowalną cząstką pamięci, a pamięć jest adresowana do każdego znaku osobno, wygoda takiego kodowania jest oczywista. Jednak 256 znaków to bardzo wygodna liczba dla dowolnych informacji o znaku.

Naturalnie powstało pytanie: co dokładnie ośmiobitowy kod należy do każdej postaci? A jak przetłumaczyć tekst na kod cyfrowy?

Ten proces jest warunkowy i mamy prawo wymyślić różne sposoby kodowania znaków... Każdy znak alfabetu ma numer od 0 do 255. Każda liczba ma przypisany kod od 00000000 do 11111111.

Tablica kodowania to „ściągawka”, w której znaki alfabetu są wskazane zgodnie z liczbą porządkową. Dla różne rodzaje Komputery używają różnych tabel do kodowania.

ASCII (lub Aski) stał się międzynarodowym standardem dla komputerów osobistych. Stół składa się z dwóch części.

Pierwsza połowa dotyczy tabeli ASCII. (Standardem stała się pierwsza połowa).

Zgodność z porządkiem leksykograficznym, czyli w tabeli, litery (małe i duże) są wskazane w ścisłej kolejności alfabetycznej, a liczby w porządku rosnącym, zwanym zasadą sekwencyjnego kodowania alfabetu.

W przypadku alfabetu rosyjskiego również obserwują zasada kodowania sekwencyjnego.

Teraz, w naszych czasach, używają całości pięć systemów kodowania Alfabet rosyjski (KOI8-R, Windows. MS-DOS, Macintosh i ISO). Ze względu na liczbę systemów kodowania i brak jednego standardu często pojawiają się nieporozumienia przy przenoszeniu tekstu rosyjskiego do postaci komputerowej.

Jeden z pierwszych standardy kodowania alfabetu rosyjskiegoi dalej komputery osobiste rozważ KOI8 („Information Interchange Code, 8-bit”). To kodowanie zostało użyte w połowie lat siedemdziesiątych na wielu komputerach ES, a od połowy lat osiemdziesiątych zaczęło być używane w pierwszych systemach operacyjnych UNIX przetłumaczonych na język rosyjski.

Od początku lat dziewięćdziesiątych, czyli tzw. Czasu dominacji systemu operacyjnego MS DOS, pojawił się system kodowania CP866 („CP” to skrót od „Code Page”).

Gigantyczne firmy komputerowe APPLE, ze swoim innowacyjnym systemem, w którym działały (Mac OS), zaczynają używać własnego systemu kodowania alfabetu MAC.

Międzynarodowa Organizacja Normalizacyjna (Międzynarodowa Organizacja Normalizacyjna, ISO) wyznacza kolejną normę dla języka rosyjskiego system kodowania alfabetuzwana ISO 8859-5.

I wynaleziono najpowszechniejszy obecnie system kodowania alfabetu Microsoft Windowsi nazywa się CP1251.

Od drugiej połowy lat dziewięćdziesiątych problem standardu tłumaczenia tekstu na kod cyfrowy dla języka rosyjskiego i nie tylko został rozwiązany poprzez wprowadzenie standardu systemowego o nazwie Unicode. Jest reprezentowany przez szesnastobitowe kodowanie, co oznacza, że \u200b\u200bna każdy znak przydzielane są dokładnie dwa bajty. pamięć o dostępie swobodnym... Oczywiście przy takim kodowaniu koszty pamięci są podwojone. Jednak taki system kodowania pozwala na przetłumaczenie do 65536 znaków na kod elektroniczny.

Specyfiką standardowego systemu Unicode jest włączenie absolutnie dowolnego alfabetu, czy to istniejącego, wymarłego, wymyślonego. Ostatecznie absolutnie każdy alfabet, oprócz systemu Unicode, zawiera wiele symboli matematycznych, chemicznych, muzycznych i ogólnych.

Użyjmy tabeli ASCII, aby zobaczyć, jak może wyglądać słowo w pamięci twojego komputera.

Często zdarza się, że twój tekst, który jest napisany literami alfabetu rosyjskiego, jest nieczytelny, wynika to z różnicy w systemach kodowania alfabetu na komputerach. Jest to bardzo częsty problem, który występuje dość często.

Nazywa się zestaw znaków, za pomocą których zapisywany jest tekst alfabet.

Liczba znaków w alfabecie jest jego moc.

Wzór na określenie ilości informacji: N \u003d 2 b,

gdzie N to liczność alfabetu (liczba znaków),

b - liczba bitów (informacyjna waga znaku).

256-znakowy alfabet może pomieścić prawie wszystkie potrzebne znaki. Ten alfabet nazywa się wystarczający.

Dlatego 256 \u003d 2 8, wtedy waga 1 znaku wynosi 8 bitów.

Nazwano jednostkę 8-bitową 1 bajt:

1 bajt \u003d 8 bitów.

Kod binarny każdego znaku w tekście komputerowym zajmuje 1 bajt pamięci.

W jaki sposób informacje tekstowe są przedstawiane w pamięci komputera?

Wygoda kodowania bajtowego znaków jest oczywista, ponieważ bajt jest najmniejszą adresowalną częścią pamięci, a zatem procesor może uzyskać dostęp do każdego znaku osobno, wykonując przetwarzanie tekstu. Z drugiej strony 256 znaków to liczba wystarczająca do przedstawienia szerokiej gamy informacji o znakach.

Teraz pojawia się pytanie, jaki rodzaj ośmiobitowego kodu binarnego skojarzyć z każdym znakiem.

Oczywiste jest, że jest to sprawa warunkowa, możesz wymyślić wiele metod kodowania.

Wszystkie znaki alfabetu komputerowego są ponumerowane od 0 do 255. Każda liczba odpowiada ośmiocyfrowemu kodowi binarnemu od 00000000 do 11111111. Ten kod jest po prostu liczbą porządkową znaku w systemie liczb binarnych.

Tabela, w której wszystkie znaki alfabetu komputerowego mają przypisane numery seryjne, nazywana jest tabelą kodowania.

Dla różnych typów komputerów używane są różne tabele kodowania.

Stół stał się międzynarodowym standardem dla komputerów PC ASCII(czytaj asci) (American Standard Code for Information Interchange).

Tabela ASCII jest podzielona na dwie części.

Międzynarodowy standard to tylko pierwsza połowa tabeli, tj. symbole z numerami od 0 (00000000), aż do 127 (01111111).

Struktura tabeli ASCII

Numer seryjny

Kod

Symbol

0 - 31

00000000 - 00011111

Symbole z liczbami od 0 do 31 są zwykle nazywane znakami sterującymi.
Ich funkcją jest sterowanie procesem wyświetlania tekstu na ekranie lub drukowania, podawania sygnał dźwiękowy, znaczniki tekstowe itp.

32 - 127

00100000 - 01111111

Standardowa część tabeli (angielska). Obejmuje to małe i duże litery alfabetu łacińskiego, liczby dziesiętne, znaki interpunkcyjne, wszelkiego rodzaju nawiasy, symbole handlowe i inne.
Znak 32 to spacja, tj. pusta pozycja w tekście.
Wszystkie inne znajdują odzwierciedlenie w pewnych znakach.

128 - 255

10000000 - 11111111

Alternatywna część tabeli (rosyjska).
Druga połowa tabeli kodów ASCII, nazywana stroną kodową (128 kodów, zaczynając od 10000000 i kończąc na 11111111), może mieć różne warianty, każdy wariant ma swój własny numer.
Strona kodowa służy przede wszystkim do umieszczania alfabetów narodowych innych niż łaciński. W rosyjskich kodowaniach narodowych ta część tabeli zawiera symbole alfabetu rosyjskiego.

Pierwsza połowa tabeli ASCII


Zwracam uwagę na fakt, że w tabeli kodowania litery (wielkie i małe) są ułożone w porządku alfabetycznym, a liczby w kolejności rosnącej wartości. To przestrzeganie porządku leksykograficznego w układzie znaków nazywa się zasadą sekwencyjnego kodowania alfabetu.

W przypadku liter alfabetu rosyjskiego przestrzegana jest również zasada kodowania sekwencyjnego.

Druga połowa tabeli ASCII


Niestety obecnie istnieje pięć różnych kodowań cyrylicy (KOI8-R, Windows. MS-DOS, Macintosh i ISO). Z tego powodu często pojawiają się problemy z przesyłaniem rosyjskiego tekstu z jednego komputera do drugiego, z jednego system oprogramowania do innej.

Chronologicznie jednym z pierwszych standardów kodowania rosyjskich liter na komputerach był KOI8 („Kod wymiany informacji, 8-bitowy”). To kodowanie było używane w latach 70.na komputerach z serii ES EVM, a od połowy lat 80. zaczęło być używane w pierwszych zrusyfikowanych wersjach system operacyjny UNIX.

Od wczesnych lat 90., czyli czasów dominacji systemu operacyjnego MS DOS, kodowanie CP866 pozostało niezmienione („CP” oznacza „stronę kodową”).

Komputery Apple prowadzące salę operacyjną systemy Mac OS używają własnego kodowania Mac.

Ponadto Międzynarodowa Organizacja Normalizacyjna (ISO) zatwierdziła inne kodowanie o nazwie ISO 8859-5 jako standard dla języka rosyjskiego.

Najpopularniejszym obecnie używanym kodowaniem jest Microsoft Windows, w skrócie CP1251.

Od końca lat 90. problem standaryzacji kodowania znaków został rozwiązany poprzez wprowadzenie nowego międzynarodowego standardu o nazwie Unicode... To jest kodowanie 16-bitowe, tj. przydziela 2 bajty pamięci dla każdego znaku. Oczywiście podwaja to ilość używanej pamięci. Z drugiej strony taka tablica kodów pozwala na zawarcie do 65536 znaków. Pełna specyfikacja standardu Unicode obejmuje wszystkie istniejące, wymarłe i sztucznie stworzone alfabety świata, a także wiele symboli matematycznych, muzycznych, chemicznych i innych.

Spróbujmy użyć tabeli ASCII, aby wyobrazić sobie, jak będą wyglądać słowa w pamięci komputera.

Wewnętrzna reprezentacja słów w pamięci komputera

Czasami zdarza się, że tekstu, składającego się z liter alfabetu rosyjskiego, odebranego z innego komputera, nie da się odczytać - na ekranie monitora widać coś w rodzaju „bełkotu”. Wynika to z faktu, że komputery używają innego kodowania rosyjskich znaków.

DZWONEK

Są tacy, którzy czytają tę wiadomość przed wami.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chcesz przeczytać The Bell
Bez spamu