DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chciałbyś przeczytać The Bell?
Bez spamu

Na poziomie gospodarstwa domowego termin „architektura” u większości ludzi jest silnie związany z różnymi budynkami i innymi konstrukcjami inżynierskimi. Możemy więc mówić o architekturze gotyckiej katedry, wieży Eiffla czy opery. W innych dziedzinach termin ten jest używany dość rzadko, jednak w przypadku komputerów pojęcie „architektury komputerowej” (komputer elektroniczny) jest już mocno ugruntowane i jest szeroko stosowane od lat 70. ubiegłego wieku. Aby zrozumieć, jak programy i skrypty są wykonywane na komputerze, najpierw trzeba wiedzieć, jak działa każdy z jego składników. Podwaliny pod doktrynę architektury komputerów, które omawiamy w lekcji, położył John von Neumann. W tej lekcji możesz dowiedzieć się więcej o węzłach logicznych, a także o modułowej zasadzie architektury nowoczesnych komputerów osobistych.

Zasady leżące u podstaw architektury komputera zostały sformułowane w 1945 roku przez Johna von Neumanna, który rozwinął idee Charlesa Babbage'a, który przedstawiał działanie komputera jako działanie zestawu urządzeń: przetwarzania, sterowania, pamięci, wejścia-wyjścia.

Zasady von Neumanna.

1. Zasada jednorodności pamięci. Na poleceniach można wykonywać te same czynności, co na danych.

2. Zasada adresowalności pamięci. Główna pamięć składa się strukturalnie z ponumerowanych komórek; każda komórka jest dostępna dla procesora w dowolnym momencie. Oznacza to możliwość nadawania nazw obszarom pamięci, tak aby przechowywane w nich wartości mogły być później dostępne lub zmieniane podczas wykonywania programu przy użyciu przypisanych nazw.

3. Zasada sekwencyjnego sterowania programem. Zakłada, że ​​program składa się z zestawu instrukcji, które są automatycznie wykonywane przez procesor jedna po drugiej w określonej kolejności.

4. Zasada sztywności architektury. Niezmienność w procesie topologii, architektury, listy poleceń.

Komputery zbudowane na zasadach von Neumanna mają architekturę klasyczną, ale oprócz niej istnieją inne rodzaje architektury. Na przykład Harvard. Jego wyróżniającymi cechami są:

  • magazyn instrukcji i magazyn danych są różnymi urządzeniami fizycznymi;
  • kanał instrukcji i kanał danych są również fizycznie oddzielone.

W historii rozwoju technologii komputerowej skok jakościowy następował mniej więcej co 10 lat. Taki skok łączy się z pojawieniem się nowej generacji komputerów. Idea dzielenia maszyn pojawiła się ze względu na fakt, że w ciągu krótkiej historii swojego rozwoju technologia komputerowa przeszła wielką ewolucję zarówno pod względem podstawy elementu (lampy, tranzystory, mikroukłady itp.), jak i pod względem zmiana jego struktury, pojawienie się nowych możliwości, rozszerzenie obszarów zastosowania i charakteru użytkowania. Wszystko bardziej szczegółowo etapy rozwoju komputera pokazano na ryc. 2. Aby zrozumieć, w jaki sposób i dlaczego jedno pokolenie zostało zastąpione przez drugie, konieczne jest poznanie znaczenia takich pojęć jak pamięć, szybkość, stopień integracji itp.

Ryż. 2. Pokolenia komputerów ()

Wśród komputerów, które nie mają klasycznej, nie von Neumanna architektury, można wyróżnić tzw. neurokomputery. Symulują pracę ludzkich komórek mózgowych, neuronów, a także niektórych części układu nerwowego zdolnych do wymiany sygnałów.

Każdy węzeł logiczny komputera wykonuje swoje własne funkcje. Funkcje edytor(rys. 3):

- przetwarzanie danych (wykonywanie na nich operacji arytmetycznych i logicznych);

- kontrola wszystkich innych urządzeń komputerowych.

Ryż. 3. Komputerowa jednostka centralna ()

Program składa się z oddzielnych poleceń. Instrukcja zawiera kod operacji, adresy operandów (wartości zaangażowane w operację) oraz adres wyniku.

Wykonanie polecenia podzielone jest na następujące kroki:

· wybór poleceń;

  • tworzenie adresu następnego polecenia;
  • dekodowanie poleceń;
  • obliczanie adresów operandów;
  • wybór argumentów;
  • wykonanie operacji;
  • tworzenie znaku wyniku;
  • rekord wyników.

Nie wszystkie kroki są obecne podczas wykonywania dowolnego polecenia (w zależności od typu polecenia), ale etapy pobierania, dekodowania, generowania adresu następnego polecenia i wykonywania operacji zawsze mają miejsce. W niektórych sytuacjach możliwe są jeszcze dwa kroki:

  • adresowanie pośrednie;
  • przerwać odpowiedź.

Baran(rys. 4) jest ułożony w następujący sposób:

  • otrzymywanie informacji z innych urządzeń;
  • zapamiętywanie informacji;
  • przekazywanie informacji na żądanie do innych urządzeń komputerowych.

Ryż. 4. RAM (Random Access Memory) komputera ()

Architektura nowoczesnych komputerów opiera się na: zasada modułowa tułowia(rys. 5). Zasada modułowa pozwala na ukończenie żądanej konfiguracji i dokonanie niezbędnych aktualizacji. Opiera się na magistrali wymiany informacji między modułami. Szyna systemowa lub szkielet komputera zawiera kilka szyn do różnych celów. W bagażniku znajdują się trzy magistrale wielobitowe:

  • magistrala danych;
  • magistrala adresowa;
  • magistrala sterująca.

Ryż. 5. Modułowa zasada budowy komputera PC

Magistrala danych służy do przesyłania różnych danych między urządzeniami komputerowymi; magistrala adresowa służy do adresowania przesyłanych danych, czyli do określenia ich lokalizacji w pamięci lub w urządzeniach I/O; magistrala sterująca zawiera sygnały sterujące, które służą do koordynowania w czasie pracy różnych urządzeń komputerowych, określania kierunku przesyłania danych, określania formatów przesyłanych danych itp.

Ta zasada obowiązuje dla różnych komputerów, które można podzielić na trzy grupy:

  • stacjonarny;
  • kompaktowe (laptopy, netbooki itp.);
  • kieszeń (smartfony itp.).

W jednostce systemowej komputera stacjonarnego lub w kompaktowej obudowie znajdują się główne węzły logiczne - jest to płyta główna z procesorem, zasilaczem, zewnętrznymi dyskami pamięci itp.

Bibliografia

1. Bosova L.L. Informatyka i ICT: Podręcznik do klasy 8. - M.: BINOM. Laboratorium wiedzy, 2012.

2. Bosova L.L. Informatyka: Zeszyt ćwiczeń do klasy 8. - M.: BINOM. Laboratorium wiedzy, 2010.

3. Astafieva NE, Rakitina EA, Informatyka w schematach. - M.: BINOM. Laboratorium wiedzy, 2010.

4. Tannenbaum E. Architektura komputerowa. - wyd. - Petersburg: Piotr, 2007. - 844 s.

1. Portal internetowy „Wszystkie wskazówki” ()

2. Portal internetowy „Encyklopedia elektroniczna „Komputer” ()

3. Portal internetowy „apparatnoe.narod.ru” ()

Praca domowa

1. Rozdział 2, §2.1, 2.2. Bosova L.L. Informatyka i ICT: Podręcznik do klasy 8. - M.: BINOM. Laboratorium wiedzy, 2012.

2. Jak oznacza skrót komputera?

3. Co oznacza termin „Architektura Komputera”?

4. Kto sformułował podstawowe zasady leżące u podstaw architektury komputera?

5. Na czym opiera się architektura współczesnych komputerów?

6. Jakie są główne funkcje procesora centralnego i pamięci RAM komputera PC.

Architektura komputerowa i zasady von Neumanna

Termin „architektura” służy do opisania zasady działania, konfiguracji i połączenia głównych węzłów logicznych komputera. Architektura- Jest to wielopoziomowa hierarchia sprzętu i oprogramowania, z których zbudowany jest komputer.

Podstawy doktryny architektury komputerowej położył wybitny amerykański matematyk John von Neumann. Pierwszy komputer "Eniak" powstała w USA w 1946 roku. Do grona twórców należały von Neumann, kto zasugerował podstawowe zasady budowy komputerów: przejście do systemu liczb binarnych do reprezentowania informacji i zasady zapisanego programu.

Zaproponowano umieszczenie programu obliczeniowego w komputerowym urządzeniu magazynującym, które zapewniłoby automatyczny tryb wykonywania poleceń, aw rezultacie zwiększenie szybkości komputera. (Przypomnijmy, że wcześniej wszystkie komputery przechowywały przetworzone liczby w postaci dziesiętnej, a programy były ustawiane przez zainstalowanie zworek na specjalnym panelu krosowym.) Neumann jako pierwszy zgadł, że program może być również przechowywany jako zbiór zer i jedynek, co więcej, w tej samej pamięci, co i liczby, które obsługuje.

Podstawowe zasady budowy komputera:

1. Każdy komputer składa się z trzech głównych elementów: procesora, pamięci i urządzeń. wejście-wyjście (I/O).

2. Informacje, z którymi współpracuje komputer, dzielą się na dwa rodzaje:

    zestaw poleceń przetwarzania (programów); dane do przetworzenia.

3. Zarówno komendy jak i dane są wprowadzane do pamięci (RAM) - zasada zapisanego programu .

4. Procesor steruje przetwarzaniem, którego jednostka sterująca (CU) wybiera polecenia z pamięci RAM i organizuje ich wykonanie, a jednostka arytmetyczno-logiczna (ALU) wykonuje operacje arytmetyczne i logiczne na danych.


5. Urządzenia I/O (I/O) są powiązane z procesorem i pamięcią RAM.

Von Neumann nie tylko przedstawił podstawowe zasady urządzenia logicznego komputera, ale także zaproponował strukturę, która została odtworzona w pierwszych dwóch generacjach komputerów.

Zewnętrzne urządzenie pamięci masowej (OVD)

Ryż. 1. Architektura komputerowa Koniec formy,

Pamięć o dostępie swobodnym (RAM)

zbudowany na zasadach

von Neumann

- kierunek przepływu informacji; - kierunek sygnałów sterujących z procesora do innych węzłów komputerowych,

Podstawy architektury urządzeń obliczeniowych opracowane przez von Neumanna okazały się na tyle fundamentalne, że otrzymały w literaturze nazwę „architektura von Neumanna”. Zdecydowana większość dzisiejszych maszyn wirtualnych to: maszyny von Neumanna.

Pojawienie się trzeciej generacji komputerów było spowodowane przejściem z tranzystorów na układy scalone, co doprowadziło do zwiększenia szybkości procesora. Teraz procesor został zmuszony do bezczynności, czekając na informacje z wolniejszych urządzeń I/O, a to zmniejszyło wydajność całego komputera jako całości. Aby rozwiązać ten problem, stworzono specjalne schematy sterowania pracą urządzeń zewnętrznych lub po prostu kontrolerzy.

Architektura nowoczesnych komputerów osobistych opiera się na zasada modułowa tułowia. Komunikacja informacyjna pomiędzy urządzeniami komputerowymi odbywa się poprzez magistrala systemowa(inna nazwa to autostrada systemowa).

Magistrala to kabel złożony z wielu przewodników. Jedna grupa przewodników - magistrala danych przetwarzane informacje są przekazywane, z drugiej strony - autobus adresowy- adresy pamięci lub urządzeń zewnętrznych, do których ma dostęp procesor. Trzecia część autostrady - magistrala sterująca, przesyłane są przez niego sygnały sterujące (na przykład sygnał, że urządzenie jest gotowe do pracy, sygnał do uruchomienia urządzenia itp.).

Jak działa magistrala systemowa? Powiedzieliśmy już, że jedynki i bity zerowe istnieją tylko w umysłach programistów. W przypadku procesora rzeczywiste są tylko napięcia na jego stykach. Każdy pin odpowiada jednemu bitowi, a procesor musi tylko rozróżnić dwa poziomy napięcia: tak-nie, wysokie-niskie. Dlatego adres dla procesora to sekwencja napięć na specjalnych pinach, zwana magistralą adresową. Można sobie wyobrazić, że po ustawieniu napięć na stykach magistrali adresowej, na stykach magistrali danych pojawiają się napięcia, kodujące numer zapisany pod wskazanym adresem. Ten obraz jest bardzo szorstki, ponieważ pobieranie danych z pamięci zajmuje trochę czasu. Aby się nie pomylić, działaniem procesora steruje specjalny generator zegara. Generuje impulsy, które dzielą pracę procesora na osobne kroki. Jednostką czasu procesora jest jeden cykl, czyli odstęp pomiędzy dwoma impulsami generatora zegara.

Napięcia pojawiające się na szynie adresowej procesora nazywane są adresem fizycznym. W trybie rzeczywistym procesor pracuje tylko z adresami fizycznymi. Wręcz przeciwnie, tryb chroniony procesora jest interesujący, ponieważ program działa z adresami logicznymi, a procesor w niewidoczny sposób zamienia je na adresy fizyczne. System Windows korzysta z trybu chronionego procesora. Nowoczesne systemy operacyjne i programy wymagają tak dużej ilości pamięci, że tryb chroniony procesora stał się znacznie bardziej „rzeczywisty” niż jego tryb rzeczywisty.

Charakteryzuje się magistrala systemowa zegar częstotliwość i głębia bitowa. Nazywa się liczbę bitów przesyłanych jednocześnie przez magistralę szerokość busa. Częstotliwość zegara charakteryzuje liczbę elementarnych operacji przesyłania danych na sekundę. Szerokość magistrali jest mierzona w bitach, częstotliwość zegara jest mierzona w megahercach.


Wszelkim informacjom przesyłanym z procesora do innych urządzeń na szynie danych towarzyszą: adres zamieszkania transmitowane przez magistralę adresową. Może to być adres lokalizacji w pamięci lub adres urządzenia peryferyjnego. Konieczne jest, aby szerokość magistrali pozwalała na przesłanie adresu komórki pamięci. Tak więc, słownie, szerokość magistrali ogranicza ilość pamięci RAM komputera, nie może być większa niż , gdzie n jest szerokością magistrali. Ważne jest, aby wydajność wszystkich urządzeń podłączonych do magistrali była spójna. Nierozsądne jest posiadanie szybkiego procesora i wolnej pamięci lub szybkiego procesora i pamięci, ale wolnego dysku twardego.

Ryż. 2. Schemat urządzenia komputera zbudowanego zgodnie z główną zasadą

Wdrożone w nowoczesnych komputerach zasada architektury otwartej, umożliwienie użytkownikowi dokończenia konfiguracji potrzebnego mu komputera oraz, w razie potrzeby, jego uaktualnienia.

Konfiguracja komputer odnosi się do rzeczywistego zestawu komponentów komputerowych, które składają się na komputer. Zasada otwartej architektury pozwala na zmianę składu urządzeń komputerowych. Do autostrady informacyjnej można podłączyć dodatkowe urządzenia peryferyjne, niektóre modele urządzeń można zastąpić innymi.

Sprzętowe połączenie urządzenia peryferyjnego z magistralą na poziomie fizycznym odbywa się za pomocą specjalnego bloku - kontroler(inne nazwy to adapter, płyta, karta). Istnieją specjalne złącza do instalacji kontrolerów na płycie głównej - sloty.

Programowa kontrola pracy urządzenia peryferyjnego odbywa się poprzez program - kierowca, który jest składnikiem systemu operacyjnego. Ponieważ istnieje ogromna liczba różnych urządzeń, które można zainstalować na komputerze, każde urządzenie zwykle jest dostarczane ze sterownikiem, który współdziała bezpośrednio z tym urządzeniem.

Komputer komunikuje się z urządzeniami zewnętrznymi poprzez porty- specjalne złącza z tyłu komputera. Wyróżnić kolejny oraz równoległy porty. Szeregowe (COM - porty) służą do łączenia manipulatorów, modemu i przesyłania niewielkich ilości informacji na duże odległości. Porty równoległe (LPT - porty) służą do łączenia drukarek, skanerów i przesyłania dużej ilości informacji na niewielkie odległości. Ostatnio rozpowszechniły się uniwersalne porty szeregowe (USB), do których można podłączyć różne urządzenia.

Wszystkie współczesne komputery, mimo że minęło sporo czasu, pracują na zasadach zaproponowanych przez amerykańskiego matematyka Johna von Neumanna (1903 - 1957). Wniósł także znaczący wkład w rozwój i użytkowanie komputerów. Był pierwszym, który ustanowił zasady działania komputera:

1. Zasada kodowania binarnego: wszystkie informacje w komputerze są prezentowane w formie binarnej, czyli kombinacji 0 i 1.

2. Zasada jednorodności pamięci: zarówno programy, jak i dane są przechowywane w tej samej pamięci, dlatego komputer nie rozpoznaje, co jest przechowywane w tej komórce pamięci, a liczby, tekst, polecenia itp. mogą się tam znajdować. akcje mogą być wykonywane na komendach, czyli overdata.

3. Zasada adresowalności pamięci: schematycznie OP (pamięć główna) składa się z ponumerowanych komórek, procesor (jednostka centralna) w dowolnym momencie, gdy dowolna komórka pamięci jest dostępna. Dlatego możliwe jest przypisanie nazw do bloków pamięci w celu wygodniejszej interakcji między OP a CPU.

4. Zasada sekwencyjnego sterowania programem: program składa się z zestawu instrukcji, które są wykonywane przez CPU sekwencyjnie jedna po drugiej.

5. Zasada skoku warunkowego: nie zawsze zdarza się, że polecenia są wykonywane jeden po drugim, dlatego może istnieć polecenie skoku warunkowego, który zmienia wykonanie poleceń sekwencyjnie w zależności od wartości przechowywanych danych

. Klasyfikacja współczesnych komputerów.

Nowoczesny komputer podzielone na wbudowane mikroprocesory, mikrokomputer(komputery osobiste), komputery typu mainframe oraz superkomputer- kompleks komputerowy z kilkoma procesorami.

mikroprocesy- procesory zaimplementowane w postaci całka elektroniczny mikroczipy. Mikroprocesory mogą być wbudowane w telefony, telewizory i inne urządzenia, maszyny i urządzenia.

Na układach scalonych zaimplementowano procesory i pamięć RAM wszystkich nowoczesnych mikrokomputerów, a także wszystkie bloki dużych komputerów i superkomputerów, a także wszystkie urządzenia programowalne.

Wydajność mikroprocesora jest kilka milion operacje na sekundę, a objętość nowoczesnych bloków pamięci RAM wynosi kilka milionów bajtów.

Mikrokomputer - to pełnoprawny przetwarzanie danych samochody, które mają nie tylko procesor i pamięć RAM do przetwarzania danych, ale także urządzenia wejścia-wyjścia i urządzenia do przechowywania informacji.

Komputery osobiste - to jest mikrokomputer posiadające urządzenia wyświetlające na ekranach elektronicznych, a także urządzenia do wprowadzania-wyprowadzania danych w postaci klawiatury oraz ewentualnie urządzenia do podłączenia do sieci komputerowych.

architektura mikrokomputera Opiera się na wykorzystaniu szkieletu systemowego - urządzenia interfejsu, do którego podłączone są procesory i jednostki RAM, a także wszelkich urządzeń wejścia-wyjścia informacji.

Wykorzystanie bagażnika pozwala na zmianę mieszanina oraz Struktura mikrokomputer- dodaj dodatkowe urządzenia wejścia-wyjścia i zwiększ funkcjonalność komputerów.

Przechowywanie długoterminowe Informacja we współczesnych komputerach odbywa się za pomocą nośników elektronicznych, magnetycznych i optycznych - dysków magnetycznych, dysków optycznych i bloków pamięci flash.

Architektura nowoczesnych komputerów zakłada obowiązkową obecność pamięci długotrwałej, w której znajdują się pliki, pakiety oprogramowania, bazy danych i sterujące systemy operacyjne.

Główna rama - komputery wysoki wydajność z dużą ilością pamięci zewnętrznej. Duże komputery są używane jako serwery sieci komputerowych i dużych magazynów danych.

Komputery mainframe wykorzystywane jako podstawa do organizowania zbiorowy Informacja systemy obsługujący korporacje przemysłowe i władze publiczne.

superkomputer- to jest wieloprocesorowy komputer o złożonej architekturze, o najwyższej wydajności i używanej do rozwiązywania bardzo złożonych problemów obliczeniowych.

Wydajność superkomputera jest dziesiątki oraz setki tysiąc miliard przetwarzanie danych operacje na sekundę. Jednocześnie rośnie liczba procesorów w superkomputerach, a architektura komputerów staje się coraz bardziej złożona.

W 1946 roku D. von Neumann, G. Goldstein i A. Berks we wspólnym artykule nakreślili nowe zasady budowy i działania komputerów. Następnie w oparciu o te zasady zostały wyprodukowane dwie pierwsze generacje komputerów. W późniejszych pokoleniach nastąpiły pewne zmiany, chociaż zasady Neumanna są nadal aktualne.

W rzeczywistości Neumannowi udało się uogólnić osiągnięcia naukowe i odkrycia wielu innych naukowców i na ich podstawie sformułować całkowicie nowe.

Zasady von Neumanna

  1. Wykorzystanie systemu liczb binarnych w komputerach. Przewaga nad systemem dziesiętnym polega na tym, że urządzenia można wykonywać dość prosto, operacje arytmetyczne i logiczne w systemie dwójkowym są również dość proste.
  2. Sterowanie oprogramowaniem komputerowym. Pracą komputera steruje program składający się z zestawu instrukcji. Polecenia wykonywane są sekwencyjnie jedno po drugim. Stworzenie maszyny z programem zapisanym w pamięci było początkiem tego, co dzisiaj nazywamy programowaniem.
  3. Pamięć komputera służy nie tylko do przechowywania danych, ale także programów. W tym przypadku zarówno polecenia programu, jak i dane są zakodowane w binarnym systemie liczbowym, tj. ich sposób pisania jest taki sam. Dlatego w niektórych sytuacjach możesz wykonywać te same czynności na poleceniach, co na danych.
  4. Komórki pamięci komputera mają adresy kolejno ponumerowane. W każdej chwili możesz uzyskać dostęp do dowolnej komórki pamięci po jej adresie. Ta zasada otworzyła możliwość wykorzystania zmiennych w programowaniu.
  5. Możliwość skoku warunkowego podczas wykonywania programu. Pomimo tego, że polecenia są wykonywane sekwencyjnie, programy mogą implementować możliwość przeskoku do dowolnej sekcji kodu.

Najważniejszą konsekwencją tych zasad można nazwać fakt, że teraz program nie był już stałą częścią maszyny (jak na przykład kalkulator). Program stał się łatwy do zmiany. Ale sprzęt oczywiście pozostaje niezmieniony i bardzo prosty.

Dla porównania program komputera ENIAC (gdzie nie było programu zapisanego w pamięci) był określany przez specjalne zworki na panelu. Przeprogramowanie maszyny może zająć więcej niż jeden dzień (inne ustawienie zworek). I chociaż napisanie programów dla nowoczesnych komputerów może zająć lata, działają one na milionach komputerów już po kilku minutach instalacji na dysku twardym.

Jak działa maszyna von Neumanna

Maszyna von Neumanna składa się z urządzenia pamięciowego (pamięci) - pamięci, jednostki arytmetyczno-logicznej - ALU, urządzenia sterującego - CU oraz urządzeń wejściowych i wyjściowych.

Programy i dane są wprowadzane do pamięci z urządzenia wejściowego poprzez jednostkę arytmetyczno-logiczną. Wszystkie polecenia programu są zapisywane w sąsiednich komórkach pamięci, a dane do przetwarzania mogą być zawarte w dowolnych komórkach. W przypadku dowolnego programu ostatnie polecenie musi być poleceniem zamknięcia.

Polecenie składa się ze wskazania, jaka operacja ma zostać wykonana (spośród możliwych operacji na tym sprzęcie) oraz adresów komórek pamięci, w których przechowywane są dane, na których ma zostać wykonana określona operacja, a także adresu komórki gdzie należy zapisać wynik (jeśli ma być przechowywany w pamięci).

Jednostka arytmetyczno-logiczna wykonuje operacje określone przez polecenia na określonych danych.

Z jednostki arytmetyczno-logicznej wyniki są wyprowadzane do pamięci lub urządzenia wyjściowego. Podstawowa różnica między pamięcią a urządzeniem wyjściowym polega na tym, że dane są przechowywane w pamięci w formie dogodnej do przetwarzania komputerowego, a urządzenia wyjściowe (drukarka, monitor itp.) są przetwarzane w sposób wygodny dla człowieka .

CU kontroluje wszystkie części komputera. Sygnały „co robić” wysyłane są z urządzenia sterującego do innych urządzeń, a od innych urządzeń centrala otrzymuje informacje o ich stanie.

Urządzenie sterujące zawiera specjalny rejestr (komórkę) zwany „licznikiem programu”. Po załadowaniu programu i danych do pamięci adres pierwszej instrukcji w programie jest zapisywany do licznika programu. CU odczytuje z pamięci zawartość komórki pamięci, której adres znajduje się w liczniku programu i umieszcza ją w specjalnym urządzeniu - „Rejestrze poleceń”. CU określa działanie polecenia, „zaznacza” w pamięci dane, których adresy są określone w poleceniu, i steruje wykonaniem polecenia. Operacja wykonywana jest przez ALU lub sprzęt komputerowy.

W wyniku wykonania dowolnego polecenia licznik programu zmienia się o jeden i tym samym wskazuje na następne polecenie programu. Gdy wymagane jest wykonanie polecenia, które nie jest zgodne z aktualną kolejnością, ale jest oddzielone od podanego określoną liczbą adresów, to specjalna komenda skoku zawiera adres komórki, do której ma być przekazana kontrola.

Architektura komputerowabierze się pod uwagę jego reprezentację na pewnym ogólnym poziomie, w tym opis możliwości programowania użytkownika, systemów poleceń, systemów adresowania, organizacji pamięci itp. Architektura definiuje zasady działania, łącza informacyjne i wzajemne połączenia głównych węzłów logicznych komputera: procesora, pamięci o dostępie swobodnym (RAM, RAM), pamięci zewnętrznej i urządzeń peryferyjnych.

Komponenty architektury komputerowej to: możliwości obliczeniowe i logiczne, sprzęt i oprogramowanie.

Struktura komputera to zbiór jego elementów funkcjonalnych i połączeń między nimi. Elementami mogą być najbardziej typowe urządzenia - od głównych węzłów logicznych komputera po najprostsze obwody. Strukturę komputera przedstawiono graficznie w postaci schematów blokowych, za pomocą których można ją opisać na dowolnym poziomie szczegółowości.

Należy odróżnić architekturę komputera od jego struktury. Struktura definiuje określony zestaw urządzeń, bloków, węzłów składających się na komputer, podczas gdy architektura określa zasady współdziałania części składowych komputera.

Zasady (architektura) von Neumanna. Konstrukcja większości komputerów opiera się na następujących ogólnych zasadach sformułowanych w 1945 roku przez amerykańskiego naukowca Johna von Neumanna.

1. Zasada kontroli programu. Wynika z tego, że program składa się ze zbioru instrukcji, które są automatycznie wykonywane przez procesor jedna po drugiej w określonej kolejności.

Program jest pobierany z pamięci za pomocą licznika programu. Ten rejestr procesora sekwencyjnie zwiększa adres następnej zapisanej w nim instrukcji o długość instrukcji. Ponieważ instrukcje programu są umieszczone w pamięci jeden po drugim, w ten sposób zorganizowany jest wybór łańcucha instrukcji z kolejno rozmieszczonych komórek pamięci.

Struktura pojedynczego polecenia to:

<код операции> <операнды>,

gdzie<код операции>określa, która operacja ma zostać wykonana;

<операнды>- lista (ewentualnie singleton) tych stałych, adresów lub nazw zmiennych, na których wykonywana jest dana operacja.

W zależności od liczby operandów rozróżnia się jedno-, dwu- i trzyadresowe instrukcje maszynowe. Każde polecenie ma określoną ilość, mierzoną w bajtach.

2. Zasada warunkowego przejścia. Jeżeli po wykonaniu polecenia należy przejść nie do następnego, ale do innego, stosuje się polecenia skoków warunkowych lub bezwarunkowych (rozgałęziających), które do licznika poleceń wpisują numer komórki pamięci zawierającej następne polecenie. Pobieranie komend z pamięci zatrzymuje się po osiągnięciu i wykonaniu komendy "stop".



W ten sposób procesor wykonuje program automatycznie, bez interwencji człowieka.

3. Zasada jednorodności pamięci. Programy i dane są przechowywane w tej samej pamięci. Dlatego komputer nie rozróżnia tego, co jest przechowywane w danej komórce pamięci - liczby, tekstu czy polecenia. Na poleceniach można wykonywać te same czynności, co na danych. Otwiera to całą gamę możliwości. Na przykład program może być również przetwarzany podczas jego wykonywania, co pozwala na ustalenie zasad uzyskiwania niektórych jego części w samym programie (tak jest zorganizowane wykonywanie cykli i podprogramów w programie). Co więcej, polecenia jednego programu mogą być odbierane jako wynik wykonania innego programu. Na tej zasadzie opierają się metody tłumaczenia - tłumaczenie tekstu programu z języka programowania wysokiego poziomu na język konkretnej maszyny.

4. Zasada umieszczania programu w pamięci. Program wymagany do działania komputera jest wcześniej umieszczany w pamięci komputera, a komenda za komendą nie jest wprowadzana.

5. Zasada targetowania. Strukturalnie pamięć główna składa się z komórek o zmienionej numeracji; każda komórka jest dostępna dla procesora w dowolnym momencie. Stąd możliwe jest nadanie nazw obszarom pamięci, tak aby zapisane w nich wartości były później dostępne lub zmieniane podczas wykonywania programów korzystających z przypisanych nazw.

6. Zasada hierarchii pamięci. Pamięć komputera jest niejednorodna. Często używane dane mają mniejszą, ale szybszą pamięć; w przypadku rzadko używanych danych przydzielana jest większa ilość pamięci, ale mniejsza wydajność.

7. Zasada systemu liczb binarnych. Do wewnętrznej reprezentacji danych i programów w pamięci komputera wykorzystywany jest system liczb binarnych, który może być technicznie łatwiejszy do wdrożenia.

Komputery zbudowane na tych zasadach są typu von Neumanna. Istnieją inne klasy komputerów, które zasadniczo różnią się od komputerów von Neumanna. Tutaj np. może nie być spełniona zasada sterowania programem, czyli mogą pracować bez licznika programu (rejestru adresowego), który wskazuje na wykonywaną instrukcję programu. Aby odwołać się do zmiennej przechowywanej w pamięci, komputery te nie muszą nadawać jej nazwy. Takie komputery nazywane są komputerami nie von Neumanna.

Maszyna von Neumanna składała się z pamięci, która była zbiorem rejestrów, jednostki ALU, urządzenia wejścia-wyjścia i urządzenia sterującego (ryc. 3.7).

Urządzenie wejściowe przesyłało polecenia i dane do jednostki ALU, skąd były zapisywane do pamięci. Wszystko zespoły, całość nazywana jest programem, są zapisywane do pamięci w sąsiednich komórkach w kolejności rosnącej ich adresów, a dane, które mają zostać przetworzone, są zapisywane do komórek o dowolnych adresach. Ostatnie polecenie programu jest koniecznie poleceniem zatrzymania. Każde polecenie zawiera kod operacji do wykonania oraz adresy komórek zawierających dane przetwarzane przez to polecenie. Kontroler zawiera specjalny rejestr o nazwie „ Licznik poleceń”. Po załadowaniu programu i danych do pamięci adres pierwszej instrukcji w programie jest zapisywany do licznika programu. Następnie komputer przełącza się w tryb automatycznego wykonywania programu.

Ryż. 3.7. Maszyna von Neumanna

Urządzenie sterujące odczytuje z pamięci zawartość komórki pamięci, której adres znajduje się w liczniku programu i umieszcza ją w specjalnym urządzeniu - " Rejestr poleceń”. Rejestr instrukcji przechowuje instrukcję podczas jej wykonywania. Urządzenie sterujące odszyfrowuje typ operacji polecenia, odczytuje dane z pamięci, której adresy są określone w poleceniu i przystępuje do jego wykonania. Dla każdego rozkazu urządzenie sterujące posiada własny algorytm przetwarzania, który polega na generowaniu sygnałów sterujących dla wszystkich pozostałych urządzeń maszyny. Algorytm ten mógł być zaimplementowany w oparciu o kombinacyjne układy logiczne lub za pomocą specjalnej pamięci wewnętrznej, gdzie algorytmy te były zapisywane w postaci mikrorozkazów połączonych w mikroprogramy. Wykonanie mikroprogramu odbywa się na tej samej zasadzie co programy w pamięci głównej, tj. zgodnie z zasadą von Neumanna. Każda mikroinstrukcja zawiera zestaw sygnałów sterujących dla urządzeń maszynowych. Należy zauważyć, że urządzenia sterujące do wykonywania poleceń procesora w nowoczesnych systemach komputerowych są również zbudowane na zasadzie obwodów kombinacyjnych lub automatów mikroprogramowych, zgodnie z którymi są podzielone na RYZYKO oraz CISC procesory, które zostaną omówione poniżej.

Oprogramowanie układowe do wykonywania dowolnego polecenia koniecznie zawiera sygnały zmieniające zawartość licznika programu o jeden. Tym samym po zakończeniu wykonywania kolejnego polecenia licznik programu wskazywał następną komórkę pamięci, w której znajdowała się kolejna instrukcja programu. Sterownik odczytuje instrukcję, której adres znajduje się w liczniku programu, umieszcza ją w rejestrze instrukcji i tak dalej. Proces ten trwa, dopóki następne polecenie wykonywalne nie okaże się poleceniem zatrzymania wykonywania programu. Warto zauważyć, że zarówno instrukcje, jak i dane w pamięci są całkowitymi zestawami binarnymi. Urządzenie sterujące nie może odróżnić polecenia od danych, dlatego jeśli programista zapomniał zakończyć program poleceniem stop, urządzenie sterujące odczytuje kolejne komórki pamięci, które nie zawierają już poleceń programu i próbuje je zinterpretować jako polecenia.

Polecenia rozgałęzień bezwarunkowych lub warunkowych można uznać za szczególny przypadek, gdy wymagane jest wykonanie polecenia, które nie jest zgodne z aktualną kolejnością, ale jest oddzielone od podanej określoną liczbą adresów. W takim przypadku instrukcja skoku zawiera adres komórki, do której chcesz przekazać kontrolę. Adres ten jest zapisywany przez urządzenie sterujące bezpośrednio do licznika programu i przeskakuje do odpowiedniej instrukcji programu.

DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chciałbyś przeczytać The Bell?
Bez spamu