DZWONEK

Są tacy, którzy czytają te wiadomości przed tobą.
Subskrybuj, aby otrzymywać świeże artykuły.
E-mail
Imię
Nazwisko
Jak chcesz przeczytać Dzwon
Bez spamu

Komputer osobisty typu IBM PC. Obwód logiczny

Jednostka systemowa to węzeł, w którym zainstalowane są najważniejsze komponenty. Urządzenia zewnętrzne są przeznaczone do wprowadzania, wyprowadzania i długotrwałego przechowywania informacji. Nazywa się je urządzeniami peryferyjnymi. Z wyglądu jednostki systemowe różnią się kształtem obudowy, które są wydawane w poziomych wersjach biurkowych i pionowych wieżach. Obudowy o pionowym wyglądzie wyróżniają się wymiarami: pełnowymiarowa duża wieża, średniej wielkości środkowa moc, mała mała minitower. Wykonalne w poziomie obudowy jednostek systemowych są podzielone na płaskie, a szczególnie płaskie. W przypadku jednostek systemowych oprócz formularza ważnym parametrem jest współczynnik kształtu. Od tego zależą wymagania dotyczące urządzeń umieszczonych w obudowie. Obecnie używane są 2 typy przypadków AT i ATX. Współczynnik kształtu obudowy musi być zgodny ze współczynnikiem kształtu płyty głównej komputera.


Monitor - urządzenie do wizualnej prezentacji danych. To nie jedyne możliwe, ale główne urządzenie do wyświetlania informacji. Jego główne parametry konsumenckie to rozmiar ekranu i skok maski ekranu. Rozmiar monitora mierzy się na przekątnej ekranu. Standardowe rozmiary to 14, 15, 17, 20, 21 cali. Obraz na ekranie monitora jest uzyskiwany w wyniku napromieniowania powłoki fosforowej ostro skierowaną wiązką elektronów rozproszonych w lampie próżniowej. Maskę stosuje się w odstępach co 0,2-0,25 mm. Częstotliwość odświeżania obrazu oznacza, ile razy sekunda monitor może całkowicie zmienić obraz.

Klawiatura - urządzenie sterujące klawiaturą PC. Służy do wprowadzania danych alfanumerycznych, poleceń sterujących. Połączenie monitora i klawiatury zapewnia interfejs użytkownika zwany interfejsem poleceń.

Mysz jest urządzeniem sterującym typu manipulator. Poruszanie myszą po płaskiej powierzchni jest synchronizowane ze wskaźnikiem myszy na ekranie monitora. Monitor + mysz \u003d najnowocześniejszy typ interfejsu zwany graficznym. W przeciwieństwie do klawiatury mysz nie jest standardowym urządzeniem sterującym. W związku z tym przy pierwszym włączeniu komputera nie działa i wymaga obsługi sterowników. Standardowa mysz ma 2 przyciski. Chociaż są 3 przyciski lub 2 i przewiń.

Funkcje niestandardowych elementów sterujących są określane przez oprogramowanie dostarczone z urządzeniem. Rozważ wewnętrzne i zewnętrzne urządzenia komputera oraz połączenia między nimi.

JEDNOSTKA SYSTEMOWA

  PŁYTA GŁÓWNA

Ten przybliżony schemat przedstawia komunikację między urządzeniami komputerowymi. Można to nazwać logicznym schematem komunikacji między komponentami. Wewnętrzne urządzenie jednostki systemowej. Jednostka systemowa zawiera wszystkie główne urządzenia komputera: płytę główną, adaptery, napędy, zasilacz, głośnik, elementy sterujące.


10. Urządzenia wewnętrzne   PC: mikroprocesor, pamięć RAM, ROM, magistrala, mikroukłady obsługujące.

Mikroprocesor jest głównym mikroukładem komputera, w którym wykonywane są wszystkie obliczenia; strukturalnie mikroprocesor składa się z komórek podobnych do komórek RAM. Wewnętrzne komórki mikroprocesora nazywane są rejestrami. W przypadku innych urządzeń mikroprocesor jest podłączony do kilku grup przewodów, zwanych magistralami. Główne parametry mikroprocesora to: 1) zestaw poleceń wykonywalnych; 2) częstotliwość zegara; 3) pojemność. Istnieją mikroprocesory z rozszerzonym i zredukowanym systemem instrukcji. Im szerszy zestaw instrukcji, tym bardziej złożona jest architektura mikroprocesora, tym dłuższy jest formalny zapis jego instrukcji i dłuższy średni czas wykonywania instrukcji. Na przykład system wykonywania instrukcji Intel Pentium ma obecnie ponad 1000 instrukcji. Takie procesory nazywane są procesorami z rozszerzonym systemem instrukcji (CISC).

W połowie lat 80. XX wieku pojawiły się mikroprocesory ze zredukowanym systemem instrukcji (RISC). Dzięki tej architekturze zespoły są znacznie mniejsze i każdy z nich działa szybciej.

Dlatego programy składające się z prostych poleceń są wykonywane przez te procesory znacznie szybciej. Jednak drugą stroną zredukowanego zestawu poleceń jest to, że złożone operacje muszą być emulowane daleko od skutecznej sekwencji prostych poleceń. Dlatego procesory CISC i RISC są używane w różnych polach.

Częstotliwość zegara wskazuje, ile podstawowych operacji mikroprocesor wykonuje w ciągu 1 sekundy, mierzonych w megahercach.

Głębia bitowa pokazuje, ile bitów informacji jest przetwarzanych i przesyłanych w 1 cyklu zegarowym, a także ile bitów można wykorzystać w mikroprocesorze do adresowania w pamięci RAM. Wykorzystywane są 16, 32 i 64-bitowe mikroprocesory.

RAM (pamięć o dostępie swobodnym) - tablica krystalicznych komórek, które mogą przechowywać dane. Istnieje wiele rodzajów pamięci RAM, ale z punktu widzenia zasady fizycznej rozróżnia się dynamiczną pamięć DRAM i statystyczną pamięć SRAM. Dynamiczne komórki pamięci mogą być reprezentowane w postaci mikrokondensatorów, które akumulują ładunek, wady tego typu są związane z faktem, że ładunki mają tendencję do rozpraszania się w przestrzeni. I bardzo szybko. Dlatego wymagane jest stałe ładowanie kondensatora. Statystyczne komórki pamięci mogą być traktowane jako wyzwalacze (składają się z kilku tranzystorów. Nie zawierają ładunku, ale stan, dlatego ten typ pamięci zapewnia wyższą wydajność, chociaż jest technologicznie bardziej złożony i odpowiednio droższy. Można go włączyć lub wyłączyć. Dynamiczne mikroukłady pamięci są używane jako główna pamięć RAM, a mikroukłady pamięci SRAM są używane jako pamięć podręczna zaprojektowana w celu optymalizacji wydajności procesora.

Autobusy to grupy przewodników do przesyłania danych, adresów i sygnałów między różnymi elementami komputera. Istnieje wiele standardowych interfejsów magistrali: 1) magistrala danych do kopiowania danych z pamięci RAM do rejestrów procesora i odwrotnie; 2) magistrala adresowa do kopiowania adresów; 3) Magistrala poleceń do przesyłania poleceń do procesora.

Na płycie głównej znajdują się również ROM. Jednym z nich jest BIOS. Przechowuje programy, które realizują funkcje wprowadzania i wyprowadzania informacji oraz testowania komputerowego.

Ibm pc   - Pierwszy masowy komputer osobisty wyprodukowany przez IBM, wydany w 1981 roku. W szerszym znaczeniu jest to nazwa całej rodziny komputerów osobistych wyposażonych w procesory z rodziny Intel x86.

Komputer IBM PC / XT (wydanie 1984)

IBM PC Model 5150

  Fabuła

Do lat 80. IBM był bardzo aktywny w dużych zamówieniach. Kilka razy były robione przez rząd, kilka razy przez wojsko. Z reguły dostarczała swoje komputery mainframe instytucjom edukacyjnym i naukowym, a także dużym korporacjom. Jest mało prawdopodobne, aby ktokolwiek kupił osobną szafę System / 360 lub 370 i kilkanaście szaf opartych na taśmach magnetycznych i już kilka razy zmniejszył w porównaniu do RAMAC 305 dyski twarde.

Niebieski gigant był ponad potrzebami zwykłego konsumenta, który potrzebował znacznie mniej, aby być całkowicie szczęśliwym niż NASA lub inny uniwersytet. Dało to szansę na stanie na parterze jabłko   z logo w kształcie Newtona trzymającego jabłko, wkrótce zastąpione po prostu ugryzionym jabłkiem. Apple wymyśliło bardzo prostą rzecz - komputer dla wszystkich. Pomysł ten nie był wspierany przez Hewlett-Packard, gdzie przedstawił go Steve Woźniak lub inne duże firmy informatyczne z tamtych czasów.

Kiedy IBM zdał sobie sprawę, że było już za późno. Świat już podziwiał Apple II - najpopularniejszy i odnoszący sukcesy komputer Apple w swojej historii (a nie Macintosh, jak wielu uważa). Ale lepiej późno niż wcale. Nietrudno było zgadnąć, że rynek ten znajduje się na samym początku rozwoju. Wynikiem jest komputer IBM (model 5150). Stało się to 12 sierpnia 1981 r.

Najbardziej uderzające jest to, że nie był to pierwszy komputer osobisty IBM. Tytuł należy do pierwszego modelu 5100, wydanego w 1975 roku. Był znacznie bardziej kompaktowy niż komputery mainframe, miał osobny monitor, pamięć i klawiaturę. Ale miało to na celu rozwiązanie problemów naukowych. Dla biznesmenów i tylko miłośników technologii nie pasował dobrze. I nie tylko ze względu na cenę, która wynosiła około 20 000 USD.

IBM PC zmienił nie tylko świat, ale także podejście firmy do tworzenia komputerów. Wcześniej IBM wykonał dowolny komputer zi niezależnie, bez uciekania się do pomocy stron trzecich. Z IBM 5150 okazało się inaczej. W tym czasie rynek komputerów osobistych został podzielony na Commodore PET, rodzinę 8-bitowych systemów Atari, Apple II i TRS-80 firmy Tandy Corporation. Dlatego IBM spieszył się, aby nie przegapić chwili.

Grupa 12 osób, które pracowały w Boca Raton na Florydzie pod kierunkiem Dona Estridge'a, otrzymała zlecenie pracy nad projektem Chess (dosłownie „Project Chess”). Poradzili sobie z zadaniem za około rok. Jedną z kluczowych decyzji było użycie produktów innych firm. To jednocześnie zaoszczędziło dużo pieniędzy i czasu na własnym personelu naukowym.

Początkowo Don wybrał jako procesor IBM 801 i specjalnie zaprojektowany system operacyjny. Ale nieco wcześniej niebieski gigant wypuścił mikrokomputer Datamaster (pełna nazwa System / 23 Datamaster lub IBM 5322), oparty na procesorze Intel 8085 (nieco uproszczona modyfikacja Intel 8088). To był powód, dla którego wybrano procesor Intel 8088 dla pierwszego komputera IBM. Nawet w przypadku komputerów IBM PC gniazda rozszerzeń pokrywały się z gniazdami Datamaster. Cóż, Intel 8088 zażądał nowego systemu operacyjnego DOS, zaproponowanego w porę przez małą firmę z Redmond o nazwie Microsoft. Nie zaczęli tworzyć nowego projektu dla monitora i drukarki. Jako pierwszy wybrano monitor wcześniej utworzony przez japoński oddział IBM, ale drukarka Epson stała się urządzeniem drukującym.

Komputer IBM PC był sprzedawany w różnych konfiguracjach. Najdroższy kosztował 3005 USD. Został wyposażony w procesor Intel 8088 pracujący na częstotliwości 4,77 MHz, który w razie potrzeby można uzupełnić koprocesorem Intel 8087, który umożliwił wykonywanie obliczeń zmiennoprzecinkowych. Ilość pamięci RAM wynosiła 64 KB. Miał wykorzystywać 5,25-calowe dyskietki jako urządzenie do trwałego przechowywania danych. Mogą być zainstalowane jeden lub dwa elementy. Później IBM zaczął dostarczać modele, które umożliwiły podłączenie kasetowych nośników pamięci.

Nie można zainstalować dysku twardego w IBM 5150 z powodu niewystarczającego zasilania. Firma jest jednak tak zwanym „modułem rozszerzającym” lub modułem rozszerzającym (zwanym także modułem rozszerzającym IBM 5161) z dyskiem twardym o pojemności 10 MB. Potrzebował osobnego źródła zasilania. Ponadto można w nim zainstalować drugi dysk twardy. Miał także 5 gniazd rozszerzeń, podczas gdy sam komputer miał 8. Jednak do podłączenia modułu rozszerzeń konieczne było użycie karty rozszerzenia i karty odbiornika, które zostały zainstalowane odpowiednio w module i obudowie. Inne gniazda rozszerzeń komputerowych były zwykle zajęte przez kartę graficzną, karty z portami wejściowymi / wyjściowymi itp. Możliwe było zwiększenie ilości pamięci RAM do 256 KB.

Najtańsza konfiguracja kosztuje 1565 USD. Wraz z nią kupujący otrzymał ten sam procesor, ale pamięć RAM miała tylko 16 KB. Stacja dyskietek nie była dostarczana z komputerem, ani nie było standardowego monitora CGA. Ale był adapter do napędów kasetowych i karta graficzna koncentrująca się na podłączeniu do telewizora. W ten sposób powstała droga modyfikacja komputera IBM PC dla biznesu (gdzie, nawiasem mówiąc, była dość powszechna), a tańsza - dla domu.

Ale na IBM PC była jeszcze jedna nowość - podstawowy system wejścia / wyjścia lub BIOS (Basic Input / Output System). Nadal jest używany w nowoczesnych komputerach, choć w nieco zmodyfikowanej formie. Najnowsze płyty główne zawierają już nowe oprogramowanie EFI lub nawet uproszczone wersje Linuksa, ale na pewno minie kilka lat, zanim BIOS zniknie.

Architektura komputera IBM PC została otwarta i dostępna. Każdy producent może produkować urządzenia peryferyjne i oprogramowanie dla komputera IBM bez konieczności zakupu licencji. W tym samym czasie niebieski gigant sprzedawał Podręcznik techniczny komputera IBM, który zawierał pełny kod źródłowy systemu BIOS. W rezultacie rok później na świecie pojawiły się pierwsze komputery „kompatybilne z IBM PC” od Columbia Data Products. Następnie Compaq i inne firmy.

  Główne bloki IBM

PC Zazwyczaj komputery osobiste IBM PC składają się z trzech części (bloków):

· Jednostka systemowa;

· Klawiatura umożliwiająca wprowadzanie znaków do komputera;

· Monitor (lub wyświetlacz) - do wyświetlania informacji tekstowych i graficznych.

Komputery są również dostępne w wersji przenośnej - w wersji „do kolan” (laptop) lub „notatnik” (laptop). Tutaj jednostka systemowa, monitor i klawiatura są zamknięte w jednym pudełku: jednostka systemowa jest ukryta pod klawiaturą, a monitor jest wykonany jako osłona klawiatury. Chociaż jednostka systemowa wygląda najmniej spektakularnie z tych części komputera, jest „główna” w komputerze. Wszystkie główne węzły komputerowe znajdują się w nim:

· Obwody elektroniczne kontrolujące działanie komputera (mikroprocesor, baran, kontrolery urządzeń itp.);

· Jednostka zasilająca, która przekształca źródło zasilania sieci w prąd stały niskiego napięcia dostarczany do obwodów elektronicznych komputera;

· Dyski (lub dyski) dla dyskietek używane do odczytu i zapisu na dyskietkach (dyskietki);

· Dysk twardy przeznaczony do odczytu i zapisu na niewymiennym dysku magnetycznym (dysk twardy).

  Dodatkowe urządzenia

Możesz podłączyć różne urządzenia wejścia / wyjścia z informacjami do jednostki systemowej komputera IBM PC, rozszerzając je funkcjonalność. Wiele urządzeń jest podłączonych za pomocą specjalnych gniazd (gniazd), zwykle umieszczonych z tyłu jednostki systemowej komputera. Oprócz monitora i klawiatury urządzenia te to:

· Drukarka - do drukowania informacji tekstowych i graficznych;

· Mysz - urządzenie ułatwiające wprowadzanie informacji do komputera;

· Joystick - manipulator w postaci rączki przymocowanej do zawiasu z przyciskiem, wykorzystywany głównie do gier komputerowych;

· Jak również inne urządzenia.

Niektóre urządzenia można podłączyć do jednostki systemowej komputera, na przykład:

· Modem - do wymiany informacji z innymi komputerami za pośrednictwem sieć telefoniczna;

· Modem faksu - łączy możliwości modemu i faksu;

· Streamer - do przechowywania danych na taśmie magnetycznej. Niektóre urządzenia, na przykład wiele typów skanerów (urządzenia do wprowadzania zdjęć i tekstów do komputera), używają metody połączenia mieszanego: włożona jest tylko jednostka systemowa komputera tablica elektroniczna   (kontroler), który kontroluje działanie urządzenia, a samo urządzenie jest podłączone do tej płyty za pomocą kabla.

  Pierwsza konfiguracja IBM PC

Procesor Intel 8088 o częstotliwości 4,77 MHz, pojemność pamięci RAM od 16 do 256 KB.

Stacje dyskietek 160 Kbyte zostały zakupione za opłatą (jeden lub dwa z nich można podłączyć).

Winchester zniknął.

Kluczowe technologie stały się:

Magistrala systemowa ISA ze standardowymi gniazdami, które pozwoliły na włożenie różnych kart rozszerzeń (wideo, audio, sieciowe i inne) do komputera.

BIOS - zestaw funkcji systemowych, które pozwoliły twórcy oprogramowania na oderwanie się od szczegółów sprzętu i nie zależą od konkretnej konfiguracji systemu. (Do tego czasu całe oprogramowanie zostało opracowane tylko dla określonych maszyn i dostarczone razem z nimi).

Na komputerze IBM można użyć monochromatycznej karty wideo MDA (tekst 80 × 25, rozmiar znaku 9 × 14) lub kolorowej karty wideo CGA (tekst 80 × 25 lub 40 × 25, rozmiar znaku 8 × 8 lub grafika 320 × 200/4 kolory lub 640 × 200/2 kolory). Co więcej, możesz nawet włożyć oba adaptery i podłączyć dwa monitory jednocześnie, monochromatyczny i kolorowy.

12 sierpnia 1981 r. IBM ogłosił wydanie nowego pakietu sprzętu i oprogramowania - komputer osobisty   Ibm 5150
12 sierpnia 1981 r. IBM ogłosił wydanie nowego pakietu sprzętu i oprogramowania - komputera osobistego IBM 5150 (później zwanego IBM PC). Nikt wtedy nie wiedział, że ta data będzie początkiem nowego etapu rozwoju technologii komputerowej - ery komputerów osobistych, oraz ten model   Będzie to standard branżowy przez wiele lat.
Muszę powiedzieć, że IBM 5150 wcale nie był pierwszym komputerem do indywidualnego użytku. Od kilku lat Apple, Altair i kilku innych producentów sprzedaje sprzęt na rynku. Tak, a sam IBM próbował stworzyć takie urządzenia. Jeden z jej projektów dotyczących „przenoszenia komputerów w ręce jednego użytkownika” o nazwie „SCAMP” (Special Computer, APL Machine Portable) rozpoczął się w 1973 roku, a jego wynik w postaci przenośnego komputera IBM 5100 pojawił się dwa lata później. Dwanaście modyfikacji tego komputera (z pamięcią RAM od 16 do 64 kilobajtów) zostało sprzedanych w cenie od 9 do 20 tysięcy dolarów.
Komputer IBM 5150 był znacznie tańszy - w wersji z 16 kilobajtami pamięci (z możliwością rozszerzenia do 256 kilobajtów) kosztował (wraz z drukarką) tylko 1 565 USD.

To prawda, że \u200b\u200bnie miał twardy dysk, ale możliwa była praca z dyskietkami 5-calowymi. Urządzenie zostało opracowane w rekordowym czasie - w ciągu roku zespół dwunastu osób kierowany przez Dona Estridge'a, znanego odtąd jako „ojciec komputera IBM”.
Dlaczego zatem wydanie IBM 5150 było wzorcem „ery komputerów”? Z tego samego powodu, dla którego Krzysztof Kolumb jest uważany za „odkrywcę Ameryki”. W końcu istnieją dowody na to, że niektórzy żeglarze z Europy przekraczali Atlantyk. Ale wszyscy odkryli Amerykę „dla siebie”, a Kolumb otworzył ją na cały Stary Świat.
Wśród powodów sukcesu IBM 5150 są dwa kluczowe punkty.
Pierwszy to czynnik czasu. Na początku lat 80. rynek był gotowy na powszechne korzystanie z pojedynczych komputerów (głównie dzięki pionierom, tym samym Apple i Altair), a IBM zdołał znaleźć optymalną kombinację „cena - funkcjonalność”, w której komputer był zarówno użyteczny, jak i niedrogi koszt.
Drugi to jakościowo nowy model biznesowy do tworzenia i promowania nowego urządzenia na rynku. Aby przyspieszyć projektowanie, IBM jako pierwszy szeroko wykorzystał zasadę „outsourcingu” do opracowania poszczególnych elementów komputera. Wszyscy wiedzą o tych dwóch komponentach IBM 5150 - 16-bitowym procesorze Intel 8088 o częstotliwości taktowania 4,77 MHz (zmodyfikowana wersja procesora 8086) i systemie operacyjnym PC-DOS, który był nieco zmodyfikowaną wersją MicroSoft Disk Operating System 1.0 stworzoną przez młodych Firma Seattle *. Co ważniejsze, samochód został zbudowany na zasadach „otwartej architektury”. Oznaczało to, że inne firmy mogły produkować kompatybilne komputery. Oto jak zostało to opisane w książce Yu. L. Polunova, „Od liczydła do komputera”, wydanej przez wydanie rosyjskie w 2004 r. (Tom II, s. 327):
„Podczas prezentacji Estridge wydała oświadczenie, które zaskoczyło (jeśli nie wstrząsnęło) światem komputerów. W przeciwieństwie do tradycyjnej „bliskości”, korporacja ogłosiła zamiar opublikowania przewodnika technicznego z obwodami elektrycznymi i specyfikacjami komputerów PC, a także kodów źródłowych dla systemu BIOS i programów diagnostycznych: „Prześlemy informacje do istniejącego przemysłu domków, aby umożliwić mu opracowanie kart rozszerzeń, będziemy zadowoleni wszelkie oferty firm programistycznych ”.”
Zatem IBM można uznać za ideologicznego przodka koncepcji Open Source. To prawda, że \u200b\u200bpoczątkowo producenci zewnętrzni mogli to zrobić, nabywając IBM licencję na korzystanie z BIOS-u, ale wkrótce pojawił się niezależny rozwój kompatybilnego BIOS-u, a produkcję klonów PC można było zrobić bez opłat licencyjnych na Blue Giant.
Połączenie tych dwóch punktów (dobry czas wydania i nowy model biznesowy) spowodowało reakcję łańcuchową (konkurencja między producentami prowadzi do niższych cen - wyższego popytu - większej liczby dostawców itp.) Oraz komputerów kompatybilnych z IBM przez kilka lat zalał cały świat.
Głównym zjawiskiem komputerów PC jest to, że po raz pierwszy złożone rozwiązanie techniczne wymknęło się spod kontroli firmy autora i zaczęło się rozwijać pod kontrolą niezorganizowanej społeczności IT składającej się z dziesiątek tysięcy dużych i małych firm informatycznych: producentów komponentów elektronicznych, asemblerów deweloperzy oprogramowania. Dlatego, gdy mówimy, że komputer się otworzył nowa scena   rozwój technologii komputerowej, nadchodzi nie o niektórych rozwiązaniach technicznych, ale o wdrożeniu jakościowo nowego modelu biznesowego dla rozwoju rynku wysokich technologii, który po 10-15 latach mogliśmy zaobserwować na innych przykładach - Internet, Open Source.
Jednak każda społeczność, nawet najbardziej wolna, powinna mieć liderów. IBM nie przetrwał długo w tej roli w odniesieniu do komputerów PC: do końca lat 80. dwóch innych uczestników projektu, Intel i Microsoft, zajęło wiodące pozycje. Ciekawe, że w 1981 roku Microsoft nie miał nawet statusu „młodszego” partnera IBM, a Bill Gates nie został zaproszony na oficjalną prezentację pierwszego komputera. W końcu MS-DOS był tylko niewielką częścią projektu, zrealizowanego za absurdalną kwotę 80 tys. USD To prawda, że \u200b\u200bjego twórcy zastrzegli sobie prawo do opracowania i sprzedaży swojego systemu operacyjnego innym producentom komputerów.
Jedna z legend związanych z historią tworzenia IBM PC mówi, że wybierając dźwiękową nazwę nowego komputera, programiści, naśladując Apple, omawiali nazwy wszystkich owoców Florydy (tutaj było laboratorium, które przeprowadziło projekt). Mimo to postanowiono nazwać to po prostu PC, co lepiej odpowiadało surowemu stylowi IBM - weterana i niekwestionowanego lidera na rynku IT. Okazało się, że mieli rację: odtąd pojęcie PC nie jest jedynie oznaczeniem każdego pojedynczego komputera, ale nazwą jego bardzo specyficznej rodziny, której założycielem był ten sam IBM 5150. Tak więc z technicznego punktu widzenia kategoria komputerów osobistych obejmuje między innymi: najpotężniejsze serwery (w połowie lat 90. używano do nich określenia „serwery PC”).

IBM jest dziś znany wielu. Zostawiła ogromny ślad w historii komputerów i nawet dziś jej tempo w tej trudnej sprawie nie spadło. Najciekawsze jest to, że nie każdy wie, z czego słynie IBM. Tak, wszyscy słyszeli o IBM PC, o tym, że robiła laptopy, że kiedyś poważnie konkurowała z Apple. Jednak wśród zalet niebieskiego giganta jest ogromna liczba odkryć naukowych, a także wprowadzenie życie codzienne   różne wynalazki. Czasami wiele osób zastanawia się, skąd pochodzi ta technologia. I wszystko stamtąd - od IBM. Pięciu laureatów Nagrody Nobla w dziedzinie fizyki otrzymało nagrody za wynalazki wykonane w murach tej firmy.

Ten materiał ma rzucić światło na historię powstawania i rozwoju IBM. W tym samym czasie porozmawiamy o jego kluczowych wynalazkach, a także o przyszłych zmianach.

Czas formacji

IBM datuje się na rok 1896, kiedy to dekady przed pojawieniem się pierwszych komputerów elektronicznych, wybitny inżynier i statystyk Herman Hollerith założył firmę do produkcji maszyn obliczeniowych i analitycznych, ochrzczoną TMC (Tabicing Machine Company). Do tego pan Hollerith, potomek niemieckich emigrantów, otwarcie dumny ze swoich korzeni, został zachęcony sukcesem pierwszych maszyn liczących i analitycznych własnej produkcji. Istotą wynalazku dziadka „niebieskiego giganta” było to, że opracował przełącznik elektryczny, który umożliwia kodowanie danych w liczbach. W tym przypadku nośnikami informacji były karty, w których dziury były dziurkowane w specjalnej kolejności, po czym karty dziurkowania mogły być sortowane mechanicznie. Rozwój ten, opatentowany przez Hermana Holleritha w 1889 roku, wywołał zachwyt, dzięki któremu 39-letni wynalazca otrzymał zamówienie na dostarczenie swoich unikalnych maszyn do Departamentu Statystyki USA, który przygotowywał się do spisu z 1890 roku.

Sukces był przytłaczający: przetwarzanie zebranych danych trwało tylko rok, w przeciwieństwie do ośmiu lat, które statystycy z US Census Bureau zajęli, aby uzyskać wyniki spisu z 1880 roku. Wtedy w praktyce wykazano przewagę mechanizmów obliczeniowych w rozwiązywaniu takich problemów, co pod wieloma względami z góry określiło przyszły „boom cyfrowy”. Zdobyte środki i nawiązane kontakty pomogły panu Hollerithowi stworzyć TMC w 1896 roku. Początkowo firma próbowała produkować samochody użytkowe, ale w przeddzień spisu powszechnego z 1900 r. Przeprojektowała ją, aby produkować maszyny liczące i analityczne dla amerykańskiego Biura Spisu Powszechnego. Jednak trzy lata później, kiedy objęto państwową „karmę”, Herman Hollerith ponownie zwrócił oczy na komercyjne zastosowanie swoich osiągnięć.

Chociaż firma przeżywała okres szybkiego rozwoju, zdrowie jej twórcy i umysłu stale się pogarszało. To skłoniło go w 1911 roku do zaakceptowania oferty milionera Charlesa Flinta (Charles Flint) na zakup TMC. Wartość transakcji wyniosła 2,3 miliona USD, z czego Hollerith otrzymał 1,2 miliona USD. W rzeczywistości nie był to zwykły zakup akcji, ale połączenie TMC z ITRC (International Time Recording Company) i CSC (Computing Scale Corporation), w wyniku czego narodził się CTR (Computing Tabicing Recording). Stała się prototypem nowoczesnego IBM. A jeśli wielu nazywa Hermana Holleritha dziadkiem „niebieskiego giganta”, to Charles Flint jest uważany za jego ojca.

Flint był niewątpliwie geniuszem finansowym, który potrafił przewidywać silne sojusze korporacyjne, z których wiele przetrwało ich twórca i nadal odgrywa decydującą rolę w swoich dziedzinach. Brał czynny udział w tworzeniu panamerykańskiego producenta gumy U. S. Rubber, jednego z wiodących światowych producentów gumy do żucia American Chicle (od 2002 r., Zwany już Adams, jest częścią Cadbury Schweppes). Za swój sukces w konsolidacji amerykańskiej władzy korporacyjnej został nazwany „ojcem trustów”. Jednak z tego samego powodu ocena jego roli z punktu widzenia pozytywnego lub negatywnego wpływu, ale nigdy z punktu widzenia znaczenia, jest bardzo dwuznaczna. Jak bardzo paradoksalne były umiejętności organizacyjne Charlesa Flinta w departamentach rządowych i zawsze znajdował się tam, gdzie zwykli urzędnicy nie mogli działać otwarcie lub ich praca była mniej skuteczna. W szczególności przypisuje mu się udział w tajnym projekcie zakupu statków na całym świecie i ich konwersji na jednostki wojskowe podczas wojny hiszpańsko-amerykańskiej w 1898 roku.

Stworzona przez Charlesa Flinta, CTR Corporation w 1911 roku wyprodukowała szeroką gamę unikalnego sprzętu, w tym systemy śledzenia czasu, wagi, automatyczne kutry do mięsa oraz, co okazało się szczególnie ważne przy tworzeniu komputera, sprzęt do kart dziurkacza. W 1914 r. Thomas J. Watson Sr. objął stanowisko dyrektora generalnego, aw 1915 r. Został prezesem CTR.

Kolejnym ważnym wydarzeniem w historii CTR była zmiana nazwy na International Business Machines Co., Limited lub IBM w skrócie. Stało się to w dwóch etapach. Początkowo w 1917 r. Firma weszła na rynek kanadyjski pod taką marką. Najwyraźniej chciała to podkreślić fakt, że jest teraz prawdziwą międzynarodową korporacją. W 1924 r. IBM stał się znany jako amerykańska dywizja.

Wielki kryzys i II wojna światowa

Następne 25 lat w historii IBM były mniej więcej stabilne. Nawet podczas Wielkiego Kryzysu w Stanach Zjednoczonych firma nadal działała w tym samym tempie, prawie bez zwalniania pracowników, czego nie można powiedzieć o innych firmach.

W tym okresie można zauważyć kilka ważnych wydarzeń dla IBM. W 1928 r. Firma wprowadziła nowy typ karty dziurkacza z 80 kolumnami. Nazywano go Kartą IBM, a przez ostatnie kilka dekad była używana przez firmowe maszyny liczące, a później przez komputery. Innym znaczącym wydarzeniem dla IBM w tym czasie było duże zamówienie rządowe na zorganizowanie danych o pracy dla 26 milionów ludzi. Sama firma przypomina ją jako „największą transakcję rozrachunkową wszechczasów”. Ponadto otworzył drzwi niebieskiemu gigantowi do innych zamówień rządowych, tak jak na samym początku działalności TMC.

Książka „IBM and the Holocaust”

Istnieje kilka odniesień do współpracy IBM z faszystowskim reżimem w Niemczech. Źródłem danych tutaj jest książka Edwina Blacka, IBM and the Holocaust (IBM and the Holocaust). Jego nazwa jasno określa, w jakim celu zostały użyte maszyny liczące niebieskiego giganta. Prowadzili statystyki dotyczące uwięzionych Żydów. Podane są nawet kody użyte do uporządkowania danych: Kod 8 - Żydzi, Kod 11 - Cyganie, Kod 001 - Auschwitz, Kod 001 - Buchenwald i tak dalej.

Jednak według kierownictwa IBM firma sprzedawała jedynie sprzęt do Trzeciej Rzeszy, a sposób, w jaki był używany, nie dotyczy ich. Nawiasem mówiąc, działało wiele amerykańskich firm. IBM otworzył nawet fabrykę w Berlinie w 1933 r., Kiedy Hitler doszedł do władzy. Jednak użycie sprzętu IBM przez nazistów ma wadę. Po klęsce Niemiec, dzięki samochodom niebieskiego giganta, udało się prześledzić los wielu ludzi. Chociaż nie powstrzymało to różnych grup ludzi dotkniętych wojną, w szczególności Holokaustem, od żądania oficjalnych przeprosin od IBM. Firma odmówiła ich przyniesienia. Nawet pomimo faktu, że w czasie wojny jego pracownicy, którzy pozostali w Niemczech, kontynuowali pracę, nawet komunikując się z zarządem firmy za pośrednictwem Genewy. Jednak sam IBM uwolnił się od wszelkiej odpowiedzialności za działalność swoich przedsiębiorstw w Niemczech w okresie wojny od 1941 do 1945 roku.

W Stanach Zjednoczonych w okresie wojny IBM pracował dla rządu, a nie zawsze w jego bezpośredniej branży. Zakłady produkcyjne i pracownicy byli zaangażowani w produkcję karabinów (w szczególności karabin automatyczny Browning i karabinek M1), celowniki do bombardowania, części zamienne do silników itp. Thomas Watson, nadal kierujący wówczas firmą, ustalił nominalny zysk na te produkty w wysokości 1%. I nawet ta drobna drobiazg nie trafiła do skarbonki niebieskiego giganta, ale do fundacji funduszu na pomoc wdowom i sierotom, które straciły swoich bliskich podczas wojny.

Pojawiła się aplikacja do obliczania maszyn znajdujących się w Stanach Zjednoczonych. Były one wykorzystywane do różnych obliczeń matematycznych, logistyki i innych potrzeb wojennych. Były one równie aktywnie wykorzystywane podczas pracy nad projektem na Manhattanie, w ramach którego powstała bomba atomowa.

Duży czas na komputerze mainframe

Początek drugiej połowy ubiegłego wieku miał ogromne znaczenie dla współczesnego świata. Potem zaczęły pojawiać się pierwsze komputery cyfrowe. IBM brał czynny udział w ich tworzeniu. Pierwszym amerykańskim programowalnym komputerem był Mark I (pełna nazwa Aiken-IBM Automatic Sequence Controlled Calculator Kalkulator Mark I). Co najbardziej zaskakujące, oparto go na pomysłach Charlesa Babbage'a, wynalazcy pierwszego komputera. Nawiasem mówiąc, nie dokończył tego. Ale w XIX wieku było to trudne. IBM wykorzystał swoje obliczenia, przeniósł je do ówczesnych technologii i ujrzał światło Marka I. Został zbudowany w 1943 r., A rok później został oficjalnie oddany do użytku. Historia „Znaków” nie trwała długo. W sumie wydano cztery modyfikacje, z których ostatnia, Mark IV, została wprowadzona w 1952 roku.

W latach 50. IBM otrzymał kolejne duże zamówienie od rządu na opracowanie komputerów dla systemu SAGE (Semi Automatic Ground Environment). Jest to system wojskowy zaprojektowany do śledzenia i przechwytywania bombowców potencjalnego wroga. Ten projekt umożliwił niebieskiemu gigantowi dostęp do badań w Massachusetts Institute of Technology. Następnie pracował nad pierwszym komputerem, który z łatwością mógłby służyć jako prototypy nowoczesnych systemów. Zawierał więc wbudowany ekran, tablicę pamięci magnetycznej, obsługiwane konwersje cyfrowo-analogowe i analogowo-cyfrowe, miał pewną wersję sieci komputerowej, mógł przesyłać dane cyfrowe przez linię telefoniczną, obsługiwał procesor. Ponadto możliwe było podłączenie tak zwanych „lekkich pistoletów”, wcześniej powszechnie stosowanych jako alternatywa dla joysticka w konsolach i automatach. Było nawet wsparcie dla pierwszego algebraicznego języka komputerowego.

IBM zbudował 56 komputerów dla projektu SAGE. Koszt każdego z nich wynosił 30 milionów dolarów w cenach z lat 50. Pracowało nad nimi 7000 pracowników firmy, co w tym czasie stanowiło 20% całego personelu firmy. Oprócz wielkich zysków niebieski olbrzym był w stanie zdobyć nieocenione doświadczenie, a także dostęp do rozwoju wojskowego. Później wszystko to zastosowano w tworzeniu komputerów następnych generacji.

Kolejną atrakcją dla IBM było uruchomienie komputera System / 360. Jest to związane prawie ze zmianą całej epoki. Przed nim niebieski gigant produkował systemy oparte na lampach próżniowych. Na przykład po wspomnianym znaku I w 1948 r. Wprowadzono elektroniczny kalkulator sekwencyjny selektywny (SSEC), składający się z 21 400 przekaźników i 12 500 lamp próżniowych, zdolnych do wykonywania kilku tysięcy operacji na sekundę.

Oprócz komputerów SAGE IBM pracował nad innymi projektami dla wojska. Wojna koreańska wymagała więc użycia szybszych narzędzi obliczeniowych niż dużego programowalnego kalkulatora. Dlatego już w pełni opracowany komputer elektroniczny (nie z przekaźników, ale z lamp) został opracowany przez IBM 701, który pracował 25 razy szybciej niż SSEC, a jednocześnie zajmował cztery razy mniej miejsca. W ciągu następnych kilku lat kontynuowano modernizację komputerów lampowych. Na przykład sławny stał się IBM 650, który wyprodukował około 2000 jednostek.

Nie mniej znaczące dla dzisiejszej technologii komputerowej było wynalezienie w 1956 roku urządzenia o nazwie RAMAC 305. Stało się ono prototypem dzisiejszego skrótu HDD lub po prostu dysku twardego. Pierwszy dysk twardy ważył około 900 kilogramów, a jego pojemność wynosiła zaledwie 5 MB. Główną innowacją było zastosowanie 50 aluminiowych okrągłych, ciągle obracających się płyt, na których magnesowane elementy były nośnikami informacji. Umożliwiło to losowy dostęp do plików, co jednocześnie znacznie zwiększyło szybkość przetwarzania danych. Ale przyjemność nie była tania - w tamtych czasach kosztowała 50 000 USD. W ciągu 50 lat postęp zmniejszył koszt jednego megabajta danych na dysku twardym z 10 000 USD do 0,000 USD13, jeśli weźmiesz średni koszt dysku twardego o pojemności 1 TB.

W połowie ubiegłego wieku pojawił się także tranzystor zastępujący lampy. Niebieski gigant rozpoczął pierwsze próby wykorzystania tych elementów w 1958 r. Wraz z ogłoszeniem systemu IBM 7070. Nieco później pojawiły się komputery modeli 1401 i 1620. Pierwszy z nich był przeznaczony do wykonywania różnych zadań biznesowych, a drugi był małym komputerem naukowym służącym do opracowywania projektów autostrad i mostów. Oznacza to, że powstały zarówno bardziej kompaktowe wyspecjalizowane komputery, jak i bardziej nieporęczne, ale o znacznie większej szybkości systemu. Przykładem tego pierwszego jest model 1440, opracowany w 1962 r. Do prowadzenia małych i średnich przedsiębiorstw, a przykładem tego drugiego, 7094, jest tak naprawdę superkomputer z wczesnych lat 60. wykorzystywany w przemyśle lotniczym i kosmicznym.

Kolejną cegłą na drodze do stworzenia System / 360 było stworzenie systemów terminalowych. Użytkownikom przydzielono oddzielny monitor i klawiaturę, które były podłączone do jednego komputera centralnego. Tutaj masz prototyp architektury klient / serwer w połączeniu z systemem operacyjnym dla wielu użytkowników.

Jak to często bywa, aby jak najlepiej wykorzystać innowacje, musisz wziąć pod uwagę wszystkie poprzednie zmiany, znaleźć ich wspólną płaszczyznę, a następnie zaprojektować nowy system, który będzie wykorzystywał najlepsze aspekty nowych technologii. IBM System / 360, wprowadzony w 1964 roku, był właśnie takim komputerem.

Przypomina nieco współczesne komputery, które w razie potrzeby można aktualizować i do których można podłączyć różne urządzenia zewnętrzne. Dla System / 360 opracowano nową serię 40 urządzeń peryferyjnych. Należą do nich dyski twarde IBM 2311 i IBM 2314, napędy taśm magnetycznych IBM 2401 i 2405, sprzęt do kart dziurkaczy, urządzenia do rozpoznawania tekstu oraz różne interfejsy komunikacyjne.

Kolejną ważną innowacją jest nieograniczona przestrzeń wirtualna. Przed systemem / 360 takie rzeczy kosztują porządną kwotę. Oczywiście dla tej innowacji musiałem coś przeprogramować, ale wynik był tego wart.

Powyżej pisaliśmy o specjalistycznych komputerach dla nauki, dla biznesu. Zgadzam się, jest to nieco niewygodne zarówno dla użytkownika, jak i programisty. System / 360 stał się uniwersalnym systemem, którego można używać do większości zadań. Co więcej, teraz mogła go zastosować znacznie większa liczba osób - obsługiwane było jednoczesne połączenie do 248 terminali.

Stworzenie IBM System / 360 nie było tak tanim przedsięwzięciem. Komputer zaprojektowano tylko trzy bloki, które wydano około miliarda dolarów. Kolejne 4,5 miliarda dolarów wydano na inwestycje w fabryki, dla nich nowy sprzęt. W sumie otwarto pięć fabryk i zatrudniono 60 tysięcy pracowników. Thomas Watson, Jr., który zastąpił ojca w 1956 roku, nazwał ten projekt „najdroższym prywatnym komercyjnym projektem w historii”.

Lata 70. i era IBM System / 370

Kolejna dekada w historii IBM nie była tak rewolucyjna, jednak miało miejsce kilka ważnych wydarzeń. Otworzyli lata 70. wydaniem System / 370. Po kilku modyfikacjach Systemu / 360 system ten stał się bardziej złożoną i poważną przeróbką pierwotnego komputera mainframe.

Najważniejszą innowacją System / 370 jest obsługa pamięci wirtualnej, czyli w rzeczywistości jest to rozszerzenie pamięci RAM ze względu na stałą. Dziś zasada ta jest aktywnie stosowana w nowoczesnych systemach operacyjnych z rodziny Windows i Unix. Jednak w pierwszych wersjach Systemu / 370 jego obsługa nie była uwzględniona. Firma IBM udostępniła szeroko dostępną pamięć wirtualną w 1972 r., Wprowadzając System / 370 Advanced Function.

Oczywiście lista innowacji się nie kończy. Seria komputerów mainframe System / 370 obsługuje adresowanie 31-bitowe zamiast 24-bitowego. Domyślnie obsługiwana była obsługa dwóch procesorów, a także zgodność ze 128-bitową ułamkową arytmetyką. Kolejną ważną cechą System / 370 jest pełna kompatybilność wsteczna z System / 360. Oprogramowanie oczywiście.

Następnym komputerem mainframe firmy był System / 390 (lub S / 390), wprowadzony w 1990 roku. Był to system 32-bitowy, chociaż zachował zgodność z 24-bitowym adresowaniem System / 360 i 31-bit System / 370. W 1994 r. Stało się możliwe połączenie kilku komputerów mainframe System / 390 w jeden klaster. Technologia ta nosi nazwę Parallel Sysplex.

Po System / 390 IBM wprowadził z / Architecture. Jego główną innowacją jest obsługa 64-bitowej przestrzeni adresowej. W tym samym czasie wydano nowe komputery mainframe z dużą liczbą procesorów (najpierw 32, a potem 54). Pojawienie się z / Architecture przypada na rok 2000, czyli rozwój ten jest zupełnie nowy. Obecnie System z9 i System z10 są dostępne w jego ramach, które nadal cieszą się stałą popularnością. Co więcej, nadal zachowują zgodność wsteczną z System / 360 i późniejszymi komputerami mainframe, co jest rekordem tego rodzaju.

Na tym zamykamy temat dużych komputerów mainframe, dla których rozmawialiśmy o ich historii do dziś.

Tymczasem IBM ma konflikt z władzami. Poprzedziło go odejście głównych konkurentów niebieskiego giganta z rynku dużych systemów komputerowych. W szczególności NCR i Honeywall postanowiły skoncentrować się na bardziej rentownych niszowych segmentach rynku. System / 360 okazał się tak skuteczny, że nikt nie mógł z nim konkurować. W rezultacie IBM stał się monopolistą na rynku komputerów mainframe.

Cały ten 19 stycznia 1969 roku wpłynął na proces. Oczekiwano, że IBM został oskarżony o naruszenie sekcji 2 Sherman Act, która przewiduje odpowiedzialność za monopolizację lub próbę zmonopolizowania rynku elektronicznych systemów komputerowych, zwłaszcza systemów przeznaczonych do użytku biznesowego. Proces trwał do 1983 r. I zakończył się dla IBM, dlatego poważnie zrewidował swoje perspektywy prowadzenia działalności.

Możliwe, że próba antymonopolowa wpłynęła na projekt Future Systems, w którym miał po raz kolejny połączyć całą wiedzę i doświadczenie z poprzednich projektów (podobnie jak w czasach System / 360) i stworzyć nowy typ komputera, który po raz kolejny przewyższy wszystko wcześniej. wykonane systemy. Prace nad nim przeprowadzono w latach 1971–1975. Przyczyny jego zamknięcia nazywane są niedoskonałością ekonomiczną - zdaniem analityków nie walczyłby tak jak w przypadku Systemu / 360. A może IBM naprawdę postanowił nieco zatrzymać konie ze względu na toczący się proces.

Kolejne bardzo ważne wydarzenie w świecie komputerów przypisuje się tej samej dekadzie, chociaż miało to miejsce w 1969 roku. IBM zaczął sprzedawać usługi produkcyjne oprogramowanie   a samo oprogramowanie jest niezależne od komponentu sprzętowego. Dzisiaj nie jest to dla nikogo zaskakujące - nawet współczesna generacja krajowych użytkowników pirackiego oprogramowania przywykła do tego, że muszą płacić za programy. Ale potem liczne skargi, krytyka prasy, a jednocześnie procesy zaczęły zalewać głowy niebieskiego giganta. W rezultacie IBM zaczął sprzedawać tylko aplikacje oddzielnie, podczas gdy oprogramowanie do sterowania komputerem (System Control Programming), a właściwie system operacyjny, było bezpłatne.

Na początku lat 80. pewien Bill Gates z Microsoftu udowodnił, że system operacyjny może być opłacony.

Czas małych komputerów osobistych

Do lat 80. IBM był bardzo aktywny w dużych zamówieniach. Kilka razy były robione przez rząd, kilka razy przez wojsko. Z reguły dostarczała swoje komputery mainframe instytucjom edukacyjnym i naukowym, a także dużym korporacjom. Jest mało prawdopodobne, aby ktokolwiek kupił osobną szafę System / 360 lub 370 i kilkanaście szaf opartych na taśmach magnetycznych i już kilka razy zmniejszyło to w porównaniu do dysków twardych RAMAC 305.

Niebieski gigant był ponad potrzebami zwykłego konsumenta, który potrzebował znacznie mniej, aby być całkowicie szczęśliwym niż NASA lub inny uniwersytet. Dało to szansę stanąć na nogach piwnicy Apple z logo w postaci Newtona trzymającego jabłko, wkrótce zastąpione po prostu ugryzionym jabłkiem. Apple wymyśliło bardzo prostą rzecz - komputer dla wszystkich. Pomysł ten nie był wspierany przez Hewlett-Packard, gdzie przedstawił go Steve Woźniak lub inne duże firmy informatyczne z tamtych czasów.

Kiedy IBM zdał sobie sprawę, że było już za późno. Świat już podziwiał Apple II - najpopularniejszy i odnoszący sukcesy komputer Apple w swojej historii (a nie Macintosh, jak wielu uważa). Ale lepiej późno niż wcale. Nietrudno było zgadnąć, że rynek ten znajduje się na samym początku rozwoju. Wynikiem jest komputer IBM (model 5150). Stało się to 12 sierpnia 1981 r.

Najbardziej uderzające jest to, że nie był to pierwszy komputer osobisty IBM. Tytuł należy do pierwszego modelu 5100, wydanego w 1975 roku. Był znacznie bardziej kompaktowy niż komputery mainframe, miał osobny monitor, pamięć i klawiaturę. Ale miało to na celu rozwiązanie problemów naukowych. Dla biznesmenów i tylko miłośników technologii nie pasował dobrze. I nie tylko ze względu na cenę, która wynosiła około 20 000 USD.

IBM PC zmienił nie tylko świat, ale także podejście firmy do tworzenia komputerów. Wcześniej IBM wykonał dowolny komputer zi niezależnie, bez uciekania się do pomocy stron trzecich. Z IBM 5150 okazało się inaczej. W tym czasie rynek komputerów osobistych został podzielony na Commodore PET, rodzinę 8-bitowych systemów Atari, Apple II i TRS-80 firmy Tandy Corporation. Dlatego IBM spieszył się, aby nie przegapić chwili.

Grupa 12 osób, które pracowały w Boca Raton na Florydzie pod kierunkiem Dona Estridge'a, otrzymała zlecenie pracy nad projektem Chess (dosłownie „Project Chess”). Poradzili sobie z zadaniem za około rok. Jedną z kluczowych decyzji było użycie produktów innych firm. To jednocześnie zaoszczędziło dużo pieniędzy i czasu na własnym personelu naukowym.

Początkowo Don wybrał jako procesor IBM 801 i specjalnie zaprojektowany system operacyjny. Ale nieco wcześniej niebieski gigant wypuścił mikrokomputer Datamaster (pełna nazwa System / 23 Datamaster lub IBM 5322), oparty na procesorze Intel 8085 (nieco uproszczona modyfikacja Intel 8088). To był powód, dla którego wybrano procesor Intel 8088 dla pierwszego komputera IBM. Nawet w przypadku komputerów IBM PC gniazda rozszerzeń pokrywały się z gniazdami Datamaster. Cóż, Intel 8088 zażądał nowego systemu operacyjnego DOS, zaproponowanego w porę przez małą firmę z Redmond o nazwie Microsoft. Nie zaczęli tworzyć nowego projektu dla monitora i drukarki. Jako pierwszy wybrano monitor wcześniej utworzony przez japoński oddział IBM, ale drukarka Epson stała się urządzeniem drukującym.

Komputer IBM PC był sprzedawany w różnych konfiguracjach. Najdroższy kosztował 3005 USD. Został wyposażony w procesor Intel 8088 pracujący na częstotliwości 4,77 MHz, który w razie potrzeby można uzupełnić koprocesorem Intel 8087, który umożliwił wykonywanie obliczeń zmiennoprzecinkowych. Ilość pamięci RAM wynosiła 64 KB. Miał wykorzystywać 5,25-calowe dyskietki jako urządzenie do trwałego przechowywania danych. Mogą być zainstalowane jeden lub dwa elementy. Później IBM zaczął dostarczać modele, które umożliwiły podłączenie kasetowych nośników pamięci.

Nie można zainstalować dysku twardego w IBM 5150 z powodu niewystarczającego zasilania. Firma jest jednak tak zwanym „modułem rozszerzającym” lub modułem rozszerzającym (zwanym także modułem rozszerzającym IBM 5161) z dyskiem twardym o pojemności 10 MB. Potrzebował osobnego źródła zasilania. Ponadto można w nim zainstalować drugi dysk twardy. Miał także 5 gniazd rozszerzeń, podczas gdy sam komputer miał 8. Jednak do podłączenia modułu rozszerzeń konieczne było użycie karty rozszerzenia i karty odbiornika, które zostały zainstalowane odpowiednio w module i obudowie. Inne gniazda rozszerzeń komputerowych były zwykle zajęte przez kartę graficzną, karty z portami wejściowymi / wyjściowymi itp. Możliwe było zwiększenie ilości pamięci RAM do 256 KB.

Domowy komputer IBM

Najtańsza konfiguracja kosztuje 1565 USD. Wraz z nią kupujący otrzymał ten sam procesor, ale pamięć RAM miała tylko 16 KB. Stacja dyskietek nie była dostarczana z komputerem, ani nie było standardowego monitora CGA. Ale był adapter do napędów kasetowych i karta graficzna koncentrująca się na podłączeniu do telewizora. W ten sposób powstała droga modyfikacja komputera IBM PC dla biznesu (gdzie, nawiasem mówiąc, była dość powszechna), a tańsza - dla domu.

Ale na IBM PC była jeszcze jedna nowość - podstawowy system wejścia / wyjścia lub BIOS (Basic Input / Output System). Nadal jest używany w nowoczesnych komputerach, choć w nieco zmodyfikowanej formie. Najnowsze płyty główne zawierają już nowe oprogramowanie EFI lub nawet uproszczone wersje Linuksa, ale na pewno minie kilka lat, zanim BIOS zniknie.

Architektura komputera IBM PC została otwarta i dostępna. Każdy producent może produkować urządzenia peryferyjne i oprogramowanie dla komputera IBM bez konieczności zakupu licencji. W tym samym czasie niebieski gigant sprzedawał Podręcznik techniczny komputera IBM, który zawierał pełny kod źródłowy systemu BIOS. W rezultacie rok później na świecie pojawiły się pierwsze komputery „kompatybilne z IBM PC” od Columbia Data Products. Następnie Compaq i inne firmy. Lód się złamał.

IBM Personal Computer XT

W 1983 r., Kiedy cały ZSRR świętował Międzynarodowy Dzień Kobiet, IBM wypuścił kolejny „męski” produkt - IBM Personal Computer XT (skrót od eXtended Technology) lub IBM 5160. Nowy produkt zastąpił oryginalny komputer IBM, zaprezentowany dwa lata wcześniej. Był to ewolucyjny rozwój komputerów osobistych. Procesor był używany tak samo, ale w podstawowej konfiguracji było już 128 KB pamięci RAM, a później 256 KB. Maksymalna wielkość wzrosła do 640 KB.

XT został wyposażony w jeden 5,25-calowy dysk, 10 MB dysk twardy Seagate ST-412 i 130-watowy zasilacz. Później były modele z dyskiem twardym 20 MB. Cóż, PC-DOS 2.0 był używany jako podstawowy system operacyjny. Aby rozszerzyć funkcjonalność, zastosowano nową 16-bitową szynę ISA.

Komputer osobisty IBM / AT

Prawdopodobnie wielu starych zegarów świata komputerowego pamięta standardowe przypadki AT. Były używane do końca ubiegłego wieku. Wszystko zaczęło się od IBM i IBM Personal Computer / AT lub Model 5170. AT oznacza Advanced Technology. Nowy system Była to druga generacja komputerów osobistych niebieskiego giganta.

Najważniejszą innowacją nowego produktu było zastosowanie procesora Intel 80286 o częstotliwości 6, a następnie 8 MHz. Powiązano z nim wiele nowych funkcji komputera. W szczególności było to całkowite przejście na 16-bitową magistralę i obsługa 24-bitowego adresowania, co pozwoliło na zwiększenie pamięci RAM do 16 MB. Na płycie głównej pojawiła się bateria do zasilania 50-bajtowego układu CMOS. Wcześniej jej tam również nie było.

Do przechowywania danych wykorzystano teraz 5,25-calowe dyski ze wsparciem dla dyskietek o pojemności 1,2 MB, podczas gdy poprzednia generacja zapewniała pojemność nie większą niż 360 KB. Dysk twardy miał teraz stałą pojemność 20 MB, a jednocześnie był dwa razy szybszy niż poprzedni model. Monochromatyczna karta graficzna i monitory zostały zastąpione adapterami obsługującymi standard EGA, które mogą wyświetlać do 16 kolorów w rozdzielczości 640x350. Opcjonalnie do profesjonalnej pracy z grafiką można zamówić kartę graficzną PGC (Professional Graphics Controller), kosztującą 4290 USD, która może wyświetlać do 256 kolorów na ekranie o rozdzielczości 640x480, a jednocześnie obsługuje akcelerację 2D i 3D dla aplikacji CAD.

Aby wesprzeć całą tę różnorodność innowacji, konieczne było poważne zmodyfikowanie systemu operacyjnego, który został wydany pod nazwą PC-DOS 3.0.

Nie ThinkPad, nie komputer IBM

Uważamy, że wiele osób wie, że pierwszym przenośnym komputerem w 1981 roku był Osborne 1, opracowany przez Osborne Computer Corporation. Była to taka walizka o wadze 10,7 kg i kosztująca 1795 USD. Pomysł takiego urządzenia nie był wyjątkowy - jego pierwszy prototyp opracowano w 1976 r. W centrum badawczym Xerox PARC. Jednak w połowie lat 80. sprzedaż Ozborn spadła.

Oczywiście inne firmy szybko wybrały dobry pomysł, który w zasadzie w kolejności rzeczy - wystarczy pamiętać, jakie inne pomysły „ukradły” Xerox PARC. W listopadzie 1982 r. Compaq ogłosił plany wprowadzenia laptopa. W styczniu wydano Hyperion - komputer z systemem MS-DOS i nieco podobny do Osborne 1. Ale nie był w pełni kompatybilny z komputerem IBM. Tytuł ten został przypisany do Compaq Portable, który pojawił się kilka miesięcy później. W rzeczywistości był to połączony komputer IBM z małym ekranem i zewnętrzną klawiaturą. Walizka ważyła 12,5 kg i została wyceniona na ponad 4000 USD.

IBM, wyraźnie zauważając, że czegoś brakuje, szybko przystąpił do tworzenia swojego pierwotnego laptopa. W rezultacie światło padło w lutym 1984 r. Na przenośny komputer osobisty IBM lub przenośny komputer IBM 5155. Nowość w dużej mierze przypominała również oryginalny komputer IBM, z tym wyjątkiem, że zainstalowano w nim 256 KB pamięci RAM. Ponadto był o 700 USD tańszy niż jego odpowiednik z Compaq, a jednocześnie poprawił technologię antykradzieżową - waży 13,5 kg.

Dwa lata później postęp poczynił kilka kroków do przodu. IBM nie zawahał się skorzystać z tego, decydując się na uczynienie swoich laptopów czymś bardziej uzasadniającym ich tytuł. Tak więc w kwietniu 1986 roku pojawił się IBM Convertible lub IBM 5140. Convertible nie przypominał już walizki, ale dużą skrzynię ważącą zaledwie 5,8 kg. Kosztuje o połowę mniej - około 2000 USD.

Procesor używał starego dobrego Intela 8088 (a dokładniej jego zaktualizowanej wersji 80c88), działającego na częstotliwości 4,77 MHz. Ale zamiast 5,25-calowych dysków zastosowano 3,5-calowe, zdolne do pracy z dyskami o pojemności 720 KB. Ilość pamięci RAM wynosiła 256 KB, ale można ją zwiększyć do 512 KB. Jednak o wiele ważniejszą innowacją było zastosowanie monochromatycznego wyświetlacza LCD o rozdzielczości 80 x 25 dla tekstu lub 640 x 200 i 320 x 200 dla grafiki.

Możliwość rozszerzenia Convertible była znacznie skromniejsza niż IBM Portable. Było tylko jedno gniazdo ISA, podczas gdy pierwsza generacja niebieskich gigantycznych laptopów pozwoliła zainstalować prawie tyle samo kart rozszerzeń, co zwykły komputer stacjonarny (nawet jeśli nie pozwalał na takie wymiary). Ta okoliczność, a także pasywny ekran bez podświetlenia i obecność na rynku bardziej produktywnych (lub modeli o tej samej konfiguracji, ale dostępnych w znacznie niższej cenie) analogów Compaq, Toshiba i Zenith nie sprawiły, że IBM Convertible stał się popularnym rozwiązaniem. Ale produkowano go do 1991 r., Kiedy zastąpiono go IBM PS / 2 L40 SX. Porozmawiamy więcej o PS / 2.

IBM Personal System / 2

Do tej pory wielu z nas używa klawiatury, a czasem nawet myszy z interfejsem PS / S. Jednak nie wszyscy wiedzą, skąd się wziął i jak można odczytać ten skrót. PS / 2 to Personal System / 2, komputer wprowadzony przez IBM w 1987 roku. Należał do trzeciej generacji niebieskich gigantów, których celem było odzyskanie utraconej pozycji na rynku komputerów osobistych.

IBM PS / 2 nie powiodło się. Zakładano, że jego sprzedaż będzie wysoka, ale system był bardzo innowacyjny i zamknięty, co automatycznie podniosło ostateczny koszt. Konsumenci zdecydowali się na tańsze klony IBM PC. Niemniej jednak architektura PS / 2 pozostawiła wiele w tyle.

Głównym systemem operacyjnym PS / 2 był IBM OS / 2. Dla niej nowe komputery były wyposażone w dwa BIOS-y jednocześnie: ABIOS (Advanced BIOS) i CBIOS (Compatible BIOS). Pierwszy był niezbędny do załadowania OS / 2, a drugi do kompatybilności wstecznej z oprogramowaniem IBM PC / XT / AT. Jednak przez pierwsze kilka miesięcy PS / 2 był dostarczany z PC-DOS. Później jako opcję można zainstalować system Windows i AIX (jeden z wariantów systemu Unix).

Wraz z PS / 2 wprowadzono nowy standard magistrali w celu rozszerzenia funkcjonalności komputerów - MCA (Micro Channel Architecture). Miała zastąpić ISA. Pod względem prędkości MCA odpowiadało temu przedstawionemu kilka lat później przez PCI. Ponadto miał wiele interesujących innowacji, w szczególności wspierał możliwość wymiany danych bezpośrednio między kartami rozszerzeń lub jednocześnie między wieloma kartami i procesorem przez oddzielny kanał. Wszystko to później znalazłem aplikację na serwerze magistrala PCI-X. Sam MCA nigdy nie został rozpowszechniony z powodu odmowy udzielenia licencji przez IBM, aby klony nie pojawiły się ponownie. Również nowy interfejs   nie był kompatybilny z ISA.

W tamtych czasach do połączenia klawiatury użyto złącza DIN, a myszy - COM. Nowy personel IBM zasugerował zastąpienie ich bardziej kompaktowym PS / 2. Obecnie złącza te już znikają z nowoczesnych płyt głównych, ale były dostępne tylko dla IBM. Zaledwie kilka lat później „poszli do mas”. Chodzi tutaj nie tylko o bliskość technologii, ale także o potrzebę sfinalizowania systemu BIOS, aby w pełni obsługiwać ten interfejs.

PS / 2 wniósł istotny wkład w rynek kart graficznych. Do 1987 r. Istniało kilka rodzajów złączy do monitorów. Często mieli wiele kontaktów, których liczba była równa liczbie wyświetlanych kolorów. IBM postanowił zastąpić je wszystkie jednym uniwersalnym złączem D-SUB. Przekazano przez nią informacje o głębokości czerwieni, zieleni i błękitu, zwiększając liczbę wyświetlanych odcieni do 16,7 miliona. Ponadto oprogramowanie stało się łatwiejsze do pracy z jednym typem złącza niż z obsługą kilku.

Kolejnym nowym produktem IBM jest karta wideo z wbudowanym buforem klatek (Video Graphics Array lub VGA), który dziś nazywa się pamięcią karty wideo. Wtedy jego objętość w PS / 2 wynosiła 256 KB. To wystarczyło dla rozdzielczości 640 x 480 z 16 kolorami lub 320 x 200 i 256 kolorów. Nowe karty graficzne współpracowały z interfejsem MCA, więc były dostępne tylko dla komputerów PS / 2. Jednak z czasem standard VGA zyskał powszechną akceptację.

Zamiast dużych i niezbyt niezawodnych dyskietek 5,25-calowych IBM zdecydował się na dyski 3,5-calowe. Firma jako pierwsza zaczęła stosować je jako główny standard. Główną nowością nowych komputerów była podwojona pojemność dyskietek - do 1,44 MB. A przed zachodem słońca PS / 2, podwoił się do 2,88 MB. Nawiasem mówiąc, w napędach PS / 2 był jeden poważny błąd. Nie mogli odróżnić dyskietki 720 KB od dyskietki 1,44 MB. W ten sposób możliwe było sformatowanie pierwszego jako drugiego. Zasadniczo działał, ale stwarzał ryzyko utraty danych, a po takiej operacji tylko inny komputer PS / 2 mógł odczytać informacje z dyskietki.

I kolejne nowe PS / 2 - 72-pinowe moduły SIMM RAM zamiast przestarzałych SIPP. Po kilku latach stały się standardem dla wszystkich komputerów osobistych, a nie tylko, dopóki nie zostały zastąpione paskami DIMM.

Tak więc doszliśmy do końca lat 80. W ciągu tych 10 lat IBM zrobił znacznie więcej dla ogólnego konsumenta niż we wszystkich latach poprzedzających ten rok. Dzięki jej komputerom osobistym możemy teraz samodzielnie montować komputer dla siebie, zamiast kupować gotowy komputer, jak chciałby Apple. Nic nie stoi na przeszkodzie, aby zainstalować na nim jakikolwiek system operacyjny, z wyjątkiem Mac OS, który znowu jest dostępny tylko dla właścicieli komputerów Apple. Dostaliśmy wolność, a IBM stracił rynek, ale zyskał reputację pioniera.

Na początku lat 90. niebieski gigant nie był już dominującym graczem w świecie komputerów. Intel rządził wtedy na rynku procesorów, Microsoft zdominował segment oprogramowania, Novell odniósł sukces w sieciach, a Hewlett-Packard w drukarkach. Nawet dyski twarde wynalezione przez IBM zaczęły być produkowane przez inne firmy, dzięki czemu Seagate był w stanie wyjść na prowadzenie (już pod koniec lat 80. i utrzymuje te mistrzostwa do dziś).

W sektorze przedsiębiorstw nie wszystko poszło nie tak. Koncepcja relacyjnych baz danych, wymyślona przez pracownika IBM Edgara Codda w 1970 r. (W skrócie, jest to sposób wyświetlania danych w postaci tabel dwuwymiarowych) na początku lat 80. zaczęła zyskiwać na popularności. IBM uczestniczył nawet w tworzeniu języka zapytań SQL. A oto wynagrodzenie za pracę - Oracle stał się numerem jeden w dziedzinie DBMS na początku lat 90.

Cóż, na rynku komputerów osobistych Compaq to ścisnął, a ostatecznie Dell. W rezultacie prezes IBM John Akers rozpoczął proces reorganizacji firmy, dzieląc ją na autonomiczne jednostki, z których każda była zaangażowana w jeden konkretny obszar. Dlatego chciał zwiększyć wydajność produkcji i obniżyć koszty. W tej formie IBM spotkał ostatnią dekadę XX wieku.

Czas kryzysu

Lata dziewięćdziesiąte zaczęły się dość dobrze dla IBM. Pomimo spadku popularności swoich komputerów osobistych firma nadal osiągnęła duży zysk. Największy w swojej historii. Szkoda, że \u200b\u200bbyło to oparte tylko na wynikach lat 80. Później niebieski gigant nie złapał głównych trendów w świecie komputerów, co doprowadziło do niezbyt przyjemnych konsekwencji.

Pomimo sukcesu komputerów osobistych w przedostatniej dekadzie ubiegłego wieku IBM nadal uzyskiwał większość przychodów z komputerów mainframe. Ale rozwój technologii pozwolił nam przejść na stosowanie bardziej kompaktowych komputerów osobistych, a wraz z nimi dużych komputerów opartych na mikroprocesorach. Ponadto zwykłe były sprzedawane z niższymi marżami niż komputery mainframe.

Teraz wystarczy dodać spadek sprzedaży głównego zyskownego produktu, utratę jego pozycji na rynku komputerów osobistych, a jednocześnie niepowodzenia na rynku technologii sieciowych, które Novell z powodzeniem zastosował, aby nie być zaskoczonym stratą 1 miliarda dolarów w 1990 i 1991 roku. W 1992 roku ustanowiono nowy rekord - stratę 8,1 miliarda dolarów. Była to największa roczna strata korporacyjna w historii USA.

Czy to dziwne, że firma zaczęła się „przenosić”? W 1993 roku Louis V. Gerstner, Jr., rozpoczął swoją prezydenturę. Jego plan polegał na zmianie obecnej sytuacji, w której radykalnie zrestrukturyzował politykę firmy, koncentrując główne jednostki na świadczeniu usług i rozwoju oprogramowania. W dziedzinie sprzętu IBM z pewnością mógł zaoferować wiele nowych rzeczy, ale ze względu na wielu producentów komputerów i obecność innych firm technologicznych, nie zrobił tego. W każdym razie jest ktoś, kto oferuje tańszy i nie mniej funkcjonalny produkt.

W rezultacie w drugiej połowie dekady IBM rozszerzył swoje portfolio produktów programowych o aplikacje Lotus, WebSphere, Tivoli i Rational. Cóż, nadal rozwijała własny silnik relacyjnych baz danych DB2.

Thinkpad

Pomimo kryzysu lat 90. niebieski gigant wprowadził jeden popularny produkt. To była linia laptopów ThinkPad, która istnieje do dziś, choć już pod patronatem Lenovo. Został zaprezentowany w obliczu trzech modeli 700, 700C i 700T w październiku 1992 roku. Komputery mobilne były wyposażone w ekran o przekątnej 10,4 cala, procesor Intel 80486SLC 25 MHz, dysk twardy 120 MB i system operacyjny Windows 3.1. Ich koszt wyniósł 4350 USD.

IBM ThinkPad 701 z klawiaturą motylkową

Trochę o pochodzeniu nazwy serii. Słowo „Think” zostało wydrukowane na skórzanych zeszytach IBM. Jeden z uczestników projektu mobilnego komputera nowej generacji zaproponował dodanie do niego „Padu” (klawiatury, klawiatury). Na początku ThinkPad nie został zaakceptowany przez wszystkich, powołując się na fakt, że do tej pory nazwa wszystkich systemów IBM była numeryczna. Jednak ostatecznie ThinkPad stał się oficjalną nazwą serii.

Pierwsze laptopy ThinkPad stały się bardzo popularne. W dość krótkim czasie zebrali ponad 300 nagród z różnych publikacji za wysoką jakość wykonania i liczne innowacje projektowe. Te ostatnie w szczególności obejmują „klawiaturę motylkową”, która jest lekko uniesiona i rozciągnięta na szerokość, aby ułatwić obsługę. Później, wraz ze wzrostem przekątnej ekranu komputerów mobilnych, nie było to już konieczne.

TrackPoint, nowy typ manipulatora, został po raz pierwszy użyty. Obecnie jest nadal zainstalowany na laptopach ThinkPad i wielu innych komputerach przenośnych klasy korporacyjnej. W niektórych modelach na ekranie zainstalowano diodę LED, która oświetla klawiaturę w ciemności. Po raz pierwszy IBM zintegrował akcelerometr z laptopem, który wykrył upadek, po którym zaparkowano głowice dysku twardego, co znacznie zwiększyło prawdopodobieństwo zachowania danych w silnym szoku. ThinkPad jako pierwszy wykorzystał skanery linii papilarnych, a także zintegrowany moduł TPM do ochrony danych. Teraz wszystko to w pewnym stopniu jest używane przez wszystkich producentów laptopów. Ale nie zapominaj, że dzięki za wszystkie te „uroki życia” musi być IBM.

Podczas gdy Apple zapłacił dużo pieniędzy za Tom Cruise w Mission Impossible, aby uratować świat za pomocą nowego PowerBooka, IBM naprawdę zmienił postęp ludzkości w lepszą przyszłość dzięki laptopom ThinkPad. Na przykład ThinkPad 750 poleciał w 1993 roku promem Endeavour. Następnie głównym zadaniem misji była naprawa teleskopu Hubble'a. ThinkPad A31p był od dawna używany w ISS.

Obecnie wiele tradycji IBM nadal wspiera chińską firmę Lenovo. Ale to historia następnej dekady.

Nowy wiek

Zmiana kursu firmy w obecnej dekadzie, zapoczątkowana w połowie lat 90., osiągnęła szczyt. IBM nadal koncentrował się na świadczeniu usług doradczych, tworzeniu nowych technologii sprzedaży licencji i opracowywaniu oprogramowania, nie zapominając również o drogim sprzęcie - niebieski gigant do tej pory nie opuścił tego obszaru.

Ostatni etap reorganizacji odbył się w latach 2002-2004. W 2002 r. IBM nabył firmę konsultingową PricewaterhouseCoopers, a jednocześnie sprzedał dział dysków twardych Hitachi. W ten sposób niebieski gigant porzucił dalszą produkcję dysków twardych, którą sam wynalazł pół wieku wcześniej.

IBM nie zamierza jeszcze rezygnować z superkomputerów i komputerów mainframe. Firma nadal walczy o pierwsze miejsca w rankingu Top500 i nadal robi to z dość dużym powodzeniem. W 2002 r. Uruchomiono nawet specjalny program z budżetem 10 miliardów dolarów, zgodnie z którym IBM stworzył technologie niezbędne do zapewnienia dostępu do superkomputerów dowolnej firmy niemal natychmiast po złożeniu wniosku.

Podczas gdy niebieski gigant nadal dobrze sobie radzi z dużymi komputerami, mały personel nie radzi sobie dobrze. W rezultacie rok 2004 został oznaczony jako rok sprzedaży działalności komputerowej IBM na rzecz Lenovo w Chinach. Ostatnią rzeczą, na której się rozwija systemy osobistew tym popularną serię ThinkPad. Lenovo uzyskało nawet prawo do używania marki IBM przez pięć lat. W zamian sam IBM otrzymał 650 milionów dolarów w gotówce i 600 milionów dolarów w akcjach. Teraz ma 19% udziałów w Lenovo. Jednocześnie niebieski gigant nadal sprzedaje serwery. Nadal nie kontynuuj, będąc w pierwszej trójce największych graczy na tym rynku.

Co się w końcu wydarzyło? W 2005 r. W IBM pracowało około 195 tysięcy pracowników, z których 350 zostało wyróżnionych jako „wybitni inżynierowie”, a 60 osób zostało uhonorowanych tytułem Specjalisty IBM. Tytuł ten został wprowadzony w 1962 r. Przez ówczesnego prezesa Thomasa Watsana, aby wyróżnić najlepszych pracowników firmy. Zazwyczaj jeden rok IBM Fellow otrzymał nie więcej niż 4-5 osób. Od 1963 r. Zatrudniono około 200 takich pracowników. Spośród nich w maju 2008 r. Pracowało 70 osób.

Dzięki tak poważnemu potencjałowi naukowemu IBM stał się jednym z liderów innowacji. W latach 1993–2005 niebieski gigant otrzymał 31 000 patentów. Ponadto w 2003 roku ustanowił rekord liczby patentów otrzymywanych przez jedną firmę rocznie - 3415 sztuk.

W końcu dziś IBM stał się mniej dostępny dla ogólnego konsumenta. W rzeczywistości to samo działo się do lat 80. Przez 20 lat firma pracowała z produktami detalicznymi, ale nadal wróciła do swoich początków, choć w nieco innej formie. Ale wciąż jej technologie i osiągnięcia docierają do nas w postaci urządzeń innych producentów. Tak więc niebieski gigant pozostaje z nami dalej.

Posłowie

Na końcu artykułu chcielibyśmy przedstawić krótką listę najpoważniejszych odkryć dokonanych przez IBM podczas jego istnienia, ale nie wspomnianych powyżej. W końcu zawsze miło jest być zaskoczonym, że ta lub inna znana firma stoi za stworzeniem kolejnej ulubionej zabawki elektronicznej.

Era języków programowania wysokiego poziomu przypisywana jest IBM. Cóż, może nie dla niej osobiście, ale brała bardzo aktywny udział w tym procesie. W 1954 r. Wprowadzono komputer IBM 704, którego jednym z głównych „układów” była obsługa języka Fortran (skrót od Formula Translation). Głównym celem jego stworzenia było zastąpienie niskiego poziomu języka asemblera czymś bardziej czytelnym dla człowieka.

W 1956 r. Pojawił się pierwszy przewodnik referencyjny Fortran. W przyszłości jego popularność wciąż rosła. Głównie z powodu włączenia tłumacza języka do standardowego pakietu oprogramowania dla systemów komputerowych IBM. Język ten stał się głównym językiem dla aplikacji naukowych od wielu lat, a także dał impuls do rozwoju innych języków programowania wysokiego poziomu.

Wspominaliśmy już o wkładzie IBM w rozwój baz danych. W rzeczywistości dzięki niebieskiemu gigantowi większość witryn internetowych korzystających z relacyjnych DBMS działa dzisiaj. Zapraszam do korzystania i język SQL, który również wyszedł z wnętrzności IBM. W 1974 roku został wprowadzony przez Donalda D. Chamberlina i Raymonda F. Boyce'a. Nazwano go wówczas SEQUEL (Structured English Query Language), a po skróceniu skrótu do SQL (Structured Query Language), ponieważ „SEQUEL” był znakiem towarowym brytyjskiej linii lotniczej Hawker Siddeley.

Prawdopodobnie niektóre osoby wciąż pamiętają, jak zaczęły gry z magnetofonów na swoim domowym (lub nie w domu) komputerze w UE. Ale IBM był jednym z pierwszych, który użył taśmy magnetycznej do przechowywania danych. W 1952 r. Wraz z IBM 701 wprowadziła pierwszy napęd taśmy magnetycznej, który mógł zapisywać i odczytywać dane.

Dyskietki. Od lewej do prawej: 8 ", 5,25", 3,5 "

Dyskietki pojawiły się również dzięki IBM. W 1966 r. Wprowadziła pierwszy napęd z metalową głowicą rejestrującą. Pięć lat później ogłosiła rozpoczęcie masowej dystrybucji dyskietek i napędów dla nich.

IBM 3340 „Winchester”

Żargonowe słowo „Winchester”, oznaczające dysk twardy, również pochodzi z trzewi IBM. W 1973 roku firma wprowadziła dysk twardy IBM 3340 Winchester. Swoje imię otrzymał od szefa zespołu programistów Kenneth Haughton (Kenneth Haughton), który nadał IBM 3340 wewnętrzną nazwę „30-30”, pochodzącą od nazwy karabinu Winchester 30-30. „30-30” bezpośrednio wskazywało na pojemność urządzenia - zainstalowano w nim dwie płyty po 30 MB. Nawiasem mówiąc, to był ten model, który jako pierwszy odniósł wielki sukces komercyjny na rynku.

Dzięki IBM za naszą nowoczesną pamięć. To ona opracowała w 1966 r. Technologię produkcji pamięci dynamicznej, w której na jeden bit danych przydzielono tylko jeden tranzystor. W rezultacie możliwe było znaczne zwiększenie gęstości zapisu danych. Prawdopodobnie odkrycie to skłoniło inżynierów firmy do stworzenia specjalnego ultraszybkiego bufora danych lub pamięci podręcznej. W 1968 r. Został po raz pierwszy zaimplementowany w komputerze mainframe System / 360 Model 85 i mógł przechowywać do 16 tysięcy znaków.

Architektura procesorów PowerPC również pojawiła się w dużej mierze dzięki IBM. I choć został opracowany wspólnie przez Apple, IBM i Motorolę, był oparty na procesorze IBM 801, który firma planowała zainstalować w swoich pierwszych komputerach osobistych na początku lat 80. Początkowo architektura była obsługiwana przez Sun i Microsoft. Jednak inni programiści nie starali się pisać dla niego programów. W rezultacie Apple pozostał jedynym użytkownikiem przez prawie 15 lat.

W 2006 r. Apple zrezygnowało z PowerPC na rzecz architektury x86, w szczególności procesory Intel. Motorola opuściła sojusz w 2004 roku. Cóż, IBM nadal nie ograniczył rozwoju, ale skierował je nieco w innym kierunku. Kilka lat temu napisali tyle tekstu o procesorze komórkowym, że wystarczy na kilka książek. Dziś jest używany w konsoli Sony PlayStation 3, a Toshiba zainstalowała jego uproszczoną wersję w swoim flagowym notebooku multimedialnym Qosmio Q50.

Być może zakończymy to. Jeśli chcesz, możesz znaleźć wiele innych niesamowitych odkryć IBM, a jednocześnie napisać wiele słów o jego przyszłych projektach, ale powinieneś spokojnie zacząć tworzyć oddzielną książkę. W końcu firma prowadzi badania w różnych dziedzinach. Ma setki aktywnych projektów, wśród których są nanotechnologie i holograficzne nośniki danych, rozpoznawanie mowy, komunikacja z komputerem za pomocą myśli, nowe sposoby sterowania komputerem i tak dalej - na jednej liście zajmie kilka stron tekstu. Położyliśmy temu kres.

P.S. I na samym końcu trochę o pochodzeniu terminu „niebieski gigant” (lub „Big Blue”), jak często nazywany jest IBM. Jak się okazało, sama firma nie ma z tym nic wspólnego. Produkty ze słowem „Blue” w jej imieniu pojawiły się dopiero w latach 90. (w szczególności w serii superkomputerów), a prasa „niebieskiego giganta” woła ją od początku lat 80. Przedstawiciele IBM spekulują, że mogło to pochodzić z niebieskiej pokrywy komputerów mainframe wyprodukowanych w latach 60.

Komputery

jednostka systemowa;

klawiatury

monitor

elektroniczne obwody

zasilacz

dyski

twardy dysk

Główne urządzenia peryferyjne komputerów osobistych.

Dodatkowe urządzenia

Do jednostki systemowej komputera PC IBM można podłączyć różne urządzenia wejścia / wyjścia informacji, rozszerzając w ten sposób jego funkcjonalność. Wiele urządzeń jest podłączonych za pomocą specjalnych gniazd (gniazd), zwykle umieszczonych z tyłu jednostki systemowej komputera. Oprócz monitora i klawiatury urządzenia te to:

  drukarka   - do drukowania informacji tekstowych i graficznych;

mysz- urządzenie, które ułatwia wprowadzanie informacji do komputera;

drążek sterowy   - manipulator w postaci rączki zamontowanej na zawiasie z przyciskiem, wykorzystywany głównie do gier komputerowych;

Jak również inne urządzenia.

Urządzenia te są połączone za pomocą specjalnych przewodów (kabli). Aby zabezpieczyć się przed błędami („od głupca”), złącza do wkładania tych kabli są inne, dzięki czemu kabel po prostu nie podłącza się do niewłaściwego gniazda.

Niektóre urządzenia można podłączyć do jednostki systemowej komputera, na przykład:

modem   - w celu wymiany informacji z innymi komputerami za pośrednictwem sieci telefonicznej;

modem faksu   - łączy w sobie możliwości modemu i faksu;

serpentyna- do przechowywania danych na taśmie magnetycznej.

Niektóre urządzenia, na przykład wiele typów skanerów (urządzenia do wprowadzania zdjęć i tekstów do komputera), używają metody połączenia mieszanego: tylko płytka elektroniczna (kontroler), która kontroluje działanie urządzenia, jest włożona do jednostki systemowej komputera, a samo urządzenie jest podłączone do tej płyty kablem.

Główne klasy oprogramowania na komputery osobiste i ich przeznaczenie. Koncepcja instalowania i odinstalowywania programów.

Programy działające na komputerze można podzielić na trzy kategorie:

stosowany   programy,bezpośrednie zapewnienie wykonania prac niezbędnych dla użytkowników: edycja tekstów, rysowanie zdjęć, przetwarzanie tablic informacyjnych itp.;

układowy   programy,wykonywanie różnych funkcji pomocniczych, takich jak wykonywanie kopii używanych informacji, wydawanie informacji referencyjnych na temat komputera, sprawdzanie działania urządzeń komputerowych itp .;

instrumentalny   system(systemy programowania), zapewniające tworzenie nowych programów dla komputera.

Oczywiste jest, że granice między tymi trzema klasami programów są bardzo arbitralne, na przykład edytor tekstowy może być zawarty w programie systemowym, tj. program aplikacyjny.

Instalacja oprogramowania   - Instalowanie programu na komputerze. W takim przypadku informacje o programie są często rejestrowane w rejestrze komputera.

Odinstaluj programy   - odwrotna procedura instalacji, tj. odinstalowanie programu z komputera.

KierowcyWażna klasa programy systemowe   są oprogramowaniem sterownika. Rozszerzają możliwości DOS do zarządzania komputerowymi urządzeniami wejścia-wyjścia (klawiatura, dysk twardy, mysz itp.), RAM itp. Za pomocą sterowników można podłączyć nowe urządzenia do komputera lub niestandardowe wykorzystanie istniejących urządzeń.

Cel i główne funkcje Total Commander.

Menedżer plików Total Commander zapewnia inny sposób pracy z plikami i folderami w środowisku Windows. Program w prostej i intuicyjnej formie umożliwia wykonywanie operacji z systemem plików, takich jak przenoszenie z jednego katalogu do drugiego, tworzenie, zmiana nazwy, kopiowanie, przenoszenie, wyszukiwanie, przeglądanie i usuwanie plików i katalogów oraz wiele innych.

Total Commander nie jest standardowy program   Windows tj. Nie jest zainstalowany na komputerze z instalacją samego systemu Windows. Total Commander jest instalowany osobno, po zainstalowaniu systemu Windows.

Obszar roboczy okna programu Total Commander różni się od wielu innych tym, że jest podzielony na dwie części (panele), z których każda może wyświetlać zawartość różnych dysków i katalogów.

Na przykład użytkownik może wyświetlić zawartość dysku D: w lewym okienku i wprowadzić jeden z katalogów C: w prawym okienku. Dzięki temu możliwa jest jednoczesna praca z plikami i folderami w obu częściach okna.

Praca z plikami i folderami w Total Commander:

· Przejście z katalogu do katalogu

· Podświetl pliki i katalogi

· Kopiuj pliki i katalogi

· Przenoszenie plików i katalogów

· Twórz katalogi

· Usuwanie plików i katalogów

· Zmień nazwy plików i katalogów

· Szybkie wyszukiwanie   katalogi

Koncepcja archiwizacji i rozpakowywania plików. Podstawowe techniki pracy z archiwizatorem programu ARJ.

Z reguły programy do pakowania (archiwizacji) plików pozwalają na umieszczenie skompresowanych kopii plików na dysku w pliku archiwum (archiwizacja), wyodrębnienie plików z archiwum (rozpakowanie), przeglądanie zawartości archiwum itp. Różne programy różnią się formatem pliku archiwum, szybkością, stopniem skompresowania plików po umieszczeniu w archiwum, łatwością użycia.

Definiowanie funkcji ARJwykonywane przez ustawienie kodu polecenia i trybów. Kod polecenia składa się z jednej litery, jest wskazany w wierszu polecenia bezpośrednio po nazwie programu i określa rodzaj działania, które program powinien wykonać. Na przykład A - dodawanie plików do archiwum, T - testowanie (sprawdzanie) archiwum, E - ekstrakcja plików z archiwum itp.

Aby dokładnie wyjaśnić, jakie działania są wymagane od programu ARJ, możesz ustawić tryby. Tryby można określić w dowolnym miejscu wiersza polecenia po kodzie polecenia, są one określone za pomocą poprzedniego znaku „-”: -V, -M itd. Lub poprzedniego znaku „/”: / V, / M itp. . (nie można jednak mieszać tych dwóch metod w tym samym wierszu poleceń).

Tryby wybierania zarchiwizowanych plików.   Program ARJ ma trzy główne tryby archiwizacji plików:

Dodaj - dodaj do archiwum wszystkie pliki;

Aktualizacja - dodaj nowe pliki do archiwum;

Odśwież - dodawanie nowych wersji plików dostępnych w archiwum.

Wyodrębnij pliki z archiwum. Sam program ARJ wyodrębnia pliki ze swoich archiwów. Format wywołania: nazwa archiwum trybu poleceń (katalog \\) (nazwy plików).

Struktura sieci

Węzły internetowe i autostrady są jego infrastrukturą, a w Internecie jest kilka usług lub usług (e-mail, USENET, TELNET, WWW, FTP itp.), Jedną z pierwszych usług jest poczta elektroniczna. Obecnie większość ruchu internetowego przypada na usługę World Wide Web (World Wide Web).

Zasada usługi WWW została opracowana przez fizyków Tima Bernesa-Lee i Roberta Cayo w Europejskim Centrum Badawczym CERN (Genewa) w 1989 roku. Obecnie Internetowy serwis internetowy zawiera miliony stron informacji z różnego rodzaju dokumentami.

Elementy struktury Internetu są połączone w jedną hierarchię. Internet łączy wiele różnych sieci komputerowych i poszczególne komputeryktóre wymieniają się informacjami. Wszystkie informacje w Internecie są przechowywane na serwerach internetowych. Wymiana informacji między serwerami sieci odbywa się na szybkich autostradach.

Do takich autostrad należą: dedykowane telefoniczne linie analogowe i cyfrowe, optyczne kanały komunikacyjne i kanały radiowe, w tym satelitarne linie komunikacyjne. Serwery połączone szybkimi autostradami stanowią podstawową część Internetu.

Użytkownicy łączą się z siecią za pośrednictwem routerów lokalnych dostawców usług internetowych lub dostawców usług internetowych, którzy mają stałe połączenie z Internetem za pośrednictwem dostawców regionalnych. Regionalny dostawca, który łączy się z większym dostawcą o zasięgu krajowym, który ma węzły w różnych miastach kraju.

Sieci krajowych dostawców łączą się w sieć międzynarodowych dostawców lub dostawców pierwszego poziomu. Połączone sieci dostawców pierwszego poziomu obejmują globalny Internet.

Wyszukiwanie informacji w Internecie

Podstawowym celem Internetu jest zapewnienie niezbędne informacje. Internet to przestrzeń informacyjna, w której można znaleźć odpowiedź na niemal każde pytanie interesujące użytkownika. Jest to ogromna globalna sieć, do której przepływają strumienie mniejszych sieci w postaci strumieni informacji. Każdy użytkownik komputera i powiązanych programów będzie mógł połączyć się z siecią, korzystając z jej możliwości do różnych celów - spędzania czasu wolnego, szkolenia, czytania artykułów naukowych, wysyłania wiadomości e-mail itp.

Podstawowe metody wyszukiwania informacji w Internecie:

1. Bezpośrednie wyszukiwanie za pomocą łączy hipertekstowych.

Ponieważ wszystkie witryny w przestrzeni WWW okazują się być ze sobą połączone, informacje można przeszukiwać, kolejno przeglądając powiązane strony za pomocą przeglądarki. Chociaż ta całkowicie ręczna metoda wyszukiwania wygląda jak kompletny anachronizm w sieci z ponad 60 milionami węzłów, ręczne przeglądanie stron internetowych jest często jedynym sposobem na końcowym etapie wyszukiwanie informacjikiedy mechaniczne „kopanie” ustępuje miejsca głębszej analizie. Korzystanie z katalogów, list klasyfikowanych i tematycznych oraz wszelkiego rodzaju małych katalogów dotyczy również tego rodzaju wyszukiwania.

2. Korzystanie z wyszukiwarek.Dzisiaj ta metoda jest jedną z głównych, a właściwie jedyną podczas wstępnego wyszukiwania. Wynikiem tego drugiego może być lista zasobów sieciowych, które należy szczegółowo zbadać.

Zazwyczaj korzystanie z wyszukiwarek polega na użyciu słów kluczowych przekazywanych do wyszukiwarek jako argumentów wyszukiwania: na co zwracać uwagę. Jeśli wszystko jest zrobione poprawnie, utworzenie listy słów kluczowych wymaga wstępnych prac nad kompilacją tezaurusa.

3. Wyszukaj za pomocą specjalnych narzędzi.Ta w pełni zautomatyzowana metoda może być bardzo skuteczna przy początkowym wyszukiwaniu. Jedna z technologii tej metody oparta jest na wykorzystaniu specjalistycznych programów - pająków, które automatycznie przeglądają strony internetowe, szukając potrzebnych informacji. W rzeczywistości jest to opcja automatycznego przeglądania, wykorzystująca łącza hipertekstowe opisane powyżej (wyszukiwarki używają podobnych metod do tworzenia swoich tabel indeksowych). Nie trzeba dodawać, że automatyczne wyniki wyszukiwania koniecznie wymagają dalszego przetwarzania.

Zastosowanie tej metody jest wskazane, jeśli korzystanie z wyszukiwarek nie może dać niezbędnych wyników (na przykład ze względu na niestandardowy charakter zapytania, którego nie można odpowiednio zdefiniować za pomocą istniejących wyszukiwarek). W niektórych przypadkach ta metoda może być bardzo skuteczna: wybór między użyciem pająka lub wyszukiwarek to klasyczny wybór między użyciem narzędzi uniwersalnych lub specjalistycznych.

4. Analiza nowych zasobów.Wyszukiwanie nowo utworzonych zasobów może być konieczne podczas wykonywania powtarzających się cykli wyszukiwania, wyszukiwania najnowszych informacji lub analizowania trendów rozwojowych obiektu badawczego w dynamice. Innym możliwym powodem może być to, że większość wyszukiwarek aktualizuje swoje indeksy ze znacznym opóźnieniem spowodowanym ogromną ilością przetwarzanych danych , a to opóźnienie jest zwykle tym większe, im mniej popularny jest temat zainteresowania. Ta uwaga może okazać się bardzo istotna podczas wyszukiwania w wysoce specjalistycznej dziedzinie.

Podstawowe pojęcia ET

Okno robocze arkuszy kalkulacyjnych Microsoft Excel zawiera następujące elementy sterujące: pasek tytułu, pasek menu, paski narzędzi, pasek formuły, pole robocze, pasek stanu.

Dokument programu Excel o nazwie zeszyt ćwiczeń. Skoroszyt to zbiór arkuszy. W oknie dokumentu w programie Excel wyświetlany jest bieżący arkusz roboczy. Każdy arkusz ma nazwę, która pojawia się na etykiecie arkusza.

Struktura interfejsu

Po uruchomieniu programu Microsoft Excel na ekranie pojawi się okno.

okno robocze   programy:

Pasek tytułu, który obejmuje: menu systemowe, sam tytuł i przyciski sterowania oknem.

Pasek menu

Paski narzędzi: formatowanie i standardowe

· Pasek stanu.

· Linia wzorów, która obejmuje: pole nazwy; przyciski enter, cancel i funkcyjne; i ciąg funkcji.

Menu kontekstowe

Oprócz menu głównego, które jest stale wyświetlane na ekranie we wszystkich aplikacjach Windows, menu kontekstowe jest aktywnie używane w programie Excel, podobnie jak w innych programach MS Office. Menu kontekstowe zapewnia szybki dostęp do poleceń często używanych dla tego obiektu w danej sytuacji.

Po kliknięciu prawym przyciskiem myszy ikony, komórki, wybranej grupy komórek lub osadzonego obiektu w pobliżu wskaźnika myszy otworzy się menu z podstawowymi funkcjami. Polecenia zawarte w menu kontekstowym zawsze odnoszą się do aktywnego (wybranego) obiektu.

Paski narzędzi

Sposoby pokazywania / ukrywania pasków narzędzi:

Pierwszy sposób:

1. Kliknij dowolny pasek narzędzi prawym przyciskiem myszy ( RMB). Zostanie wyświetlone menu kontekstowe listy pasków narzędzi.

2. Ustaw lub usuń zaznaczenie pola obok nazwy żądanego paska narzędzi, klikając nazwę żądanego paska narzędzi na liście.

Drugi sposób:

1. Wybierz polecenie na pasku menu Widok. Pojawi się menu poleceń Widok.

2. Przesuń kursor do linii Paski narzędzi Pojawi się menu poleceń Paski narzędzi.

3.Ustaw lub odznacz pole obok nazwy żądanego paska narzędzi.

Linia wzorów

Pasek formuły służy do wprowadzania i edytowania wartości lub formuł w komórkach lub diagramach, a także do wyświetlania adresu bieżącej komórki.

Arkusz skoroszytu

Skoroszyt to dokument zawierający kilka arkuszy, które mogą zawierać tabele, wykresy lub makra. Wszystkie arkusze są zapisywane w jednym pliku.

Blok komórek

Tak jak blok komórek można uznać za wiersz lub część wiersza, kolumnę lub część kolumny, a także prostokąt składający się z kilku rzędów i kolumn lub ich części. Adres bloku komórek jest ustawiany przez wskazanie łączy do pierwszej i ostatniej komórki komórki, między którymi umieszczony jest separator - dwukropek (na przykład B1: D6).

Typy danych w MS Excel

Istnieją dwa rodzaje danych, które można wprowadzić do komórek w arkuszu programu Excel - stałe i wzory.

Stałe   z kolei dzielą się na: wartości liczbowe, wartości tekstowe, wartości daty i godziny, wartości logiczne i wartości błędne.

Wartości liczbowe

Wartości liczbowe mogą zawierać liczby od 0 do 9, a także znaki specjalne: + - E e (). , $% /

Aby wprowadzić wartość liczbową w komórce, wybierz żądaną komórkę i wprowadź żądaną kombinację liczb z klawiatury. Wprowadzone liczby są wyświetlane zarówno w komórce, jak i na pasku formuły. Po zakończeniu wprowadzania naciśnij klawisz Enter. Następnie numer zostanie zapisany w komórce. Domyślnie po naciśnięciu klawisza Enter komórka znajdująca się w poniższym wierszu staje się aktywna, ale za pomocą polecenia „Narzędzia” - „Opcje” na karcie „Edycja” można ustawić konieczny kierunek przejścia do następnej komórki po wprowadzeniu lub całkowicie wykluczyć przejście. Jeśli po wprowadzeniu numeru naciśnij dowolny klawisz nawigacyjny na komórkach (Tab, Shift + Tab ...), liczba zostanie ustalona w komórce, a fokus wejściowy zostanie przełączony na sąsiednią komórkę.

Czasami musisz wprowadzić długie liczby. Ponadto, aby wyświetlić go na pasku formuły, używana jest wykładnicza reprezentacja z nie więcej niż 15 cyframi znaczącymi. Dokładność wartości jest wybierana, aby liczba mogła być wyświetlana w komórce.

W takim przypadku wartość w komórce nazywana jest wartością wejściową lub wyświetlaną.

Wartość na pasku formuły nazywana jest wartością przechowywaną.

Liczba wprowadzanych cyfr zależy od szerokości kolumny. Jeśli szerokość jest niewystarczająca, program Excel zaokrągla wartość lub wyświetla znaki ###. W takim przypadku możesz spróbować zwiększyć rozmiar komórki.

Wartości tekstowe

Wprowadzanie tekstu jest dokładnie takie samo jak wprowadzanie wartości liczbowych. Możesz wpisać prawie każdą postać. Jeśli długość tekstu przekracza szerokość komórki, wówczas tekst jest nakładany na sąsiednią komórkę, chociaż w rzeczywistości znajduje się w jednej komórce. Jeśli tekst jest także obecny w sąsiedniej komórce, wówczas nakłada się na tekst w sąsiedniej komórce.

Aby dopasować szerokość komórki do najdłuższego tekstu, kliknij krawędź kolumny w jej nagłówku. Jeśli klikniesz linię między nagłówkami kolumn A i B, szerokość komórki zostanie automatycznie dostosowana do najdłuższej wartości w tej kolumnie.

Jeśli musisz wprowadzić liczbę jako wartość tekstową, musisz umieścić znak apostrofu przed liczbą lub umieścić liczbę w cudzysłowie - „123” 123 ”.

Możliwe jest rozróżnienie, jaką wartość (numeryczną lub tekstową) wprowadza się do komórki za pomocą znaku wyrównania. Domyślnie tekst jest wyrównany do lewej strony, a liczby do prawej.

Podczas wprowadzania wartości w zakresie komórek dane będą wprowadzane od lewej do prawej i od góry do dołu. Te. po wprowadzeniu wartości i zakończeniu wpisu przez naciśnięcie Enter kursor przejdzie do sąsiedniej komórki znajdującej się po prawej stronie, a po osiągnięciu końca bloku komórek w rzędzie przejdzie do wiersza poniżej do lewej komórki.

Zmień wartości komórek

Aby zmienić wartości w komórce przed ustaleniem danych wejściowych, musisz użyć klawiszy Del i Backspace, jak w każdym edytorze tekstu. Jeśli chcesz zmienić komórkę, która jest już zablokowana, kliknij dwukrotnie żądaną komórkę, a kursor pojawi się w komórce. Następnie możesz edytować dane w komórce. Możesz po prostu wybrać żądaną komórkę, a następnie umieścić kursor na pasku formuły, w którym wyświetlana jest zawartość komórki, a następnie edytować dane. Po edycji naciśnij klawisz Enter, aby zatwierdzić zmiany. W przypadku błędnej edycji sytuację można „przewinąć” za pomocą przycisku „Anuluj” (Ctrl + Z).

26. Tworzenie wykresów w MS Excel.

Aby utworzyć wykres, musisz najpierw wprowadzić dane wykresu w arkuszu programu Excel. Wybierz dane, a następnie użyj kreatora wykresów, aby przejść krok po kroku przez proces wyboru rodzaju wykresu i różnych opcji wykresu dla wykresu. Kreator wykresów - krok 1 z 4: okno dialogowe typu wykresu określa typ wykresu, którego chcesz użyć dla wykresu. Kreator wykresów - krok 2 z 4- okno dialogowe źródło danych wykresu, możesz określić zakres danych i sposób wyświetlania serii na wykresie. W Kreator wykresów - Krok 3 z 4: okno dialogowe opcji wykresu, możesz bardziej zmienić wygląd wykresu, wybierając opcje wykresu na sześciu kartach. Aby zmienić te ustawienia, wyświetl przykładowy wykres, aby upewnić się, że wykres wygląda poprawnie . Kreator wykresów - Krok 4 z 4: Okno dialogowe Umieszczenie wykresu, wybierz folder do umieszczenia na wykresie, wykonując jedną z następujących czynności:

Kliknij przycisk Nowy arkusz, aby wyświetlić wykres na nowym arkuszu.

Kliknij przycisk Lubię obiekt w, aby wyświetlić diagram jako obiekt w arkuszu.

Kliknij przycisk Zakończ.

Idź na górę strony

MS PowerPoint. Funkcje programu prezentacji. Podstawowe koncepcje.

PowerPoint XP to aplikacja do przygotowywania prezentacji, których slajdy są przekazywane do publicznej wiadomości w celu wypróbowania w formie drukowanych materiałów graficznych lub poprzez demonstrację elektronicznego filmu. Tworząc lub importując zawartość raportu, możesz szybko ozdobić go rysunkami, uzupełnić diagramami i efektami animacji. Elementy nawigacyjne umożliwiają generowanie interaktywnych prezentacji kontrolowanych przez samego widza.

Pliki programu PowerPoint są nazywane prezentacje   i ich elementy - slajdy.

SZABLONY REJESTRACJI

Microsoft PowerPoint zapewnia możliwość tworzenia szablonów projektów,

które można wykorzystać w prezentacji, aby nadać jej pełny, profesjonalny wygląd.

Szablon projektu -jest to szablon, którego formatu można użyć do przygotowania innych prezentacji.

Cel i charakterystyka głównych urządzeń komputera osobistego, takiego jak IBM PC.

Komputery   są narzędziami wykorzystywanymi do przetwarzania informacji. Główne bloki IBM PC

Zazwyczaj komputery osobiste IBM PC składa się z trzech części (bloków):

jednostka systemowa;

klawiatury, umożliwiając wprowadzanie znaków do komputera;

monitor   (lub wyświetl) - aby wyświetlić informacje tekstowe i graficzne.

Chociaż jednostka systemowa wygląda najmniej spektakularnie z tych części komputera, jest „główna” w komputerze. Wszystkie główne węzły komputerowe znajdują się w nim:

elektroniczne obwodyktóre kontrolują działanie komputera (mikroprocesor, pamięć RAM, kontrolery urządzeń itp., patrz poniżej);

zasilaczprzekształcanie zasilania sieci w niskie napięcie stałe dostarczane do obwodów elektronicznych komputera;

dyski(lub dyskietki) dla dyskietek używanych do odczytu i zapisu na dyskietkach (dyskietkach);

twardy dysk   dysk magnetyczny, przeznaczony do odczytu i zapisu na niewymiennych dyskach twardych (dyskach twardych).

DZWONEK

Są tacy, którzy czytają te wiadomości przed tobą.
Subskrybuj, aby otrzymywać świeże artykuły.
E-mail
Imię
Nazwisko
Jak chcesz przeczytać Dzwon
Bez spamu