DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chciałbyś przeczytać The Bell?
Bez spamu

Kupując nowy procesor, gracze najczęściej skupiają się na stosunku ceny do wydajności. Ktoś nie chce spędzać dużo czasu i kupuje jednostkę systemową z komponentami, podczas gdy ktoś jest bardziej zaawansowany i, jak mówią, samodzielnie montuje swój komputer.

Druga opcja jest najbardziej optymalna, ponieważ pomoże Ci zaoszczędzić pieniądze i uzyskać przyzwoitą wydajność.

Przed zakupem nowego procesora stajemy przed następującymi pytaniami: ile rdzeni jest potrzebnych, jakie ma cechy, poziom pamięci podręcznej, szybkość zegara. Ten artykuł odpowie na te pytania.

Funkcje do wyboru

Wybór procesora do komputera to kwestia, w której jest wiele niuansów. Początkujący kupują gotowe modele, aw przyszłości ich wydajność w większości przypadków nie jest zadowalająca.

Sklepy oferują głównie to, czego potrzebujesz, aby sprzedać w jak najkrótszym czasie. Można łatwo namówić na zakup tego komputera, który w rzeczywistości nie może rościć sobie statusu komputera do gier. Dlatego dalej rozważymy wszystkie niuanse wyboru.

Wybór producenta

Na pierwszy rzut oka wydaje się, że wybór producenta jest dość prosty, ponieważ na rynku są tylko dwie wiodące firmy: Intel i ich konkurent AMD. Każdy z nich ma swoje plusy i minusy.

W tej chwili liderem sprzedaży i standardem jest oczywiście Intel. Pomimo wszystkich wysiłków „AMD”, pod względem sprzedaży, ta pierwsza znacznie wyprzedza tę drugą. Przyczyna leży nie tylko w komponencie marketingowym i promocji marki, ale także w części technicznej.

Ale AMD nie pozostaje w tyle za swoimi głównymi konkurentami, mocno zajęli niszę budżetowych mikroprocesorów, co jest zdecydowanym plusem. W linii produktów AMD można znaleźć dość mocne modele w przedziale cenowym od 50 do 150 USD, które świetnie nadają się do gier.

Niezawodność

Kolejnym ważnym aspektem przy wyborze jest niezawodność. Nowoczesne modele Intel i AMD są wyposażone w system, który może zapobiegać przegrzaniu, co znacznie eliminuje wczesną awarię komponentu.

Zgodnie z praktyką, na tysiąc zwolnionych procesów, tylko jeden lub dwa zawodzą w pierwszych miesiącach działania. Możemy zatem powiedzieć, że większość produktów ma dość wysoki procent niezawodności i praktycznie wyklucza przedwczesną awarię.

Procesory ze zintegrowaną grafiką

AMD i Intel mają w swojej linii produktów tak zwane procesory hybrydowe. Procesory hybrydowe to modele, w których sam procesor i zintegrowana karta graficzna znajdują się bezpośrednio na tym samym chipie.

Możliwości zintegrowanej karty graficznej są całkiem dobre, ale raczej nie pasują do gier na czas, ponieważ nawet przy minimalnych ustawieniach jakości wystąpią zawieszanie się (nie wspominając o średnich i maksymalnych ustawieniach jakości).

Hybrydy są idealne, jeśli zdecydujesz się zbudować komputer do prostych zadań, takich jak surfowanie po Internecie, praca z niewymagającymi edytorami graficznymi i niewymagającymi grami.

Hybrydy są zaprojektowane tak, aby zmniejszyć zużycie energii, zminimalizować nagrzewanie się komponentów, a tym samym poprawić niezawodność.

Są one wyposażone w kartę graficzną z typem pamięci „GDDR3”, która nie jest znana ze swojej szybkości (wiele modeli nowoczesnych kart wideo jest wyposażonych w typ pamięci „GDDR5”, co czyni je bardziej wydajnymi).

Jeśli potrzebujesz komputera do prostych zadań, to zintegrowana karta graficzna będzie dobrym rozwiązaniem budżetowym.

Chciałbym powiedzieć trochę więcej o wbudowanych kartach graficznych. AMD radzi sobie pod tym względem znacznie lepiej niż konkurenci. W oparciu o większość testów, rozwiązania wbudowane AMD znacznie wyprzedzają rozwiązania Intela.

Jeśli więc zdecydujesz się na zakup hybrydy ze zintegrowaną kartą graficzną, bez wątpienia lepiej wybrać „AMD”, gdyż dla gier będzie to stosunkowo dobre rozwiązanie. Jeśli komputer jest potrzebny do zadań, które nie wymagają dużej mocy obliczeniowej, możesz dać pierwszeństwo Intelowi.

Wideo: procesor do gier

Charakterystyka

Jedną z cech wyboru procesora jest jego charakterystyka, która określi wydajność w wymagających grach.

Liczba rdzeni

Wiele osób uważa, że ​​im więcej rdzeni, tym lepsza będzie wydajność, ale jest to jedno z kilku nieporozumień. Wydajność (ładowanie systemu operacyjnego, liczba klatek na sekundę w grach, szybkość programów) zależy nie tyle od liczby rdzeni, ale także od dysku twardego (HDD lub SSD).

Nie trzymaj się zasady: im więcej tym lepiej. Możesz złożyć dość wydajny komputer z czterordzeniowym i dyskiem SSD na pokładzie. Można śmiało powiedzieć, że taka wiązka komponentów znacznie zwiększy wydajność we współczesnych grach i pozwoli ci grać na wysokich ustawieniach, pod warunkiem, że masz przynajmniej kartę do gry ze średniej półki.

Weźmy na przykład. Do niewymagających aplikacji i surfowania po Internecie wystarczy Athlon II X2. Ale jeśli do tych samych zadań weźmiemy Core i3 lub Core i5 lub FX 4xxx, to wzrost wydajności w niewymagających aplikacjach nie będzie bardzo zauważalny. Możesz w pełni doświadczyć wzrostu wydajności w testach warunków skrajnych ("LinX", "AIDA64", "PassMark", "OCCT") lub w aplikacjach wymagających dużej ilości zasobów (edytory graficzne i gry).

Jeśli chcesz zbudować komputer do wykonywania na nim zadań niewymagających dużej mocy obliczeniowej (praca w pakiecie Office, surfowanie po Internecie, niewymagające gry), najlepiej kupić 2-3 rdzenie.

Jeśli komputer ma grać w gry, to w tej sytuacji potrzebne są minimum 4-rdzeniowe procesory. Ale jak widać, w przypadku nowoczesnych gier wydanych w 2014 roku i wydanych w 2015 roku wymagane są już 4-6 rdzeni (aby grać na minimalnych ustawieniach).

Pamięć podręczna

Jednym z czynników wysokiej wydajności jest pamięć podręczna. Mikroprocesory wyposażone we własną pamięć podręczną są znacznie bardziej wydajne niż te bez pamięci podręcznej lub ze zmniejszoną pamięcią podręczną.

Na przykład, zwiększając wydajność komputera do gier wyposażonego w procesor z pamięcią podręczną, wzrost wydajności może wynieść nawet 25 procent, co jest całkiem niezłe.

Chciałbym zauważyć, że kupując nowy procesor, należy zwrócić uwagę na jego pamięć podręczną. Ilość pamięci podręcznej może znacznie zwiększyć wydajność komputera.

Częstotliwość zegara

Wiele osób często zadaje pytanie, jaką częstotliwość powinien mieć procesor. Częstotliwość zegara to liczba operacji, które procesor może wykonać w ciągu jednej sekundy. W przeszłości szybkość zegara była jednym z pierwszych czynników wpływających na wydajność. Ale w tej chwili nie jest to do końca prawdą.

Szybkość zegara nie jest czynnikiem decydującym o wydajności komputera. Na wydajność mają również wpływ technologie wykorzystywane przez współczesne procesory (Hyper-Threading).

Technologie chipsetów

Większość nowoczesnych modeli procesorów jest wyposażona w specjalne technologie, które znacznie poprawiają wydajność.

Hyper Threading

Hyper-Threading to technologia zaimplementowana w produktach firmy Intel.„Hyper-Threading” w prostych słowach przedstawia każdy rdzeń fizyczny jako dwa logiczne.

Zdjęcie: Hyper-Threading - dzielenie rdzenia

Tak więc podczas wykonywania określonej operacji logicznej procesor nie wykorzystuje w pełni swoich zasobów, a co za tym idzie, niektóre z nich są bezczynne. Tak samo, „Hyper-Threading” pozwala wykorzystać te najbardziej nieużywane zasoby do przetwarzania równoległych operacji.

Oczywiście nie należy liczyć na to, że „Hyper-Threading” dość mocno zwiększy wydajność komputera, ale wzrost wydajności będzie dość zauważalny (będzie to szczególnie zauważalne w grach).

TurboBoost lub TurboCore

Technologia TurboBoost wdrożona przez firmę Intel. „TurboBoost” automatycznie zwiększa nominalną prędkość zegara. Zwiększenie częstotliwości jest możliwe tylko wtedy, gdy limit mocy nie zostanie przekroczony. „TurboBoost” znacznie zwiększa wydajność aplikacji, które mają jeden lub więcej wątków.

Technologia „TurboCore” zaimplementowana przez AMD „TurboCore”, podobnie jak w przypadku Intela „TurboBoost” pozwala na automatyczne zwiększanie szybkości zegara. Głównym celem technologii TurboCore jest dynamiczne zwiększanie wydajności poszczególnych rdzeni.

Za pomocą „TurboCore” każdy rdzeń otrzymuje podwyższenie nominalnej częstotliwości taktowania do 500 MHz, co pomoże znacznie zwiększyć prędkość komputera.

Który procesor jest najlepszy do gier zimą 2014 - 2015

Doszliśmy do najważniejszej rzeczy, który procesor do gier jest lepszy zimą 2014-2015. Dla wygody procesory zostaną podzielone na kilka grup: „Budżet”, „Średnia”, „Potężna”.

Budżet

AMD Athlon II X3 455

Budżetowy i dość wydajny model o wysokiej nominalnej częstotliwości taktowania 3,3 GHz. AMD Athlon II X3 455 charakteryzuje się też dość dużym potencjałem podkręcania.

Główna charakterystyka:

  • architektura - „Rana”;
  • liczba rdzeni - 3;
  • nominalna częstotliwość taktowania - 3,3 GHz;
  • pamięć podręczna L1/L2 - 128 kB/1536 kB;
  • gniazdo-AM3.

Koszt to 35 USD (2300 rubli).

Zdjęcie: procesor AMD Athlon II X3 455

Athlon II X4 750K

Model budżetowy charakteryzuje się dość niskim kosztem, ale jednocześnie ma dość wysoką wydajność. Kolejną niewątpliwą zaletą Athlona II X4 750K jest jego dobry potencjał podkręcania.

Najważniejsze cechy Athlona:

  • architektura - „Trójca”;
  • liczba rdzeni - 4;
  • nominalna częstotliwość taktowania - 3,4 GHz;
  • pamięć podręczna L1/L2 - 48 kB/4096 kB;
  • gniazdo-FM2.

Koszt to 50 USD (3500 rubli).

Intel Pentium G3420 Haswell

Intel Pentium G3420 Haswell - Intel Pentium™ to jeden z najstarszych produktów Intela, niemniej jednak wciąż jest na rynku i zajmuje znaczną niszę. Pentium G3420 Haswell to nowe rozwiązanie, które zapewnia dobry wzrost wydajności.

Główna charakterystyka:

  • architektura - "Haswell";
  • liczba rdzeni - 2;
  • nominalna częstotliwość taktowania - 3,2 GHz;
  • pamięć podręczna L1/L2/L3 -64 KB/512 KB/3072 KB;
  • gniazdo-LGA1150/

Koszt to 55 USD (3800 rubli).

Poziom średniozaawansowany

Wystarczająco wydajny sześciordzeniowy, zapewniający optymalną wydajność w dzisiejszych grach.

Główna charakterystyka:

  • architektura - „Vishera”;
  • liczba rdzeni - 6;
  • nominalna częstotliwość taktowania - 3,5 GHz;
  • pamięć podręczna L1/L2/L3 - 48 kB/6144 kB/8192 kB;
  • gniazdo-AM3+.

Koszt to 80 USD (5500 rubli).

Zbudowany na architekturze „Vishera”. Ma 8 fizycznych rdzeni i wysokie taktowanie. AMD FX-8350 to najlepszy procesor do gier AMD 2014-2015.

Główna charakterystyka:

  • liczba rdzeni - 8;
  • nominalna częstotliwość taktowania - 4,0 GHz;
  • pamięć podręczna L1/L2/L3 - 48 kB/8192 kB/8192 kB;
  • gniazdo-AM3+.

Koszt to 130 USD (9000 rubli).

Wydajne rozwiązanie firmy Intel. Potężny czterordzeniowy, zapewni doskonałą wydajność w nowoczesnych grach. Zbudowany na architekturze „Haswell”.

Główna charakterystyka:


Czterordzeniowy rdzeń o dość dobrym potencjale przetaktowania oparty jest na architekturze Haswell. Jak pokazuje praktyka, Core i5-4690K zapewnia maksymalną wydajność w grach z lat 2014-2015.

Główna charakterystyka:


Potężny

Intel Core i7-3770K to najwyższej klasy, zbudowany na architekturze Ivy Bridge. Zapewnia maksymalną wydajność w grach przy wysokich ustawieniach grafiki.

Główna charakterystyka:

  • architektura - "Haswell";
  • liczba rdzeni - 4;
  • zintegrowany rdzeń graficzny - HD Graphics 4000
  • pamięć podręczna L1/L2/L3 -64 KB/1024 KB/8192 KB;
  • gniazdo - LGA1155;

Średnia cena detaliczna to 305 USD (21 000 rubli).

Na pytanie, który procesor jest najlepszy dla gier Intel, można odpowiedzieć w następujący sposób. W przypadku wysokiej wydajności w grach najlepszym rozwiązaniem jest Intel Core i7-5930K Extreme Edition. Jedną z cech Core i7-5930K jest obsługa gniazd LGA2011-v3 i pamięci DDR4 SDRAM.

Produkt oparty na mikroarchitekturze Haswell-E.

Główna charakterystyka:

  • liczba rdzeni - 6;
  • nominalna częstotliwość taktowania - 3,5 GHz;
  • zintegrowany rdzeń graficzny - brak;
  • pamięć podręczna L1/L2/L3 -64 KB/1536 KB/15360 KB;
  • gniazdo - LGA2011-3;
  • wsparcie technologii - Hyper-Threading.

Średnia cena detaliczna to 652 USD (45 000 rubli).

Flagowy produkt firmy AMD, zbudowany na architekturze Vishera. Osiem rdzeni i wysokie taktowanie zapewnią najlepszą wydajność w dzisiejszych grach.

Główna charakterystyka:

  • liczba rdzeni - 8;
    nominalna częstotliwość taktowania - 4,7 GHz;
    pamięć podręczna L1/L2/L3 - 48 kB/8192 kB/8192 kB;
    gniazdo-AM3+.

Średnia cena detaliczna to 220 USD (15 000 rubli).

Tabela wydajności i stosunku ceny

Nazwa mikroprocesora Test wydajności Cena detaliczna Stosunek wydajności do ceny.Im wyższa liczba, tym bardziej opłacalny zakup produktu
Modele budżetowe zima 2014-2015
Athlon II X3 455 0,231 2300 rubli 99
Athlon II X4 750K 0,245 3500 rubli 70
Pentium G3420 0, 235 3800 rubli 63
Modele średnie zima 2014-2015
FX-6300 0,368 5500 rubli 72
FX-8350 0,545 9000 rubli 61
Rdzeń i5-3330 0,416 11000 rubli 42
Core i5-4690K 0,526 15000 rubli 37
Mocne modele zima 2014-2015
Rdzeń i7-3770K 0,605 21000 rubli 30
Rdzeń i7-5930K 0,925 45000 rubli 27
FX-9590 0,616 15000 rubli 51

W tym artykule dokonano przeglądu najlepszych procesorów do komputera do gier w latach 2014-2015.

Uważnie przestudiuj wyniki testu, aby później nie było problemów z wydajnością. Nie zapominaj, że aby złożyć produktywny komputer, musisz zwrócić uwagę na inne komponenty (karta graficzna, pamięć RAM i inne).

Na ten sam temat

Najważniejsze wydarzenia 2015 roku

Pomimo tego, że rozpoczęliśmy ten materiał od skarg na to, że na rynku procesorów do komputerów PC nie ma tak wielu istotnych wydarzeń, nie oznacza to wcale, że branża jest w stagnacji. W 2015 r. Intel wypuścił dwie generacje 14-nanometrowych procesorów do komputerów stacjonarnych, z których jedna miała jednak bezprecedensowo krótki cykl życia. W tym czasie AMD powoli rozwijało linię procesorów hybrydowych Kaveri i jednocześnie wprowadzało kolejną, tym razem finalną, wersję architektury Bulldozer, która jednak znalazła swoje miejsce w procesorach wyłącznie na rynek mobilny. Przyjrzyjmy się bliżej, jak to wszystko się wydarzyło.

Tak więc na początku 2015 r. Intel wprowadził procesory generacji Broadwell, skoncentrowane na cienkich i lekkich laptopach. Procesory te były kolejnym krokiem w cyklu rozwoju tick-tock i tak naprawdę ich główną zaletą było przejście na nowoczesny proces 14 nm i liczne optymalizacje mające na celu poprawę wydajności. W tym samym czasie Intel chciał przeprowadzić pewien eksperyment z konstrukcją procesora Broadwell: początkowo koncentrował się na rozwiązaniach mobilnych i ultramobilnych, a oparte na nim pełnoprawne procesory do komputerów stacjonarnych w ogóle nie były planowane. Jednak pod naciskiem klientów plany te zostały następnie zmienione i w oparciu o Broadwell stworzono modele procesorów dla systemów stacjonarnych. Doprowadziło to jednak do opóźnienia w procesie ich wprowadzania na rynek, na co poważny wpływ miały również problemy produkcyjne z technologią 14 nm, która przez długi czas nie zapewniała akceptowalnej wydajności odpowiednich kryształów. W rezultacie komputery Broadwell zostały wydane dopiero w czerwcu, czyli prawie rok po ogłoszeniu pierwszych procesorów mobilnych opartych na tej mikroarchitekturze, które znalazły się w rodzinie Core M.

W rezultacie Broadwell wszedł na rynek procesorów do komputerów stacjonarnych w czasie, gdy następna generacja procesora Skylake była już za kilka miesięcy. Intel próbował oddzielić te nowości poprzez pozycjonowanie, ustawienie Broadwell na bardziej rygorystyczne pakiety termiczne i zapewnienie im kilku dodatkowych funkcji: wysokowydajnej grafiki Iris Pro i dodatkowego bufora eDRAM, który działa jako pamięć podręczna L4. Nie udało się jednak spopularyzować środków firmy Broadwell na komputery stacjonarne. Wręcz przeciwnie, z tego powodu nabyli wyraźne cechy produktów niszowych i wysoce specjalistycznych, na które popyt jest tylko w bardzo rzadkich przypadkach. Jak później stwierdzili sami przedstawiciele Intela, cała saga z wydaniem Broadwella na komputery stacjonarne jest dużym błędem w obliczeniach. Powstałe produkty nie tylko wyszły wyraźnie w złym momencie, ale również okazały się zbyt drogie i dość niezrównoważone pod względem cech, przez co ich sprzedaż została de facto zakłócona.

Nie można jednak zaprzeczyć, że Core i7-5775C i i5-5675C były w stanie zademonstrować, że AMD nie może już być uważane za twórcę najbardziej wydajnych zintegrowanych rdzeni graficznych. Oba procesory Broadwell do komputerów stacjonarnych wydane przez firmę Intel były w stanie zaoferować zauważalnie lepszą wydajność graficzną niż starsze APU konkurenta, AMD A10-7850K i A10-7870K. Tak więc w ciągu swojego życia Core i7-5775C i i5-5675C nadal zdołały w pełni odgrywać co najmniej jedną ważną rolę - reprezentacyjną.

Ale już w sierpniu modele generacji Skylake zajęły miejsce najnowocześniejszych procesorów Intela. I była to już kompletna aktualizacja. Rzeczywiście, wraz z wykorzystaniem technologii 14 nm, Intel zaimplementował w nich także nową ulepszoną mikroarchitekturę. Oczywiście nie można powiedzieć, że mikroarchitektura Skylake stała się swego rodzaju rewelacją, ale specyficzna wydajność nowych procesorów wzrosła o kolejne 10-15 proc. w porównaniu do Haswella, a poza tym otrzymały nowy rdzeń graficzny dziewiątej generacji . Kolejną ważną innowacją, która nastąpiła wraz z pojawieniem się procesorów Skylake, było przejście do nowego ekosystemu LGA1151 z obsługą pamięci DDR4.

Do tej pory procesory Skylake z powodzeniem penetrowały wszystkie segmenty rynku, od cienkich i lekkich laptopów po wysokowydajne komputery stacjonarne. W linii Skylake pojawiły się również tradycyjne modele overclockerów Core i7-6700K oraz Core i5-6600K, które do tej pory zdołały pobić wiele rekordów dzięki przeniesieniu stabilizatora mocy z procesora na płytę główną i w efekcie zwiększony potencjał częstotliwości. Nawiasem mówiąc, prawie zapomniana technika podkręcania niespodziewanie powróciła ze Skylake - poprzez zwiększenie częstotliwości BCLK. Co więcej, pod koniec zeszłego roku okazało się, że to podejście ma zastosowanie również do konwencjonalnych procesorów bez indeksu K w nazwie, więc z punktu widzenia overclockingu Skylake stał się rzeczywiście bardzo ważną i oczekiwaną aktualizacją.

Jednak nadal nie możemy powiedzieć, że życie rynkowe Skylake jest dobre i bezchmurne. Z tymi procesorami są co najmniej dwa problemy. Pierwsza to produkcja. Pomimo wszystkich zwycięskich raportów, proces produkcyjny 14 nm nadal nie działa tak, jak chciałby Intel. Niska wydajność odpowiednich kryształów zdolnych do pracy przy wysokich częstotliwościach prowadzi do niedoboru starszych modeli Skylake. W rezultacie procesory Core i7-6700K i Core i5-6600K są sprzedawane po nieco zawyżonych cenach, aw niektórych regionach w ogóle nie są dostępne. Drugi problem dotyczy konstrukcji mechanicznej procesorów, których grubość tekstuolitu stała się zauważalnie cieńsza. Z tego powodu podczas używania chłodnic z silnym ciśnieniem istnieje ryzyko uszkodzenia procesora. Oczywiście prawdopodobieństwo takiego wyniku nie jest zbyt duże, niemniej jednak niektórzy chłodniejsi producenci byli nawet zmuszeni do zmiany konstrukcji stosowanego mocowania.

Podczas gdy Intel był w stanie wprowadzić całkowicie nowe procesory dwukrotnie w ciągu ostatniego roku, AMD wyraźnie żyło nie w teraźniejszości, ale w przyszłości. Wszystkie jej nadzieje związane są z obiecującą mikroarchitekturą Zen, która do prawdziwych produktów trafi dopiero pod koniec tego roku, a nawet na początku przyszłego. I dlatego w 2015 roku praktycznie w ogóle nie było zapowiedzi nowych produktów AMD. W tym czasie firmie udało się jedynie wyraźnie potwierdzić swoje zamiary, aby nie rozwijać już cierpliwej mikroarchitektury Bulldozer, której najnowszą reinkarnacją był świeży projekt Excavator. Jednak ten projekt w ogóle nie dostanie się do procesorów z serii FX, a jego halo habitatu ogranicza się wyłącznie do hybrydowych APU, a obecnie tylko do celów mobilnych. Właściwie zaprezentowano pierwsze procesory wykorzystujące rdzenie Excavator - pod kryptonimem Carrizo - w połowie ubiegłego roku.

W teorii Carrizo miało być alternatywą dla procesorów Intela klasy U, stosowanych w cienkich i lekkich laptopach. I dokonali kilku naprawdę dużych ulepszeń w porównaniu z poprzednią generacją mobilnych procesorów Kaveri - wydajność wzrosła, a TDP spadło o około 20 procent. Jednak nawet w tej pojedynczej niszy AMD nie było w stanie dogonić Intela. Jego mobilne procesory okazały się gorsze pod względem zużycia energii, słabsze pod względem wydajności i były zauważalnie gorsze od mobilnego Skylake'a nawet pod względem mocy rdzenia graficznego.

Jeśli chodzi o ciekawszy dla nas segment rynku komputerów stacjonarnych, AMD w ogóle nie wprowadziło w nim żadnych innowacji. Firma tylko nieznacznie podniosła częstotliwości procesorów hybrydowych Kaveri, nadając im po drodze nową nazwę kodową Godavari.

Wchodząc w nowy, 2016 rok, nie zaszkodzi spojrzeć wstecz na główne trendy i wydarzenia minionego 2015 roku, trzeźwo spojrzeć na rynek PC po wszystkich zapowiedziach, które minęły w ciągu roku, co zapewne nam pozwoli aby zrozumieć, dokąd branża pójdzie dalej.

W tym materiale skupimy się na procesorach jako sercu komputerów osobistych, ponieważ to ich premiera zmusza producentów płyt głównych i modułów RAM do adaptacji, w pewnym stopniu wyznaczając modę.

Oceńmy, co nowego w tym roku wydarzyło się lub pojawiło w asortymencie AMD i Intela oraz jakie ogólne trendy można wyłapać.

AMD

„Rok Świstaka”

Czerpiąc analogie z osławionym filmem „Groundhog Day”, którego główny bohater nieprzerwanie przeżywał ten sam dzień swojego życia, postęp AMD w ostatnich latach można opisać w podobny sposób. Są zapowiedzi, są obietnice, ale nie ma nowych platform i procesorów.

Aż trudno sobie wyobrazić, ale najnowsze rozwiązania skoncentrowane na wysokowydajnych komputerach PC (procesor Vishera, platforma AM3+) trafiły do ​​sprzedaży w 2012 roku i od tego czasu nie nastąpiły żadne znaczące zmiany. Dopiero wraz z lepszym opanowaniem procesu technicznego zwiększył się potencjał częstotliwościowy procesora, co pozwoliło na wypuszczenie limitowanej linii podkręconych rozwiązań (a nawet wtedy z pakietem termicznym 200 W+ i obsługą ekstremalnie ograniczonego liczba płyt głównych). Ale to właśnie taki stan rzeczy pozwala Intelowi nie śpieszyć się do skoków jakościowych wydajności, ponieważ „i tak to kupią – nie ma dokąd pójść”.

Jeśli odejdziemy od zapowiedzi, które mówią o przyszłych procesorach i skupimy się na tym, co faktycznie wydano w ciągu ostatniego roku w segmencie komputerów stacjonarnych, na myśl przychodzi tylko Godavari. A co nam zaoferowano pod płaszczykiem nowych APU? I wszystko to samo, stare dobre Kaveri, wydane dwa lata temu, z tą różnicą, że rozpraszacz ciepła jest teraz osadzony na stopie lutowniczym, zamiast wątpliwej jakości pasty termicznej. Zabawne jest to, że wypuszczając procesor, którego główną cechą wyróżniającą są ulepszone możliwości przetaktowywania, AMD nie rozwiązało problemów z podkręcaniem pamięci i kontrolera pamięci.

Ale to wydajność komponentu graficznego wbudowanego w procesor „opiera się” na pamięci RAM, co staje się dodatkową przeszkodą w realizacji możliwości architektury.

W rezultacie, jeśli mówimy o wydajności APU, to postęp zatrzymał się na generacji Richland, wydanej latem 2013 roku. W przeciwieństwie do Kaveri i Godavari, instancje Richland często osiągają stabilne działanie przy wysokich częstotliwościach pamięci (do DDR3-2400+, podczas gdy Kaveri/Godavari zatrzymują się na DDR3-2133), co praktycznie eliminuje różnicę w architekturze procesora i części graficznej.

Pozostaje tylko mieć nadzieję na przyszłość i że w nowym roku będzie więcej tematów do rozmów. Cóż, czekamy na Socket AM4, Bristol Ridge i .

Intel

Spóźniony tik tak

Sformułowaniem „tick-tock” można scharakteryzować wieloletnią strategię producenta i polega ona na stopniowym ulepszaniu procesorów, kiedy nowy proces techniczny jest najpierw aktualizowany i „docierany”, a dopiero potem nowa architektura jest zapewniony.

W rzeczywistości wielu użytkowników czekało już na nową rundę rozwoju, ponieważ wraz z wydaniem linii Haswell w 2013 roku postęp praktycznie się zatrzymał. Kolejne serie (Haswell-Refresh i Haswell-E) nie wprowadzały zmian jakościowych, a jedynie ilościowe (w pierwszym przypadku więcej megaherców, w drugim więcej rdzeni), nie zmieniła się architektura procesora oraz zastosowana technologia procesowa.

W zeszłym roku byliśmy świadkami dwóch ogłoszeń jednocześnie. „Tick” i „Tock” ujrzały światło w odstępie zaledwie miesiąca, zostały wykonane w technologii 14 nm CPU, która otrzymała nazwy Broadwell i Skylake. Rozważ ogłoszenie każdej z platform osobno.

Broadwell

Procesory te nie miały nieść żadnych architektonicznych rewolucji, opierały się na tej samej architekturze linii Haswell, przeniesionej do nowego procesu technicznego. Można powiedzieć, że to typowy „kleszcz”, nawet gniazdo procesora pozostało bez zmian. Jednak nadal istnieją różnice.

Komponent graficzny przeszedł poważne zmiany, których wydajność stała się porównywalna ze starszymi APU AMD, a nawet go przewyższa (choć przy ogromnej różnicy w kosztach procesorów nie można tego nazwać bezwarunkowym zwycięstwem). Kolejną z „dziwacznych” nowości procesora Broadwell było zastosowanie dwóch kryształów pod rozpraszaczem ciepła, a nie jednego - drugim chipem był mikroukład zapewniający 128 MB wydajnej pamięci eDRAM, którą można nazwać dodatkowym poziomem pamięci podręcznej używane przez zintegrowaną grafikę.

To rozwiązanie zostało odziedziczone po laptopach, w rzeczywistości same procesory Broadwell do komputerów stacjonarnych można nazwać podkręconymi odpowiednikami mobilnymi, a nie pełnoprawną linią.

Nowa technologia procesowa nie była wcale łatwa dla Intela: procesory pojawiły się bardzo późno i nie spełniły oczekiwań pod względem potencjału podkręcania. Miesiąc później pojawiła się nowa platforma Skylake. W efekcie zapowiedź Broadwella można uznać za porażkę i można jedynie liczyć na obniżkę ceny.

niebo

W przeciwieństwie do „Tika”, podczas ogłoszenia nie było specjalnych problemów z „Tak”, ponieważ proces techniczny był debugowany na poprzedniej generacji procesorów, a nowe modele procesorów zostały uproszczone poprzez powrót do korzeni w odniesieniu do podsystemu zasilania.

Przypomnę, że procesory z poprzedniego etapu ewolucji, w postaci Haswell, Haswell-Refresh, Haswell-E i Broadwell, zarządzały tylko jednym napięciem - napięciem wejściowym procesora, a wszystkie inne napięcia zostały utworzone przez konwerter już wbudowany w procesor, co zmniejszyło obciążenie płyty głównej i pozwoliło na pewne uproszczenie. Ten ostatni był wygodny dla laptopów, ale ostatecznie wpłynął na charakter temperaturowy samego procesora, a także częściowo na jego możliwości podkręcania.

Teraz możemy zobaczyć oddzielne konwertery na płytach głównych dla rdzeni obliczeniowych i graficznych, dla kontrolera pamięci i procesora VTT. Zmiany, które zaszły pozytywnie wpłynęły na potencjał podkręcania nowych produktów, który wprawdzie nie osiągnął wartości Sandy Bridge, ale wyraźnie dodał 4600-4700 MHz pod obciążeniem AVX2 (w przeciwieństwie do Haswella) nie dziwi ktokolwiek.

Kolejnym czynnikiem powrotu do podstaw jest „odsprzęgnięcie” podstawowej częstotliwości procesora od magistral DMI i PCI-Express, co pozwoliło na przywrócenie do życia takiej metody przetaktowywania procesora, jak podkręcanie „magistrali”. ”, a nie z mnożnikiem. I wreszcie zrobiono to w uczciwy sposób, a nie poprzez zmianę współczynnika CPU-Strap. Ostatni raz można było przetaktować procesor w ten sposób w architekturze Lynnfield ponad sześć lat temu.

A jednak może nie warto z mojej strony tak gorliwie przesadzać. Rozwój nowoczesnych technologii, choć gruntownie spowolniony, ale nie zatrzymuje się ani na minutę. W końcu ten, kto nawet czołga się, rusza w stronę celu. Wprowadzenie procesorów 14 nm to ważne i długo oczekiwane wydarzenie w branży. Kolejna poprzeczka została pokonana, zbliżają się nowe szczyty.

Niestety w tym roku nie doszło do konfrontacji konkurencyjnej. AMD nie zachwyciło nas nowymi rozwiązaniami architektonicznymi, ograniczając się do kosmetycznego „wykończenia” znanych już architektur. Jak mówią, dzięki za to, ale od the Reds oczekujemy prawdziwego przełomu. Mam nadzieję, że stanie się to w 2016 roku.

Sklep żelazny nr 28. Wyniki 2015 r.: procesory i platformy komputerowe

AMD

Jeśli mówimy o procesorach centralnych, to w 2015 roku AMD okazało się niekwestionowanym zwycięzcą w nominacji „nie przenosić toreb”. Jak powiedziałem, gigant procesorowy nie wprowadził żadnych nowych produktów. Okazuje się, że najnowsze opracowanie „czerwonych” – procesorów hybrydowych Kaveri – na początku stycznia będzie mieć prawie dwa lata. W rzeczywistości przez 24 miesiące AMD nie pokazało nic fundamentalnie nowego. Ich architektura procesora Bulldozer ze wszystkimi gałęziami jest całkowicie przestarzała. Sytuacja z obecnymi platformami jest w opłakanym stanie. Nic dziwnego, że to właśnie w 2015 roku firma zdała wszystkie stanowiska. Tak więc w trzecim kwartale Czerwoni zarobili 1,03 miliarda dolarów. To o 26% mniej niż dochód osiągnięty rok wcześniej. Firma jest nierentowna na poziomie 197 mln. Jeśli mówimy tylko o procesorach (CPU i GPU), to AMD sprzedało w trzecim kwartale chipy za 424 mln dolarów, czyli o 46% mniej niż rok temu. Zwiększona sprzedaż nowych linii kart graficznych Radeon R7 / R9 300 i Radeon R9 Fury jest częściowo wycofana przez „czerwonych”. Jak mówi jeden ze znanych memów: „wszystko jest bardzo złe”.

We wrześniu procesory AMD FX kończą cztery lata

Co pozostaje do zrobienia przed firmą, która znalazła się w tak nie do pozazdroszczenia sytuacji? Zgadza się, rozwijaj. W 2015 roku AMD podjęło decyzję o wejściu na rynek poprzez sprzedaż własności intelektualnej. Korporacja chce zarabiać na patentach. W tej chwili Czerwoni wybierają między kilkoma modelami biznesowymi. Po pierwsze, firma może sama licencjonować patenty. Jak na przykład robi to NVIDIA w stosunku do rozwiązań graficznych Intela. Po drugie, AMD może licencjonować rozwój urządzeń, których w zasadzie nie planuje wypuszczać. „Czerwoni” mają ciekawe modyfikacje grafiki Radeon przeznaczone na smartfony i tablety. Wreszcie po trzecie, w razie potrzeby AMD może sprzedawać patenty z portfolio. Ważne jest, aby zrozumieć, że firma nie planuje zostać analogiem ARM. Nie będzie w stanie. Licencjonowanie technologii to kolejny sposób na wyjście z tego samego miejsca. Ponadto jest to bardzo dochodowy biznes. Przykładu nie trzeba daleko szukać: firma Qualcomm Corporation w pierwszych trzech kwartałach bieżącego roku finansowego zarobiła 6,162 miliarda dolarów na samych licencjach. NVIDIA otrzymuje co kwartał 66 milionów dolarów od Intela.

I jeszcze raz: w tym roku AMD nie wprowadziło ani jednego fundamentalnie nowego procesora centralnego. Było trochę szumu wokół chipów do notebooków Carrizo opartych na najnowszym wcieleniu modułowej architektury Bulldozera, Excavatorze. Rozmowa o tych „kamieniach” trwa od 2014 roku, ale ile laptopów jest w sprzedaży od tego czasu? Pytanie jest jednak retoryczne.

Nie czekaliśmy w tym roku na nowe rozwiązania architektoniczne AMD. Wszystkie nadzieje związane są z 2016 rokiem.

W 2015 roku partnerzy AMD, producenci kontraktowi TSMC i GlobalFoundries, wykonali dobrą robotę. Doprowadzenie do perfekcji norm technologicznych 28 i 32 nm pozwoliło „czerwonym”, po pierwsze, wypuścić linię hybrydowych procesorów Godavari (Kaveri Refresh). W tych APU nie ma nic nowego. Oczekiwano zwiększono częstotliwości zarówno części obliczeniowej x86, jak i modułu graficznego Radeon. Po drugie, pojawiły się ośmiordzeniowe układy FX, których pakiet ciepła utrzymywał się w granicach 95 watów. To wszystko „osiągnięcia”.

Na zintegrowanej grafice AMD A10-7870K możesz grać w GTA V nawet w rozdzielczości Full HD

Oczywiście rok 2015 był dla AMD rokiem przeładunkowym. Firma przeszła poważną restrukturyzację, zmianę kierownictwa i poważne zwolnienia. W przyszłym roku „Czerwoni” obiecują mówić na wszystkich frontach. Głównym wydarzeniem dla korporacji (być może całej branży) będzie premiera procesorów zbudowanych na architekturze Zen.

Szefowa firmy, Lisa Su, całkiem oficjalnie zapowiedziała, że ​​rdzenie obliczeniowe oparte na najnowszych osiągnięciach będą wykonywać o 40% więcej instrukcji na zegar niż rozwiązania oparte na koparce zastosowanej w mitycznych chipach Carrizo. Dana postać, delikatnie mówiąc, osłupiała. Zwłaszcza jeśli weźmie się pod uwagę, że porównywane są rdzenie pracujące z tą samą częstotliwością. Nowość będzie produkowana w fabrykach GlobalFoundries przy użyciu technologii 14nm 14LPP. Już w tym roku deweloperzy otrzymali do testów prototypy. Sama firma AMD jest zadowolona zarówno z wydajności nowych układów, jak i procentowej wydajności układów nadających się do komercyjnego wdrożenia.

Uwaga, zapnijcie pasy - jedziemy w górę!

Opracowana w 2010 roku modułowa architektura Bulldozer okazała się porażką. Czas postawił wszystko na swoim miejscu. Zen jest dokładnym przeciwieństwem Bulldozera. Wiadomo, że każdy rdzeń będzie zawierał sześć jednostek wykonawczych operacji na liczbach całkowitych, dwie 256-bitowe jednostki wykonawcze operacji zmiennoprzecinkowych, własny dekoder instrukcji, jednostkę pobierania instrukcji, jednostkę przewidywania rozgałęzień i własną pamięć podręczną. Taki rdzeń można w pełni nazwać pełnoprawnym. Ponadto architektura Zen będzie obsługiwać technologię Simultaneous Multithreading, której zasada jest podobna do Hyper-Threading. Wszystko to uspokaja.

W przypadku układów Zen zostanie wprowadzona platforma AM4, obsługująca zarówno układy APU, jak i x86 bez zintegrowanej grafiki. AMD przejdzie na korzystanie z pamięci DDR4. Wiadomo, że ASMedia opracuje logikę dla Czerwonych. Samo AMD zrezygnuje z produkcji chipsetów.

Słowem, architektura Zen jest świetna. Ale jak to będzie w praktyce?

Jest tylko jedna kwestia, która jest niepokojąca: w 2010 roku z ust kadry zarządzającej korporacji słyszano również wiele pięknych przemówień o korzyściach płynących z architektury modułowej. W rzeczywistości wszystko potoczyło się inaczej. Dlatego nie chcę robić żadnych prognoz dotyczących chipów Zen. Wyjdą - przetestujemy i wyrobimy ostateczną opinię. Mam nadzieję, że tym razem AMD odniesie sukces. Rynek potrzebuje konkurencji.

Nowa linia produktów chipów AMD. Na jedną platformę - AM4 - będą produkowane zarówno procesory hybrydowe ze zintegrowaną grafiką, jak i wydajne układy FX

Intel

Rynek potrzebuje konkurencji. Intel już od roku spoczywa na laurach i konkuruje niemal sam ze sobą. W trosce o sprawiedliwość zaznaczam, że nie można za to winić giganta procesorowego. Producent chipów ma plan strategiczny, który należy zrealizować za wszelką cenę. Jednak w 2014 roku Intel stanął przed pierwszymi poważnymi problemami. Przejście na bardziej zaawansowane standardy technologiczne wymaga coraz większych kosztów. Jednocześnie złożoność takich rozwiązań rośnie wykładniczo. Strategia tick-tak zawiodła po raz pierwszy od dekady.

Jak wiecie, prawo Moore'a ma w tym roku 50 lat. Przez pół wieku mikroelektronika ewoluowała w oparciu o tę podstawową zasadę, zgodnie z którą liczba tranzystorów w procesorach powinna podwajać się co 24 miesiące. Po drodze branża napotykała wiele przeszkód, ale zawsze wychodziła z niej zwycięsko. Kiedyś punktem zwrotnym było pojawienie się trójwymiarowych tranzystorów. Ale teraz Intel ma większy problem. Z każdym nowym procesem wykorzystywanym przez korporację do tworzenia komercyjnie udanych rozwiązań, zbliża się czas, kiedy użycie krzemu po prostu nie będzie możliwe ze względu na fizyczne ograniczenia tego materiału półprzewodnikowego. Już teraz, wypuszczając 14-nm procesory Broadwell i Skylake, Intel ma do czynienia z dość niską wydajnością odpowiednich kryształów.

Spadek procesu technicznego prowadzi do nieuniknionego wzrostu cyklu produkcyjnego nowych chipów.

Następny przystanek - 10 nanometrów, 50 atomów krzemu! Pierwsze decyzje pojawią się nie wcześniej niż w drugiej połowie 2017 roku. Ambitne plany Intela obejmują rozwój i projektowanie układów scalonych opartych na technologii procesowej 7 nm, a nawet 5 nm, ale do tego konieczne jest, aby przemysłowe zastosowanie skanerów EUV (Extreme Ultraviolet - promieniowanie o długości fali 13,5 nm) stało się opłacalne ekonomicznie. Według niektórych doniesień wydarzenie to nastąpi dopiero w 2020 roku.

Prawo Moore'a w liczbach

Wróćmy jednak do dzisiaj. Tak jak powiedziałem, koncepcja tik-tak zaczynała kończyć się fiaskiem. Przypomnę, że "tick" oznacza wydanie procesorów ze starą architekturą, ale z nowym (czytaj - bardziej subtelnym) procesem technicznym. „Tak” to wydanie chipów na zupełnie nowej architekturze, ale opartej na sprawdzonych standardach technologicznych. Są to na przykład rozwiązania Haswell wydane w pierwszej połowie 2013 roku. Intelowi zajęło dokładnie dwa lata, aby powstrzymać produkcję w technologii 14 nm i wprowadzić w czerwcu na rynek chipy Broadwell do komputerów stacjonarnych.

Linia żetonów okazała się nieco pomarszczona. Prezentowanych jest tylko pięć modeli, ale tylko dwa mają opakowanie LGA (czyli są niezależnie instalowane w gnieździe na płycie głównej). Rację mają więc ci, którzy wierzą, że tym razem Intel tak naprawdę nie wypuścił na rynek procesorów „tick”.

Krótko mówiąc, Broadwell to ten sam Haswell, ale przeniesiony do 14-nanometrowej technologii procesowej. A jednak wprowadzono kilka ulepszeń architektonicznych. Tak więc zwiększono objętości stref buforowych i okna harmonogramu. Dokładnie półtora raza wzrosła objętość tablicy asocjacyjnej translacji adresów drugiego poziomu (L2 TLB) - do 1500 wpisów. Dodatkowo cały schemat tłumaczeń zyskał drugą funkcję obsługi chybień. Zmiany te umożliwiły procesorom Broadwell lepsze przewidywanie złożonych gałęzi kodu. Szybkość wykonywania operacji mnożenia wzrosła z pięciu do trzech cykli. Operacje dzielenia przyspieszyły tempo dzięki zastosowaniu dzielnika 10-bitowego. Na koniec zoptymalizowano instrukcje zbierania wektorów z zestawu AVX2. W rezultacie, przy tej samej częstotliwości, architektura Broadwell jest szybsza od Haswell średnio o 5%.

Intel Broadwell Crystal

Cały sens desktopu Broadwell polega na wykorzystaniu 128 MB pamięci eDRAM, która pełni rolę pamięci podręcznej czwartego poziomu i nosi nazwę Crystalwell, oraz modułu graficznego Iris Pro 6200. Jest słusznie uważany za najbardziej wydajną zintegrowaną grafikę do tej pory. Nawet rozwiązania AMD są od niego gorsze. The Reds również na tym polu przegrali z Intelem.

Wydajność Iris Pro 6200

Zaledwie dwa miesiące później została wydana linia procesorów „tak” Skylake. Pełnoprawna seria, licząca do dwóch tuzinów modeli. Wszystkie te same 14 nanometrów, ale w nowej architekturze. Flagowymi modelami były odpowiednio modele Core i5-6600K oraz Core i7-6700K. Główną cechą platformy jest obecność podwójnego kontrolera pamięci, który umożliwia pracę zarówno z pamięcią RAM DDR3, jak i DDR4. Sam Intel po prostu postawił „i” między nową platformą a starymi rozwiązaniami architektonicznymi. Tak więc, według producenta, Core i7-6700K powinien być o 10% szybszy niż Core i7-4790K, 20% szybszy niż Core i7-4770K i 30% szybszy niż Core i7-3770K. Jak wykazały testy, podane liczby są bardzo optymistycznym wskaźnikiem, nieosiągalnym bynajmniej we wszystkich zadaniach. W niektórych przypadkach najlepsze „kamienie” Skylake przewyższają Haswella tylko o 3-5%. Czasami w ogóle nie idą do przodu. Wydajność pamięci podręcznej drugiego i trzeciego poziomu tylko zauważalnie wzrosła. Średnio przepustowość wzrosła o przyzwoite 60-70%! Jednocześnie opóźnienia pamięci podręcznej pozostały na tym samym poziomie. Zintegrowana grafika Skylake (HD Graphics 530) jest średnio o 20-40% szybsza niż HD Graphics 4600 używana w Haswell.

Porównanie wydajności architektur Haswell, Broadwell i Skylake

Nie ma zasadniczej różnicy w wydajności między Haswell i Skylake. To jest fakt. Nie ma więc sensu gonić za 5-procentową przewagą. Ponadto dzisiaj, podczas gdy magazyny sklepowe są wypełnione po brzegi starymi produktami, które trzeba sprzedać, a jednocześnie okazują się być na plusie, zauważalna jest różnica w kosztach. Na przykład w Moskwie ceny detaliczne płyt głównych i samych procesorów są zawyżone średnio o 2000-3000 rubli. Mimo to chipy Skylake zużywają mniej energii. Dzięki temu mniej się nagrzewają i lepiej przyspieszają. Intel najwyraźniej zdał sobie sprawę ze swojego błędu i zrezygnował ze zintegrowanego konwertera mocy (FIVR). A sama platforma okazała się bardziej funkcjonalna.

Intel Core i7-6600K

O platformach

To nie koniec tematu Intela. Producent chipów jest nieustannie krytykowany za to, że bardzo często zmienia platformy, zmuszając go do zabrania płyty głównej oprócz nowo wydanego procesora. Skylake jest jednym z nich. Ale „często” to ile? W końcu Intel od dawna ćwiczy wprowadzanie nowej platformy i nowych chipsetów dla generacji „tak”. Cykl trwa średnio dwa lata, ale nie wiadomo, co stanie się z 14-nanometrowymi „kamieniami”. Być może problemy z przejściem na technologię procesu 10-nanometrowego sprawią, że platforma LGA1151 będzie najdłużej żyjąca. Ta praktyka pozwala nam zaoferować użytkownikowi nie tylko nowoczesne chipy, ale także funkcjonalne płyty główne na każdy gust i kolor. Logika setnej serii (o nazwie kodowej Sunrise Point), zaprojektowanej na przykład do pracy ze Skylake, ma natywną obsługę protokołu NVMe i 20 linii PCI Express 3.0, co wystarcza do zintegrowania bardzo szybkich dysków półprzewodnikowych z systemem. Najbardziej wyrafinowanym był chipset Z170 Express. Pozwala na przylutowanie na płycie do sześciu portów SATA 3.0 i do 10 złączy USB 3.0 bez żadnych dodatkowych kontrolerów. Jest to również jedyny chipset, który obsługuje funkcje przetaktowywania. Wszystkie chipsety mogą współpracować zarówno z pamięcią RAM DDR3, jak i DDR4.

Zestaw logiki ekspresowej Z170

Bez wątpienia najbardziej interesująca dla entuzjastów jest logika Z170 Express. Po pierwsze, tylko za jego pomocą można przetaktować procesory Core i5-6600K i Core i7-6700K o mnożnik. Nie ma już overclockerskich „kamieni” dla platformy LGA1151. Po drugie, płyty główne zbudowane na tym chipsecie pozwalają przetaktować nie tylko K-chipy, ale także wszystkie inne, zwiększając częstotliwość generatora zegara. Sieć jest pełna wyników modelu Core i3-6100, podkręconego ciekłym azotem do 6 GHz i wyżej. W praktyce użytkownik może zaoszczędzić trochę pieniędzy i wziąć np. procesor Core i5-6400, a następnie samodzielnie zwiększyć jego prędkość z 2,7 GHz do 4-4,3 GHz. Intel po prostu pozwolił producentom płyt głównych na usunięcie powiązania częstotliwości magistrali DMI i PCI Express z częstotliwością generatora zegara.

Platforma LGA1151 wróciła do korzeni overclockingu poprzez zmianę częstotliwości zegara.

Jest kilka rzeczy, na które należy zwrócić szczególną uwagę podczas podkręcania procesorów Intel Skylake. Po pierwsze, przeniesienie wbudowanego konwertera mocy z powrotem na płytę główną ponownie powoduje, że taki parametr jak jakość podsystemu zasilania ma znaczenie. Staje się to najważniejsze podczas podkręcania procesora centralnego. Po drugie, przy podkręcaniu chipów bez odblokowanego mnożnika warto wziąć pod uwagę, że zintegrowany rdzeń graficzny jest automatycznie wyłączany dla procesorów, a także funkcje dynamicznej zmiany częstotliwości, stanów C i Turbo Boost. Ponadto wydajność instrukcji AVX jest zauważalnie zmniejszona.

Formuła ASRock Z170 OC

Poza LGA1151 na rynku nie było ciekawych platform. AMD nie ma sensu zmieniać czegokolwiek w istniejących układach APU i serii FX. Trzeba tylko poczekać na Zen i AM4. Premiera procesorów Intel Broadwell-E została opóźniona do Computex 2016. W każdym razie chipy te będą kompatybilne z platformą LGA2011-v3. Nic więc dziwnego, że w 2015 roku procesory Skylake i platforma LGA1151, a także premiera systemu operacyjnego Windows 10 nie przyczyniły się do wzrostu rynku płyt głównych. W ujęciu ilościowym zmniejszył się o 10%. Tak więc ASUS i Gigabyte dostarczyły po około 17-17,5 miliona urządzeń. Inni producenci zauważyli bardziej zauważalny regres w sprzedaży. Według portalu informacyjnego DigiTimes planowane jest, że w 2016 roku liczba sprzedanych płyt głównych zmniejszy się o kolejne 10%. Niewykluczone, że w przyszłym roku z rynku opuszczą się tacy producenci jak Onda, ECS czy Biostar, choć requiem dla nich było już wielokrotnie wyśpiewane.

ECS Z170-CLAYWIĘCEJ

O pamięci

Mimo to pojawienie się publicznej platformy LGA1151 wpłynęło na wzrost zapotrzebowania na pamięć DDR4. W ciągu zaledwie dwóch miesięcy cena spadła o 17% i zbliżyła się do DDR3 w tym wskaźniku. Do tej pory średni koszt pojedynczego układu 4Gb DDR4-2133 (według DRAMeXchange) wynosi 2,25 USD. We wrześniu taki chip kosztował 2,72 USD, a w czerwcu 3,62 USD. Jak widać, cena spadła odpowiednio o 17% i 32%.

Mówienie o wysokich kosztach pamięci DDR4 to spekulacje.

Przy tym wszystkim koszt DDR3 również nieznacznie spada. Chip o pojemności 4 GB kosztuje obecnie średnio 1,92 USD, chociaż we wrześniu szacowano go na 2,17 USD, a w czerwcu na 2,66 USD. Wpływa na to malejący popyt na komputery osobiste i rosnąca konkurencja na rynku. W rezultacie różnica w kosztach pamięci DDR4 i DDR3 wynosi 16,7%. Wiodący producenci wszędzie przechodzą na proces 20nm (SK Hynix przechodzi na proces 21nm). AMD planuje również w najbliższej przyszłości wykorzystać DDR4. Nowe procesory Zen mogą wstrząsnąć sprzedażą komputerów osobistych. Intel też nie odstąpi na bok. Wszystko to jeszcze bardziej obniży koszt pamięci RAM.

Ewolucja pamięci DDR

Do tej pory dwoma gigantami z Korei Południowej – Samsung i SK Hynix – rządzą piłką na rynku pamięci DRAM. Kontrolują prawie ¾ całej branży. Według wyliczeń tych firm Samsung w III kwartale 2015 r. przejął 45,9% całej sprzedaży, a SK Hynix 27,6%. W ubiegłym roku Koreańczycy z Korei Południowej posiadali 68,3% rynku.

Na trzecim miejscu jest Micron, ale biznes firmy pogarsza się z roku na rok. Amerykanie zajmują tylko 19,8% rynku DRAM. Nawet zakup Elpidy Memory w 2013 roku nie pomógł Micronowi. Pozostała część rynku jest dzielona między Nanya Technology i Winbond Electronics. Stanowią one odpowiednio 2,8% i 1,3% globalnej sprzedaży DRAM.

Cena DDR4 zauważalnie spada, a wydajność rośnie. I w zawrotnym tempie. Wbudowany kontroler pamięci procesorów Skylake obsługuje moduły DDR4-2133, jednak chip posiada dzielniki, które pozwalają na uruchamianie zestawów z efektywną częstotliwością do 4133 MHz. Kilka miesięcy później taki zestaw pojawił się w sprzedaży. Wypróbowany gigant overclockingu - firma G.Skill. Zestaw 8 GB Trident Z PC4-33000 F4-4133C19D-8GTZ (dwa moduły 4 GB) działa z efektywną częstotliwością 4133 MHz przy opóźnieniach CL19 (25-25-45-2N). Taki zestaw kosztuje 300 dolarów, czyli tyle samo, co procesor Core i7-6700K. Drogie, ale w tej wiadomości liczy się sam fakt, jak szybko DDR4 pokonuje bariery częstotliwości nieosiągalne dla tego samego DDR3.

G.Skill Trident Z PC4-33000 F4-4133C19D-8GTZ

O naszym

W rzeczywistości pojawienie się procesorów Intel Skylake, a także platformy obsługującej LGA1151 i pamięci DDR4 były głównymi wydarzeniami 2015 roku. Ale osobiście byłem zadowolony z postępu na krajowym rynku mikroelektroniki. Teraz w Rosji są co najmniej dwa samowystarczalne rozwiązania.

Pierwszym z nich są kompatybilne z x86 procesory Elbrus opracowane przez MCST. Dokładniej, w grudniu Iżewsk Radiozavod poinformował o dostawie pierwszej partii komputerów Elbrus-401, opartych na rosyjskim czterordzeniowym układzie Elbrus-4C. System integruje 24 GB pamięci RAM DDR3 z możliwością rozbudowy do 96 GB, 1 TB HDD i 128 GB mSATA SSD. Za wyświetlanie obrazu odpowiada dyskretna karta graficzna AMD Radeon 6000. Dopuszczalne wypełnienie dla komputera biurowego. Prawdopodobnie nawet zbędny w przypadku większości zadań.

Tak, tak, tak, nikt nie potrzebuje tego „kalkulatora” za 400 tysięcy rubli.

Objętość pierwszej partii wynosiła 80 komputerów. Koszt jednego takiego komputera szacowany jest na 400 000 rubli. Uprzedzając krzyki paniki, kto potrzebuje tego „odkurzacza” za takie pieniądze, odpowiem, że jest potrzebny – przemysł obronny. Wysoki koszt wynika z produkcji chipów na małą skalę. W celu kilkudziesięciokrotnego obniżenia ceny konieczne jest zamówienie bardzo dużej partii u producenta kontraktowego. Co najmniej kilkaset tysięcy egzemplarzy.

"Elbrus-401"

„Elbrus-4C” został zaprezentowany w 2014 roku, ale dopiero teraz znalazł się rozwój
(pół)komercyjny użytek. Procesor jest produkowany w dość starej technologii 65nm w fabryce TSMC. Podobne zasady uznano za istotne w 2007 roku. Teraz Intel, jak widzieliśmy, używa 14 nanometrów z mocą i głównym. Przełącza się na tę technologię procesową w 2016 i AMD. Elbrus-4C ma prawie miliard tranzystorów i przy poziomie TDP około 60 W działa z częstotliwością 800 MHz. Szczytowa wydajność krajowego układu wynosi 25 GFLOP w trybie 64-bitowym i 50 GFLOP w trybie 32-bitowym. Do tej pory wydajność Elbrus-4C jest w przybliżeniu na poziomie Intel Atom D510 (1,66 GHz, DDR2-800). Ten 45-nanometrowy chip został wydany w 2010 roku i był aktywnie używany w tanich netbookach. Nie ma sobie równych z nowoczesnymi 4-rdzeniowymi „kamieniami”.

Płyta główna z "Elbrus-4C"

O wiele bardziej obiecująco wygląda 8-rdzeniowy procesor Elbrus-8C, którego premiera zaplanowana jest na 2016 rok. Po pierwsze, twórcy przenieśli architekturę na całkowicie nowoczesną technologię 28-nanometrową. Obecnie obecne układy AMD i NVIDIA są produkowane według dokładnie tych samych standardów. Producent kontraktowy to ten sam - TSMC. Cieńsza technologia procesu pozwoliła nie tylko podwoić liczbę rdzeni, ale także zwiększyć częstotliwość taktowania do 1,3 GHz. Każdy rdzeń Elbrus-8C jest wyposażony w 512 KB pamięci podręcznej L2. W sumie procesor ma 16 MB współdzielonej pamięci podręcznej L3. Kontroler pamięci jest 4-kanałowy, obsługiwane są moduły DDR3-1600, w tym ECC. Powoduje to szczytową przepustowość w operacjach pojedynczej precyzji (FP32) wynoszącą około 250 GFLOP i 125 GFLOP w operacjach podwójnej precyzji (FP64). Okazuje się, że jest pięć razy szybszy niż Elbrus-4C. Dla porównania, wydajność podwójnej precyzji obecnego 8-rdzeniowego procesora AMD FX-8350 wynosi tylko 74 GFLOP, podczas gdy Core i7-5960X to 384 GFLOP. Tak więc Elbrus-8C nie jest już tak daleko w tyle za nowoczesnymi procesorami centralnymi AMD i Intela. Zobaczmy, jak MCST poradzi sobie ze sprzedażą tego urządzenia.

Pisanie opowiadań o rynku procesorów do komputerów stacjonarnych z roku na rok wymaga coraz większej pomysłowości. Faktem jest, że rozwój klasycznych procesorów z architekturą x86 wyraźnie zwalnia, a znaczących wydarzeń jest coraz mniej. Dzieje się tak z całkiem zrozumiałych powodów: z jednej strony na tle szybkiego rozwoju urządzeń mobilnych i przenośnych spada zainteresowanie użytkowników tradycyjnymi komputerami osobistymi. Z drugiej strony wpływ ma brak realnej konkurencji na rynku procesorów x86. Po trzecie, nie powinniśmy zapominać, że opracowywanie nowych konstrukcji procesorów wymaga coraz większych kosztów. Rolę odgrywają tu jednocześnie dwa czynniki: zarówno poważne problemy produkcyjne, które nieuchronnie pojawiają się, gdy wprowadza się coraz więcej „cienkich” procesów technologicznych, jak i zwiększona złożoność mikroarchitektury samych nowoczesnych procesorów.

Nic więc dziwnego, że prezentacja wydarzeń, które miały miejsce w ciągu roku na rynku procesorowym, jest coraz krótsza. Jednak dzisiejszy ostateczny materiał okazał się znacznie bardziej wymowny niż zwykle. Faktem jest, że dla wszystkich zainteresowanych stanem rzeczy na rynku procesorów pojawił się promyk nadziei: w przyszłym roku AMD obiecuje wprowadzić swoją nową mikroarchitekturę Zen, która może zmienić dobrze już znany układ sił. W rezultacie, mówiąc o obecnej sytuacji z procesorami x86, chcąc nie chcąc, musimy stale odnosić się do najbliższej przyszłości i szczegółowo opisywać prognozy i perspektywy. Zanim jednak poruszymy kwestię najbliższej przyszłości, pamiętajmy jeszcze, jakie zapowiedzi AMD i Intel nas uszczęśliwiły w ciągu ostatniego roku.

DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chciałbyś przeczytać The Bell?
Bez spamu