DZWONEK

Są tacy, którzy czytają te wiadomości przed tobą.
Subskrybuj, aby otrzymywać świeże artykuły.
E-mail
Imię
Nazwisko
Jak chcesz przeczytać Dzwon
Bez spamu

Jednak te dwa materiały, jak nam się wydaje, są nadal niewystarczające do pełnego ujawnienia tematu. Pierwszym „subtelnym punktem” są częstotliwości taktowania - w końcu, wraz z wydaniem Haswell Refresh, firma już sztywno podzieliła linię „zwykłych” Core i7 i „overclockerów”, podkręcając fabrycznie te ostatnie (co nie było tak trudne, ponieważ ogólnie nie ma wielu takich procesorów więc łatwo jest wybrać odpowiednią ilość kryształów). Wygląd Skylake nie tylko zachował sytuację, ale także ją pogorszył: Core i7-6700 i i7-6700K to generalnie bardzo różne procesory, które różnią się poziomem TDP. Dlatego nawet przy tych samych częstotliwościach modele te mogłyby działać inaczej pod względem wydajności, a częstotliwości wcale nie są takie same. Zasadniczo wyciąganie wniosków na temat starszego modelu jest niebezpieczne, ale zasadniczo badano go wszędzie i tylko ona. „Młodszy” (i bardziej popularny) do niedawna nie był zepsuty przez uwagę laboratoriów testowych.

A po co to może być? Tylko dla porównania z „szczytami” poprzednich rodzin, zwłaszcza że zwykle nie było tak dużego rozpiętości częstotliwości. Czasami w ogóle ich nie było - na przykład pary 2600 / 2600K i 4771 / 4770K są identyczne pod względem części procesora w trybie normalnym. Oczywiste jest, że 6700 jest bardziej analogiczny do nienazwanych modeli, ale do 2600S, 3770S, 4770S i 4790S, ale ... Jest to ważne tylko z technicznego punktu widzenia, którym, ogólnie rzecz biorąc, niewiele osób jest zainteresowanych. Pod względem rozpowszechnienia, łatwości pozyskiwania i innych istotnych (w przeciwieństwie do szczegółów technicznych) cech, jest to tylko „zwykła” rodzina, na którą spojrzy większość właścicieli „starego” Core i7. Lub potencjalni właściciele - chociaż aktualizacja czasami pozostaje przydatna, większość użytkowników procesorów młodszych rodzin procesorów, w razie potrzeby, zwiększa produktywność, szukają przede wszystkim urządzeń dla istniejącej platformy „pod ręką”, a dopiero potem rozważa (lub nie bierze pod uwagę) pomysłu jej zastępca. Czy to właściwe podejście, czy nie - testy pokażą.

Konfiguracja stanowiska testowego

  procesorIntel Core i7-2700KIntel Core i7-3770Intel Core i7-4770KIntel Core i7-5775CIntel Core i7-6700
  Nazwa jądraSandy BridgeMost IvyHaswellBroadwellSkylake
Perspektywa technologiczna32 nm22 nm22 nm14 nm14 nm
Częstotliwość rdzenia std / max, GHz3,5/3,9 3,4/3,9 3,5/3,9 3,3/3,7 3,4/4,0
Rdzenie / wątki4/8 4/8 4/8 4/8 4/8
Pamięć podręczna L1 (ogółem), I / D, KB128/128 128/128 128/128 128/128 128/128
Pamięć podręczna L2, KB4 × 2564 × 2564 × 2564 × 2564 × 256
Pamięć podręczna L3 (L4), MiB8 8 8 6 (128) 8
Baran2 × DDR3-13332 × DDR3-16002 × DDR3-16002 × DDR3-16002 × DDR4-2133
TDP, W95 77 84 65 65
GrafikaHDG 3000HDG 4000HDG 4600IPG 6200HDG 530
Ilość w UE12 16 20 48 24
Częstotliwość std / max, MHz850/1350 650/1150 350/1250 300/1150 350/1150
Cena £T-7762352T-7959318T-10384297T-12645073T-12874268

Dla najbardziej akademickich sensowne byłoby przetestowanie Core i7-2600 i i7-4790, a nie 2700K i 4770K w ogóle, ale pierwszy w naszych czasach jest już trudny do znalezienia, podczas gdy 2700K został znaleziony i przetestowany w naszych czasach. Podobnie jak 4770K, był również badany, aw „zwykłej” rodzinie ma pełne (4771) i bliskie (4770) analogi, a cała wspomniana trójca nie różni się od 4790, więc postanowiliśmy nie zaniedbywać możliwości zminimalizowania ilości pracy. W rezultacie okazało się, że procesory Core drugiej, trzeciej i czwartej generacji były jak najbliżej siebie w oficjalnym zakresie częstotliwości zegara, a 6700 nieco się od nich różni. Broadwell można również „pociągnąć” do tego poziomu, biorąc wyniki nie z i7-5775C, ale z Xeon E3-1285 v4, ale tylko po to, by dokręcić i nie całkowicie wyeliminować różnicę. Dlatego zdecydowaliśmy się na bardziej masywny (korzyść i większość innych uczestników jest taka sama), a nie egzotyczny procesor.

Jeśli chodzi o pozostałe warunki testowania, były one równe, ale nie takie same: częstotliwość pamięci RAM była maksymalna obsługiwana przez specyfikacje. Ale jego objętość (8 GB) i dysk systemowy (Toshiba THNSNH256GMCT o pojemności 256 GB) były takie same dla wszystkich podmiotów.

Metodologia testowania

Aby ocenić wydajność, zastosowaliśmy naszą metodologię pomiaru wydajności przy użyciu testów porównawczych i iXBT Game Benchmark 2015. Znormalizowaliśmy wszystkie wyniki testów w pierwszym teście porównawczym w odniesieniu do wyników systemu referencyjnego, który w tym roku będzie taki sam dla laptopów i wszystkich innych komputerów, który ma ułatwić czytelnikom trudne zadanie porównania i wyboru:

benchmark aplikacji iXBT 2015

Jak już wielokrotnie pisaliśmy, w tej grupie rdzeń wideo ma duże znaczenie. Jednak nie wszystko jest tak proste, jak można się domyślać tylko pod względem specyfikacji technicznych - na przykład i7-5775C jest nadal wolniejszy niż i7-6700, chociaż ten pierwszy ma tylko znacznie mocniejsze GPU. Jednak porównanie 2700K i 3770, które różnią się zasadniczo pod względem wykonania kodu OpenCL, jest tutaj jeszcze bardziej znaczące - pierwsze nie jest w stanie do tego wykorzystać GPU. Drugi jest w stanie. Ale robi to tak wolno, że nie ma przewagi nad swoim poprzednikiem. Z drugiej strony wyposażanie się w takie możliwości „najbardziej masywnego procesora graficznego na rynku” doprowadziło do tego, że zaczęli z niego stopniowo korzystać producenci oprogramowania, co ujawniło się, gdy pojawiły się kolejne generacje Core. A wraz z drobnymi udoskonaleniami i rdzeniami procesorów może prowadzić do dość zauważalnego efektu.

Jednak nie wszędzie - dzieje się tak tylko wtedy, gdy rozwój z pokolenia na pokolenie jest całkowicie niewidoczny. Jest jednak, ale łatwiej jest nie zwracać na niego uwagi. Jedyną interesującą rzeczą jest to, że miniony rok pozwolił nam połączyć taki wzrost wydajności ze znacznie mniej rygorystycznymi wymaganiami dla systemu chłodzenia (co otwiera segment Core i7 na kompaktowe systemy stacjonarne ze zwykłymi komputerami stacjonarnymi), ale nie jest to istotne we wszystkich przypadkach.

A oto przykład, kiedy znaczna część obciążenia została już przeniesiona do GPU. Jedyną rzeczą, która może „zapisać” stary Core i7 w tym przypadku, jest dyskretna karta graficzna, jednak wysyłanie danych do magistrali psuje efekt, więc i7-2700K w tym przypadku niekoniecznie dogania i7-6700, a 3770 jest w stanie to zrobić, ale może nadążyć ani dla 4790K lub 6700K, ani dla 5775C z żadnym filmem nie może już. W rzeczywistości odpowiedź na pytanie, które czasami pojawia się u niektórych użytkowników, brzmi: dlaczego Intel przywiązuje tak dużą wagę do zintegrowanej grafiki, jeśli wciąż nie wystarcza to do gier, ale do innych celów już dawno wystarczy? Jak widać, nie jest to zbyt „wystarczające”, jeśli najszybszy procesor (tak jak tutaj) może czasem być w najdalszej części z najpotężniejszym „procesorem”. I to jest już z góry interesujące - co możemy uzyskać od Skylake w modyfikacji GT4e;)

Niesamowita jednomyślność, zapewniona przez fakt, że ten program nie wymaga ani nowych zestawów instrukcji, ani żadnych cudów w dziedzinie zwiększania wydajności wielowątkowej. Istnieje jednak niewielka różnica między generacjami procesorów. Ale możesz go szukać tylko z dokładnie taką samą częstotliwością zegara. A kiedy różni się znacznie (to, co mamy w wydajności i7-5775C, co jest 10% w tyle za wszystkimi w trybie jednowątkowym) - nie musisz wyglądać :)

Przesłuchanie „może” mniej więcej wszystko. Bez dodatkowych wątków obliczenia są dość obojętne, ale wiedzą, jak ich używać. Ponadto, sądząc po wynikach, działa lepiej na Skylake niż było to charakterystyczne dla poprzednich architektur: przewaga 4770 K nad 4690 K wynosi około 15%, ale 6700 K omija 6600 K o 20% (pomimo faktu, że częstotliwości są w przybliżeniu równe dla wszystkich). Ogólnie rzecz biorąc, najprawdopodobniej w nowej architekturze czeka na nas wiele odkryć. Mały, ale czasem daje efekt kumulacyjny.

Podobnie jak w przypadku rozpoznawania tekstu, gdzie dokładnie 6700 odrywa się od swoich poprzedników najbardziej „żartobliwie”. Chociaż w wyniku bezwzględnym jest to nieznaczne, ale czekać na stosunkowo stare i dobrze polizane algorytmy na taki wzrost, biorąc pod uwagę, że w rzeczywistości mamy energooszczędny procesor (nawiasem mówiąc - 6700K naprawdę wykonuje to zadanie znacznie szybciej) a priori byłoby zbyt optymistyczne . Nie czekaliśmy. Ale praktyka okazała się bardziej interesująca niż założenia a priori :)

Dzięki archiwizatorom wszystkie najlepsze procesory działają bardzo dobrze, niezależnie od generacji. Wydaje nam się to na wiele sposobów, ponieważ dla nich to zadanie jest już bardzo proste. W rzeczywistości wynik trwa już kilka sekund, więc coś tutaj jest radykalnie niemożliwe do poprawienia. Jeśli tylko, aby przyspieszyć system pamięci, ale DDR4 ma większe opóźnienia niż DDR3, więc gwarantowany wynik daje tylko wzrost pamięci podręcznej. Dlatego jedyny procesor z GPU GT3e okazał się najszybszy - pamięć podręczna czwartego poziomu jest wykorzystywana nie tylko przez rdzeń wideo. Z drugiej strony zysk z dodatkowego układu nie jest tak wielki, więc archiwizatory to taki rodzaj obciążenia, na który nie można dłużej zwracać uwagi w przypadku oczywiście szybkich systemów (a nie niektórych mini-komputerów).

Plus lub minus połowa łyka od Słońca, co ogólnie potwierdza również, że wszystkie topowe procesory radzą sobie z takimi zadaniami jednakowo, kontrolery w chipsetach trzech serii są w przybliżeniu identyczne, więc znaczna różnica może być spowodowana tylko przez napęd.

Ale w tak banalnym scenariuszu, jak proste kopiowanie plików, jest to także pakiet ciepła: modele ze zmniejszonym „overclockiem” są raczej powolne (korzyść formalnie wcale nie jest), co prowadzi do nieco niższych wyników niż mogłyby. Ale generalnie nie jest to również przypadek, w którym może pojawić się chęć zmiany platformy.

Co w końcu otrzymamy? Wszystkie procesory są w przybliżeniu identyczne. Tak, oczywiście, różnica między najlepszym a najgorszym przekracza 10%, ale nie zapominaj, że są to różnice, które narosły przez ponad trzy lata (gdybyśmy przyjmowali i7-2600, byłoby to 15% na prawie pięć). Dlatego nie ma praktycznego sensu zastępowanie jednej platformy inną, podczas gdy stara działa. Oczywiście, jeśli mówimy o LGA1155 i jego obserwatorach - jak widzieliśmy, „różnica” między LGA1156 a LGA1155 jest znacznie bardziej zauważalna i to nie tylko pod względem wydajności. Na najnowszych platformach Intela w tej chwili coś można „wycisnąć” za pomocą „steroidalnego” rdzenia i7 (jeśli i tak naprawdę skupiasz się na tej drogiej rodzinie), ale nie tak bardzo: pod względem zintegrowanej wydajności i7-6700K przewyższa i7-6700 o 15%, tak że jego oddzielenie od dowolnego i7-2700K wzrasta do prawie 30%, co jest już bardziej znaczące, ale wciąż nieważne.

Aplikacje do gier

Z oczywistych względów dla systemów komputerowych tego poziomu ograniczamy się do trybu minimalnej jakości, nie tylko w „pełnej” rozdzielczości, ale także redukujemy go do 1366 × 768: Pomimo oczywistego postępu w dziedzinie zintegrowanej grafiki, nie jest jeszcze w stanie zaspokoić wymagającego jakość obrazu gracza. I zdecydowaliśmy, że w ogóle nie sprawdzimy 2700K na standardowym zestawie gier: oczywistym jest, że właściciele korzystający ze zintegrowanego rdzenia wideo wcale nie są zainteresowani grami od samego początku. Zainteresowani, przynajmniej w jakiś sposób, z pewnością znaleźli i zainstalowali co najmniej „wtyczkę do gniazda” w pojemnikach, ponieważ nasze testy zgodnie z poprzednią wersją techniki wykazały, że HD Graphics 3000 nie jest lepsza niż nawet Radeon HD 6450, z których oba praktycznie za mało na nic. Tutaj HDG 4000 i nowsze IGP nie są interesujące.

Na przykład w Aliens vs. W Predatora można grać na dowolnym z badanych procesorów, ale tylko poprzez obniżenie rozdzielczości. Tylko GT3e nadaje się do FHD, bez względu na to, który z nich - po prostu w wersji z gniazdem ta konfiguracja jest obecnie dostępna tylko dla Broadwell ze wszystkimi konsekwencjami.

Ale „tanami” przy minimalnych stawkach „biegają” tak dobrze, że smukły obraz ma tylko wysoką rozdzielczość i „tańczy”: na dole nie jest nawet jasne, kto jest lepszy, a kto gorszy.

Grid2, ze wszystkimi swoimi słabymi wymaganiami dotyczącymi części wideo, wciąż porządkuje procesory. Ale jest to szczególnie wyraźnie widoczne w FHD, gdzie przepustowość pamięci już ma znaczenie. W rezultacie na i7-6700 możesz już zmniejszyć rozdzielczość. I7-5775C jest tym bardziej jeszcze, a wyniki bezwzględne są znacznie wyższe, więc jeśli ten obszar zastosowania jest interesujący, a użycie oddzielnej karty graficznej jest z jakiegoś powodu niepożądane, nadal nie ma alternatyw dla tej linii procesorów. Co nie jest niczym nowym.

Tylko starszy Haswell „ciągnie” grę przynajmniej w niskiej rozdzielczości, a Skylake robi to już bez zastrzeżeń. Nie komentujemy Broadwell - nie jest to architektoniczne, ale, powiedzmy, przewaga ilościowa.

Starsza gra z tej serii na pierwszy rzut oka jest podobna, ale nie obserwuje się nawet różnic ilościowych między Haswellem i Skylake.

W Hitman są również godne uwagi, ale nadal nie ma przejścia od ilości do jakości.

Tak jak tutaj, gdzie nawet tryb niskiej rozdzielczości może „rozciągnąć” tylko procesor z GT3e. Reszta ma znaczący, ale wciąż niewystarczający, nawet dla takich postępów „wyczynów”.

Tryb minimalnych ustawień w tej grze bardzo oszczędnie stosuje się do wszystkich słabych układów GPU, chociaż HDG 4000 wciąż był „wystarczający” tylko dla HD, ale nie FHD.

I znowu trudny przypadek. Mniej „ciężki” niż Złodziej, ale wystarczy, aby wyraźnie wykazać, że żadna zintegrowana grafika nie może być uważana za rozwiązanie do gier.

Chociaż niektóre gry pozwalają ci grać ze względnym komfortem. Jednak namacalne tylko wtedy, gdy skomplikujesz IGP i zwiększysz ilościowo wszystkie bloki funkcjonalne. W rzeczywistości, tylko w trybach światła, postęp w dziedzinie procesorów graficznych Intel jest najbardziej zauważalny - około dwa razy w ciągu trzech lat (starsze wersje nie mają żadnego sensu). Ale nie wynika z tego, że z czasem zintegrowana grafika może łatwo i naturalnie nadrobić zaległości w porównywalnym wieku. Najprawdopodobniej „parzystość” zostanie ustalona z drugiej strony - mając na uwadze ogromną bazę zainstalowanych rozwiązań o niskiej wydajności, producenci tych samych gier skupią się na niej. Dlaczego wcześniej tego nie zrobiłeś? Ogólnie rzecz biorąc, zrobili to - jeśli weźmiemy pod uwagę nie tylko gry 3D, ale ogólnie rynek, ogromna liczba bardzo popularnych projektów gier została zaprojektowana tylko do normalnej pracy na dość archaicznych platformach. Ale zawsze istniał pewien segment programów, który „poruszał rynek”, i to on przyciągał uwagę prasy i nie tylko. Teraz proces jest wyraźnie bliski punktu nasycenia, ponieważ po pierwsze flota różnorodnego sprzętu komputerowego jest już bardzo duża, a coraz mniej chętnych jest na stałe. Po drugie, „wieloplatformowy” oznacza teraz nie tylko wyspecjalizowane konsole do gier, ale także różnorodne smartfony do tabletów, gdzie oczywiście wydajność jest nadal gorsza niż w przypadku komputerów „dla dorosłych”, niezależnie od stopnia integracji platform tych ostatnich. Aby jednak ten trend stał się dominujący, konieczne jest, jak nam się wydaje, osiągnięcie pewnego poziomu gwarantowanej wydajności. Co jeszcze nie Ale wszyscy producenci pracują nad tym problemem bardziej niż aktywnie, a Intel nie jest wyjątkiem.

Całkowity

Co widzimy na końcu? Zasadniczo, jak już wielokrotnie powiedziano, ostatnia znacząca zmiana w rdzeniach procesorów z rodziny Core miała miejsce prawie pięć lat temu. Na tym etapie było już możliwe osiągnięcie takiego poziomu, że „zaatakuje”, że żaden z konkurentów nie może bezpośrednio. Dlatego głównym zadaniem Intela jest poprawa sytuacji, powiedzmy, w powiązanych obszarach, a także zwiększenie ilościowych (ale nie jakościowych) wskaźników tam, gdzie ma to sens. Ponadto rosnąca popularność laptopów, które od dawna przewyższają komputery stacjonarne i stają się coraz bardziej przenośne (kilka lat temu na przykład laptop o wadze 2 kg był nadal uważany za „stosunkowo lekki”, obecnie poważnie wpływa na rynek masowy, a sprzedaż transformatorów gwałtownie rośnie , w przypadku którego duża masa zabija cały sens ich istnienia). Ogólnie rzecz biorąc, rozwój platform komputerowych nie był na najlepszej drodze do zaspokojenia potrzeb nabywców dużych komputerów stacjonarnych. W najlepszym razie nie ze szkodą dla nich. Dlatego fakt, że ogólna wydajność systemu w tym segmencie nie spada, a nawet nieznacznie rośnie, jest już powodem do radości - mogło być gorzej :) Jedyną złą rzeczą jest to, że ze względu na zmiany w funkcjonalności urządzeń peryferyjnych, same platformy muszą być ciągle zmieniane: to tradycyjna zaleta komputerów modułowych, taka jak łatwość konserwacji, znacznie podważa, ale nic nie można na to poradzić - próby utrzymania kompatybilności za wszelką cenę są tym bardziej nieskuteczne (ci, którzy wątpią, mogą na przykład spojrzeć na AMD AM3 +).

Zaawansowany gracz wie, że zakup potężnej karty graficznej bez nowoczesnego i wydajnego procesora to strata pieniędzy. Dlatego warto kupić nowoczesny wielordzeniowy procesor do kart wideo z serii GeForce 20. Szukasz gotowego komputera z procesorem Intel i7? Następnie sprawdź przedstawione modele w naszym katalogu.

Najważniejsze zalety linii procesorów Intel Core i7

  • z sześciu rdzeni fizycznych;
  • wielowątkowość;
  • wysoka częstotliwość robocza;
  • duża ilość pamięci podręcznej na trzecim poziomie.

Komputery z serii Intel 7 są w stanie zaoferować graczom technologię Turbo Boost, która zwiększa szybkość zegara operacyjnego. Wydajność Core i7 wystarczy, aby uwolnić potencjał dowolnej karty graficznej. Warto zauważyć, że istnieją gry, które mają znaczne obciążenie procesora. Aby mieć stabilne 60 FPS w takich projektach, musisz wybrać komputer do gier i7.

Należy pamiętać, że modele Intel Core i7 K można podkręcać. Dzięki temu możesz znacznie poprawić wydajność systemu. Szczególnie istotne dla klientów pracujących w aplikacjach graficznych. Oddzielne programy wykorzystują moc obliczeniową procesora, operacje zmiennoprzecinkowe, złożone obliczenia inżynierskie i modelowanie obiektów.

Prawie zawsze, pod każdą publikacją, która w jakiś sposób porusza temat wydajności współczesnych procesorów Intela, prędzej czy później pojawia się kilka wściekłych komentarzy czytelników, że postęp Intela w rozwoju chipów utknął w martwym punkcie od dawna i nie ma sensu przechodzić od „starego, dobrego Core i7-2600K” „Do czegoś nowego. W takich uwagach najprawdopodobniej pojawi się irytacja na temat wzrostu wydajności na niematerialnym poziomie „nie więcej niż pięć procent rocznie”; o niskiej jakości wewnętrznym interfejsie termicznym, który nieodwracalnie zrujnował współczesne procesory Intel; lub o tym, co kupić w nowoczesnych warunkach, procesory z taką samą liczbą rdzeni obliczeniowych, jak kilka lat temu ogólnie, są przeznaczeniem amatorów krótkowzrocznych, ponieważ nie mają wystarczającej rezerwy na przyszłość.

Nie ma wątpliwości, że wszystkie takie repliki nie są bez przyczyny. Jest jednak bardzo prawdopodobne, że wielokrotnie wyolbrzymiają istniejące problemy. Laboratorium 3DNews szczegółowo testuje procesory Intela od 2000 roku i nie możemy zgodzić się z tezą, że wszelkie prace rozwojowe dobiegły końca, a tego, co stało się z gigantem mikroprocesorowym w ostatnich latach, nie można nazwać stagnacją. Tak, niektóre drastyczne zmiany w procesorach Intela są rzadkie, ale nadal są systematycznie ulepszane. Dlatego te układy z serii Core i7, które można dziś kupić, są oczywiście lepsze niż modele oferowane kilka lat temu.

Rdzeń generacji Kryptonim Proces technologii Stadium rozwoju Czas na wyjście
2 Sandy Bridge 32 nm Więc (architektura) Ja ćwiartka 2011 r
3 Bluszcz  Most 22 nm Zaznacz (proces) II kwartał 2012
4 Haswell 22 nm Więc (architektura) II kwartał 2013
5 Broadwell 14 nm Zaznacz (proces) II kwartał 2015 r
6 Skylake 14 nm Więc
(Architektura)
III kwartał 2015 r
7 Kaby  Jezioro 14+ nm Optymalizacja Ja ćwiartka 2017 r
8 Kawa  Jezioro 14 ++ nm Optymalizacja IV kwartał 2017 r

W rzeczywistości materiał ten stanowi jedynie kontrargument dla rozumowania o bezwartościowości strategii Intela w zakresie stopniowego rozwoju procesorów konsumenckich. Postanowiliśmy zebrać w jednym teście starsze procesory Intela dla masowych platform w ciągu ostatnich siedmiu lat i zobaczyć w praktyce, jak daleko posunęli się przedstawiciele serii Kaby Lake i Coffee Lake w stosunku do „referencyjnego” Sandy Bridge, który przez lata hipotetycznych porównań i opozycji mentalnych w oczach mieszkańców prawdziwa ikona inżynierii procesorów.

⇡ Co zmieniło się w procesorach Intel od 2011 roku do chwili obecnej

Punktem wyjścia w najnowszej historii rozwoju procesorów Intel jest mikroarchitektura Piaszczysty  Most. I to nie jest przypadek. Pomimo faktu, że pierwsza generacja procesorów pod marką Core została wydana w 2008 roku w oparciu o mikroarchitekturę Nehalem, prawie wszystkie główne cechy, które są nieodłączne od współczesnych masowych procesorów giganta mikroprocesorowego, nie zostały wykorzystane, ale kilka lat później, kiedy następna generacja stała się powszechna konstrukcja procesora, Sandy Bridge.

Teraz Intel przyzwyczaił nas do szczerze niespiesznego postępu w rozwoju mikroarchitektury, kiedy wprowadzono bardzo niewiele innowacji i prawie nie doprowadziły one do wzrostu konkretnej wydajności rdzeni procesorów. Ale zaledwie siedem lat temu sytuacja była radykalnie inna. W szczególności przejście z Nehalem do Sandy Bridge oznaczało 15-20 procentowy wzrost wskaźnika IPC (liczba instrukcji wykonywanych na zegar), co było spowodowane głęboką zmianą logicznej konstrukcji rdzeni w celu zwiększenia ich wydajności.

Sandy Bridge wprowadził wiele zasad, które nie uległy zmianie od tego czasu i stały się standardem dla większości dzisiejszych procesorów. Na przykład tam pojawiła się osobna pamięć podręczna zerowego poziomu dla zdekodowanych mikrooperacji, a także zastosowano plik rejestru fizycznego, co zmniejsza zużycie energii podczas uruchamiania algorytmów do nadzwyczajnego wykonywania instrukcji.

Ale być może najważniejszą innowacją było to, że Sandy Bridge został zaprojektowany jako ujednolicony system na chipie, zaprojektowany jednocześnie dla wszystkich klas aplikacji: serwerowej, stacjonarnej i mobilnej. Najprawdopodobniej opinia publiczna umieściła go w pradziadkach współczesnego Coffee Lake, a nie tylko w Nehalem, a zwłaszcza w Penrynie, właśnie z powodu tej cechy. Jednak całkowita liczba wszystkich zmian w głębinach mikroarchitektury Sandy Bridge była również bardzo znacząca. Ostatecznie ten projekt utracił wszystkie stare rodzinne więzi z P6 (Pentium Pro), które tu i tam pojawiały się we wszystkich poprzednich procesorach Intela.

Mówiąc o ogólnej strukturze, nie można nie wspomnieć, że po raz pierwszy w historii procesorów Intela pełnoprawny rdzeń graficzny został wbudowany w kryształ procesora Sandy Bridge. Blok ten wszedł do procesora po kontrolerze pamięci DDR3 współdzielonym przez pamięć podręczną L3 i kontroler magistrali PCI Express. Aby połączyć rdzenie obliczeniowe i wszystkie inne części „pozaządrowe”, inżynierowie Intela wprowadzili w tym czasie w Sandy Bridge nową skalowalną magistralę pierścieniową, która do dziś służy do organizowania interakcji między jednostkami strukturalnymi w kolejnych procesorach masowych.

Jeśli przejdziesz do poziomu mikroarchitektury Sandy Bridge, jedną z jego kluczowych funkcji jest obsługa rodziny instrukcji SIMD, AVX, zaprojektowanej do pracy z wektorami 256-bitowymi. Do tej pory takie instrukcje są dobrze ugruntowane i nie wydają się niezwykłe, ale ich wdrożenie w Sandy Bridge wymagało rozbudowy niektórych siłowników obliczeniowych. Inżynierowie Intela starali się, aby praca z 256-bitowymi danymi była tak szybka, jak w przypadku wektorów o mniejszej głębi bitowej. Dlatego wraz z wdrożeniem pełnoprawnych 256-bitowych urządzeń wykonawczych konieczne było również zwiększenie prędkości procesora z pamięcią. Siłowniki logiczne Sandy Bridge zaprojektowane do ładowania i zapisywania danych podwoiły wydajność, a ponadto przepustowość pamięci podręcznej pierwszego poziomu została symetrycznie zwiększona podczas odczytu.

Nie można nie wspomnieć o dramatycznych zmianach dokonanych w działaniu bloku prognozowania gałęzi dokonanego w Sandy Bridge. Dzięki optymalizacji zastosowanych algorytmów i zwiększeniu rozmiarów buforów architektura Sandy Bridge zmniejszyła odsetek niepoprawnych prognoz przejścia o prawie połowę, co nie tylko miało zauważalny wpływ na wydajność, ale także umożliwiło dalsze zmniejszenie zużycia energii w tym projekcie.

Ostatecznie, z dzisiejszej perspektywy, procesory Sandy Bridge można nazwać przykładem realizacji fazy tak w zasadzie Intel-tick-tak. Podobnie jak ich poprzednicy, procesory te nadal były oparte na technologii procesowej 32 nm, ale zaproponowany przez nich wzrost wydajności był więcej niż przekonujący. Było to napędzane nie tylko zaktualizowaną mikroarchitekcją, ale także wzrostem częstotliwości taktowania o 10-15 procent, a także wprowadzeniem bardziej agresywnej wersji technologii Turbo Boost 2.0. Biorąc to wszystko pod uwagę, jasne jest, dlaczego wielu entuzjastów wciąż pamięta Sandy Bridge najcieplejszymi słowami.

Najstarszą ofertą w rodzinie Core i7 w momencie wydania mikroarchitektury Sandy Bridge był Core i7-2600K. Procesor ten otrzymał częstotliwość taktowania 3,3 GHz z możliwością automatycznego przyspieszenia przy częściowym obciążeniu do 3,8 GHz. Jednak przedstawiciele 32-nm przedstawicieli Sandy Bridge wyróżnili się nie tylko stosunkowo wysokimi częstotliwościami zegara w tym czasie, ale także dobrym potencjałem do przetaktowywania. Wśród Core i7-2600K często można było znaleźć instancje zdolne do pracy na częstotliwości 4,8-5,0 GHz, co było w dużej mierze spowodowane zastosowaniem wysokiej jakości wewnętrznego interfejsu termicznego - lutu pozbawionego topnika.

Dziewięć miesięcy po wydaniu Core i7-2600K, w październiku 2011 roku, Intel zaktualizował swoją starszą ofertę w tym składzie i zaproponował nieco przyspieszony model Core i7-2700K, którego częstotliwość nominalną zwiększono do 3,5 GHz, a maksymalną częstotliwość w trybie turbo - do 3,9 GHz.

Jednak cykl życia Core i7-2700K był krótki - w kwietniu 2012 r. Sandy Bridge zastąpiono zaktualizowanym projektem Bluszcz  Most. Nic specjalnego: Ivy Bridge należał do fazy „teakowej”, to znaczy przeniesiono starą mikroarchitekturę na nowe szyny półprzewodnikowe. I pod tym względem postęp był naprawdę poważny - kryształy Ivy Bridge zostały wyprodukowane zgodnie z procesem 22 nm, opartym na trójwymiarowych tranzystorach FinFET, które w tym czasie dopiero zaczęły być używane.

Jednocześnie stara mikroarchitektura Sandy Bridge na niskim poziomie pozostała prawie nietknięta. Wykonano tylko kilka modyfikacji kosmetycznych, które przyspieszyły wykonanie operacji podziału w Ivy Bridge i nieznacznie zwiększyły skuteczność technologii Hyper-Threading. To prawda, że \u200b\u200bpo drodze elementy „pozatomowe” zostały nieco ulepszone. Kontroler PCI Express uzyskał zgodność z trzecią wersją protokołu, a kontroler pamięci zwiększył swoje możliwości i zaczął obsługiwać szybką pamięć DDR3 do podkręcania. Ale ostatecznie wzrost wydajności właściwej podczas przejścia z Sandy Bridge do Ivy Bridge wyniósł nie więcej niż 3-5 procent.

Nowy proces technologiczny nie dawał poważnych powodów do radości. Niestety, wprowadzenie standardów 22 nm nie pozwoliło nam w jakiś sposób zasadniczo zwiększyć częstotliwości taktowania Ivy Bridge. Starsza wersja Core i7-3770K otrzymała częstotliwość nominalną 3,5 GHz z możliwością podkręcania w trybie turbo do 3,9 GHz, czyli z punktu widzenia formuły częstotliwości okazała się nie szybsza niż Core i7-2700K. Poprawiła się tylko efektywność energetyczna, ale użytkownicy komputerów stacjonarnych są tradycyjnie słabo zainteresowani tym aspektem.

Wszystko to oczywiście można łatwo przypisać temu, że na etapie „tykania” nie powinno dojść do żadnych przełomów i nie powinno, ale w pewnym sensie Ivy Bridge był nawet gorszy od swoich poprzedników. Chodzi o podkręcanie. Wprowadzając nośniki tego projektu na rynek, Intel zdecydował się zrezygnować z zastosowania pozbawionych topników procesorów lutowania galu w końcowym montażu osłony rozprowadzającej ciepło do układu półprzewodnikowego. Począwszy od Ivy Bridge, do zorganizowania wewnętrznego interfejsu termicznego zastosowano banalną pastę termiczną, która natychmiast osiągnęła maksymalne osiągalne częstotliwości. Potencjał przetaktowywania Ivy Bridge zdecydowanie się pogorszył, w wyniku czego przejście z Sandy Bridge do Ivy Bridge stało się jednym z najbardziej kontrowersyjnych momentów w najnowszej historii procesorów konsumenckich Intel.

Dlatego do następnego etapu ewolucji Haswell, pokładane w specjalnych nadziejach. W tym pokoleniu, które należy do fazy „tak”, powinny pojawić się poważne ulepszenia mikroarchitektoniczne, od których oczekiwano zdolności co najmniej przyspieszenia utknięcia w martwym punkcie. I do pewnego stopnia tak się stało. Procesory Core czwartej generacji, które pojawiły się latem 2013 roku, naprawdę zyskały znaczną poprawę w strukturze wewnętrznej.

Najważniejsze: teoretyczna moc siłowników Haswell, wyrażona liczbą mikrooperacji wykonanych na cykl, wzrosła o jedną trzecią w porównaniu do poprzednich procesorów. Nowa mikroarchitektura nie tylko ponownie zrównoważyła istniejące urządzenia wykonawcze, ale także dodała dwa dodatkowe porty wykonawcze do operacji na liczbach całkowitych, obsługi oddziałów i generowania adresów. Ponadto mikroarchitektura uzyskała zgodność z rozszerzonym zestawem wektorowych 256-bitowych instrukcji AVX2, które dzięki trzem argumentom poleceń FMA podwoiły szczytową przepustowość architektury.

Oprócz tego inżynierowie Intela sprawdzili pojemność wewnętrznych buforów i, w razie potrzeby, zwiększyli je. Okno programu planującego powiększyło się. Ponadto zwiększono liczbę plików fizycznych i fizycznych rejestru, co poprawiło zdolność procesora do zmiany kolejności wykonywania instrukcji. Oprócz tego podsystem pamięci podręcznej znacznie się zmienił. Skrytki L1 i L2 Haswella posiadały dwa razy szerszy autobus.

Wydaje się, że te udoskonalenia powinny wystarczyć do znacznego zwiększenia konkretnej wydajności nowej mikroarchitektury. Ale nie ważne jak. Problemem projektowym Haswella było to, że pozostawił wejściową część potoku wykonawczego bez zmian, a dekoder poleceń x86 zachował taką samą wydajność jak poprzednio. Oznacza to, że maksymalna szybkość dekodowania kodu x86 w instrukcji mikro pozostała na poziomie 4-5 poleceń na cykl. W rezultacie, porównując Haswell i Ivy Bridge przy tej samej częstotliwości i obciążeniu, które nie korzysta z nowych instrukcji AVX2, wzrost wydajności wyniósł tylko 5-10 procent.

Obraz mikroarchitektury Haswella został zepsuty przez pierwszą falę procesorów wydanych na jego podstawie. Opierając się na tej samej technologii procesowej 22 nm, co Ivy Bridge, nowe produkty nie mogły oferować wysokich częstotliwości. Na przykład starszy Core i7-4770K ponownie otrzymał częstotliwość podstawową 3,5 GHz i maksymalną częstotliwość w trybie turbo przy 3,9 GHz, co oznacza, że \u200b\u200bnie poczyniono żadnych postępów w porównaniu z poprzednimi generacjami Core.

Jednocześnie, wraz z wprowadzeniem następującego procesu ze standardami 14 nm, Intel zaczął napotykać różnego rodzaju trudności, więc rok później, latem 2014 r., Nie wprowadzono na rynek kolejnej generacji procesorów Core, ale drugą fazę Haswell, która otrzymała kryptonim Haswell Odśwież, a jeśli mówimy o flagowych modyfikacjach, to Devil's Canyon. W ramach tej aktualizacji Intel był w stanie znacznie zwiększyć szybkość taktowania procesora 22 nm, co naprawdę tchnęło w nich nowe życie. Jako przykład możemy przytoczyć nowy starszy procesor Core i7-4790K, który przy częstotliwości nominalnej przyjął znak 4,0 GHz i otrzymał maksymalną częstotliwość, biorąc pod uwagę tryb turbo przy 4,4 GHz. Zaskakujące jest to, że takie przyspieszenie o połowę GHz zostało osiągnięte bez reform technologicznych, ale tylko z powodu prostych kosmetycznych zmian w schemacie mocy procesora oraz z powodu poprawy przewodności cieplnej pasty termicznej stosowanej pod pokrywą procesora.

Jednak nawet przedstawiciele rodziny Diabelskiego Kanionu nie byli szczególnie mile widzianymi propozycjami wśród entuzjastów. Na tle wyników Sandy Bridge ich przetaktowanie nie mogło być uznane za wybitne, ponadto osiągnięcie wysokich częstotliwości wymagało złożonego „skalpowania” - demontażu pokrywy procesora, a następnie zastąpienia standardowego interfejsu termicznego pewnym materiałem o lepszym przewodnictwie cieplnym.

Ze względu na trudności, z jakimi zmagał się Intel przy konwersji masowej produkcji do standardu 14 nm, wydajność następnej piątej generacji procesorów Core, Broadwellokazało się bardzo zmięte. Firma długo nie mogła zdecydować, czy warto sprzedawać na rynku procesory do komputerów stacjonarnych z tym projektem, ponieważ podczas próby produkcji dużych kryształów półprzewodnikowych poziom odrzucenia przekraczał dopuszczalne wartości. W końcu wciąż pojawiały się czterordzeniowe procesory Broadwell, ale po pierwsze stało się to dopiero latem 2015 r. - z 9-miesięcznym opóźnieniem w stosunku do pierwotnie planowanej daty, a po drugie, dwa miesiące po ich ogłoszeniu, Intel wprowadził projekt następna generacja, Skylake.

Niemniej jednak, z punktu widzenia rozwoju mikroarchitektury Broadwell, trudno nazwać rozwój wtórny. Co więcej, procesory stacjonarne tej generacji korzystały z takich rozwiązań, z których Intel nigdy wcześniej nie korzystał. O wyjątkowości pulpitu Broadwell decydował fakt, że przeniknęły one do produktywnego zintegrowanego rdzenia graficznego Iris Pro na poziomie GT3e. A to oznacza nie tylko to, że procesory z tej rodziny miały najmocniejszy zintegrowany rdzeń wideo w tym czasie, ale także, że zostały wyposażone w dodatkowy 22-milimetrowy kryształ Crystall Well, który jest czwartym poziomem pamięci podręcznej opartej na eDRAM.

Znaczenie dodania osobnego układu szybkiej pamięci wewnętrznej do procesora jest dość oczywiste i wynika z potrzeb potężnego zintegrowanego rdzenia graficznego w buforze ramek o niskim opóźnieniu i dużej przepustowości. Jednak pamięć eDRAM zainstalowana w Broadwell została zaprojektowana architektonicznie jako pamięć podręczna ofiary, a rdzenie procesora mogły z niej korzystać. W rezultacie komputery stacjonarne Broadwell stały się jedynymi w swoim rodzaju procesorami masowymi z 128 MB pamięci podręcznej L4. To prawda, że \u200b\u200bnieco zmieniono objętość pamięci podręcznej L3 umieszczonej w układzie procesora, która została zmniejszona z 8 do 6 MB.

Niektóre ulepszenia zostały włączone do podstawowej mikroarchitektury. Pomimo faktu, że Broadwell należał do fazy „tykania”, zmiany dotknęły części wejściowej przenośnika wykonawczego. Okno harmonogramu do nadzwyczajnego wykonywania poleceń zostało powiększone, objętość asocjacyjnej tabeli translacji adresów drugiego poziomu zwiększyła się o półtora raza, a ponadto cały schemat translacji pozyskał drugą procedurę obsługi błędów, która umożliwiła równoległe przetwarzanie dwóch operacji translacji adresów. Podsumowując, wszystkie innowacje zwiększyły wydajność nadzwyczajnego wykonywania poleceń i przewidywania złożonych gałęzi kodu. Po drodze usprawniono mechanizmy wykonywania operacji mnożenia, które Broadwell zaczął przetwarzać w znacznie szybszym tempie. Na podstawie wyników tego wszystkiego Intel był nawet w stanie argumentować, że ulepszenia w mikroarchitekturze zwiększyły specyficzną wydajność Broadwell w porównaniu z Haswell o około pięć procent.

Ale mimo to nie można było mówić o żadnej znaczącej przewadze pierwszych stacjonarnych procesorów 14 nm. Zarówno pamięć podręczna czwartego poziomu, jak i zmiany mikroarchitekturalne próbowały tylko zrekompensować główną wadę Broadwella - niskie częstotliwości taktowania. Z powodu problemów z procesem częstotliwość podstawowa najstarszego członka rodziny, Core i7-5775C, została ustawiona tylko na 3,3 GHz, a częstotliwość w trybie turbo nie przekraczała 3,7 GHz, co okazało się gorsze niż wydajność Diabelskiego Kanionu aż o 700 MHz.

Podobna historia miała miejsce w przypadku podkręcania. Granice częstotliwości, do których komputery Broadwell mogły się rozszerzać bez stosowania zaawansowanych metod chłodzenia, wynosiły 4,1-4,2 GHz. Nic więc dziwnego, że konsumenci byli sceptycznie nastawieni do wydania Broadwell, a procesory tej rodziny pozostały dziwnym niszowym rozwiązaniem dla tych, którzy byli zainteresowani potężnym zintegrowanym rdzeniem graficznym. Pierwszy pełnoprawny układ 14 nm dla komputerów stacjonarnych, który był w stanie przyciągnąć uwagę szerokich warstw użytkowników, był tylko kolejnym projektem giganta mikroprocesorowego - Skylake.

Produkcja Skylake, podobnie jak procesory poprzedniej generacji, została przeprowadzona zgodnie z technologią 14 nm. Jednak Intel był już w stanie osiągnąć normalne taktowanie i podkręcanie: starsza wersja Skylake dla komputerów stacjonarnych, Core i7-6700K, otrzymała częstotliwość nominalną 4,0 GHz i automatyczne przyspieszenie w ramach trybu turbo do 4,2 GHz. Są to nieco niższe wartości w porównaniu z Diabelskim Kanionem, ale nowsze procesory były zdecydowanie szybsze niż ich poprzednicy. Faktem jest, że Skylake jest „tak” w nomenklaturze Intela, co oznacza znaczące zmiany w mikroarchitekturze.

I naprawdę są. Na pierwszy rzut oka nie wprowadzono tak wielu ulepszeń w projekcie Skylake, ale wszystkie z nich miały na celu wyeliminowanie istniejących słabości w mikroarchitekturze. Krótko mówiąc, Skylake ma większe bufory wewnętrzne do głębszego, nadzwyczajnego wykonywania instrukcji i większej przepustowości pamięci podręcznej. Ulepszenia wpłynęły na zmiany prognozowania bloku i część wejściową przenośnika wykonawczego. Zwiększono także tempo wykonywania instrukcji podziału, a mechanizmy wykonywania instrukcji dodawania, mnożenia i FMA zostały ponownie zrównoważone. Na dodatek programiści pracowali nad zwiększeniem wydajności technologii Hyper-Threading. W sumie pozwoliło to na osiągnięcie około 10-procentowej poprawy wydajności na cykl w porównaniu z procesorami poprzednich generacji.

Ogólnie rzecz biorąc, Skylake można opisać jako dość głęboką optymalizację oryginalnej architektury rdzenia, dzięki czemu nie ma wąskich gardeł w konstrukcji procesora. Z jednej strony, ze względu na wzrost mocy dekodera (z 4 do 5 mikroprocesorów na cykl) i szybkość pamięci podręcznej mikrooperacji (z 4 do 6 mikroprocesorów na cykl), szybkość dekodowania instrukcji znacznie wzrosła. Z drugiej strony wzrosła wydajność przetwarzania wynikowych mikroprocesorów, co ułatwione było przez pogłębienie algorytmów nadzwyczajnego wykonywania i redystrybucję możliwości portów wykonawczych wraz z poważną rewizją wskaźnika wykonania szeregu poleceń zwykłych, SSE i AVX.

Na przykład Haswell i Broadwell miały po dwa porty do wykonywania mnożenia i operacji FMA na liczbach rzeczywistych, ale tylko jeden port był przeznaczony do dodawania, co nie odpowiadało dobrze kodowi programu. W Skylake ta nierównowaga została wyeliminowana, a dodawanie rozpoczęto na dwóch portach. Ponadto liczba portów obsługujących instrukcje dotyczące liczb całkowitych wzrosła z dwóch do trzech. Ostatecznie wszystko to doprowadziło do tego, że dla prawie każdego rodzaju operacji w Skylake zawsze istnieje kilka alternatywnych portów. A to oznacza, że \u200b\u200bw mikroarchitekturze praktycznie wszystkie możliwe przyczyny bezczynności przenośnika zostały ostatecznie skutecznie wyeliminowane.

Zauważalne zmiany wpłynęły również na podsystem buforowania: zwiększono przepustowość pamięci podręcznej drugiego i trzeciego poziomu. Ponadto zmniejszono asocjatywność pamięci podręcznej drugiego poziomu, co ostatecznie pozwoliło poprawić jej wydajność i zmniejszyć karę za brakujące przetwarzanie.

Znaczące zmiany zaszły na wyższym poziomie. Tak więc w Skylake przepustowość szyny pierścieniowej, która łączy wszystkie jednostki procesora, podwoiła się. Ponadto w procesorze tej generacji zainstalowano nowy kontroler pamięci, który uzyskał zgodność z DDR4 SDRAM. Ponadto do połączenia procesora z mikroukładem zastosowano nową magistralę DMI 3.0 o podwójnej przepustowości, co umożliwiło wdrożenie szybkich linii PCI Express 3.0, w tym za pośrednictwem mikroukładu.

Jednak, podobnie jak wszystkie poprzednie wersje architektury Core, Skylake był kolejną odmianą oryginalnego projektu. Oznacza to, że w szóstej generacji mikroarchitektury Core programiści Intela nadal stosowali taktykę stopniowego wdrażania ulepszeń w każdym cyklu programowania. Ogólnie rzecz biorąc, nie jest to bardzo imponujące podejście, które nie pozwala nam natychmiast zobaczyć żadnych znaczących zmian wydajności - przy porównywaniu procesorów z sąsiednich generacji. Ale podczas aktualizacji starych systemów zauważalny wzrost wydajności jest dość łatwy do zauważenia. Na przykład sam Intel chętnie porównał Skylake z Ivy Bridge, jednocześnie pokazując, że w ciągu ostatnich trzech lat wydajność procesora wzrosła o ponad 30 procent.

W rzeczywistości był to dość poważny postęp, ponieważ wtedy wszystko stało się znacznie gorsze. Po Skylake wszelka poprawa wydajności rdzeni procesora została całkowicie zatrzymana. Te procesory, które są obecnie na rynku, nadal korzystają z projektu mikroarchitekturalnego Skylake, mimo że minęły prawie trzy lata od jego pojawienia się w procesorach stacjonarnych. Nieoczekiwany przestój nastąpił z powodu faktu, że Intel nie mógł poradzić sobie z wprowadzeniem kolejnej wersji procesu półprzewodnikowego o standardach 10 nm. W rezultacie cała zasada „tykania” załamała się, zmuszając giganta mikroprocesorowego do wydostania się i powtórnego wydania starych produktów pod nową nazwą.

Procesory generacji Kaby  Jezioro, który pojawił się na rynku na początku 2017 roku, stał się pierwszym i bardzo uderzającym przykładem prób Intela, aby sprzedać ten sam Skylake klientom po raz drugi. Bliskie więzi rodzinne między dwoma generacjami procesorów nie były szczególnie ukryte. Intel szczerze powiedział, że Kaby Lake nie jest już „tyknięciem”, a nie „tak”, ale zwykłą optymalizacją poprzedniego projektu. Jednocześnie słowo „optymalizacja” oznaczało pewne ulepszenia w strukturze tranzystorów 14 nm, co otworzyło możliwość zwiększenia częstotliwości taktowania bez zmiany zakresu pakietu ciepła. W przypadku zmodyfikowanej technologii procesowej wymyślono nawet specjalny termin „14+ nm”. Dzięki tej technologii produkcji starszy procesor masowy Kaby Lake, nazwany Core i7-7700K, był w stanie zaoferować użytkownikom częstotliwość nominalną 4,2 GHz i tryb turbo 4,5 GHz.

Tak więc wzrost częstotliwości Kaby Lake w porównaniu do pierwotnego Skylake wyniósł około 5 procent, a to wszystko było ograniczone, co, szczerze mówiąc, podało w wątpliwość legalność przypisania Kaby Lake następnej generacji rdzenia. Do tego momentu każda kolejna generacja procesorów, bez względu na to, czy należała do fazy „tykania”, czy „podobnej”, zapewniała przynajmniej pewien wzrost wskaźnika IPC. Tymczasem w Kaby Lake nie wprowadzono żadnych ulepszeń mikroarchitektonicznych, więc logiczniej byłoby traktować te procesory jako drugi krok w Skylake.

Jednak nowa wersja technologii procesowej 14 nm wciąż była w stanie udowodnić coś pozytywnego: potencjał podkręcania Kaby Lake wzrósł o około 200-300 MHz w porównaniu do Skylake, więc entuzjaści entuzjastycznie przyjęli procesory z tej serii. To prawda, że \u200b\u200bIntel nadal używał pasty termicznej pod pokrywą procesora zamiast lutu, więc konieczne było skalpowanie, aby w pełni przyspieszyć Kaby Lake.

Intel nie był w stanie poradzić sobie z uruchomieniem technologii 10 nm na początku tego roku. Dlatego pod koniec ubiegłego roku na rynku pojawiła się kolejna odmiana procesorów opartych na tej samej mikroarchitekturze Skylake, Kawa  Jezioro. Ale mówienie o Coffee Lake jako trzecim wyglądzie Skylake nie jest całkowicie poprawne. Ubiegły rok był okresem radykalnej zmiany paradygmatu na rynku procesorów. AMD powróciło do „wielkiej gry”, która była w stanie przełamać ustalone tradycje i stworzyć popyt na masowe procesory z więcej niż czterema rdzeniami. Nagle Intel okazał się nadrabiać zaległości, a Coffee Lake nie była próbą wypełnienia luki przed długo oczekiwanym pojawieniem się procesorów rdzeniowych 10 nm, ale jako reakcję na moc wyjściową sześcio- i ośmiordzeniowych procesorów AMD Ryzen.

W rezultacie procesory Coffee Lake otrzymały istotną różnicę strukturalną od swoich poprzedników: liczba rdzeni w nich została zwiększona do sześciu, co było pierwszym przypadkiem platformy masowej Intel. Jednak na poziomie mikroarchitektury ponownie nie wprowadzono żadnych zmian: Coffee Lake to zasadniczo sześciordzeniowy Skylake, złożony na podstawie dokładnie takich samych wewnętrznych rdzeni przetwarzania, które są wyposażone w pamięć podręczną L3 zwiększoną do 12 MB (zgodnie ze standardową zasadą 2 MB na rdzeń) ) i w połączeniu ze znaną pierścieniem magistrali

Jednak pomimo tego, że tak łatwo pozwalamy sobie mówić o „Coffee Lake” „nic nowego”, nie jest całkowicie uczciwe stwierdzenie, że w ogóle nie ma żadnych zmian. Chociaż w mikroarchitekturze nic się już nie zmieniło, specjaliści Intela musieli wiele wysiłku, aby sześciordzeniowe procesory pasowały do \u200b\u200bstandardowej platformy komputerowej. Wynik okazał się całkiem przekonujący: sześciordzeniowe procesory pozostały wierne zwykłemu pakietowi termicznemu, a ponadto nie zwalniały przy taktowaniu zegarem.

W szczególności starszy przedstawiciel generacji Coffee Lake, Core i7-8700K, otrzymał częstotliwość podstawową 3,7 GHz, aw trybie turbo może przyspieszyć do 4,7 GHz. Jednocześnie potencjał przetaktowywania Coffee Lake, pomimo jego masywnego kryształu półprzewodnikowego, okazał się nawet lepszy niż wszystkich jego poprzedników. Rdzeń i7-8700K są często przenoszeni przez swoich zwykłych właścicieli na linię pięciu GHz, a takie przetaktowanie jest realne nawet bez skalpowania i wymiany wewnętrznego interfejsu termicznego. A to oznacza, że \u200b\u200bCoffee Lake, choć rozległe, ale znaczący krok naprzód.

Wszystko to stało się możliwe tylko dzięki kolejnej poprawie procesu 14 nm. W czwartym roku zastosowania w masowej produkcji układów komputerowych Intel zdołał osiągnąć naprawdę imponujące wyniki. Wprowadzona trzecia wersja standardów 14 nm („14 ++ nm” w oznaczeniach producenta) i rearanżacja kryształu półprzewodnika pozwoliły znacznie poprawić wydajność pod względem każdego zużytego wata i zwiększyć całkowitą moc obliczeniową. Wprowadzając sześciordzeniowy Intel, być może był w stanie zrobić jeszcze bardziej znaczący krok naprzód niż jakakolwiek poprzednia poprawa mikroarchitektury. A dzisiaj Coffee Lake wygląda na bardzo kuszącą opcję modernizacji starych systemów opartych na poprzednich nośnikach mikroarchitektury Core.

Kryptonim Proces technologii Liczba rdzeni GPU Pamięć podręczna L3, MB Liczba tranzystorów, miliard Obszar krystaliczny, mm 2
Sandy Bridge 32 nm 4 GT2 8 1,16 216
Most Ivy 22 nm 4 GT2 8 1,2 160
Haswell 22 nm 4 GT2 8 1,4 177
Broadwell 14 nm 4 GT3e 6 Nie dotyczy ~ 145 + 77 (eDRAM)
Skylake 14 nm 4 GT2 8 Nie dotyczy 122
Jezioro Kaby 14+ nm 4 GT2 8 Nie dotyczy 126
Jezioro kawowe 14 ++ nm 6 GT2 12 Nie dotyczy 150

⇡ Procesory i platformy: specyfikacje

Aby porównać ostatnie siedem generacji Core i7, wzięliśmy starszych przedstawicieli z odpowiedniej serii - po jednej z każdego projektu. Główne cechy tych procesorów pokazano w poniższej tabeli.

Rdzeń i7-2700K Core i7-3770K Rdzeń i7-4790K Rdzeń i7-5775C Core i7-6700K Core i7-7700K Core i7-8700K
Kryptonim Sandy Bridge Most Ivy Haswell (Devil's Canyon) Broadwell Skylake Jezioro Kaby Jezioro kawowe
Technologia produkcji, nm 32 22 22 14 14 14+ 14++
Data wydania 23.10.2011 29.04.2012 2.06.2014 2.06.2015 5.08.2015 3.01.2017 5.10.2017
Jądra / wątki 4/8 4/8 4/8 4/8 4/8 4/8 6/12
Częstotliwość podstawowa, GHz 3,5 3,5 4,0 3,3 4,0 4,2 3,7
Turbo Boost Frequency, GHz 3,9 3,9 4,4 3,7 4,2 4,5 4,7
Pamięć podręczna L3, MB 8 8 8 6 (+128 MB eDRAM) 8 8 12
Obsługa pamięci DDR3-1333 DDR3-1600 DDR3-1600 DDR3L-1600 DDR4-2133 DDR4-2400 DDR4-2666
Rozszerzenia zestawu instrukcji AVX AVX AVX2 AVX2 AVX2 AVX2 AVX2
Zintegrowana karta graficzna HD 3000 (12 UE) HD 4000 (16 UE) HD 4600 (20 UE) Iris Pro 6200 (48 UE) HD 530 (24 UE) HD 630 (24 UE) UHD 630 (24 UE)
Max. częstotliwość rdzenia graficznego, GHz 1,35 1,15 1,25 1,15 1,15 1,15 1,2
Wersja PCI Express 2.0 3.0 3.0 3.0 3.0 3.0 3.0
Linie PCI Express 16 16 16 16 16 16 16
TDP, W 95 77 88 65 91 91 95
Gniazdo elektryczne LGA1155 LGA1155 LGA1150 LGA1150 LGA1151 LGA1151 LGA1151v2
Oficjalna cena $332 $332 $339 $366 $339 $339 $359

Ciekawe, że w ciągu ostatnich siedmiu lat od wydania Sandy Bridge Intel nie był w stanie znacznie zwiększyć częstotliwości taktowania. Pomimo faktu, że proces produkcji technologicznej zmienił się dwukrotnie, a mikroarchitektura została dwukrotnie poważnie zoptymalizowana, dzisiejszy Core i7 prawie nie posunął się naprzód w swojej częstotliwości operacyjnej. Najnowszy Core i7-8700K ma częstotliwość nominalną 3,7 GHz, która jest tylko o 6 procent wyższa niż częstotliwość Core i7-2700K wydana w 2011 roku.

Jednak takie porównanie nie jest całkowicie poprawne, ponieważ Coffee Lake ma półtora razy więcej rdzeni obliczeniowych. Jeśli skupimy się na czterordzeniowym rdzeniu i7-7700K, wzrost częstotliwości nadal będzie wyglądał bardziej przekonująco: ten procesor przyspieszył w stosunku do 32-nm Core i7-2700K o znaczące 20 procent w megahercach. Mimo to nie można tego nazwać imponującym wzrostem: w wartościach bezwzględnych jest to przekształcane na wzrost o 100 MHz rocznie.

Nie ma przełomów w innych cechach formalnych. Intel nadal dostarcza wszystkim swoim procesorom indywidualną pamięć podręczną drugiego poziomu o wielkości 256 KB na rdzeń, a także wspólną pamięć podręczną L3 dla wszystkich rdzeni, której rozmiar jest określany na podstawie obliczeń 2 MB na rdzeń. Innymi słowy, głównym czynnikiem, w którym dokonano największego postępu, jest liczba rdzeni obliczeniowych. Rozwój Core rozpoczął się od czterordzeniowych procesorów i doszedł do sześciordzeniowych. I to oczywiste, że to nie koniec, aw najbliższej przyszłości zobaczymy ośmiordzeniowe warianty Coffee Lake (lub Whisky Lake).

Jednak, jak łatwo zauważyć, od siedmiu lat Intel prawie nie zmienia polityki cenowej. Nawet sześciordzeniowy Coffee Lake w porównaniu z poprzednimi czterordzeniowymi flagowcami wzrósł o zaledwie sześć procent. Niemniej jednak reszta starszych procesorów klasy Core i7 dla platformy masowej zawsze kosztuje konsumentów około 330-340 USD.

Ciekawe, że największe zmiany nie nastąpiły nawet w samych procesorach, ale przy wsparciu pamięci RAM. Przepustowość dwukanałowej pamięci SDRAM od momentu wydania Sandy Bridge do dnia dzisiejszego podwoiła się: z 21,3 do 41,6 GB / s. Jest to kolejna ważna okoliczność, która determinuje przewagę nowoczesnych systemów zgodnych z szybką pamięcią DDR4.

I rzeczywiście, przez te wszystkie lata, wraz z procesorami, reszta platformy ewoluowała. Jeśli mówimy o głównych kamieniach milowych w rozwoju platformy, to oprócz zwiększenia prędkości kompatybilnej pamięci chciałbym zwrócić uwagę na obsługę interfejsu graficznego PCI Express 3.0. Wydaje się, że szybka pamięć i szybka magistrala graficzna, wraz z postępem w zakresie częstotliwości procesorów i architektury, są istotnymi przyczynami, dla których nowoczesne systemy stały się lepsze i szybsze niż w przeszłości. Obsługa DDR4 SDRAM pojawiła się w Skylake, a przeniesienie magistrali procesora PCI Express do trzeciej wersji protokołu odbyło się w Ivy Bridge.

Ponadto towarzyszące zestawy procesorów logiki systemowej zostały znacznie ulepszone. Rzeczywiście, dzisiejsze chipsety Intela z 300. serii mogą oferować znacznie ciekawsze funkcje w porównaniu z Intel Z68 i Z77, które były używane w płytach głównych LGA1155 dla procesorów generacji Sandy Bridge. Można to łatwo zobaczyć w poniższej tabeli, w której zestawiliśmy cechy flagowych chipsetów Intela dla platformy masowej.

P67 / Z68 Z77 Z87 Z97 Z170 Z270 Z370
Kompatybilność z procesorem Sandy Bridge
Most Ivy
Haswell Haswell
Broadwell
Skylake
Jezioro Kaby
Jezioro kawowe
Berło DMI 2.0 (2 GB / s) DMI 3.0 (3,93 GB / s)
Standard PCI Express 2.0 3.0
Linie PCI Express 8 20 24
Obsługa PCIe M.2 Nie
jest
Istnieje do 3 urządzeń
Obsługa PCI jest Nie
SATA 6 Gb / s 2 6
SATA 3Gb / s 4 0
USB 3.1 Gen2 0
USB 3.0 0 4 6 10
USB 2.0 14 10 8 4

W nowoczesnych zestawach logicznych znacznie wzrosły możliwości podłączenia szybkich nośników pamięci. Najważniejsze: dzięki przejściu mikroukładów na magistralę PCI Express 3.0 obecnie w zespołach produkcyjnych można używać szybkich napędów NVMe, które nawet w porównaniu z dyskami SSD SATA mogą zaoferować zauważalnie lepszą szybkość reakcji oraz wyższe prędkości odczytu i zapisu. I to samo może stanowić silny argument na rzecz modernizacji.

Ponadto nowoczesne chipsety zapewniają znacznie bogatsze opcje podłączania dodatkowych urządzeń. I nie mówimy tylko o znaczącym wzroście liczby linii PCI Express, co zapewnia, że \u200b\u200bna płytach znajduje się kilka dodatkowych gniazd PCIe, które zastępują konwencjonalne PCI. Po drodze dzisiejsze chipsety mają również wbudowaną obsługę portów USB 3.0, a wiele nowoczesnych płyt głównych jest wyposażonych w porty USB 3.1 Gen2.

⇡ Opis systemów testowych i metod testowych

Aby przetestować siedem zasadniczo różnych procesorów Intel Core i7 wydanych w ciągu ostatnich siedmiu lat, musieliśmy zmontować cztery platformy ze złączami procesorów LGA1155, LGA1150, LGA1151 i LGA1151v2. Zestaw komponentów, które okazały się do tego niezbędne, opisuje następująca lista:

  • Procesory:
    • Intel Core i7-8700K (Coffee Lake, 6 rdzeni + HT, 3,7-4,7 GHz, 12 MB L3);
    • Intel Core i7-7700K (Kaby Lake, 4 rdzenie + HT, 4,2-4,5 GHz, 8 MB L3);
    • Intel Core i7-6700K (Skylake, 4 rdzenie, 4,0-4,2 GHz, 8 MB L3);
    • Intel Core i7-5775C (Broadwell, 4 rdzenie, 3,3-3,7 GHz, 6 MB L3, 128 MB L4);
    • Intel Core i7-4790K (Haswell Refresh, 4 rdzenie + HT, 4,0-4,4 GHz, 8 MB L3);
    • Intel Core i7-3770K (Ivy Bridge, 4 rdzenie + HT, 3,5-3,9 GHz, 8 MB L3);
    • Intel Core i7-2700K (Sandy Bridge, 4 rdzenie + HT, 3,5-3,9 GHz, 8 MB L3).
    • Chłodzenie procesora: Noctua NH-U14S.
  • Płyty główne:
    • ASUS ROG Maximus X Hero (LGA1151v2, Intel Z370);
    • ASUS ROG Maximus IX Hero (LGA1151, Intel Z270);
    • ASUS Z97-Pro (LGA1150, Intel Z97);
    • ASUS P8Z77-V Deluxe (LGA1155, Intel Z77).
  • Pamięć:
    • 2 × 8 GB pamięci DDR3-2133 SDRAM, 9-11-11-31 (G.Skill TridentX F3-2133C9D-16GTX);
    • 2 × 8 GB pamięci DDR4-3200 SDRAM, 16-16-16-36 (G.Skill Trident Z RGB F4-3200C16D-16GTZR).
    • Karta graficzna: NVIDIA Titan X (GP102, 12 GB / 384-bit GDDR5X, 1417-1531 / 10000 MHz).
    • Podsystem dyskowy: Samsung 860 PRO 1TB (MZ-76P1T0BW).
    • Zasilacz: Corsair RM850i \u200b\u200b(80 Plus Gold, 850 W).

Testy przeprowadzono w systemie operacyjnym Microsoft Windows 10 Enterprise (v1709) Build 16299 przy użyciu następującego pakietu sterowników:

  • Sterownik mikroukładu Intel 10.1.1.45;
  • Sterownik interfejsu Intel Management Engine 11.7.0.1017;
  • Sterownik NVIDIA GeForce 391.35.

Opis narzędzi używanych do pomiaru wydajności obliczeniowej:

Zintegrowane testy porównawcze:

  • Futuremark PCMark 10 Professional Edition 1.0.1275 - testowanie w skryptach Essentials (typowa praca przeciętnego użytkownika: uruchamianie aplikacji, surfowanie po Internecie, wideokonferencje), Produktywność (praca biurowa z edytorem tekstu i arkuszami kalkulacyjnymi), Tworzenie treści cyfrowych (tworzenie treści cyfrowych: edycja zdjęcia, nieliniowa edycja wideo, rendering i wizualizacja modeli 3D). Przyspieszenie sprzętowe OpenCL w testowaniu zostało wyłączone.
  • Futuremark 3DMark Professional Edition 2.4.4264 - testowanie na scenie Time Spy Extreme 1.0.

Aplikacje:

  • Adobe Photoshop CC 2018 - testowanie wydajności podczas przetwarzania obrazów graficznych. Mierzony jest średni czas wykonania skryptu testowego, który jest twórczo przetwarzanym testem szybkości Retusz artystów Photoshop, który obejmuje typowe przetwarzanie czterech 24-megapikselowych zdjęć wykonanych aparatem cyfrowym.
  • Adobe Photoshop Lightroom Classic CC 7.1 - testowanie wydajności przetwarzania wsadowego serii obrazów w formacie RAW. Scenariusz testowy obejmuje przetwarzanie końcowe i eksport do formatu JPEG o rozdzielczości 1920 × 1080 i maksymalnej jakości dwustu 16-megapikselowych zdjęć w formacie RAW wykonanych aparatem cyfrowym Fujifilm X-T1.
  • Adobe Premiere Pro CC 2018 - testy wydajności do nieliniowej edycji wideo. Mierzony jest czas renderowania do formatu H.264 projektu Blu-ray zawierającego sekwencję wideo HDV 1080p25 z nałożeniem różnych efektów.
  • Blender 2.79b - testowanie szybkości końcowego renderowania w jednym z popularnych bezpłatnych pakietów do tworzenia trójwymiarowej grafiki. Mierzony jest czas budowy ostatecznego modelu z Blender Cycles Benchmark rev4.
  • Corona 1.3 - testowanie szybkości renderowania przy użyciu mechanizmu renderującego o tej samej nazwie. Mierzy szybkość budowania standardowej sceny BTR używanej do mierzenia wydajności.
  • Google Chrome 65.0.3325.181 (64-bitowy) - testowanie wydajności podczas pracy z aplikacjami internetowymi zbudowanymi przy użyciu nowoczesnych technologii. Zastosowano specjalistyczny test WebXPRT 3, który implementuje w HTML5 i JavaScript algorytmy faktycznie używane w aplikacjach internetowych.
  • Microsoft Visual Studio 2017 (15.1) - pomiar czasu kompilacji dużego projektu MSVC - profesjonalny pakiet do tworzenia trójwymiarowej grafiki Blender w wersji 2.79b.
  • Sztokfisz 9 - testowanie prędkości popularnego silnika szachowego. Mierzona jest prędkość zliczania opcji w pozycji „1q6 / 1r2k1p1 / 4pp1p / 1P1b1P2 / 3Q4 / 7P / 4B1P1 / 2R3K1 w”;
  • V-Ray 3.57.01 - testowanie wydajności popularnego systemu renderującego przy użyciu standardowej aplikacji V-Ray Benchmark;
  • VeraCrypt 1.22.9 - testy wydajności kryptograficznej. Używany jest wbudowany test porównawczy, który wykorzystuje potrójne szyfrowanie Kuznyechik-Serpent-Camellia.
  • WinRAR 5.50 - testowanie prędkości archiwizacji. Mierzony jest czas archiwizatora na skompresowanie katalogu z różnymi plikami o łącznej objętości 1,7 GB. Używany jest maksymalny współczynnik kompresji.
  • x264 r2851 - testowanie prędkości transkodowania wideo do formatu H.264 / AVC. Aby ocenić wydajność, użyj oryginału [chroniony e-mailem]  Plik wideo AVC o przepływności około 30 Mb / s.
  • x265 2,4 + 14 8bpp - testowanie prędkości transkodowania wideo do obiecującego formatu H.265 / HEVC. Aby ocenić wydajność, używany jest ten sam plik wideo, co w teście prędkości transkodowania przez koder x264.

Gry:

  • Ashes of Singularity. Rozdzielczość 1920 × 1080: DirectX 11, profil jakości \u003d wysoka, MSAA \u003d 2x. Rozdzielczość 3840 × 2160: DirectX 11, profil jakości \u003d Extreme, MSAA \u003d Off.
  • Assassin's Creed: Origins. Rozdzielczość 1920 × 1080: Jakość grafiki \u003d bardzo wysoka. Rozdzielczość 3840 × 2160: Jakość grafiki \u003d bardzo wysoka.
  • Battlefield 1. Rozdzielczość 1920 × 1080: DirectX 11, Jakość grafiki \u003d Ultra. Rozdzielczość 3840 × 2160: DirectX 11, jakość grafiki \u003d Ultra.
  • Cywilizacja VI. Rozdzielczość 1920 × 1080: DirectX 11, MSAA \u003d 4x, Wpływ na wydajność \u003d Ultra, Wpływ na pamięć \u003d Ultra. Rozdzielczość 3840 × 2160: DirectX 11, MSAA \u003d 4x, Wpływ na wydajność \u003d Ultra, Wpływ na pamięć \u003d Ultra.
  • Far Cry 5. Rozdzielczość 1920 × 1080: Jakość grafiki \u003d Ultra, Anti-Aliasing \u003d TAA, Motion Blur \u003d On. Rozdzielczość 3840 × 2160: Jakość grafiki \u003d Ultra, antyaliasing \u003d TAA, Motion Blur \u003d On.
  • Grand Theft Auto V. Rozdzielczość 1920 × 1080: Wersja DirectX \u003d DirectX 11, FXAA \u003d Wył., MSAA \u003d x4, NVIDIA TXAA \u003d Wył., Gęstość zaludnienia \u003d maksimum, Odmiana populacji \u003d maksimum, Skalowanie odległości \u003d maksimum, Jakość tekstury \u003d bardzo wysoka, Jakość shadera \u003d bardzo wysoka, jakość cienia \u003d bardzo wysoka, jakość odbicia \u003d ultra, odbicie MSAA \u003d x4, jakość wody \u003d bardzo wysoka, jakość cząstek \u003d bardzo wysoka, jakość trawy \u003d ultra, miękki cień \u003d najdelikatniejszy, post FX \u003d ultra, w - Efekty głębi pola gry \u003d Włączone, Filtrowanie anizotropowe \u003d x16, Okluzja otoczenia \u003d Wysoka, Tesselacja \u003d Bardzo wysoka, Długie cienie \u003d Włączone, Cienie wysokiej rozdzielczości \u003d Włączone, Przesyłanie strumieniowe szczegółów podczas lotu \u003d Włączone, Skalowanie z większej odległości \u003d Maksymalna, Rozszerzona Odległość cieni \u003d maksymalna. Rozdzielczość 3840 × 2160: Wersja DirectX \u003d DirectX 11, FXAA \u003d Wył., MSAA \u003d Wył., NVIDIA TXAA \u003d Wył., Gęstość populacji \u003d maksimum, Odmiana populacji \u003d maksimum, Skalowanie odległości \u003d maksimum, Jakość tekstury \u003d bardzo wysoka, Jakość cieniowania \u003d bardzo wysoka , Jakość cienia \u003d Bardzo wysoka, Jakość odbicia \u003d Ultra, Odbicie MSAA \u003d x4, Jakość wody \u003d Bardzo wysoka, Jakość cząstek \u003d Bardzo wysoka, Jakość trawy \u003d Ultra, Miękki cień \u003d Najbardziej miękki, Post FX \u003d Ultra, Głębia ostrości w grze Efekty \u003d Włączone, Filtrowanie anizotropowe \u003d x16, Okluzja otoczenia \u003d Wysoka, Tesselacja \u003d Bardzo wysoka, Długie cienie \u003d Włączone, Cienie o wysokiej rozdzielczości \u003d Włączone, Przesyłanie strumieniowe szczegółów podczas lotu \u003d Włączone, Zwiększone skalowanie odległości \u003d maksimum, Rozszerzone odległości cieni \u003d maksimum.
  • Wiedźmin 3: Dziki Gon. Rozdzielczość 1920 × 1080, ustawienie wstępne grafiki \u003d Ultra, ustawienie wstępne przetwarzania \u003d wysoka. Rozdzielczość 3840 × 2160, wstępne ustawienie grafiki \u003d Ultra, wstępne ustawienie przetwarzania końcowego \u003d wysoka.
  • Total War: Warhammer II. Rozdzielczość 1920 × 1080: DirectX 12, Jakość \u003d Ultra. Rozdzielczość 3840 × 2160: DirectX 12, Jakość \u003d Ultra.
  • Watch Dogs 2. Rozdzielczość 1920 × 1080: pole widzenia \u003d 70 °, gęstość pikseli \u003d 1,00, jakość grafiki \u003d ultra, dodatkowe szczegóły \u003d 100%. Rozdzielczość 3840 × 2160: pole widzenia \u003d 70 °, gęstość pikseli \u003d 1,00, jakość grafiki \u003d ultra, dodatkowe szczegóły \u003d 100%.

We wszystkich testach gry jako wyniki podaje się średnią liczbę klatek na sekundę, a także 0,01-kwantyl (pierwszy percentyl) dla wartości fps. Zastosowanie kwantyla 0,01 zamiast minimalnej liczby klatek na sekundę wynika z chęci wyczyszczenia wyników z przypadkowych skoków wydajności, które zostały sprowokowane z przyczyn niezwiązanych bezpośrednio z działaniem głównych komponentów platformy.

⇡ Wydajność w zintegrowanych testach porównawczych

Kompleksowy test PCMark 8 pokazuje średnią ważoną wydajność systemu podczas pracy w typowych typowych aplikacjach różnego rodzaju. I dobrze ilustruje postępy procesorów Intela na każdym etapie zmiany projektu. Jeśli mówimy o podstawowym scenariuszu Essentials, to naprawdę średni wzrost prędkości dla każdej generacji nie przekracza notorycznie 5 procent. Jednak Core i7-4790K wyróżnia się na tle ogólnym, który dzięki ulepszeniom w mikroarchitekturze i zwiększonym taktowaniu zegara był w stanie zapewnić dobry przełom w wydajności, który wykracza poza średni poziom. Ten przełom jest również widoczny w scenariuszu Wydajność, zgodnie z którym wydajność Core i7-4790K jest porównywalna z wydajnością starszych procesorów w rodzinach Skylake, Kaby Lake i Coffee Lake.

Trzeci scenariusz, Digital Content Creation, łączący zadania twórcze wymagające dużej ilości zasobów, daje zupełnie inny obraz. Tutaj nowy Core i7-8700K ma 80-procentową przewagę nad Core i7-2700K, co można uznać za więcej niż godny wynik siedmioletniej ewolucji mikroarchitektury. Oczywiście znaczną część tej przewagi tłumaczy się wzrostem liczby rdzeni obliczeniowych, ale nawet jeśli porównamy wydajność czterordzeniowego rdzenia i7-2700K i rdzenia i7-7700K, to w tym przypadku wzrost prędkości osiągnie stałą wartość 53 procent.

Test syntetycznych gier 3DMark jeszcze bardziej uwypukla zalety nowych procesorów. Używamy skryptu Time Spy Extreme, który poprawił optymalizacje dla architektur wielordzeniowych, a w nim końcowa ocena Core i7-8700K jest prawie trzy razy wyższa niż Core i7-2700K. Ale podwójną przewagę nad Sandy Bridge wykazuje także przedstawiciel generacji Kaby Lake, która, podobnie jak wszystkie poprzednie wersje, ma cztery rdzenie obliczeniowe.

Co ciekawe, najbardziej udaną poprawę oryginalnej mikroarchitektury, sądząc po wynikach, należy uznać za przejście z Ivy Bridge do Haswell - na tym etapie, według 3D Mark, wydajność wzrosła o 34 procent. Jednak Coffee Lake oczywiście również ma się czym pochwalić, jednak procesory Intela z modelu 2017-2018 mają dokładnie taką samą mikroarchitekturę jak Skylake i wyróżniają się wyłącznie szerokim wzmocnieniem - wzrostem liczby rdzeni.

⇡ Wydajność w wymagających aplikacjach

Ogólnie rzecz biorąc, wydajność aplikacji w ciągu ostatnich siedmiu lat ewolucji procesorów Intel znacznie wzrosła. Nie chodzi tu wcale o około pięć procent rocznie, o których zwykle żartuje się w szeregach hejterów intelektualnych. Dzisiejszy Core i7 jest ponad dwukrotnie większy niż jego poprzednicy z 2011 roku. Oczywiście przejście na sześciordzeniowy odegrało tutaj istotną rolę, ale znaczący wkład wniósł także ulepszenia mikroarchitektoniczne i wzrost częstotliwości taktowania. Najbardziej produktywnym projektem pod tym względem był Haswell. Częstotliwość znacznie się w nim zwiększyła i pojawiła się obsługa instrukcji AVX2, która stopniowo stawała się silniejsza w aplikacjach do pracy z treściami multimedialnymi i renderowania zadań.

Warto zauważyć, że w niektórych przypadkach modernizacja procesorów w systemach, które rozwiązują profesjonalne problemy, może dać naprawdę przełomową poprawę prędkości. W szczególności trzykrotny wzrost prędkości podczas przejścia z Sandy Bridge do Coffee Lake można uzyskać przez transkodowanie wideo za pomocą nowoczesnych koderów, a także podczas końcowego renderowania za pomocą V-Ray. Dobry wzrost odnotowano w przypadku nieliniowej edycji wideo w programie Adobe Premiere Pro. Jednak nawet jeśli Twoja działalność nie jest bezpośrednio związana z rozwiązywaniem takich problemów, w żadnej z testowanych aplikacji wzrost wyniósł co najmniej 50 procent.

Wykonanie:

Przetwarzanie zdjęć:

Przetwarzanie wideo:

Transkodowanie wideo:

Kompilacja:

Archiwizacja:

Szyfrowanie:

Szachy:

Przeglądanie Internetu:

Aby lepiej zobrazować, jak zmieniła się moc procesorów Intela podczas zmiany ostatnich siedmiu generacji mikroarchitektury, przygotowaliśmy specjalną tabelę. Pokazuje wartości procentowe średniego wzrostu wydajności w wymagających aplikacjach, uzyskane przez zamianę jednego z flagowych procesorów z serii Core i7 na inny.

Łatwo zauważyć, że Coffee Lake była najważniejszą aktualizacją w konstrukcji masowych procesorów Intel. 1,5-krotny wzrost liczby rdzeni nadaje wydajności znaczący impet, dzięki czemu przy przejściu na Core i7-8700K, nawet z procesorami ostatnich generacji, można uzyskać bardzo zauważalne przyspieszenie. Porównywalny wzrost wydajności od 2011 roku, Intel zdarzył się tylko raz - wraz z wprowadzeniem projektu procesora Haswell (w ulepszonej formie Devil's Canyon). Było to spowodowane poważnymi zmianami w mikroarchitekturze, które zostały przeprowadzone jednocześnie z zauważalnym wzrostem częstotliwości taktowania.

⇡ Wydajność w grach

Fakt, że wydajność procesorów Intel stale rośnie, jest wyraźnie widoczny dla użytkowników aplikacji wymagających dużej ilości zasobów. Jednak wśród graczy jest inna opinia. Mimo to gry, nawet te najnowocześniejsze, nie używają zestawów instrukcji wektorowych, są słabo zoptymalizowane pod kątem wielowątkowości i generalnie skalują swoją wydajność w znacznie bardziej powściągliwym tempie, ponieważ oprócz zasobów obliczeniowych potrzebują również grafiki. Czy zatem sensowne jest uaktualnienie procesorów do tych, którzy używają komputerów głównie do gier?

Spróbujmy odpowiedzieć na to pytanie. Na początek przedstawiamy wyniki testów w rozdzielczości FullHD, gdzie zależność procesora jest bardziej wyraźna, ponieważ karta graficzna nie stanowi poważnego ograniczenia dla wskaźnika fps i pozwala procesorom wykazać, co potrafią wyraźniej.

Sytuacja w różnych grach jest podobna, więc spójrzmy na uśrednione względne wskaźniki wydajności gier w FullHD. Są one przedstawione w poniższej tabeli, która pokazuje zysk uzyskany przez zmianę jednego flagowego procesora z serii Core i7 na inny.

Rzeczywiście, wydajność gier dzięki wydaniu nowej generacji procesorów skaluje się znacznie słabiej niż w aplikacjach. Jeśli można powiedzieć, że w ciągu ostatnich siedmiu lat procesory Intela przyspieszyły o około połowę, to pod względem aplikacji do gier Core i7-8700K jest tylko o 36 procent szybszy niż Sandy Bridge. A jeśli porównasz najnowszy Core i7 z niektórymi Haswellem, to przewaga Core i7-8700K wyniesie tylko 11 procent, pomimo 1,5-krotnego wzrostu liczby rdzeni przetwarzających. Wygląda na to, że gracze, którzy nie chcą aktualizować swoich systemów LGA1155, pod pewnymi względami mają rację. Taki wzrost jako kreatywni pracownicy - twórcy treści, nawet się nie zbliżą.

Różnica w wynikach jest bardzo słaba, ogólna sytuacja przedstawia się następująco.

Okazuje się, że odtwarzacze 4K - właściciele Core i7-4790K i późniejszych procesorów - nie mają się już czym martwić. Dopóki na rynku nie pojawi się nowa generacja akceleratorów graficznych, takie procesory do gier nie będą stanowić wąskiego gardła podczas grania w ultra-wysokich rozdzielczościach przy obciążeniu gier, a wydajność całkowicie zależy od karty graficznej. Ulepszenie procesora może mieć sens tylko w przypadku systemów wyposażonych w retro-procesory Sandy Bridge lub Ivy Bridge, ale nawet w tym przypadku wzrost liczby klatek na sekundę nie przekroczy 6-9 procent.

⇡ Pobór mocy

Interesujące byłoby uzupełnienie testów wydajności o wyniki pomiarów zużycia energii. W ciągu ostatnich siedmiu lat Intel dwukrotnie zmienił standardy technologiczne i sześciokrotnie zadeklarował zakres pakietu termicznego. Ponadto procesory Haswell i Broadwell, w przeciwieństwie do innych, zastosowały zasadniczo inny schemat zasilania i zostały wyposażone w zintegrowany przetwornik napięcia. Wszystko to oczywiście w jakiś sposób wpłynęło na rzeczywistą konsumpcję.

Cyfrowy zasilacz Corsair RM850i, którego używamy w systemie testowym, pozwala nam kontrolować zużywaną i dostarczaną energię elektryczną, którą wykorzystujemy do pomiarów. Poniższy wykres pokazuje całkowite zużycie systemów (bez monitora), zmierzone „po” zasilaczu i reprezentuje sumę zużycia energii wszystkich komponentów zaangażowanych w system. Sprawność samego zasilacza nie jest brana pod uwagę w tym przypadku.

W stanie bezczynności sytuacja uległa zasadniczej zmianie wraz z wprowadzeniem projektu Broadwell, kiedy Intel przeszedł na technologię 14 nm i wprowadził głębsze tryby oszczędzania energii.

Podczas renderowania okazuje się, że wzrost liczby rdzeni przetwarzających w Coffee Lake znacząco wpłynął na jego zużycie energii. Ten procesor stał się znacznie bardziej żarłoczny niż jego poprzednicy. Najbardziej ekonomicznymi przedstawicielami serii Core i7 byli przewoźnicy mikroarchitektur Broadwell i Ivy Bridge, co jest w pełni zgodne z cechami TDP deklarowanymi przez Intel.

Co ciekawe, przy najwyższych obciążeniach zużycie Core i7-8700K jest podobne do zużycia procesora Devil's Canyon i nie wydaje się już tak oburzające. Ale ogólnie apetyty energetyczne procesorów Core i7 różnych generacji różnią się bardzo zauważalnie, a bardziej nowoczesne modele procesorów nie zawsze stają się bardziej ekonomiczne niż ich poprzednicy. Duży krok w kierunku poprawy charakterystyki zużycia i rozpraszania ciepła dokonano w generacji Ivy Bridge, a ponadto Kaby Lake jest pod tym względem dobry. Wydaje się jednak, że poprawa wydajności energetycznej flagowych procesorów stacjonarnych przestała być ważnym zadaniem Intela.

Dodatek: wydajność przy tej samej częstotliwości zegara

Testy porównawcze generacji masowych procesorów Core i7 różnych generacji mogą być interesujące, jeśli wszyscy uczestnicy zostaną doprowadzeni do jednej częstotliwości zegara. Często wydajność nowszych przedstawicieli jest wyższa ze względu na fakt, że Intel zwiększa ich częstotliwość taktowania. Testy na tej samej częstotliwości umożliwiają wyodrębnienie z wyniku ogólnego rozległego komponentu częstotliwości, który zależy tylko od mikroarchitektury tylko pośrednio, i koncentrują się na kwestiach „intensyfikacji”.

Wydajność mierzona bez względu na częstotliwości taktowania może również zainteresować entuzjastów, którzy operują procesorem poza trybami znamionowymi, na częstotliwościach znacznie różniących się od wartości nominalnych. Kierując się tymi rozważaniami, postanowiliśmy dodać dodatkową dyscyplinę do praktycznego porównania - testy wszystkich procesorów na tej samej częstotliwości 4,5 GHz. Ta wartość częstotliwości została wybrana na podstawie tego, że podkręcenie jej nie jest prawie żadnym procesorem Intela z ostatnich lat wydania. Tylko przedstawiciel generacji Broadwell musiał zostać wykluczony z takiego porównania, ponieważ potencjał przetaktowywania Core i7-5775C jest bardzo ograniczony i nigdy nie możesz marzyć o przyjęciu częstotliwości 4,5 GHz. Pozostałe sześć procesorów przeszło kolejny cykl testowy.

Nawet jeśli odrzucisz fakt, że częstotliwości procesorów Intel są co najmniej powoli, ale wciąż rosną, Core i7 z każdą nową generacją jest lepszy tylko ze względu na zmiany strukturalne i optymalizacje w mikroarchitekturze. Sądząc po szybkości aplikacji do tworzenia i przetwarzania treści cyfrowych, możemy stwierdzić, że średni wzrost konkretnej wydajności na każdym etapie wynosi około 15 procent.

Jednak w grach, w których optymalizacja kodu programu do nowoczesnej mikroarchitektury następuje z dużym opóźnieniem, sytuacja ze zwiększoną wydajnością jest nieco inna:

Z gier wyraźnie widać, jak rozwój mikroarchitektur Intela zatrzymał się w generacji Skylake, a nawet wzrost liczby rdzeni obliczeniowych w Coffee Lake niewiele poprawia wydajność gier.

Oczywiście brak wzrostu konkretnej wydajności gier nie oznacza, że \u200b\u200bnowszy Core i7 nie jest interesujący dla graczy. Na koniec nie zapominaj, że powyższe wyniki odnoszą się do częstotliwości klatek dla procesorów pracujących z tą samą prędkością zegara, a nowsze procesory mają nie tylko wyższe częstotliwości nominalne, ale także przyspieszają znacznie lepiej niż stare. Oznacza to, że gracze podkręcający mogą być zainteresowani przejściem do Coffee Lake nie ze względu na mikroarchitekcję, która pozostała niezmieniona od Skylake, a nie z powodu sześciu rdzeni, które zapewniają minimalny wzrost prędkości w grach, ale z innego powodu - dzięki możliwościom przetaktowywania. W szczególności zajęcie linii 5-GHz dla Coffee Lake jest wykonalnym zadaniem, czego nie można powiedzieć o swoich poprzednikach.

Lusion Wniosek

Zdarzyło się tak, że Intel zdecydował się zbuntować za strategię zmierzonego i niespiesznego wdrożenia ulepszeń w architekturze Core Core, która została wybrana w ostatnich latach, co daje niezbyt znaczący wzrost prędkości przy przechodzeniu na każdą kolejną generację procesorów. Jednak szczegółowe testy pokazują, że ogólna wydajność nie rośnie w tak powolnym tempie. Są tylko dwie rzeczy do rozważenia. Po pierwsze, wiele ulepszeń dodanych do nowych procesorów nie ujawnia się od razu, ale dopiero po pewnym czasie, gdy oprogramowanie uzyskuje odpowiednie optymalizacje. Po drugie, choć niewielka, ale systematyczna poprawa wydajności, która pojawia się co roku, w sumie daje bardzo znaczący efekt, jeśli weźmiemy pod uwagę sytuację w kontekście dłuższych okresów.

Na poparcie tego wystarczy przytoczyć jeden bardzo odkrywczy fakt: najnowszy Core i7-8700K jest ponad dwa razy szybszy niż jego poprzednik z 2011 roku. I nawet jeśli porównamy nowy produkt z procesorem Core i7-4790K, który został wydany w 2014 roku, okazuje się, że w ciągu czterech lat wydajność wzrosła co najmniej półtora razy.

Należy jednak zrozumieć, że powyższe wskaźniki wzrostu dotyczą aplikacji wymagających dużej ilości zasobów do tworzenia i przetwarzania treści cyfrowych. I tu właśnie przechodzi przełom: profesjonalni użytkownicy, którzy używają swoich systemów do pracy, otrzymują znacznie wyższe dywidendy z udoskonalania procesorów niż ci, których komputery służą wyłącznie rozrywce. Podczas gdy dla twórców treści częste uaktualnianie platform i procesorów jest czymś więcej niż znaczącym krokiem, który pozwala zwiększyć produktywność, rozmowa o graczach okazuje się zupełnie inna.

Aplikacje do gier to bardzo konserwatywna branża, która bardzo wolno reaguje na wszelkie zmiany w architekturze procesorów. Ponadto wydajność gier zależy bardziej od wydajności kart graficznych niż procesorów. Okazuje się zatem, że użytkownicy systemów do gier postrzegają rozwój procesorów Intel w ostatnich latach w zupełnie inny sposób. Tam, gdzie „profesjonaliści” zgłaszają dwukrotny wzrost wydajności, gracze uzyskują co najwyżej tylko 35 procent wzrostu liczby klatek na sekundę. A to oznacza, że \u200b\u200bw pogoni za nowymi generacjami procesorów Intela nie ma dla nich praktycznie żadnego sensu. Nawet starsze procesory z serii Sandy Bridge i Ivy Bridge mają wystarczającą moc, aby uwolnić potencjał karty graficznej GeForce GTX 1080 Ti.

Tym samym gracze w nowe procesory mogą przyciągać nie tyle wzrost wydajności, co nowe funkcje. Mogą to być dodatkowe funkcje pojawiające się na najnowszych platformach, takie jak obsługa szybkich dysków. Lub najlepszy potencjał przetaktowywania, którego granice, pomimo problemów Intela z rozwojem nowych procesów technologicznych, stopniowo jednak przesuwają się na bardziej odległe granice. Aby jednak gracze otrzymali wyraźny i zrozumiały sygnał do modernizacji, przede wszystkim powinien nastąpić zauważalny wzrost wydajności układów GPU do gier. Do tego czasu nawet właściciele procesorów Intel siedem lat temu nadal będą czuć się całkowicie pozbawieni wydajności procesora.

Niemniej jednak procesory generacji Coffee Lake są w stanie zmienić tę sytuację. Wzrost liczby rdzeni obliczeniowych, które miały w nich miejsce (do sześciu, a nawet do ośmiu w przyszłości) niesie silny ładunek emocjonalny. Z tego powodu Core i7-8700K wydaje się być bardzo udaną aktualizacją dla prawie każdego użytkownika komputera, ponieważ wiele osób uważa, że \u200b\u200bsześć rdzeni, ze względu na potencjał w nich przewidziany, może pozostać odpowiednią opcją na dłuższy okres. Czy to naprawdę tak, trudno powiedzieć teraz. Podsumowując wszystkie powyższe, możemy potwierdzić, że aktualizacja systemu z przejściem do Coffee Lake w każdym przypadku ma znacznie większy sens niż opcje aktualizacji oferowane przez giganta mikroprocesorowego.

DZWONEK

Są tacy, którzy czytają te wiadomości przed tobą.
Subskrybuj, aby otrzymywać świeże artykuły.
E-mail
Imię
Nazwisko
Jak chcesz przeczytać Dzwon
Bez spamu