LA CLOCHE

Il y a ceux qui lisent cette actualité avant vous.
Abonnez-vous pour recevoir les derniers articles.
Email
Nom
Nom de famille
Comment voulez-vous lire The Bell
Pas de spam

NVIDIA GeForce GTX 480 - L'Empire contre-attaque!

Fin des rumeurs et des spéculations! Les dernières cartes graphiques NVIDIA basées sur l'architecture Fermi ont finalement été officiellement annoncées. Il est temps de découvrir ce qu'ils sont et quelles qualités de combat ils montreront dans la lutte pour la couronne de l'accélérateur graphique 3D le plus puissant

⇣ Contenu

On pense que tous les événements autour de nous se développent de manière cyclique et se répètent nécessairement dans le temps avec quelques changements. En regardant l'évolution des événements autour de l'architecture graphique de Fermi et des puces vidéo basées sur celle-ci, on ne peut s'empêcher d'être convaincu de la validité de cette affirmation. Le fait est que les conséquences des problèmes auxquels NVIDIA est maintenant confronté lors du lancement sur le marché de cartes vidéo basées sur GPU Fermi rappellent beaucoup la situation autour de la solution phare d'AMD il y a trois ans - la carte vidéo Radeon HD 2900 XT. Voici comment ça s'est passé. Fin 2006, NVIDIA a lancé la huitième génération de sa famille de cartes vidéo GeForce. Le produit phare de la gamme était le puissant accélérateur NVIDIA GeForce 8800 GTX de l'époque, qui était nettement en avance sur le modèle phare d'AMD de l'époque - Radeon X1900 XTX en termes de performances et de fabricabilité. Pour concurrencer avec succès NVIDIA, AMD devait créer un nouvel accélérateur haut de gamme, mais en raison d'une série de problèmes technologiques, le nouveau produit - Radeon HD 2900 XT, est sorti environ six mois plus tard que la date d'échéance. Une situation similaire s'est produite avec NVIDIA fin 2009. Avec la sortie du premier accélérateur de la famille AMD Radeon HD 5xxx, la Radeon HD 5870, NVIDIA a perdu sa «chemise de leader» parmi les solutions Hi-End monopuce, puis, avec l'expansion de la gamme d'accélérateurs graphiques AMD, elle a commencé à perdre du terrain dans presque tous les segments du marché des ordinateurs de bureau. graphique. Et maintenant, six mois plus tard, NVIDIA a enfin pu organiser la sortie d'un nombre suffisant de puces graphiques de la nouvelle architecture. Aujourd'hui, 26 mars 2010, les derniers accélérateurs graphiques NVIDIA GeForce GTX 470 et GeForce GTX 480 ont été annoncés. La plus ancienne de ces cartes vidéo est devenue l'objet de notre attention particulière. Il n'y a pas si longtemps, nous avons déjà publié du matériel consacré aux caractéristiques de l'architecture de Fermi, donc maintenant nous ne répéterons pas ce qui a déjà été dit, mais parlerons seulement de ce qui a changé depuis ces temps. Contrairement aux attentes, l'accélérateur senior de la famille - NVIDIA GeForce GTX 480, n'a pas reçu 512 cœurs CUDA, comme annoncé précédemment, mais seulement 480. De plus, les changements ont affecté les unités de texture, leur nombre est de 60, au lieu des 64 précédemment annoncés. Mais les 48 blocs Le ROP et le bus mémoire 384 bits promis restent en place. Pour une connaissance détaillée des caractéristiques des nouveaux accélérateurs NVIDIA GeForce GTX 470 et GTX 480, reportez-vous au tableau:

GeForce GTX 285 GeForce GTX 470 GeForce GTX 480
Processus technique GPU, nm 55 40 40
Clusters de traitement graphique, pcs. 4 4
# De multiprocesseurs en streaming 14 15
# De cœurs CUDA 240 448 480
Nombre d'unités de texture 80 56 60
Nombre de ROP 32 40 48
Fréquence GPU, MHz 648 607 700
Fréquence centrale CUDA, MHz 1476 1215 1401
Fréquence effective de la mémoire vidéo, MHz 2484 3348 3696
Taille de la mémoire vidéo, Mo 1024 1280 1536
Largeur du bus mémoire, bit 512 320 384
Bande passante de la mémoire vidéo, Go / s 159 133.9 177.4
Prise en charge de DirectX 10 11 11
TDP maximum, W 183 215 250
Bloc d'alimentation recommandé, W 550 550 600
Limite de température du GPU, ° C 105 105 105
Prix \u200b\u200bde vente conseillé au moment de l'annonce, USD 399 349 499

Le tableau montre que la GeForce GTX 480 est nettement supérieure au modèle haut de gamme précédent, la GeForce GTX 285, dans presque toutes ses caractéristiques. Il convient de noter en particulier le double de cœurs CUDA, ce qui aura sans aucun doute un effet positif sur la vitesse d'exécution des shaders complexes. De plus, les nouveaux accélérateurs NVIDIA ont reçu le support tant attendu de DirectX 11. De plus, la GeForce GTX 470/480 prend en charge une technologie appelée NVIDIA Surround, similaire à ATI Eyefinity. NVIDIA Surround permet d'utiliser trois moniteurs simultanément comme un seul espace de travail. Cependant, en implémentant leur version de la technologie pour une immersion totale dans le monde virtuel, les Californiens ont décidé d'aller encore plus loin et ont créé un «mix technologique» de NVIDIA 3D Vision et NVIDIA Surround, qui s'appelle NVIDIA 3D Vision Surround. L'essence de ce «cocktail» est que vous pouvez utiliser trois moniteurs et des lunettes 3D Vision en même temps pour créer le maximum d'effet de présence. Mais nous vous en dirons plus à ce sujet dans nos futurs documents. Eh bien, il est temps d'examiner de plus près le dernier accélérateur, bienvenue - NVIDIA GeForce GTX 480!

⇡ Apparence. Conception. Fonctionnalités:

Bien avant la sortie de la GeForce GTX 480, des photos de cartes vidéo similaires à la GeForce GTX 480 sont apparues sur les pages de diverses ressources Internet, mais ce n'est qu'avant l'annonce même que nous avons pu voir de vraies photos du nouveau produit phare de NVIDIA. Donc, devant vous se trouve un échantillon de référence de NVIDIA GeForce GTX 480. Le boîtier en plastique est fait dans le style déjà familier, cependant, contrairement aux solutions de la génération précédente, dans la GTX 480, il ne couvre qu'environ la moitié de la surface avant de la carte vidéo, et le second est occupé par un radiateur métallique avec le logo GeForce. Quatre caloducs dépassent du haut du boîtier en plastique (il y en a cinq au total), et plus près du panneau de bornes, il y a des fentes de ventilation pour éliminer une partie de l'air chauffé. La longueur de la GeForce GTX 480 est de 27 cm, tandis que la longueur de la Radeon HD 5870 est d'environ 2 cm plus longue en raison du système de refroidissement qui dépasse du circuit imprimé. La carte graphique GeForce GTX 480 nécessite deux connecteurs d'alimentation PCI-Express pour fonctionner. L'un est à 6 broches, l'autre à 8 broches. Le panneau de bornes GeForce GTX 480 contient deux connecteurs DVI et un port HDMI. Il existe également des ouvertures de ventilation pour évacuer l'air chaud à l'extérieur de l'unité centrale. Nous démontons le système de refroidissement. Le refroidisseur GeForce GTX 480 est fixé au PCB avec 13 vis. Le contact du radiateur avec les éléments du sous-système d'alimentation de la carte, ainsi qu'avec les puces de mémoire vidéo, est réalisé à travers des plots thermiques spéciaux. La puce graphique entre en contact avec le dissipateur thermique à travers une fine couche de pâte thermique. La plaque métallique avec laquelle les puces de mémoire et les éléments du système d'alimentation sont en contact est fixée au boîtier du système de refroidissement de la GeForce GTX 480 à l'aide de clips en plastique. Une turbine est située dans la partie «arrière» de la plaque, qui injecte un flux d'air qui passe à travers les ailettes du radiateur et est évacué à l'extérieur de l'unité centrale. L'élément le plus chaud de la GeForce GTX 480 est le GPU. Pour le refroidir, un radiateur à cinq caloducs, réalisé à l'aide de la technologie de contact direct, est utilisé. Les cinq tubes, à travers une fine couche de pâte thermique, entrent en contact avec le couvercle métallique qui protège le noyau graphique. Le système d'alimentation GPU utilise six phases et est basé sur le contrôleur CHL8266 PWM. Malheureusement, nous n'avons pas pu trouver la documentation pertinente sur le site Web du fabricant. Contrairement aux cellules de puissance produites par Volterra, qui sont assemblées dans un cas, les cellules de puissance du sous-système de puissance GeForce GTX 480 sont réalisées selon un circuit discret. Il y a trois transistors pour chaque phase de l'alimentation (un dans le bras supérieur et deux dans le bras inférieur). Cette approche permet une meilleure évacuation de la chaleur des éléments du sous-système de puissance. Le système d'alimentation de la mémoire vidéo est biphasé. Marquage PWM du contrôleur de mémoire uP6210AG.

Nous enlevons la couche de pâte thermique, et la voici - le GPU NVIDIA GF100, recouvert d'un couvercle métallique de protection, qui agit également comme un dissipateur de chaleur. A en juger par le marquage de la puce (GF100-375-A3), la production en série d'accélérateurs haut de gamme n'a commencé qu'avec la sortie de la troisième révision du GPU basée sur l'architecture Fermi.

AMD installe la mémoire vidéo GDDR-5 sur ses cartes graphiques depuis longtemps, tandis que la plupart des solutions NVIDIA fonctionnent avec la mémoire GDDR-3. Les nouveaux accélérateurs GeForce GTX 470/480 sont enfin également équipés d'une mémoire de pointe. Notre GeForce GTX 480 dispose d'une mémoire vidéo Samsung étiquetée K4G10325FE-HC04. Son temps d'accès est de 0,4 ns et sa fréquence effective nominale est de 5 GHz QDR. Eh bien, l'examen externe de la GeForce GTX 480 est terminé, il est temps de passer aux tests pratiques du nouveau produit.

Banc d'essai

Toutes les cartes vidéo de cette revue ont été testées sur le stand avec la configuration suivante:

CPU Intel Core i7 870 à 4,0 GHz (182 x 22)
Système de refroidissement du processeur Glacialtech F101 + ventilateurs 2x120mm
Carte mère ASUS Maximus III Extreme
RAM Super Talent DDR3 @ 1890
Disque dur Samsung SpinPoint 750 GB
Source de courant IKONIK Vulcan 1200 W
Logement Base pour le banc d'essai Cooler Master 1.0
système opérateur Microsoft Windows 7 x64 Ultimate
Versions des pilotes: Pour les cartes vidéo NVIDIA, les pilotes ForceWare 197.17 ont été utilisés
Pour les cartes graphiques AMD, les pilotes de prévisualisation Catalyst 10.3a ont été utilisés

Les cartes vidéo suivantes ont participé aux tests:

  • AMD Radeon HD 4890
  • AMD Radeon HD 5870
  • AMD Radeon HD 5970
  • NVIDIA GeForce GTX 260
  • NVIDIA GeForce GTX 285
  • NVIDIA GeForce GTX 295
  • NVIDIA GeForce GTX 480
Bien sûr, l'objectif principal de cette revue est de se familiariser avec le nouvel accélérateur graphique NVIDIA et d'évaluer ses qualités grand public. En outre, nous tenterons également de découvrir la faisabilité du passage à de nouvelles cartes vidéo pour les propriétaires de solutions de génération précédente. C'est pourquoi, dans notre examen, en plus du concurrent direct de la GeForce GTX 480 - la carte vidéo AMD Radeon HD 5870, le test comprend également les best-sellers des dernières années - Radeon HD 4890, GeForce GTX 260 et, bien sûr, les accélérateurs NVIDIA haut de gamme de la génération précédente.

Quelques mots sur l'overclocking

Dans nos matériaux pour l'objet de test principal, nous citons généralement à la fois les résultats obtenus aux fréquences nominales et mesurons les performances après overclocking. Malheureusement, cette fois, il n'y aura pas de tests avec des fréquences plus élevées que la fréquence nominale, car aucun des utilitaires existants ne peut overclocker la GeForce GTX 480. Ni NVIDIA System Tools ni MSI Afterburner ne peuvent augmenter les fréquences de cette carte vidéo plus haut que la valeur nominale. De plus, les versions publiques existantes des utilitaires de diagnostic et d'overclocking sont confuses dans leurs lectures:

Et seule la nouvelle version de GPU-Z, qui au moment de la rédaction de cet article n'était pas disponible en téléchargement public, a pu déterminer correctement toutes les caractéristiques du nouvel accélérateur GeForce GTX 480.

La capture d'écran de l'utilitaire GPU-Z a été prise sur un système avec deux cartes vidéo GeForce GTX 480 en mode SLI, fonctionnant à des fréquences nominales.

⇡ Applications de test et modes de test

La température du processeur graphique NVIDIA GeForce GTX 480 et la consommation électrique totale du système de test ont été mesurées dans trois modes:

Les tests de jeu ont été effectués avec les paramètres suivants:

Résolution Options de réglage de la qualité d'image
3DMark Vantage Performance, haute, extrême
STALKER: Appel de Pripyat. Scène de puits de soleil 1680 x 1 050, 1 920 x 1 200 DX10 / 10.1, max. Détail, 4xAA / 16xAF, Real Shadows, DX 11, Max. Détail, pas de tessellation, 4xAA / 16xAF, ombres réelles
Colin MCRae DiRT 2 1680 x 1 050, 1 920 x 1 200 DX 9 Ultra Detail, 4xAA / 16xAF; DX 11 Ultra Détail, 4xAA / 16xAF
Unigine Heaven v 1.0 1680 x 1 050, 1 920 x 1 200 DX10, détail élevé, 4xAA / 16xAF; DX11, détail élevé, tessellation désactivé, 4xAA / 16xAF
Benchmark FarCry2 DirectX 10 1680 x 1 050, 1 920 x 1 200 DX10, préréglage très élevé, 4xAA / 16xAF
Resident Evil 5 DirectX 10 Benchmark 1680 x 1 050, 1 920 x 1 200 DX10, détail élevé, 4xAA / 16xAF
Crysis v 1.2 x64 1680 x 1 050, 1 920 x 1 200 DX10, très élevé, 4xAA / 16xAF
La technologie PhysX a été désactivée dans les pilotes de la carte vidéo NVIDIA Cette revue NVIDIA GeForce GTX 480 est la première, mais loin d'être la dernière, à tester les capacités du nouveau produit phare de NVIDIA. Cette fois, lors du choix des modes de test, nous nous sommes arrêtés à vérifier les performances du nouveau produit dans les modes «classiques». La comparaison des performances avec l'activation de la tessellation, l'évaluation de la vitesse et de la qualité d'algorithmes d'anti-aliasing plus complexes, ainsi que l'étude des performances de l'ensemble SLI de nouveaux produits phares sont des sujets pour de futures révisions. Passons donc aux chiffres.

⇡ Test

Modes de température

Tout d'abord, voyons comment les choses se passent avec la température du GPU NVIDIA GF100 dans différents modes de fonctionnement, et comparons ces indicateurs avec les résultats du reste des participants au test. Toutes les cartes vidéo de test ont été refroidies avec des CO de référence. La seule exception était la NVIDIA GeForce GTX 260, représentée par la carte vidéo ASUS ENGTX260 Matrix.

Malgré le fait que lorsque l'on travaille avec des applications bureautiques, la fréquence du processeur graphique et de la mémoire vidéo de la GeForce GTX 480 est considérablement réduite, la température du GF100 est assez élevée, supérieure à celle de la Radeon HD 4890. Dans le même temps, le bruit de la turbine GeForce GTX 480 n'est pas audible même sur un support ouvert.

La température du GPU GeForce GTX 480 dans FarCry2 est «impressionnante». Pour la première fois dans notre laboratoire, un GPU overclocké d'une carte vidéo monopuce se réchauffe tellement dans un jeu. Dans ce mode, la vitesse de la turbine augmente, et son bruit se distingue déjà clairement par rapport au fond des autres composants.

La charge maximale sur l'accélérateur GeForce GTX 480 augmente la température du GPU encore plus haut - jusqu'à 97 degrés Celsius! Je dois dire que dès que cette température est atteinte, la turbine commence à fonctionner à vitesse maximale, du coup, le processeur graphique se refroidit assez rapidement. Dans notre cas, la température a chuté à 91 degrés et n'a pas augmenté pendant tout le test, tandis que la vitesse de la turbine n'a pas diminué. Je dois dire que le résultat que nous avons reçu a été quelque peu découragé, car le nouveau produit phare à puce unique NVIDIA a même contourné la carte vidéo GeForce GTX 295 dans le chauffage du GPU - le modèle haut de gamme à deux puces de NVIDIA de la génération précédente. Oui, selon les documents fournis par NVIDIA lui-même, les températures du GPU GeForce GTX 480 sont acceptables jusqu'à 105 degrés Celsius. Cependant, à l'intérieur de l'unité centrale, en plus de la carte vidéo, il y a d'autres composants système, qui nécessitent également de maintenir des températures sûres à l'intérieur de l'ordinateur. Nous recommandons vivement aux futurs propriétaires de GeForce GTX 480 de prendre au sérieux l'organisation d'une ventilation de haute qualité à l'intérieur du boîtier. Comme on dit, il n'y a pas de fumée sans feu. Voyons combien d'énergie le banc de test consomme avec différentes cartes vidéo NVIDIA et AMD.

Sans charge, un système avec un accélérateur GeForce GTX 480 installé consomme à peu près la même puissance que le même système avec une carte graphique NVIDIA GeForce GTX 295. Un concurrent direct du camp AMD s'avère être une solution plus économique. Lorsque la carte graphique AMD Radeon HD 5870 est installée sur le banc de test, le système consomme environ 30 à 35 watts de moins qu'avec une GeForce GTX 480.

Pendant le jeu dans FarCry2 et dans le mode de charge maximale créé à l'aide du benchmark FurMark 1.8.0, le système avec la carte vidéo installée GeForce GTX 480 a contourné tous les autres participants, y compris la GeForce GTX 295. La différence de consommation électrique du système avec la carte vidéo installée AMD Radeon HD 5870 et les systèmes avec NVIDIA GeForce GTX 480 est d'environ 110-130 W, et pas en faveur de l'idée originale des Californiens. Je dois dire que les tests de consommation électrique du système et de chauffage du GPU ne parlent pas en faveur de la GeForce GTX 480. Cependant, les acheteurs de solutions haut de gamme ne regardent pas toujours ces paramètres. Les solutions phares, avant tout, doivent être aussi technologiques que possible et, ce qui est le plus important, productives. Avec le soutien des technologies modernes, NVIDIA GeForce GTX 480 a tout en ordre, mais nous allons maintenant évaluer les performances. Tout d'abord, regardons les indicateurs de performance dans les tests synthétiques:

Le test de la GeForce GTX 480 dans 3DMark Vantage avec le profil Performance montre un gain de performances par rapport à la GeForce GTX 285 de 25%. Dans le même temps, nous avons enregistré le décalage du nouveau produit phare NVIDIA par rapport au principal concurrent en la personne d'AMD Radeon HD 5870, la différence de résultats est d'environ 6%.

À mesure que la charge augmente, la carte vidéo AMD Radeon HD 5870 commence à perdre un peu du terrain. En mode High, l'écart avec la GeForce GTX 480 n'est plus aussi perceptible que dans le mode Performance, et avec le passage au profil Extreme, le nouveau produit phare de NVIDIA prend la tête, dépassant la GeForce GTX 295. Avec tout cela, le produit phare d'AMD à deux puces - Radeon HD 5970, hors compétition. Une autre suite de tests synthétiques qui est devenue populaire presque immédiatement après la sortie est Unigine Heaven v 1.0.

La carte graphique NVIDIA GeForce GTX 480 surpasse sa principale concurrente Radeon HD 5870. La supériorité en points est du côté de NVIDIA aussi bien en 1680x1050 qu'en 1920x1200. L'alignement des forces au sein de la gamme NVIDIA est le suivant: le niveau de performance de l'accélérateur GeForce GTX 480 se situe entre la GeForce GTX 295 et la GeForce GTX 285, en retard sur le «295» et en avance d'environ 20% sur le sommet mono-puce de la génération précédente.

Les tests en DirectX 11 sans activer la tessellation donnent approximativement les mêmes résultats que le test en mode DirectX 10. Dans les deux résolutions, la GeForce GTX 480 gagne en points. L'AMD Radeon HD 5970 est toujours hors compétition. Les tests synthétiques nous permettent de ne présenter qu'un niveau approximatif de performances de la carte vidéo car presque toujours les "synthétiques" fonctionnent sur des moteurs différents de ceux utilisés dans les vrais jeux. C'est pourquoi les résultats de ces tests doivent être fiables avec prudence. Passons aux tests dans de vrais jeux.

En regardant les résultats de la GeForce GTX 480 obtenus dans FarCry 2 DirectX 10 Benchmark, je voudrais m'exclamer "C'est ce que nous attendions!". Le nouveau produit phare NVIDIA s'est considérablement détaché de son principal concurrent AMD Radeon HD 5870 et s'est rapproché des résultats de la Radeon HD 5970. L'écart entre la GeForce GTX 480 et la Radeon HD 5870 en termes de fréquence d'images minimale et moyenne est d'environ 25-30 fps. Comparé au produit phare monopuce de la génération précédente GeForce GTX 285, le nouveau produit de NVIDIA s'est avéré presque deux fois plus rapide! Quant à la confrontation avec la NVIDIA GeForce GTX 295, dans FarCry 2 le «vieil homme» n'était pas bon non plus, la GeForce GTX 480 a pris la tête.

Le tireur âgé, mais non moins avancé technologiquement, Crysis v 1.2 x64 ne révèle pas un leader incontestable dans la bataille entre la GeForce GTX 480 et l'AMD Radeon HD 5870. Ces accélérateurs sont pratiquement au coude à coude. Mais parmi les «frères d'armes», la GeForce GTX 480 prend la tête. Cette différence est particulièrement visible à la résolution la plus élevée. Je dois dire que dans cette bataille, les accélérateurs AMD Radeon HD 4890, GeForce GTX 260 et même GeForce GTX 285 ressemblent à des «parents pauvres», car ils ne peuvent pas montrer des résultats adéquats dans le contexte des solutions Hi-End modernes.

Dans Colin McRae DiRT 2, toutes les solutions NVIDIA affichent d'excellents résultats. Ici, AMD Radeon HD 5970 n'est plus le leader absolu. À 1920x1200, la GeForce GTX 295 était capable de surpasser légèrement l'ancien accélérateur AMD, bien que l'écart soit d'environ 1-2 fps. La confrontation entre GeForce GTX 480 et AMD Radeon HD 5870 s'est soldée par la victoire de GeForce. La différence de performances à 1680x1050 est d'environ 20 ips dans les fréquences d'images moyennes et minimales. Au fur et à mesure que la résolution augmente, l'AMD Radeon HD 5870 réduit sensiblement l'écart, bien que le nouveau produit phare de NVIDIA soit toujours en avance. L'écart entre la GeForce GTX 285 et la GeForce GTX 480 dans DiRT 2 n'est pas aussi grand que dans les jeux testés précédemment. Ici, le produit phare de la dernière génération fait preuve de bonnes performances, suffisantes pour un jeu confortable à toutes les résolutions.

Lors du passage de DirectX 9 à DirectX 11, les résultats de tous les accélérateurs que nous avons testés ont chuté. Néanmoins, même à la résolution maximale, jouer à Colin McRae DiRT 2 est confortable à la fois sur la Radeon HD 5870 et la GeForce GTX 480. Cette dernière, d'ailleurs, est toujours en tête, devançant son principal concurrent Radeon HD 5870 en 1680x1050 et résolution 1920x1200. La Radeon HD 5970 reste la championne dans toutes les résolutions.

Il est temps de démontrer les capacités des accélérateurs modernes dans le jeu S.T.A.L.K.E.R.: Call of Pripyat. Tout d'abord, je voudrais noter le leadership complet et inconditionnel des meilleurs accélérateurs AMD Radeon HD 5870 et AMD Radeon HD 5970. La différence de résultats entre les principaux concurrents AMD Radeon HD 5870 et NVIDIA GeForce GTX 480 est en fait double! Pour être honnête, cela semble très étrange. Une autre bizarrerie de Stalker est l'attitude du moteur de jeu envers les tandems multi-puces. Notez que la GeForce GTX 295 est à la traîne de la GeForce GTX 285 en termes de valeur fps minimum, et la Radeon HD 5970 est en retard sur la Radeon HD 5870 de la même manière.

Si à une résolution de 1680x1050, le S.T.A.L.K.E.R. permis de jouer confortablement sur deux meilleurs accélérateurs AMD, l'augmentation de la résolution à 1920x1200 a réduit la fréquence d'images minimale et moyenne de la Radeon HD 5870 à de telles valeurs auxquelles il devient difficile de jouer. L'accélérateur Radeon HD 5970 est toujours à flot, bien que la fréquence d'images tombe à 24 ips ne soit pas un plaisir. Le protagoniste de notre test est la GeForce GTX 480, qui n'a pas perdu de son rythme lors du passage à une résolution plus élevée, mais au contraire, a augmenté, presque égalant la valeur minimale en fps avec la Radeon HD 5870.

Le passage à DirectX 11 n'a pas eu d'incidence négative sur les performances du testeur. L'accélérateur GeForce GTX 480 fonctionne presque à égalité avec la Radeon HD 5870, légèrement en retard d'une valeur symbolique de 1 fps. Les leaders, comme avant, sont AMD Radeon HD 5970.

Enfin, voyons ce que la GeForce GTX 480 est capable de faire dans Resident Evil 5. Le nouveau produit de NVIDIA surpasse facilement la Radeon HD 5870, se démarquant du concurrent de 15-20 ips selon la résolution. Les indicateurs de performance de la GeForce GTX 480, en général, s'avèrent être encore meilleurs que ceux de la GeForce GTX 295, sans parler de l'ancienne NVIDIA GeForce GTX 285 par rapport aux normes de l'industrie.

⇡ Conclusions

En résumé, je voudrais m'arrêter sur quelques points. Tout d'abord, il convient de noter qu'en termes de technologies prises en charge, la parité dans le segment Hi-End entre les cartes vidéo NVIDIA et AMD a été rétablie. De plus, dans un sens, un petit avantage technologique se trouve désormais du côté «vert», puisque tous les accélérateurs NVIDIA modernes, en plus de DirectX 11, Direct Compute 5, OpenCL et autres, prennent en charge les technologies PhysX et CUDA utilisées dans un certain nombre d'applications, y compris les jeux informatiques ... Cependant, si vous regardez plus largement, NVIDIA doit faire beaucoup de travail, car dans d'autres segments de marché, AMD propose de nombreuses solutions dont la fabrication est supérieure à leurs homologues NVIDIA. Le problème de la consommation d'énergie et de la dissipation thermique restait sans solution pour les accélérateurs NVIDIA Hi-End. Le fleuron de la ligne GeForce, la GeForce GTX 480, non seulement ne peut pas rivaliser en termes d'efficacité énergétique avec la Radeon HD 5870, mais perd même face à la GeForce GTX 295 dans ces indicateurs! Si nous parlons de performances, alors, en général, en basique, si je puis dire, l'accélérateur NVIDIA GeForce GTX 480 est plus rapide que son principal concurrent AMD Radeon HD 5870. Cependant, en regardant l'avantage de vitesse de la GeForce GTX 480 dans certains jeux et modes, je veux pour dire que nous nous attendions à plus de supériorité. Néanmoins, il est trop tôt pour mettre fin à la question de la performance. De nouveaux pilotes apparaîtront bientôt, ce qui augmentera les performances des nouveaux éléments de NVIDIA et des solutions d'AMD. De plus, nous allons tester les accélérateurs haut de gamme des deux sociétés dans des modes graphiques plus lourds. Il n'est guère possible de prévoir les résultats de telles compétitions à l'avance, tout dépendra de la «marge de sécurité» des GPU modernes. C'est dans de telles batailles qu'il sera clair dont l'architecture a une plus grande réserve pour l'avenir.

Nous avons fait une excursion détaillée dans l'architecture et les caractéristiques technologiques du GF100 dans le dernier article, mais ici nous nous concentrerons uniquement sur la vision 3D. Le kit correspondant existe depuis plus d'un an et les lecteurs de notre fil d'actualité sont très probablement conscients de ses principales caractéristiques. Dans ce cas, vous pouvez passer en toute sécurité à la section suivante. Cependant, il n'y avait pas de matériel sur cette technologie sur notre site, et l'annonce de nouvelles cartes vidéo NVIDIA est une excellente raison pour vous en dire plus. Dans le même temps, dans la section correspondante, nous verrons comment les performances en mode stéréoscopique ont changé lors de l'utilisation de Fermi.

Les yeux humains voient les objets sous différents angles. C'est la combinaison de deux images différentes qui se forment dans le cerveau qui crée la sensation de volume. Bien sûr, si vous regardez d'un seul œil, ce "volume" ne disparaît le plus souvent nulle part, car généralement, non seulement la vision stéréoscopique nous donne des données sur la distance de tel ou tel objet. Cependant, dans un environnement inconnu, il peut s'agir de la seule source d'informations sur la profondeur.

À l'aide de quelques astuces, vous pouvez faire en sorte qu'une personne voie le volume là où il n'y en a pas. Pour ce faire, vous devez montrer à chaque œil l'image qui lui est destinée. Le même sujet, mais sous des angles différents, comme dans la vie. Le moyen le plus évident de le faire est de placer un petit écran devant les deux yeux. C'est exactement ce qui se fait dans divers "casques de réalité virtuelle". Malgré les avantages évidents, ils présentent également des inconvénients. Ces casques sont chers et pas très confortables à utiliser. Il est beaucoup plus habitué à une personne de regarder un écran ou un moniteur de loin. Cependant, ici aussi, il est nécessaire de forcer les yeux à voir diverses images.

Il existe une méthode qui ne nécessite aucun périphérique supplémentaire, à l'exception d'une image spécialement préparée (paire stéréo). Si, en les regardant, vous essayez de faire la mise au point sur un sujet plus proche / éloigné, l'image sur le moniteur doublera. Avec une certaine habileté, vous pouvez «combiner» deux images différentes à un moment donné, puis l'image prendra soudainement du volume. Bien sûr, il est difficile de croiser les yeux pendant longtemps. Depuis le milieu du 19e siècle, il existe des appareils spéciaux, des stéréoscopes, qui vous permettent de voir une image en trois dimensions dans une paire stéréoscopique sans de telles astuces.

La méthode la plus simple à implémenter est la méthode anaglyphe. Les images destinées à différents yeux sont situées sur un plan légèrement décalé les unes par rapport aux autres. De plus, ils sont réalisés dans des couleurs contrastées (rouge et vert par exemple). Si ces images sont vues à travers des lunettes avec des lunettes des couleurs correspondantes, chaque œil ne verra pas la couleur contrastée. Cependant, cette méthode est également très fastidieuse pour les yeux et ne permet pas au moins de reproduire adéquatement les couleurs d'origine de l'image.

Récemment, des méthodes autostéréoscopiques ont commencé à être activement introduites, qui ne nécessitent pas de lunettes pour visualiser une image en trois dimensions. Ils assurent la séparation de l'image en masquant physiquement / optiquement des zones spécifiques pour chaque œil. Cette technologie est très sensible à l'angle sous lequel l'image est vue. Par conséquent, le principal domaine d'utilisation des écrans autostéréoscopiques pour le moment est celui des panneaux publicitaires. Dans un proche avenir, il pourrait se généraliser sur les appareils mobiles.

Les systèmes de polarisation les plus courants le sont maintenant. Ils sont utilisés dans les cinémas RealD, SuperD et IMAX 3D. Les images destinées à chaque œil sont formées en utilisant une lumière polarisée différemment (une polarisation linéaire et circulaire est utilisée). Eh bien, les filtres installés dans les lunettes ne laissent que la lumière polarisée d'une certaine manière. L'équipement pour les systèmes de polarisation est assez cher, mais les lunettes coûtent un sou, ce qui explique la grande popularité de ces systèmes dans les cinémas. Les systèmes de polarisation sont également utilisés à la maison, mais les options à la maison présentent des inconvénients importants. En règle générale, des moniteurs polarisés entrelacés sont utilisés pour former l'image, de sorte que la résolution physique du moniteur est divisée par deux. De plus, des artefacts visuels désagréables apparaissent en mode 2D.

Il existe également une technologie d'obturation. Cette méthode simple et logique a été inventée dans le siècle d'avant dernier, quand il n'y avait pas de moyens adéquats de la mettre en œuvre. L'idée est d'afficher des images pour différents yeux sur l'écran en alternance, bloquant simultanément la vue de l'autre œil. Lorsqu'il est fourni avec la fréquence d'images appropriée, cela produit l'effet stéréo souhaité.

Cependant, jusqu'à l'avènement des écrans à cristaux liquides, l'utilisation de la technologie d'obturation était très difficile. Ensuite, il est devenu possible d'installer ces écrans dans des verres et de les atténuer à la fréquence souhaitée. Mais avec l'introduction des lunettes à obturateur, il y a eu un léger retard. Le fait est qu'après l'apparition des premiers échantillons disponibles dans le commerce, les moniteurs CRT ont très vite commencé à être remplacés par des moniteurs à cristaux liquides, qui à l'époque ne pouvaient pas mettre à jour l'image à une fréquence de 120 Hz. Au fil du temps, ce problème a été résolu. Les écrans 120 Hz sont tout aussi bons pour visualiser des images 2D et offrent même généralement de meilleurs temps de réponse que les modèles traditionnels. Peut-être qu'à l'avenir, ils remplaceront les moniteurs conventionnels sur le marché, puis il suffira d'acheter des lunettes à obturateur pour visualiser des images stéréoscopiques.

Depuis longtemps, NVIDIA est le leader sur le marché des accélérateurs graphiques, toujours à la pointe de l'innovation et de l'adoption de la technologie. Mais le sort de la nouvelle génération de cartes vidéo s'est avéré moins rose, car les adaptateurs vidéo de la famille Radeon avec prise en charge du nouveau DirectX 11 sont disponibles sur le marché depuis six mois et les modèles GeForce correspondants viennent de faire leur apparition. Et le point ici n'est pas seulement que la société californienne a perdu face à AMD dans la course à la maîtrise d'un nouveau processus de production 40 nm, mais aussi dans la barre haute que les ingénieurs de NVIDIA se sont initialement fixés, qui ont commencé à développer une architecture Fermi qualitativement nouvelle, optimisée pour la future 3D. applications. Et combien ils ont réussi, nous pouvons déjà évaluer dans la pratique.

Architecture du GF100

Si les dernières solutions d'AMD basées sur Cypress sont le développement de la génération précédente de cartes vidéo, alors NVIDIA a abordé le processus de création d'une nouvelle architecture plus radicalement, sur la base des exigences de la dernière API et de ses capacités. Le nouveau GPU a été nommé GF100. L'abréviation GF indique que la puce graphique est basée sur l'architecture Fermi.


Semblable à ses prédécesseurs basés sur le G80 et le GT200, le nouveau GPU est basé sur plusieurs clusters GPC (Graphics Processing Cluster), constitués d'un groupe de multiprocesseurs de streaming. Une puce à part entière comprend quatre clusters de quatre multiprocesseurs, chacun d'entre eux contenant à son tour 32 cœurs CUDA. En conséquence, nous avons 512 unités de calcul (cœurs CUDA). Mais ce n'est pas un hasard si nous avons utilisé le mot «à part entière», car la version finale du GF100, sur laquelle est basé l'accélérateur graphique haut de gamme GeForce GTX 480, ne contient que 480 cœurs CUDA actifs, ayant perdu toute une unité multiprocesseur. Et la plus jeune GeForce GTX 470 dispose déjà de 448 processeurs de flux.


En plus de 32 cœurs CUDA, le multiprocesseur contient un bloc pour les calculs d'entiers et un bloc pour les calculs en virgule flottante. Les opérations complexes sont effectuées par des SFU (Special Function Units). 16 autres unités LD / ST sont utilisées pour le chargement et le stockage des données.


Le bloc SM a un cache L1 partagé de 64 Ko et quatre unités de texture. Au total, le GF100 dispose de 64 unités de texture, mais compte tenu du fait qu'au lieu de 16 multiprocesseurs, l'ancienne carte en a 15 actifs, le nombre de blocs correspondants a diminué à 60. Par rapport au GT200, ce n'est pas beaucoup, puisque le prédécesseur en avait 80. Mais les performances des nouveaux les unités de texture ont considérablement augmenté. Selon les données NVIDIA, l'échantillonnage de texture est presque 1,5 fois plus rapide que celui du GT200.

Un répartiteur spécial GigaThread gère les flux de données dans le GF100, distribuant les threads (warps) entre les multiprocesseurs, à l'intérieur desquels le contrôle est effectué par les répartiteurs Warp Scheduler et Instruction Dispatch correspondants. Chaque multiprocesseur a deux de ces blocs, grâce auxquels il peut exécuter deux warps (32 threads) par horloge.

Chaque multiprocesseur dispose de 64 kilo-octets de mémoire qui, selon la tâche (calculs graphiques ou non graphiques), peuvent être configurés selon deux modes: 48 Ko de mémoire partagée et 16 Ko de cache L1, ou 16 Ko de mémoire partagée et 48 Ko de cache L1. Le cache L2 partagé de 768 kilo-octets permet l'échange de données entre toutes les unités GPU. La structure unifiée du cache L2 est plus flexible que la structure "séparée" utilisée précédemment et permet une utilisation plus efficace de la taille totale de la mémoire en fonction des besoins des tâches spécifiques et des unités de calcul.


De plus, les clusters GPC, en plus de quatre baies multiprocesseurs, ont leurs propres moteurs de rastérisation - Raster Engine, qui permettent, en parallèle avec quatre blocs spéciaux PolyMorph Engine responsables de la tessellation et de l'échantillonnage de vertex, d'augmenter la vitesse de traitement de la géométrie.


Les ROP ont également été modifiés et les performances ont été améliorées pour l'anticrénelage 8x MSAA. Comme chiffres spécifiques, un exemple est donné du jeu H.A.W.X., dans lequel la différence entre 4x MSAA et 8x MSAA sur la GeForce GTX 480 n'est pas supérieure à 10%, tandis que sur la GeForce GTX 285, elle est d'environ 50%. Il existe également un nouveau mode 32x CSAA (Coverage Sampling Antialiasing), qui fournit des textures anti-aliasing et semi-transparentes, et les performances à 32x CSAA sont presque les mêmes que dans 8x MSAA.

Le bus d'accès mémoire, égal à 384 bits, est implémenté par six contrôleurs 64 bits. La plus jeune GeForce GTX 470 a un contrôleur désactivé. Les puces de la norme GDDR5 sont utilisées comme mémoire. L'ancien modèle GeForce GTX 480 a une fréquence de fonctionnement de 3696 (QDR) MHz, le plus jeune modèle a 3348 MHz. La carte vidéo supérieure est équipée d'une capacité de 1536 Mo et la GeForce GTX 470 - 1280 Mo.

Adaptateur vidéo Radeon HD 5870 GeForce GTX 480 GeForce GTX 470 GeForce GTX 295 GeForce GTX 285 GeForce GTX 275
Noyau RV870 GF100 GF100 GT200b x 2 GT200b GT200b
Nombre de transistors, mln.pcs 2154 3200 3200 1400 x 2 1400 1400
Processus technologique, nm 40 40 40 55 55 55
Zone centrale, sq. mm 334 530 530 487 x 2 487 487
Nombre de processeurs de flux 1600 480 448 240 x 2 240 240
Nombre d'unités de texture 80 60 56 80 x 2 80 80
Nombre d'unités de rendu 32 48 40 28 x 2 32 28
Fréquence centrale, MHz 850 701 607 576 648 633
Fréquence du domaine de shader, MHz 850 1401 1215 1242 1476 1404
Bus mémoire, bit 256 384 320 448 x 2 512 448
Type de mémoire GDDR5 GDDR5 GDDR5 GDDR3 GDDR3 GDDR3
Fréquence mémoire, MHz 4800 3696 3348 1998 2484 2268
Taille de la mémoire, Mo 1024 1536 1280 896 x 2 1024 896
Version DirectX prise en charge 11 11 11 10 10 10
Interface PCIe 2.1 PCIe 2.0 PCIe 2.0 PCIe 2.0 PCIe 2.0 PCIe 2.0
Consommation électrique maximale déclarée, W 188 250 215 289 183 219

Récemment, les calculs non graphiques sur le GPU sont de plus en plus pertinents. L'utilisation d'API telles que CUDA et DirectCompute améliore les fonctionnalités et les capacités des adaptateurs vidéo. De plus, les tâches de ce type deviennent de plus en plus populaires pour les applications de jeu. Le projet récemment publié Just Cause 2 utilise CUDA pour une simulation plus réaliste de la surface de l'eau (ce qui est un bonus exclusif pour les propriétaires de GeForce), Metro 2033 utilise DirectCompute pour des effets de post-traitement réalistes sous DirectX 11. Nous ne parlons pas du moteur physique NVIDIA PhysX, sur la base duquel une physique réaliste des tissus, des liquides et de la fumée est réalisée. Pour être honnête, il convient de noter qu'il n'y a pas beaucoup de projets exceptionnels utilisant la technologie PhysX, et ceux où ces effets semblent impressionnants sont encore moins nombreux. L'architecture de la nouvelle puce a été initialement conçue pour pouvoir effectuer des calculs non graphiques avec une commutation rapide des tâches. En particulier, en raison de la division susmentionnée de la mémoire partagée des unités multiprocesseurs, 48 \u200b\u200bKo sont alloués pour des tâches telles que le cache de premier niveau.

Quant aux améliorations apportées par DirectX 11 aux joueurs, le GF100 est prêt pour eux entièrement armé. Ce n'est pas un hasard si les ingénieurs NVIDIA ont mis l'accent sur l'augmentation des performances lors du traitement de la géométrie. L'un des principaux avantages de la nouvelle API en termes d'amélioration de la qualité d'image finale est la prise en charge de la tessellation. Cette méthode de traitement augmente le nombre de polygones dans le modèle final. En fait, de cette manière, le modèle est simplement lissé, éliminant ainsi "l'angularité". Des cartes de déplacement supplémentaires peuvent être utilisées pour obtenir des détails plus élevés. L'utilisation de ces deux méthodes vous permet de travailler avec des modèles géométriques initiaux simples, et après l'application de la tessellation, c'est-à-dire division en triangles supplémentaires et décalages des coordonnées de leurs sommets, vous pouvez obtenir un modèle avec une géométrie complexe. D'ailleurs, grâce aux cartes de déplacement, il sera possible de mettre en œuvre des changements dans la géométrie des objets en temps réel, par exemple, pour obtenir de vrais trous de balle sur les surfaces.


C'est avec toutes ces nouvelles fonctionnalités DirectX 11 à l'esprit que le GF100 a été conçu, ce qui devrait donner un avantage significatif sur les concurrents dans les nouveaux projets de jeux. En particulier, NVIDIA parle d'un avantage multiplié par huit dans le test de tessellation spécialisé Microsoft subd11 par rapport à la Radeon HD 5870. Dans Stone Giant Benchmark, qui est plus proche de la vie, la différence est déjà inférieure à 90%, et dans le benchmark Unigine Heaven DX11, ces chiffres sont encore plus modestes. Les résultats des tests de synthèse sont impressionnants, mais dans la vie, tout n'est pas si rose, d'autant plus qu'il n'y a pas tellement de projets où une tessellation de haute qualité serait utilisée.

En plus de la rastérisation traditionnelle, Fermi propose l'utilisation du lancer de rayons pour le rendu. Le GF100 est actuellement la puce la plus productive capable d'imagerie 3D à l'aide d'algorithmes de traçage de rayons, car son architecture a été initialement optimisée pour de telles capacités. Cependant, les performances des nouveaux adaptateurs vidéo ne sont toujours pas suffisantes pour un rendu à part entière en temps réel. NVIDIA en est bien conscient et propose une méthode de rendu combinée utilisant la rastérisation standard et le lancer de rayons. Il n'est pas encore nécessaire de parler d'une implémentation pratique, et des exemples de cette approche ne peuvent être vus que dans les captures d'écran démontrant le fonctionnement de cette méthode en utilisant la technologie spéciale NVIDIA OptiX.


Les derniers adaptateurs vidéo AMD peuvent afficher l'image sur trois moniteurs à la fois, et des versions spéciales Eyefinity Edition pour six. Une sorte de réponse à cela de la société californienne a été la possibilité de créer une configuration multi-écrans (basée sur trois écrans) pour le mode 3D. La nouvelle technologie 3D Vision Surround ne peut être implémentée que sur un système SLI de deux ou trois cartes vidéo de la nouvelle série. Compte tenu des exigences système croissantes lorsque le mode 3D est activé, cette approche est tout à fait compréhensible: une carte n'est tout simplement pas en mesure de fournir des performances normales dans les jeux modernes sur trois moniteurs avec une résolution allant jusqu'à 1920 × 1080.


Pour résumer tout ce qui précède, on peut noter que la puce GF100 s'est avérée progressive et clairement orientée vers de nouvelles applications pour DirectX 11. NVIDIA est habitué à être un leader dans le développement d'adaptateurs vidéo monopuce, et la nouvelle génération de GeForce devrait théoriquement répéter le destin de la série à succès GeForce 8800, mais il s'est avéré assez à un autre. Les problèmes posés par la mise en œuvre en silicium d'une puce extrêmement complexe, composée de plus de trois milliards de transistors, ont conduit à un événement inouï lorsqu'une carte vidéo haut de gamme avec des unités informatiques désactivées est entrée en production en série. Le GF100 d'origine avec 512 processeurs de flux n'a jamais vu le jour. En fait, ce n'est pas très surprenant, si l'on se souvient que TSMC (qui produit des puces pour les deux géants graphiques) a eu quelques problèmes avec le RV870 plus simple (2,15 milliards de transistors). Et le nouveau processus technique 40nm de NVIDIA n'a pas fonctionné même dans le segment budgétaire. Ce n'est pas un hasard si les GeForce GT 220 et GeForce GT 240 avaient des fréquences de fonctionnement basses dans le contexte de leurs prédécesseurs, ce qui a suscité des inquiétudes concernant les futures cartes vidéo haut de gamme. Dans le même temps, la sortie de nouveaux modèles a été retardée de six mois, alors qu'AMD avait déjà publié de nouvelles solutions pour DirectX 11 dans tous les segments de prix. Et l'énorme niveau de consommation d'énergie et de dissipation thermique de la GeForce GTX 480 est devenu un bon sujet de blagues, ce qui n'est en fait pas très drôle, car la consommation de l'ancienne carte atteint 250 W, tandis que sa principale concurrente Radeon HD 5870 est limitée à une valeur de pointe de 188 W ... Dans une telle situation, le principal avantage de la GeForce GTX 480 peut être un haut niveau de performances. Et nous essaierons de savoir lors de nos tests si le nouveau produit phare de NVIDIA justifiera les espoirs qui y sont placés.
Zotac GeForce GTX 480 (ZT-40101-10P)

Enfin, passons à une étude pratique d'une instance spécifique de la GeForce GTX 480. Nous avons obtenu une carte de Zotac, qui se présente dans un emballage assez compact avec une fenêtre sur la face avant à travers laquelle l'adaptateur vidéo lui-même est partiellement visible.


Cet exemplaire est livré avec le jeu d'accessoires suivant:
  • adaptateur DVI / D-Sub;
  • adaptateur mini-HDMI / HDMI;
  • pont SLI
  • cD avec pilotes;
  • disque avec logiciel supplémentaire;
  • instructions d'installation.
En prime, la carte est livrée avec un disque avec des programmes utilisant l'accélération matérielle utilisant la technologie CUDA, en particulier des utilitaires pour la conversion et l'édition de fichiers vidéo comme Badaboom, vReveal et Super LoiLoScope. Malheureusement, ce sont des versions d'essai de 30 jours. BitDefender Internet Security, qui est également inclus dans cet ensemble de logiciels accélérés par GPU, est limité à 90 jours.


Un autocollant très amusant avec un avertissement sur la nécessité de laisser refroidir la carte vidéo avant de la retirer du système se trouve à l'intérieur de la boîte. Il semble que la dissipation thermique de la GeForce GTX 480 soit vraiment sérieuse, sinon l'utilisateur se serait passé de tels rappels.

Le nouvel adaptateur vidéo phare n'est pas plus grand que les anciens modèles. La planche mesure 27 cm de long, ce qui est légèrement plus court que la Radeon HD 5870. Si les adaptateurs seniors de NVIDIA antérieurs étaient «habillés» de radiateurs des deux côtés, le nouveau système de refroidissement ne prévoit pas de plaque de radiateur supplémentaire à l'arrière de la carte et les puces de mémoire ne sont plus placées à l'arrière de la carte. Le refroidisseur lui-même est fait comme une turbine; quatre caloducs épais sortant du côté sont frappants.




La carte vidéo est équipée de deux sorties DVI et d'un connecteur HDMI avec des contacts dorés. Dans la partie supérieure de la carte, il y a des connecteurs à six et huit broches pour une alimentation supplémentaire et deux connecteurs MIO, qui permettent de connecter des cartes vidéo en modes SLI ou SLI à 3 voies.


Le système de refroidissement se compose d'un grand dissipateur thermique pour la puce graphique et d'une plaque de dissipateur thermique pour les éléments d'alimentation et les puces de mémoire, à laquelle un ventilateur radial est fixé (de taille plutôt modeste, d'ailleurs). Le boîtier supérieur est verrouillé et peut être facilement retiré.



Au cœur du dissipateur thermique du GPU se trouvent cinq caloducs épais de 6 mm. La base est fabriquée en utilisant la technologie de contact direct, c.-à-d les tubes eux-mêmes constituent la base du collecteur de chaleur. Ils sont aplatis et rainurés pour épouser leur forme. En excès, une interface thermique adhésive grise est appliquée, ce qui exclut la possibilité de bouches d'aération.



La plaque métallique nervurée, qui occupe une partie importante de la partie extérieure de la structure, n'appartient pas au boîtier, mais fait partie du système de refroidissement - les ailettes du radiateur y sont fixées. En conséquence, son échauffement sera assez élevé, ce qui justifie une fois de plus le rappel de NVIDIA de faire attention avant de retirer la carte vidéo. Mais un tel élément structurel contribue à augmenter la surface totale de dispersion.

Jetons un coup d'œil à la carte cachée sous le système de refroidissement.


Le circuit d'alimentation de base est mis en œuvre selon le circuit à six phases, la mémoire GDDR5 - selon le circuit à deux phases.

Comme dans les produits NVIDIA précédents, la matrice est recouverte d'un couvercle dissipateur de chaleur pour éviter les dommages et augmenter la zone de contact avec le dissipateur thermique du système de refroidissement. La GeForce GTX 480 possède une puce étiquetée GF100-375-A3.


Le volume de mémoire vidéo de 1,5 Go est recruté avec 12 microcircuits Samsung K4G10325FE-HC04. Ces puces GDDR5, selon leurs spécifications, sont conçues pour une fréquence de 5 GHz, il y a donc théoriquement encore une "marge de manœuvre" assez importante pour l'overclocking, compte tenu de la fréquence mémoire nominale de 3,7 GHz de la GeForce GTX 480. En fait, tout s'est avéré assez différent, mais à peu près ceci juste en dessous.


Les fréquences de fonctionnement du modèle Zotac correspondent parfaitement à celles de référence: le cœur fonctionne à 701 MHz, les unités de shader à 1401 MHz et la mémoire GDDR5 à 3696 (924x4) MHz.


En l'absence de charge, les fréquences sont réduites à 51/101/270 MHz (core / shader domain / memory) ou à des valeurs intermédiaires. La tension sur le GPU est également régulée, passant à 1,0 V uniquement dans les applications 3D.



Ainsi, une réduction significative de la consommation d'énergie et de la dissipation thermique de la puce est obtenue. Et bien que l'utilisateur ait été effrayé plus d'une fois par des températures et des niveaux de bruit effrayants, tout n'est pas si mal en mode 2D. La température de la puce est maintenue à moins de 50 ° C avec un niveau sonore assez faible. Mais les choses changent radicalement dès qu'une puissante application 3D est lancée.

Après une exécution de 12 minutes du test de résistance Fur Rendering Benchmark à une résolution de 1680x1050, la puce graphique a atteint une température de 96 ° C, et le ventilateur de refroidissement en mode de contrôle automatique a tourné jusqu'à 92% de son maximum (c'est un peu moins de 4000 tr / min), créant un bourdonnement intolérable ...


Mais qu'en est-il des vrais jeux? Après avoir exécuté la démo Ambush de Crysis Warhead Benchmarking Tool cinq fois en résolution 1920x1200 avec des paramètres de qualité maximum avec l'anti-aliasing AA4x, la puce a atteint 92 ° C. Mais surtout, la vitesse du ventilateur n'a pas dépassé 75%. On ne peut pas dire qu'un tel mode soit confortable pour entendre, mais il est tout à fait tolérable et, purement subjectif, pas beaucoup plus que dans la Radeon HD 5870 en mode automatique de contrôle du refroidisseur.


Les températures sont assez élevées, mais NVIDIA a déjà signalé plus d'une fois que la carte est conçue pour fonctionner dans des conditions de températures aussi élevées et que tous les composants sont conçus pour de telles conditions. Et si l'utilisateur n'a pas à se soucier de la durabilité de la carte vidéo (au moins pendant la période de garantie), le problème du refroidissement des autres composants à l'intérieur de l'unité centrale devient très aigu. Et bien que 90 ° С sur le noyau ne soit pas une nouveauté pour nous, les anciens produits et les concurrents atteignent facilement de telles valeurs dans les tests de résistance, mais le nouvel adaptateur vidéo fait face au rôle de "chauffage" avec un bang, générant de la chaleur plus que quiconque. La carte réchauffe parfaitement l'air à l'intérieur du boîtier, et après plusieurs heures de travail intensif dans la pièce, une odeur spécifique apparaît. Ce produit n'est clairement pas pour ceux qui sont préoccupés par le réchauffement climatique. Et pour ceux qui souhaitent acheter ce produit, nous vous recommandons de regarder de plus près les boîtiers avec un grand ventilateur sur la paroi latérale, par exemple le Cooler Master HAF 932. Mais cela ne vous épargnera toujours pas le bruit du CO natif de la carte vidéo ... Honnêtement, il serait préférable de le faire la planche est plus grande de quelques centimètres afin d'augmenter le radiateur lui-même du même couple de centimètres.

Et quelques mots sur l'overclocking. Pour cela, vous pouvez utiliser la dernière version de l'utilitaire MSI Afterburner, qui vous permet même de contrôler la tension sur le noyau, mais étant donné sa dissipation thermique, vous ne devriez même pas penser à un voltmod refroidi par air. À propos, dans les nouvelles cartes vidéo, la fréquence du domaine de shader est maintenant la fréquence principale, et le reste des unités fonctionne à un multiplicateur réduit par rapport à la fréquence de shader. Ainsi, la fréquence des unités de shader est disponible pour le contrôle, égale à 1401 MHz dans le nominal, et la valeur de 701 MHz pour le cœur augmente en fonction du changement du premier paramètre sans possibilité de réglage séparé. En parlant des caractéristiques de fréquence, il convient de mentionner que les unités multiprocesseurs du GPU ne fonctionnent pas entièrement à la fréquence du "domaine de shader", le PolyMorph Engine et le Raster Engine fonctionnent à la moitié de la fréquence.


En réglant la vitesse maximale de la turbine, nous avons atteint les fréquences centrales de 775/1550 MHz. Par rapport au nominal, il est de près de + 11%. Avec une nouvelle augmentation des fréquences, le système de refroidissement natif faisait cruellement défaut, mais le GF100 avait toujours le potentiel. Bien que nos fréquences n'aient été complètement stables que pendant les six premières heures. Après quelques fois qu'une application se bloque, nous avons laissé la carte refroidir un peu et avons terminé tous les tests sans aucun problème. Comme vous pouvez le voir, c'est le refroidissement qui est le facteur limitant pour libérer le potentiel d'un monstre cracheur de feu comme le GF100. L'overclocking de la mémoire s'est avéré étonnamment faible, malgré sa valeur. Tout ce qui a été obtenu était de 3800 MHz (950 MHz), des valeurs plus élevées conduisant à une instabilité extrême.

Avec cet overclocking, le Fur Rendering Benchmark était complètement stable (jusqu'à ce que les problèmes ci-dessus apparaissent après six heures de travail intensif).


En 12 minutes de ce test de résistance, le noyau s'est réchauffé jusqu'à 99 ° C à la vitesse maximale du ventilateur du système de refroidissement. Dans les applications de jeu réelles, la température était sensiblement plus basse et n'atteignait même pas 90 ° C.

En tant que concurrent de la GeForce GTX 480 en question, nous avons pris la carte vidéo mono-puce la plus puissante d'AMD - Radeon HD 5870. Le modèle de Gigabyte est une copie complète de la référence, nous n'y reviendrons donc pas en détail, d'autant plus que ce produit a été discuté en détail plus haut dans les pages notre site.


Le contenu de la livraison comprend:
  • adaptateur DVI / D-Sub;
  • deux adaptateurs d'alimentation molex-PCI-E;
  • pont CrossFire;
  • cD avec pilotes;
  • instructions d'installation.



Les fréquences de fonctionnement sont standard - 850/4800 MHz pour le cœur et la mémoire. En 2D, les fréquences sont réduites à 157/1200 MHz.


Dans le test de résistance Fur Rendering Benchmark, le noyau s'est réchauffé à 87 ° C. La vitesse du ventilateur a atteint 40%, mais malgré la faible valeur, cela signifie déjà un niveau sonore assez élevé. Les turbines des cartes vidéo AMD sont plus bruyantes que les systèmes de refroidissement similaires de NVIDIA, elles ne fonctionnent tout simplement jamais à des valeurs maximales et sont donc plus silencieuses.


Après avoir exécuté le test quintuple Ambush de l'outil d'analyse comparative Crysis Warhead à 1920x1200, la température n'a pas dépassé 79 ° C.


En utilisant l'utilitaire MSI Afterburner, le cœur a été overclocké à 960 MHz stable tout en augmentant la tension de 1,15 V nominal à 1,3 V. La mémoire GDDR5 fonctionnait à 5452 MHz (1363 MHz), ce qui est également un excellent résultat. En tenant compte du volt-mod, pour un fonctionnement stable, nous avons dû fixer la vitesse du refroidisseur au maximum.


Le rugissement de la turbine est insupportable, et dans la vie quotidienne, un tel overclocking ne peut être utilisé qu'avec un système de refroidissement plus puissant, mais dans le cas de la GeForce GTX 480, nous parlons également de la possibilité d'utiliser l'overclocking uniquement avec un refroidissement plus puissant. Mais nous avons l'occasion de comparer le potentiel des deux cartes vidéo à des fréquences plus élevées. Banc d'essai

La configuration du banc d'essai est la suivante:

  • processeur: Core 2 Quad Q9550 (2, [email protected], 95 GHz, bus frontal à 465 MHz);
  • refroidisseur: Thermalright Ultra-120 eXtreme;
  • carte mère: ASUS Rampage Formula (Intel X48 Express);
  • mémoire: OCZ OCZ2FXE12004GK (2x2 Go, [email protected] MHz aux temps 5-5-5-15);
  • carte son: Creative Audigy 4 (SB0610);
  • disque dur: WD3200AAKS (320 Go, SATA II);
  • bloc d'alimentation: Seasonic SS-850HT (850 W);
  • système d'exploitation: Windows 7 Ultimate x64;
  • pilotes de carte vidéo: ATI Catalyst 10.3, NVIDIA ForceWare 197.41.
Le contrôle de compte d'utilisateur et Superfetch ont été désactivés dans le système d'exploitation, ainsi que les effets visuels de l'interface. Le fichier d'échange a été fixé à 1 Go. Les paramètres du pilote de la carte vidéo n'ont pas été modifiés.

Dans les applications de jeu, les tests ont été effectués à des résolutions de 1680x1050 et 1920x1200 avec des paramètres de qualité maximum. Des tests supplémentaires lors de l'activation de l'anti-aliasing ont été effectués uniquement dans les applications qui le prennent en charge nativement, sans forcer les pilotes. La méthodologie de test est décrite dans l'un des articles précédents. Nous ne le dupliquerons pas, nous notons seulement que le nombre d'exécutions du test de performance intégré dans Colin McRae: DiRT 2 a été augmenté jusqu'à 4 fois dans tous les modes. Ajout du jeu Metro 2033, les nuances des tests y sont décrites immédiatement avant les résultats.


En termes de fps moyens, le nouveau venu GTX 480 est légèrement inférieur à la Radeon HD 5870, conservant la position de leader en termes de fps minimum. Cependant, la différence entre les deux rivaux est minime.




Dans les modes plus lourds et les hautes résolutions, la GeForce GTX 480 perd un peu du terrain, et l'écart avec la concurrente atteint 7% en 1920x1200. Les performances du GF100 évoluent plutôt bien, même avec de minuscules overclockings de mémoire. Le gain de l'overclocking atteint presque 11% - autant que la fréquence centrale est augmentée.

Les Chroniques de Riddick: Assaut sur Dark Athena



Là encore, dans les modes nominaux, la situation est ambiguë. La Radeon HD 5870 affiche un fps moyen plus élevé, mais l'indicateur minimum est meilleur pour la GeForce GTX 480. Avec l'overclocking, la carte AMD surpasse déjà sa rivale dans les deux paramètres, ce qui est assez attendu compte tenu du potentiel d'overclocking plus élevé.

Appel de Juarez: lié dans le sang



Dans les deux résolutions, les résultats sont presque les mêmes. Dans ce cas, les performances reposaient sur le processeur, ce qui était la raison de ces graphiques monotones. Mais tout de même, un net avantage de Radeon sur son rival est perceptible - le fps minimum est presque 6% plus élevé.

Batman: Asile d'Arkham


Tout d'abord, examinons les résultats des tests dans cette application sans utiliser NVIDIA PhysX.



La fréquence d'images minimale dans tous les modes est d'environ 90 images par seconde, dans ce cas, peut-être, encore une fois, les performances «reposaient» sur les capacités de traitement du processeur. En termes d'indice de jeu moyen, le leader est la GeForce GTX 480. Un plus grand potentiel d'overclocking permet à la Radeon HD 5870 de se démarquer en matière d'overclocking.



Lorsque le moteur physique est activé, le système avec les cartes vidéo Radeon présente de très faibles performances et la puissance de la carte vidéo elle-même ne résout rien ici, les fps dépendent davantage du processeur. La GeForce GTX 480 présente des fréquences d'images élevées, suffisantes pour un jeu confortable même à la résolution la plus élevée. Bien sûr, dans ce mode, il serait plus pertinent de comparer le nouveau venu avec ses prédécesseurs basés sur le GT200, et il y aura toujours une comparaison similaire sur notre site Web, mais dans les matériaux futurs.

Appel du Devoir Guerre Moderne 2





Voici enfin la première application où l'avantage de la GeForce GTX 480 par rapport à la concurrente est assez évident même sans l'utilisation d'aucun PhysX. En mode simple, la différence entre les cartes vidéo est faible et la carte AMD est en retard d'environ 5%. Mais si vous activez l'anti-aliasing, les performances de la Radeon HD 5870 diminuent considérablement, en particulier le minimum de fps diminue, et par ce paramètre, le nouveau venu contourne l'adversaire de 40 à 45%.

Borderlands


Avant de passer aux résultats, nous notons que dans le benchmark natif de Borderlands, toutes les cartes GeForce présentent une variation assez importante des fréquences d'images minimales, qui peuvent aller de 25 à 32 images dans les 7 exécutions. La valeur moyenne est d'environ 29 fps sur tous les modèles à partir de la GeForce GTX 260. Les résultats de la Radeon diffèrent également, mais la plage de ce «spread» est beaucoup plus petite, ce qui donne une valeur moyenne supérieure - 31 images. Mais en tenant compte d'une telle caractéristique de ce test, lorsque le fps minimum reste inchangé et ne dépend pas du potentiel de la carte vidéo, vous ne devez pas faire très attention à ce paramètre, bien que nous le donnions. Une impression assez précise du niveau de performance de ce jeu est donnée par la moyenne.



Le jeu préfère GeForce, comme nous avons déjà eu l'occasion de le voir en testant les cartes vidéo de la série Radeon HD 5700, donc l'avantage de la GeForce GTX 480 n'est pas une surprise. Notez le changement minimal de la fréquence d'images moyenne après avoir atteint le jalon de 80 ips. Le gain de l'overclocking à 1680x1050 pour la GeForce est inférieur à 1%, alors qu'en 1920x1200 nous bénéficions déjà de fréquences plus élevées de 3% (ce qui n'est pas non plus beaucoup). Et pour Radeon, le gain des fréquences plus élevées est également faible. Dans cette application encore une fois, les performances globales sont clairement limitées par le potentiel de notre processeur.

Divinité 2: Ego Draconis (Dragon Blood)



Un avantage très impressionnant de la GeForce GTX 480 par rapport à son concurrent - 10% en fps moyen et plus de 20% au minimum. Et encore une fois, la mémoire ne retient pas le potentiel du débutant lorsqu'elle est overclockée. Malgré un petit changement de 2,7% de l'horloge GDDR5 (lorsque le GPU est overclocké de 10,6%), le gain de performance de l'overclocking est de 9%.






Sur le champ de bataille 3DMark Vantage, la nouvelle GeForce GTX 480 est vaincue en basse résolution, et 1680x1050 n'est plus inférieure à la Radeon HD 5870. L'overclocking aide la carte AMD à être le leader dans tous les modes.



Le jeu est connu pour sa dépendance au processeur, et même à une résolution de 1680x1050 sur des cartes vidéo aussi puissantes, le processeur est redevenu le "limiteur", bien qu'en mode nominal, le léger retard de Radeon par rapport au nouveau venu soit toujours perceptible.

Avec l'anti-aliasing activé, la différence entre les cartes vidéo devient plus prononcée, atteignant 17% en moyenne. Et la Radeon HD 5870 ne peut pas rattraper sa rivale même avec l'overclocking.


À la résolution la plus élevée, la différence entre les cartes vidéo testées est encore plus grande. Avec AA4x activé, la GeForce GTX 480 a un avantage de 19% en fps minimum et moyen. L'overclocking n'aide pas le rival d'AMD à compenser cet écart.

Far Cry 2





Une autre victoire confiante pour la GeForce GTX 480. L'avantage sur la rivale dans les deux résolutions sans anti-aliasing est de 10-13%, et lorsque AA4x est activé, il atteint un impressionnant 30% en moyenne et 60% au minimum. L'augmentation des fréquences de la Radeon HD 5870 à 960/5452 MHz permet d'atteindre le niveau du débutant aux fréquences nominales uniquement dans les modes simples; aucun overclocking ne contribuera à compenser l'énorme décalage avec l'anti-aliasing actif.

Tom Clancy "s H.A.W.X.






Dans ce jeu, les solutions AMD présentent généralement un léger avantage, et nos tests le confirment une fois de plus. Mais l'écart entre la GeForce GTX 480 et la concurrente est minime, et dans la résolution de 1920x1200 avec anti-aliasing, le leadership est soudainement du côté du modèle NVIDIA.

Resident evil 5





La GeForce GTX 480 occupe la première place en termes de valeur et d'overclocking. L'avantage sur l'adversaire est de 2 à 6% en mode simple et de 11 à 13% lorsque le multi-échantillonnage est activé.

Avatar de James Cameron: le jeu





La GeForce GTX 480 affiche un peu plus de performances, mais la Radeon HD 5870 est en retard de 3 à 4% sur la concurrente. Avec l'overclocking, les deux cartes démontrent des résultats à peu près identiques; en termes de fps minimum, un avantage absolument minime reste avec le représentant d'AMD.

Battlefield Bad Company 2



En mode simple aux paramètres High (Gamer), la nouvelle carte NVIDIA a un avantage de 10% sur la Radeon HD 5870.





Au fur et à mesure que les paramètres augmentent, la différence entre les cartes diminue, mais la GeForce GTX 480 conserve son leadership. Le décalage du concurrent devient le plus important lorsque l'anti-aliasing est activé - dans de tels cas, la différence de fps minimum peut atteindre 15%. Cependant, la Radeon HD 5870 compense cela avec un meilleur overclocking, et dans des modes simples, elle parvient même à dépasser légèrement le Fermi overclocké.

Dans DirectX 11, l'avantage de la GeForce GTX 480 est encore plus grand. L'écart avec le concurrent en modes nominaux est d'environ 11% en fps minimum et jusqu'à 16% en moyenne. L'overclocking de la Radeon HD 5870 parvient à atteindre le fps minimum du concurrent, mais pas la moyenne.

Métro 2033


Des tests ont été effectués sur le site de Alley. Le niveau hors sol a été spécialement choisi, car c'est dans les espaces ouverts que le fps est plus bas que dans les tunnels et les pièces fermées. L'épisode sélectionné se distingue également par le fait que vous pouvez vous passer de combats à grande échelle et effectuer la même séquence d'actions à chaque exécution. Une courte promenade de 40 secondes a été faite le long d'un itinéraire spécifique. Pour chaque régime, le test a été répété trois fois. Malheureusement, faute de temps, nous avons réussi à tester la GeForce GTX 480 uniquement sous DirectX 11, mais ce mode particulier est particulièrement pertinent pour les adaptateurs vidéo de nouvelle génération. Les matériaux suivants (y compris la GeForce GTX 470) contiendront les résultats dans DirectX 10.





L'avantage de la GeForce GTX 480 par rapport à la Radeon HD 5870 dans les modes simples se situe au niveau de 13-15% en fps moyen, mais la différence dans le minimum ne dépasse pas 4%. Avec l'anti-aliasing activé, la carte AMD est en retard de 30 à 38% (probablement en raison de la plus grande mémoire vidéo de la GeForce). Mais le nouveau venu NVIDIA n'est toujours pas en mesure de fournir des performances acceptables dans ce mode, il y a donc peu d'avantages pratiques à tirer d'un avantage aussi énorme. Et même à une résolution de 1680x1050 sur Fermi, le fps minimum n'est pas satisfaisant, bien qu'en fait les performances globales soient proches de la moyenne, et dans les endroits fermés (dont il y en a beaucoup plus dans le jeu), il est encore plus élevé, vous pouvez donc profiter de jouer à DirectX 11 dans cette résolution. Les utilisateurs les plus exigeants devront se contenter de résolutions inférieures même avec une carte graphique GeForce GTX 480.

conclusions

Alors, quel est le résultat de nos tests? La situation n'est pas tout à fait simple et la GeForce GTX 480 n'est pas toujours plus productive que la Radeon HD 5870. Dans la grande majorité des applications, le nouvel adaptateur vidéo NVIDIA surpasse toujours son concurrent, mais souvent la différence entre eux est très minime (Batman: Arkham Asylum, Avatar), et le concurrent compense facilement c'est l'overclocking. Dans certains cas, le débutant perd à la fréquence d'images moyenne, mais démontre le meilleur minimum de fps (The Chronicles of Riddick: Assault on Dark Athena). Mais il y a aussi des applications où la Radeon HD 5870 prend le dessus en toute confiance.L'écart le plus important entre la GeForce GTX 480 se situe dans la récente sortie Battlefield: Bad Company 2 et dans S.T.A.L.K.E.R.: Call of Pripyat (sous DirectX 10.1). Cependant, dans le même Battlefield, l'une des caractéristiques positives de la GeForce GTX 480 se manifeste immédiatement, ce qui réduit l'avantage de la Radeon à zéro en haute résolution avec anti-aliasing. C'est dans ces modes que l'on voit le maximum d'avantage de la nouveauté sur le concurrent (la seule exception est Battlestations: Pacific). Considérant que la puissance de l'adaptateur vidéo considéré pour Battlefield: Bad Company 2 et de nombreux autres jeux est largement suffisante pour de tels modes, cet avantage sera très pertinent pour les propriétaires de grands moniteurs.

Dans un certain nombre d'applications, la GeForce GTX 480 démontre généralement un niveau de performances inaccessible pour son principal concurrent, même avec l'overclocking (Divinity 2, Borderlands, World in Conflict, Far Cry 2). La supériorité des dernières applications prenant en charge DirectX 11 est particulièrement convaincante. Un exemple frappant de ceci est la situation dans STALKER: Call of Pripyat, quand dans DirectX 10.1 la carte NVIDIA est inférieure à son concurrent, mais déjà dans DirectX 11, elle montre un fps minimum plus élevé et devient le leader incontesté lorsque l'anti-aliasing est activé ... Cette carte vidéo n'abandonne pas non plus ses positions de leader dans Colin McRae: DiRT 2 et Metro 2033.

La GeForce GTX 480 peut être qualifiée en toute sécurité d'adaptateur vidéo monopuce le plus productif. L'architecture progressive de Fermi présente des avantages par rapport aux solutions AMD, et peut-être à l'avenir, à mesure que de plus en plus de jeux utilisant la tessellation seront publiés, la supériorité du produit phare NVIDIA deviendra encore plus grande. Mais tout cela permettra-t-il à cette carte vidéo de devenir populaire? Il est douteux que la GeForce GTX 480 soit trop tardive.Fermi, peut-être, est une option plus progressive, mais pour le moment le nouvel accélérateur graphique n'a pas encore révolutionné les performances. Les utilisateurs qui ont acheté une Radeon HD 5870 en même temps peuvent bien dormir - dans la plupart des cas, un bon overclocking permet de compenser le retard par rapport au produit phare de NVIDIA. Dans le même temps, la dissipation thermique, le niveau de bruit et le prix du modèle AMD à puce unique haut de gamme sont inférieurs, ce qui ne perd pas de son importance à ce jour.

Malheureusement, la nouvelle puce NVIDIA est sortie non seulement progressive, mais aussi très difficile pour la mise en œuvre finale. En conséquence, de la phase de développement à la mise en œuvre en silicium, le GF100 a été "allégé" par 32 cœurs CUDA, et même cela n'a pas aidé à atteindre le régime thermique normal du produit final. Les produits haut de gamme sont toujours le lot des passionnés, mais à leurs yeux la GeForce GTX 480 perd un peu de son attrait à cause de son tempérament chaud. Presque personne ne supportera des températures aussi élevées à l'intérieur de l'unité centrale et le bruit du CO natif. Il n'y a pas encore de refroidisseurs alternatifs pour ce modèle (contrairement à la Radeon HD 5870), et l'apparence de systèmes de refroidissement par air capables de maintenir une basse température du GF100 est discutable. Un acheteur potentiel de GeForce GTX 480 devrait penser à CBO, car c'est la seule option pour le moment qui permettra non seulement de maintenir une température basse des composants de la puce et de la carte, mais aussi de libérer tout le potentiel de la carte vidéo par overclocking. Et lui, le potentiel, elle a et est très bon. Nous en étions parfaitement convaincus sur l'exemple de notre instance Zotac, qui a montré un bon gain à l'augmentation de la fréquence GPU, même malgré l'absence quasi totale d'overclocking mémoire. À propos, la situation désagréable avec un overclocking GDDR5 faible s'est avérée être typique de la carte vidéo Zotac GeForce GTX 470, qui sera consacrée à notre prochain article. Espérons qu'il ne s'agit que d'une conséquence du BIOS "brut", et non de certaines caractéristiques de conception des modèles de ce fabricant ou de l'ensemble de la gamme GeForce basée sur le GF100.

  • Zotac - Carte graphique Zotac GeForce GTX 480.
  • Nvidia Geforce GTX 480:

    description de la carte vidéo et résultats des tests synthétiques

    Il est logique de dire que les cartes nécessitent une alimentation supplémentaire, avec deux connecteurs, dont l'un est à 8 broches et l'autre à 6 broches. Si à propos de ce dernier - pas de problème, puisque tous les blocs d'alimentation modernes ont déjà de telles "queues", un adaptateur spécial est nécessaire pour l'alimenter via le connecteur à 8 broches, qui doit être fourni avec des cartes vidéo série.

    La puce a été reçue la quatrième semaine de cette année, c'est-à-dire fin janvier.

    À propos du système de refroidissement.

    Nvidia Geforce GTX 480 1536 Mo PCI-E

    En principe, le refroidisseur ne diffère pas des solutions précédentes de la famille GTX - un ventilateur cylindrique entraîne l'air à travers le radiateur et évacue la chaleur à l'extérieur de l'unité centrale. Cependant, compte tenu de la consommation d'énergie excessive du nouveau produit et, par conséquent, du chauffage, le CO a subi des améliorations en termes d'amélioration de la dissipation thermique à l'aide de caloducs. Comme on peut le voir, le radiateur central à tubes ne fait que refroidir le noyau. Lorsque les deux puces mémoire sont refroidies par une plaque pressée contre elles sous le boîtier.

    Probablement, les possibilités de recherche de CO de ce type ont déjà été épuisées pour pouvoir faire face à un noyau très chaud sans bruit. Par conséquent, il faut dire que le CO est bruyant. Même en mode 2D, le refroidisseur fonctionne à 44% du maximum, bien qu'auparavant ce chiffre se situait autour de 20-25%. Le bruit commence après 50%. Par conséquent, la glacière fonctionne au bord du bruit audible, et c'est simple! Que dire de la charge, lorsque le CO commence à augmenter progressivement la vitesse de rotation de la turbine, portant en moyenne jusqu'à 70-80% lorsque la carte est en mode 3D.

    Nous avons mené une étude du régime de température à l'aide de l'utilitaire EVGA Precision (par A. Nikolaychuk AKA Unwinder) et avons obtenu les résultats suivants:

    Nvidia Geforce GTX 480 1536 Mo PCI-E

    Et cela n'est pas surprenant, car le chauffage du cœur atteint 95 degrés, et même un indicateur aussi élevé est obtenu au prix d'un fonctionnement au CO très bruyant. Les amateurs de graphismes de jeu 3D les plus avancés et les plus rapides devront donc oublier ce qu'est le silence lorsqu'ils jouent à des jeux ou à des tests. Même en 2D, lorsque la carte est chargée avec un contenu complexe (comme un flash ou une vidéo), le refroidisseur est déjà assez audible.

    Équipement.

    Il s'agit d'un produit de référence, il n'y a donc ni bundle ni emballage.

    Passons maintenant aux tests. Tout d'abord, montrons la configuration du banc de test.

    Installation et pilotes

    Configuration du banc d'essai:

    • Ordinateur basé sur Intel Core I7 CPU 920 (Socket 1366 LGA)
      • processeur Intel Core I7 920 (2667 MHz);
      • carte mère Asus P6T Deluxe basée sur le chipset Intel X58;
      • rAM 3 Go DDR3 SDRAM Corsair 1066 MHz;
      • disque dur SATA WD Caviar SE WD1600JD 160 Go;
      • bloc d'alimentation Tagan TG900-BZ 900W.
    • système d'exploitation Windows 7 32 bits; DirectX 11;
    • moniteur Dell 3007WFP (30 ");
    • pilotes ATI CATALYSEUR 10.3; Nvidia version 197.17.

    VSync est désactivé.

    Tests synthétiques

    Les packages de tests synthétiques que nous utilisons peuvent être téléchargés ici:

    • D3D RightMark Bêta 4 (1050) avec une description sur le site http://3d.rightmark.org.
    • D3D RightMark Pixel Shading 2 et D3D RightMark Pixel Shading 3 - tests de lien de pixel shaders versions 2.0 et 3.0.
    • RightMark3D 2.0 avec une brève description:,.

    Comme nous n'avons pas nos propres tests synthétiques DirectX 11, nous avons dû utiliser des exemples de divers SDK et démos. Le premier est HDRToneMappingCS11.exe et NBodyGravityCS11.exe du SDK DirectX (février 2010).

    Nous avons également pris deux exemples des deux fabricants: Nvidia et AMD, afin que personne ne puisse prétendre à un quelconque biais. Les échantillons DetailTessellation11.exe et PNTriangles11.exe ont été extraits du SDK ATI Radeon (ils sont également dans DX SDK, d'ailleurs). Eh bien, du côté de Nvidia, deux programmes de démonstration ont été présentés: Realistic Character Hair et Realistic Water Terrain, qui devraient bientôt être disponibles en téléchargement sur le site Web de la société.

    Des tests synthétiques ont été réalisés sur les cartes vidéo suivantes:

    • Geforce GTX 480 GTX 480)
    • Geforce GTX 295 avec des paramètres standard (ci-après GTX 295)
    • Geforce GTX 285 avec des paramètres standard (ci-après GTX 285)
    • Radeon HD 5970 avec des paramètres standard (ci-après HD 5970)
    • Radeon HD 5870 avec des paramètres standard (ci-après HD 5870)

    Pour comparer les résultats du nouveau modèle Geforce GTX 480, ces cartes vidéo ont été choisies pour les raisons suivantes: Les Radeon HD 5870 et HD 5970 sont les modèles monopuce et à deux puces les plus productifs de son rival AMD, avec des prix les plus proches de la GTX 480. Avec les solutions de Nvidia, tout est encore plus simple: Geforce GTX 285 est la carte à puce unique la plus productive basée sur le GPU de la génération précédente, nous l'utiliserons pour juger des changements architecturaux, et GTX 295 est la carte double GPU la plus puissante de Nvidia avant la sortie de nouvelles solutions.

    Direct3D 9: Benchmarks de remplissage de pixels

    Le test détermine le taux maximal de texel en mode FFP pour un nombre différent de textures appliquées à un pixel:

    Notre test est un peu obsolète et les cartes vidéo qu'il contient n'atteignent pas les valeurs théoriquement possibles, mais il montre toujours correctement la vitesse de texturation maximale des cartes vidéo les unes par rapport aux autres. Comme d'habitude, les résultats des synthétiques n'atteignent pas les valeurs de crête; selon lui, il s'avère que la GTX 480 sélectionne jusqu'à 40 texels par cycle à partir de textures 32 bits avec filtrage bilinéaire dans ce test, ce qui est une fois et demie inférieur au chiffre théorique de 60 texels filtrés.

    Cela ne suffit pas pour accéder au moins à la GTX 285, qui récupère les données de texture 5 à 7% plus rapidement. Sans parler du rattrapage du HD 5870 concurrent, qui est plus d'une fois et demie productif, dans presque tous les modes, à en juger par nos synthétiques DX9. La carte double GPU de Nvidia a clairement été victime de problèmes logiciels, mais le HD 5970 est encore plus puissant que le HD 5870.

    La différence entre GTX 480 et GTX 285 est presque toujours la même, sauf pour les cas avec un petit nombre de textures, où la limitation de la bande passante mémoire affecte davantage. Et le HD 5870 n'est pas si avancé dans ces tests. Mais avec 4-8 textures, la différence devient plus grande, ce qui fait allusion au manque de vitesse de texturation du GF100 afin d'être toujours en avance sur le concurrent dans les applications de jeu obsolètes. Regardons les mêmes résultats dans le test du taux de remplissage:

    Le deuxième test synthétique montre le taux de remplissage, et nous y voyons la même situation, mais en tenant compte du nombre de pixels écrits dans le tampon d'image. Le résultat maximal reste avec les solutions AMD qui ont un plus grand nombre de TMU et sont plus efficaces pour atteindre une efficacité élevée dans notre test synthétique. Dans les cas de textures superposées de 0 à 3, la différence entre les solutions est bien moindre.Dans de tels modes, les performances sont limitées par la bande passante de la mémoire, tout d'abord.

    Direct3D 9: Benchmarks de Pixel Shaders

    Le premier groupe de pixel shaders que nous envisageons est très simple pour les puces vidéo modernes; il comprend diverses versions de programmes de pixels de complexité relativement faible: 1.1, 1.4 et 2.0, que l'on trouve dans les jeux plus anciens.

    Les tests sont très, très simples pour les architectures modernes et ne montrent pas toutes les capacités des GPU modernes, mais ils sont intéressants pour évaluer l'équilibre entre l'échantillonnage de texture et les calculs mathématiques, en particulier lors du changement d'architectures, ce qui s'est produit cette fois avec Nvidia.

    Dans ces tests, les performances sont principalement limitées par la vitesse des unités de texture, mais cette fois en tenant compte de l'efficacité des blocs et de la mise en cache des données de texture dans les tâches réelles. Voyons comment les changements d'architecture ont affecté, par rapport au GT200? On voit clairement que l'architecture a changé et que la nouvelle GTX 480 fonctionne mieux que la carte à puce unique basée sur l'architecture précédente. De plus, dans la plupart des tests, la GTX 480 rattrape la GTX 295 à double GPU, ce qui n'est pas mal en soi.

    La bande passante mémoire dans ces tests ne limite que légèrement les nouvelles solutions, et la vitesse dépend de la texturation, ce qui ne permet pas à la carte basée sur le GF100 d'afficher des résultats même au niveau de la Radeon HD 5870, sans parler de la solution dual-GPU d'AMD. Les cartes vidéo basées sur des puces Nvidia sont clairement à la traîne dans cet ensemble de tests, ce qui est un réveil pour nos autres tests, où la vitesse de texturation est importante. Regardons les résultats de programmes de pixels légèrement plus complexes des versions intermédiaires:

    Dans les tests de pixel shaders version 2.a, les choses sont encore pires par rapport à la vitesse des concurrents. Le test de rendu procédural de l'eau, qui dépend fortement de la vitesse de texturation, utilise un échantillonnage dépendant des textures à de grands niveaux d'imbrication, et les cartes sont toujours classées par vitesse de texturation, mais ajustées pour une efficacité d'utilisation différente de TMU.

    Les cartes basées sur les puces RV870 montrent les résultats maximaux, et la vitesse de la GTX 480 se situe quelque part entre les modèles à puce unique et à deux puces basés sur l'architecture GPU précédente. Faible, bien sûr, mais au moins plus rapide que la GTX 285, ce qui signifie une utilisation plus efficace des TMU existantes.

    Les résultats du second test sont presque les mêmes, bien qu'il soit plus intensif en calcul et toujours mieux adapté à l'architecture AMD avec un grand nombre d'unités de calcul. Les solutions modernes d'AMD sont très en avance ici, en particulier la variante à double GPU.

    La GTX 480 surpasse la GTX 285 de seulement 25% et accuse un retard par rapport au modèle à double GPU presque du même montant. Cela indique clairement la limitation des performances de la GTX 480 en raison du petit nombre de TMU par rapport à l'architecture de nouvelle génération. Nos préoccupations sont confirmées sous la forme de la principale faille dans l'architecture du GF100.

    Direct3D 9: benchmarks Pixel Shaders 2.0

    Ces tests de pixel shaders DirectX 9 sont plus complexes que les précédents, ils sont proches de ce que l'on voit dans les jeux multiplateformes, et se répartissent en deux catégories. Commençons par la version 2.0 des shaders plus simples:

    • Cartographie de parallaxe - la méthode de mappage de texture familière à la plupart des jeux modernes, décrite en détail dans l'article.
    • Verre congelé - texture procédurale complexe du verre congelé avec des paramètres contrôlés.

    Il existe deux variantes de ces shaders: avec un accent sur les calculs mathématiques et avec une préférence pour la récupération de valeurs à partir de textures. Envisagez des options mathématiques intensives qui sont plus prometteuses en termes d'applications futures:

    Ce sont des tests universels qui dépendent à la fois de la vitesse des ALU et de la vitesse de texturation; l'équilibre global de la puce y est important. On peut voir que les performances des cartes vidéo dans le test Frozen Glass sont limitées non seulement par les mathématiques, mais aussi par la vitesse de récupération des textures. La situation y est similaire à ce que nous avons vu un peu plus haut dans "Cook-Torrance", mais la nouvelle GTX 480 cette fois-ci est beaucoup plus proche du dual-GPU GTX 295 basé sur le GPU de l'ancienne architecture Nvidia. D'autre part, même le HD 5870 monopuce est encore loin devant.

    Dans le deuxième test "Parallax Mapping", les résultats sont à nouveau très similaires aux précédents. Cependant, cette fois, le HD 5870 ne s'est pas autant détaché des cartes Nvidia que lors du premier test. Voyons ce qui se passe ensuite, mais les jeux sont généralement plus multiformes que les synthétiques et ne reposent pas aussi clairement sur la texturation seule. Pourtant, le nombre d'unités de texture dans le GF100 est clairement insuffisant pour ces tâches obsolètes. Considérons les mêmes tests modifiés avec une préférence pour les échantillons de textures aux calculs mathématiques pour nous assurer que nos conclusions intermédiaires sont enfin:

    L'image est quelque peu similaire, mais les cartes AMD font mieux avec l'échantillonnage de texture, en particulier le double GPU HD 5970 est bien ici! Le héros d'aujourd'hui sous la forme d'une GTX 480 montre à nouveau un résultat moyen entre la GTX 285 et la GTX 295, car ici l'accent mis sur la performance sur la vitesse des unités de texture est encore plus clairement visible, et leur nombre pour la nouvelle architecture graphique puissante est encore clairement insuffisant pour le GF100.

    Mais ce sont des tâches dépassées, mettant l'accent sur la texturation, et pas particulièrement difficiles. Et maintenant, nous allons examiner les résultats de deux autres tests de pixel shader - la version 3.0, le plus difficile de nos tests de pixel shader pour Direct3D 9, qui sont beaucoup plus indicatifs du point de vue des jeux PC exclusifs modernes. Les tests diffèrent en ce sens qu'ils chargent plus lourdement les ALU et les unités de texture, les deux programmes de shader sont complexes et longs, et incluent un grand nombre de branches:

    • Cartographie de parallaxe raide - une technique de cartographie de parallaxe beaucoup plus "lourde", également décrite dans l'article.
    • Fourrure - un shader procédural qui rend la fourrure.

    Finalement! Voici une question complètement différente. Les deux tests PS 3.0 sont très complexes, ils ne dépendent pas du tout de la bande passante mémoire et de la texturation, ils sont purement mathématiques, mais avec un grand nombre de branches et de branches, ce que la nouvelle architecture GF100 semble gérer parfaitement.

    Dans ces tests, la GTX 480 montre sa vraie force et surpasse toutes les solutions, à l'exception du nouveau double GPU du concurrent. De plus, GTX 295 dans ces tests les plus difficiles est presque deux fois plus lent, et GTX 285 est généralement trois fois plus lent! Les résultats ont été clairement influencés par les changements architecturaux du nouveau GPU pour améliorer l'efficacité des calculs.

    Ainsi, avec la nouvelle architecture GF100, nous constatons un gain de performances très important dans les tests PS 3.0 les plus difficiles. Dans lequel le plus important n'est pas la puissance mathématique maximale des solutions AMD, mais l'efficacité de l'exécution de programmes de shader complexes avec des transitions et des branches. Eh bien, la puissance mathématique doublée, par rapport au GT200, a également affecté. C'est un très bon résultat, car il en coûte cher de dépasser la solution de l'architecture AMD, qui dispose d'un plus grand nombre d'unités d'exécution ALU.

    Direct3D 10: Tests de pixel shader PS 4.0 (texturation, boucles)

    La deuxième version de RightMark3D comprend deux tests PS 3.0 familiers pour Direct3D 9, qui ont été réécrits pour DirectX 10, ainsi que deux nouveaux tests supplémentaires. La première paire ajoute la possibilité d'activer l'auto-ombrage et le suréchantillonnage de shader, ce qui augmente en outre la charge sur les puces vidéo.

    Ces tests mesurent les performances de l'exécution de pixel shaders avec des boucles, avec un grand nombre d'échantillons de texture (dans le mode le plus lourd, jusqu'à plusieurs centaines d'échantillons par pixel) et une charge ALU relativement faible. En d'autres termes, ils mesurent le taux d'échantillonnage de texture et l'efficacité de branchement dans un pixel shader.

    Le premier test de pixel shader sera Fur. Aux réglages les plus bas, il utilise 15 à 30 échantillons de texture de la carte de hauteur et deux échantillons de la texture principale. Détail de l'effet - Le mode «High» augmente le nombre d'échantillons jusqu'à 40-80, permettant le suréchantillonnage «shader» - jusqu'à 60-120 échantillons, et le mode «High» avec SSAA diffère par sa «gravité» maximale - de 160 à 320 échantillons de la carte de hauteur.

    Commençons par vérifier les modes sans suréchantillonnage activé, ils sont relativement simples et le rapport des résultats dans les modes «Low» et «High» devrait être approximativement le même.

    Les performances dans ce test dépendent à la fois du nombre et de l'efficacité des TMU, et du taux de remplissage avec la bande passante mémoire dans une moindre mesure. Les résultats dans «High» sont environ une fois et demie inférieurs à «Low», comme cela devrait être selon la théorie. Dans les tests Direct3D 10 de rendu procédural de la fourrure avec un grand nombre de récupérations de texture, les solutions de Nvidia sont traditionnellement fortes, mais la dernière architecture AMD s'en est déjà rapprochée.

    La GTX 480 est presque un tiers plus rapide que la GTX 285, mais est en deçà de la GTX 295, que nous avons vue dans nos benchmarks DX9. Il parle davantage de l'influence du taux de remplissage et de la bande passante mémoire, où la nouvelle solution Nvidia a un avantage sur la carte à puce unique de la série précédente. Le GF100 est à peu près le même en vitesse et par rapport aux deux cartes basées sur le RV870. Regardons le résultat du même test, mais avec le suréchantillonnage "shader" activé, qui multiplie par quatre le travail, peut-être que dans une telle situation quelque chose changera, et la bande passante mémoire avec le taux de remplissage affectera moins:

    L'activation du suréchantillonnage quadruple théoriquement la charge, et cette fois, la Geforce GTX 480 perd du terrain, assez curieusement. Et les deux Radeon deviennent un peu plus forts. La différence entre GTX 480 et GTX 285 est très faible, ce qui parle très probablement d'un accent mis sur la texturation. Ou la bande passante mémoire, qui dans la GTX 480 n'a pas trop augmenté par rapport à la GTX 285. L'impact des performances de l'ALU et du branchement efficace n'est clairement pas vu dans ce test.

    Le deuxième test qui mesure les performances de shaders de pixels complexes avec des boucles avec un grand nombre de récupérations de texture s'appelle Steep Parallax Mapping. À des réglages bas, il utilise 10 à 50 échantillons de texture de la carte de hauteur et trois échantillons des textures principales. Lorsque vous activez le mode lourd avec auto-ombrage, le nombre d'échantillons double et le suréchantillonnage augmente ce nombre quatre fois. Le mode de test le plus complexe avec suréchantillonnage et auto-ombrage sélectionne de 80 à 400 valeurs de texture, soit huit fois plus que le mode simple. Nous vérifions d'abord les options simples sans suréchantillonnage:

    Ce test est plus intéressant d'un point de vue pratique, car des variétés de cartographie de parallaxe sont utilisées depuis longtemps dans les jeux, et des options lourdes comme notre cartographie de parallaxe abrupte sont utilisées dans de nombreux projets, par exemple dans Crysis et Lost Planet. De plus, dans notre test, en plus du suréchantillonnage, vous pouvez activer l'auto-shadowing, qui double la charge sur la puce vidéo, ce mode est appelé «High».

    Le diagramme répète presque complètement le précédent, montrant des résultats similaires même en nombres absolus. Dans la version D3D10 mise à jour du test sans suréchantillonnage, la GTX 480 fait un peu mieux face à la tâche que le haut à puce unique de la génération précédente, mais est en retard sur la GTX 295 à double GPU.En outre, la nouvelle carte vidéo basée sur le GF100 surpasse légèrement son rival HD 5870, dont la version double GPU devient la gagnante au classement absolu.

    Voyons ce qui va changer l'inclusion du suréchantillonnage, cela provoque toujours une baisse de vitesse légèrement plus importante sur les cartes Nvidia.

    Lorsque le suréchantillonnage et l'auto-ombrage sont activés, la tâche devient plus difficile, l'inclusion simultanée de deux options à la fois augmente la charge sur les cartes près de huit fois, entraînant une forte baisse des performances. La différence entre les indicateurs de vitesse de plusieurs cartes vidéo a changé, l'inclusion du suréchantillonnage affecte le même que dans le cas précédent - les cartes fabriquées par AMD ont clairement amélioré leurs indicateurs par rapport à la solution Nvidia.

    Les deux cartes à double GPU restent en avance sur la GTX 480, mais cette fois, la nouvelle solution perd un peu face à son concurrent direct HD 5870. On dirait que ce sera le cas dans les tests de jeu - quelque part, la GTX 480 sera loin devant, mais quelque part elle sera légèrement en retard ... Cependant, la carte basée sur le GF100 surpasse au moins son prédécesseur, notablement en mode facile, et un peu en mode lourd. Les changements architecturaux du nouveau GPU de Nvidia n'ont malheureusement pas donné beaucoup d'avantage dans ces tests.

    Direct3D 10: Benchmarks de Pixel Shader PS 4.0 (calcul)

    Les prochains tests de pixel shader contiennent le nombre minimum de récupérations de texture pour réduire l'impact des performances de TMU. Ils utilisent un grand nombre d'opérations arithmétiques et mesurent exactement les performances mathématiques des puces vidéo, la vitesse d'exécution des instructions arithmétiques dans un pixel shader.

    Le premier test de mathématiques est Mineral. Il s'agit d'un test de texturation procédurale complexe qui n'utilise que deux échantillons de données de texture et 65 instructions telles que sin et cos.

    Mais dans les tests mathématiques, on devrait voir de gros changements, puisque le GPU GF100 se distingue par deux fois la puissance ALU par rapport au GT200. Cependant, en théorie, les solutions AMD dans nos tests synthétiques devraient être encore plus rapides, car dans les tâches complexes en termes de calcul, l'architecture AMD moderne a un net avantage sur les concurrents de Nvidia. La position se confirme cette fois, même si la nouvelle GTX 480 a réduit l'écart entre les cartes Nvidia et AMD, mais elle est restée plus d'une fois et demie.

    Mais la comparaison avec GTX 285 et GTX 295 s'est avérée intéressante. Cette fois, Nvidia n'a pas réussi à dépasser l'ancienne carte à double GPU de la génération précédente par une double différence par rapport à la précédente carte à puce unique. Cela confirme la conclusion que ce test ne dépend pas complètement de la vitesse de l'ALU, mais les résultats ne peuvent être attribués à la différence de bande passante mémoire. Le GF100 n'a réalisé que 38% de gain par rapport à la GTX 285, ce qui est très étrange et très, très petit, à notre avis.

    Jetons un coup d'œil au deuxième test de calcul de shader appelé Fire. C'est plus lourd pour ALU, et il n'y a qu'une seule extraction de texture dedans, et le nombre d'instructions comme sin et cos est doublé, à 130. Voyons ce qui a changé avec l'augmentation de la charge:

    Dans le deuxième test, la vitesse de rendu est limitée presque exclusivement par les performances des unités de shader, mais la différence entre la GTX 285 et la GTX 480 est encore trop petite - seulement 58%, même si en théorie elle devrait être plus proche d'une double différence. Mais la nouvelle solution a au moins rattrapé le double GPU GTX 295, contrairement au test précédent. Cependant, les concurrents face à la Radeon HD 5870 et plus encore à la HD 5970 dans ce test montrent une vitesse beaucoup plus élevée.

    Résumer les tests mathématiques D3D10. Toutes les cartes vidéo Nvidia sont loin derrière, même le nouveau GF100 est presque deux fois plus lent que son concurrent dans les tâches synthétiques de pointe! Et tout cela malgré le fait que la GTX 480 est théoriquement presque deux fois plus rapide que la version monopuce de la GTX 285. La réalité montre un chiffre beaucoup plus bas et Nvidia n'a même pas réussi à se rapprocher des cartes AMD dans de simples tests mathématiques.

    En général, le résultat des calculs mathématiques extrêmes reste cette fois inchangé - un avantage clair et indiscutable des solutions AMD, qui n'a pas changé la sortie de la gamme GTX 400. Regardons les résultats des tests de shaders géométriques - là une nouvelle solution devrait être forte car non autre.

    Direct3D 10: benchmarks de geometry shader

    Le package RightMark3D 2.0 contient deux tests de vitesse des shaders géométriques, la première version s'appelle "Galaxy", la technique est similaire aux "sprites ponctuels" des versions précédentes de Direct3D. Il anime un système de particules sur un GPU, un shader de géométrie crée quatre sommets à partir de chaque point, formant une particule. Des algorithmes similaires devraient être largement utilisés dans les futurs jeux DirectX 10.

    La modification de l'équilibrage dans les tests d'ombrage de la géométrie n'affecte pas le résultat final du rendu, l'image finale est toujours exactement la même, seules les méthodes de traitement de la scène changent. Le paramètre "GS load" détermine dans quel shader les calculs sont effectués - en vertex ou géométrique. Le nombre de calculs est toujours le même.

    Considérons la première variante du test Galaxy, avec des calculs dans un vertex shader, pour trois niveaux de complexité géométrique:

    Le rapport des vitesses avec une complexité géométrique différente des scènes est à peu près le même pour toutes les solutions, les performances correspondent au nombre de points, à chaque pas la baisse du FPS est d'environ deux fois. La tâche des cartes vidéo modernes n'est pas particulièrement difficile et les performances globales sont limitées par la vitesse de traitement de la géométrie et ne sont pas limitées par la bande passante de la mémoire.

    Et c'est là que le nouveau GPU montre sa vraie force. La Geforce GTX 480 dans tous les modes affiche des résultats proches de la solution double GPU du concurrent, surpassant d'une fois et demie la HD 5870 et la carte double GPU basée sur GT200. Excellent résultat! Comme prévu, l'exécution des shaders géométriques dans le GF100 est très, très efficace, environ 2,5 fois plus rapide que le GT200. Voyons si la situation change lorsque nous transférons une partie des calculs vers le geometry shader:

    Non, les chiffres sont restés pratiquement inchangés lorsque la charge a changé dans ce test. Toutes les cartes de ce test ne remarquent pas de changements dans le paramètre de charge GS, qui est responsable du transfert d'une partie des calculs vers le geometry shader, et affichent des résultats similaires au diagramme précédent. Voyons ce qui va changer dans le prochain test, qui suppose une lourde charge sur les shaders géométriques.

    Hyperlight est le deuxième test de shader de géométrie, démontrant l'utilisation de plusieurs techniques à la fois: instanciation, sortie de flux, charge de tampon. Il utilise la création dynamique de géométrie en utilisant le rendu dans deux tampons, ainsi qu'une nouvelle sortie de flux de fonctionnalités Direct3D 10. Le premier shader génère la direction des rayons, la vitesse et la direction de leur croissance, ces données sont placées dans un buffer qui est utilisé par le second shader pour le rendu. Pour chaque point du rayon, 14 sommets sont construits dans un cercle, jusqu'à un million de points de sortie au total.

    Un nouveau type de programme de shader est utilisé pour générer des "rayons", et avec le paramètre "GS load" réglé sur "Heavy" - également pour leur rendu. Autrement dit, dans le mode "Équilibré", les shaders de géométrie sont utilisés uniquement pour créer et "faire croître" des rayons, la sortie est effectuée en utilisant "l'instanciation", et en mode "Lourd", le shader de géométrie est également impliqué dans la sortie. Considérons d'abord le mode lumière:

    Les deux configurations à double GPU se sont montrées comme d'habitude dans ce test, Geforce GTX 295 et Radeon HD 5970. Apparemment, ce test est incompatible avec la méthode de rendu multi-GPU AFR. Pour le reste, les résultats relatifs dans différents modes correspondent à la charge: dans tous les cas, les performances évoluent bien et sont proches des paramètres théoriques, selon lesquels chaque niveau suivant de «Polygon count» devrait être moins de deux fois plus lent.

    Dans ce test, les performances de la nouvelle Geforce GTX 480 ne sont que légèrement plus rapides que la vitesse de la Radeon HD 5870 en mode difficile, mais à la lumière la différence est plus notable. Comparer la GTX 480 avec la GTX 285 basée sur le GPU de la génération précédente est généralement ridicule, la nouvelle puce vidéo est environ deux fois plus rapide.

    Les nombres devraient changer dans le diagramme suivant, dans un test avec une utilisation plus active des shaders géométriques. Il sera également intéressant de comparer les résultats obtenus en modes «Équilibré» et «Lourd» entre eux.

    Il est temps d'être à nouveau surpris par les capacités de traitement de la géométrie du GF100 et la vitesse d'exécution du geometry shader. C'est exactement le résultat pour lequel les modifications globales ont été apportées dans le pipeline graphique GF100. Bien que l'exécution des shaders géométriques ait été bien améliorée à la fois dans le GT200 et le RV870, le GF100 les met en pièces dans cette tâche.

    La nouvelle GTX 480 dans ce test est presque deux fois plus rapide que la Radeon HD 5870 et jusqu'à 2,75 fois plus rapide que son prédécesseur monopuce, la GTX 285. Les ingénieurs de Nvidia ont essayé d'améliorer l'efficacité du traitement de la géométrie de l'architecture précédente, et ils ont clairement réussi. Toutes les solutions précédentes ne sont tout simplement pas capables d'effectuer des shaders de géométrie aussi efficacement. Que se passera-t-il dans les tests de pavage, qui devraient montrer une différence encore plus grande, basée sur la théorie? Mais ne regardons pas trop loin.

    Direct3D 10: vitesse de récupération des textures à partir de vertex shaders

    Les tests Vertex Texture Fetch mesurent la vitesse d'un grand nombre de textures à partir du vertex shader. Les tests sont similaires par essence et le rapport entre les résultats des cartes dans les tests «Terre» et «Vagues» doit être approximativement le même. Dans les deux tests, il est utilisé sur la base de données d'échantillonnage de texture, la seule différence significative est que le test Waves utilise des transitions conditionnelles, contrairement à la Terre.

    Prenons le premier test "Earth", d'abord dans le mode "Effect detail Low":

    Des recherches antérieures ont montré que la vitesse de texturation et la bande passante mémoire affectent les résultats de ce test. Mais la différence entre les solutions est très faible. La GTX 480 montre un résultat similaire à la GTX 295 à double GPU, surpasse légèrement la HD 5870, mais est légèrement inférieure dans tous les modes à la Radeon HD 5970 la plus productive de ce test.Les résultats sont clairement étranges ... Regardons les performances dans le même test avec un nombre accru de récupérations de texture :

    La position relative des cartes sur le diagramme a légèrement changé, cela peut être vu par les indicateurs légèrement détériorés de presque toutes les cartes. Sauf la GTX 480 que nous examinons aujourd'hui, elle n'a presque pas perdu en performances par rapport au même test dans des conditions de luminosité. C'est ce que cela signifie - une efficacité accrue des unités de texture et en particulier du sous-système de mise en cache. Désormais, la nouvelle carte basée sur GF100 est la plus rapide avec des polygones moyens et élevés et est à égalité avec les cartes à double GPU dans le mode le plus simple.

    Considérons les résultats du deuxième test de récupération de texture à partir de vertex shaders. Le test Waves a un plus petit nombre d'échantillons, mais il utilise des sauts conditionnels. Le nombre d'échantillons de texture bilinéaire dans ce cas est jusqu'à 14 ("Effect detail Low") ou jusqu'à 24 ("Effect detail High") pour chaque sommet. La complexité de la géométrie change de la même manière que dans le test précédent.

    Fait intéressant, les résultats du test Waves ne sont pas similaires à ceux que nous avons vus dans les graphiques précédents. L'avantage des produits AMD a légèrement augmenté, et maintenant la GTX 480 affiche des performances similaires à celles du HD 5870 et de la Geforce GTX 295, perdant légèrement face à son concurrent dans le secteur lourd. La précédente solution haut de gamme de Nvidia sur une seule puce est laissée pour compte, le nouveau modèle de la famille Geforce GTX 400 est en avance, bien que peu de fois. Considérons la deuxième variante du même test:

    Encore une fois, il n'y a presque aucun changement, bien qu'avec la complexité croissante des conditions, les résultats du dernier GPU Nvidia dans le deuxième test d'échantillons de vertex se sont légèrement améliorés, par rapport à la vitesse des cartes vidéo AMD. L'avantage par rapport au HD 5870 est petit, mais il y en a, et la nouvelle carte à puce unique a fait face à la Geforce GTX 295, à l'exception du mode le plus léger.

    3DMark Vantage: tests de fonctionnalités

    Dans cette revue, nous avons à nouveau décidé d'inclure des tests synthétiques du package 3DMark Vantage. Bien que le package ne soit plus nouveau, ses tests de fonctionnalités prennent en charge D3D10 et sont intéressants car ils diffèrent du nôtre. Lors de l'analyse des résultats de la nouvelle solution Nvidia dans ce package, nous serons en mesure de tirer des conclusions nouvelles et utiles qui nous ont échappé dans les tests RightMark.

    Test de fonctionnalité 2: Remplissage de couleur

    Test du taux de remplissage. Un pixel shader très simple est utilisé sans limitation de performances. La valeur de couleur interpolée est écrite dans le tampon hors écran (cible de rendu) à l'aide de la fusion alpha. Un tampon hors écran FP16 16 bits est utilisé, qui est le plus souvent utilisé dans les jeux qui utilisent le rendu HDR, ce test est donc assez opportun.

    Les performances de ce test ne correspondent pas à ce que nous avons vu dans nos tests similaires, même en tenant compte de différents formats: nous utilisons un tampon d'entiers avec 8 bits par composant, et dans le test Vantage, une virgule flottante de 16 bits. Les nombres Vantage sont moins indicatifs des performances ROP, mais plutôt une quantité approximative de bande passante mémoire. Pour les cartes dual-GPU, les choses sont un peu plus compliquées, la GTX 295 affiche un chiffre inférieur à ce qu'il devrait.

    Les résultats des tests correspondent approximativement aux chiffres théoriques et dépendent de la largeur du bus mémoire, de son type et de sa fréquence. GTX 285 montre un bon résultat grâce à l'utilisation de la mémoire 512 bits, et GTX 480 n'est pas trop en avance sur lui en raison du fait que la mémoire GDDR5 fonctionne à une fréquence pas particulièrement élevée et que la largeur du bus mémoire correspond à 384 bits. Eh bien, la Radeon HD 5870 est également quelque part à proximité, bien qu'elle ne dispose que d'un bus mémoire de 256 bits, mais GDDR5 est assez rapide.

    Malgré l'utilisation de la mémoire GDDR5 avec une bande passante mémoire plus élevée, la nouvelle solution de Nvidia associée au HD 5870 ne montre que le résultat légèrement supérieur au niveau de la GTX 285, qui dispose d'un bus de 512 bits et d'une mémoire GDDR3. Cela peut servir de limitation potentielle des performances dans le cas de l'utilisation de tampons de rendu au format FP16, ce qui est massivement observé dans les jeux modernes.

    Test de fonctionnalité 3: Cartographie d'occlusion de parallaxe

    L'un des tests de fonctionnalités les plus intéressants, car une technique similaire est déjà utilisée dans les jeux. Il dessine un quadrilatère (plus précisément deux triangles) en utilisant une technique spéciale appelée Parallax Occlusion Mapping, qui simule une géométrie complexe. Un traçage de rayons très gourmand en ressources et une carte de profondeur haute résolution sont utilisés. Cette surface est également ombrée à l'aide de l'algorithme lourd de Strauss. Il s'agit d'un test d'un pixel shader très complexe et lourd en GPU contenant de nombreuses sélections de texture pour le lancer de rayons, les branches dynamiques et les calculs d'éclairage complexes à l'aide de Strauss.

    Le test diffère des autres en ce qu'il dépend non seulement de la puissance du shader, de l'efficacité de l'exécution de la branche et de la vitesse de récupération de la texture séparément, mais d'un peu de tout. Et pour atteindre une vitesse élevée, un équilibre compétent entre les blocs GPU et la bande passante de la mémoire vidéo est important. Affecte fortement le test et l'efficacité de la ramification dans les shaders.

    Malheureusement, la GTX 480 est médiocre dans ce test, seulement 23% plus rapide que la précédente solution monopuce, la GTX 285. La carte vidéo Nvidia présentée aujourd'hui est à la traîne derrière la GTX 295 à double GPU et le principal concurrent Radeon HD 5870, et la double-GPU HD 5970 sont restés totalement hors de portée.

    On ne sait pas très bien ce qui a influencé si négativement les résultats de ce test. Le défaut est peut-être la faible vitesse de récupération des textures, qui sont activement utilisées dans le test, car l'efficacité de branchement du GF100 est assez élevée, ce qui a été prouvé par nos tests des pixel shaders de la troisième version. Les solutions de Nvidia ont toujours été efficaces dans ce test, mais le HD 5870 surpasse même la nouvelle GTX 480. Se pourrait-il que le GF100 fasse de son mieux dans les tests de simulation physique?

    Test des fonctionnalités 4: Tissu GPU

    Le test est intéressant en ce qu'il calcule les interactions physiques (imitation tissulaire) à l'aide d'une puce vidéo. La simulation de sommet est utilisée, en utilisant un travail combiné de shaders de vertex et de géométrie, avec plusieurs passes. Utilisez stream out pour transférer des sommets d'une passe de simulation à une autre. Ainsi, les performances de l'exécution des shaders de vertex et de géométrie et la vitesse de diffusion sont testées.

    Nous pouvons immédiatement rejeter les performances des cartes à double GPU, elles correspondent clairement à la vitesse des analogues à un seul GPU (chaque puce des HD 5970 et GTX 295 fonctionne à une fréquence inférieure à celle des HD 5870 et GTX 285). La vitesse de rendu dépend ici des performances de traitement de la géométrie et de l'exécution du shader de géométrie. Même la GTX 285 se comporte bien dans ce test, juste légèrement derrière la HD 5870, et la nouvelle GTX 480 a une fois de plus montré ses atouts.

    Dans ce test, le GF100 est presque deux fois plus productif que la solution précédente, ce qui correspond bien à la puissance de shader deux fois améliorée de la nouvelle puce. L'avance sur la Radeon HD 5870 concurrente est tout aussi impressionnante. En général, le héros de notre aujourd'hui peut se voir attribuer le statut de leader dans l'exécution des shaders géométriques et la vitesse de traitement de la géométrie en général, comme il se doit en théorie.

    Test de fonctionnalités 5: Particules GPU

    Test de simulation physique d'effets basés sur des systèmes de particules calculés à l'aide d'une puce vidéo. La simulation de sommet est également utilisée, chaque sommet représente une seule particule. Stream out est utilisé dans le même but que dans le test précédent. Plusieurs centaines de milliers de particules sont calculées, toutes sont animées séparément, et leurs collisions avec la carte de hauteur sont également calculées. Semblable à l'un des tests de notre RightMark3D 2.0, les particules sont rendues à l'aide d'un shader de géométrie, qui crée quatre sommets à partir de chaque point, formant une particule. Mais le test, surtout, charge les unités de shader avec des calculs de sommets, le flux sortant est également testé.

    Un résultat encore plus fort est évident. Dans les tests de simulation de tissus et de particules synthétiques de Vantage, qui utilisent des shaders de géométrie, la nouvelle puce GF100 laisse simplement tous ses concurrents dans la poussière. Cette fois, il surpasse de près de trois fois le GPU Nvidia précédent, et la Radeon HD 5870 concurrente obtient des scores environ deux fois plus mauvais dans le test de simulation de particules.

    Les résultats des multi-puces sont à nouveau les mêmes - la carte AMD et Nvidia n'ont clairement pas la méthode de rendu multi-puces, car les résultats des calculs de la trame actuelle sont utilisés dans la suivante, ce qui les empêche de commencer à la calculer avant la fin du rendu de la trame actuelle. C'est la faiblesse évidente des cartes à double GPU, elles ne peuvent pas fonctionner efficacement lorsque la trame utilise les données de la précédente.

    Test de fonctionnalités 6: Bruit de Perlin

    Le dernier test de fonctionnalité du package Vantage est un test mathématiquement intensif de la puce vidéo, il calcule plusieurs octaves de l'algorithme de bruit Perlin dans un pixel shader. Chaque canal de couleur utilise sa propre fonction de bruit pour plus de charge sur la puce vidéo. Le bruit de Perlin est un algorithme standard souvent utilisé dans la texturation procédurale et utilise beaucoup de mathématiques.

    Le test des fonctionnalités mathématiques de la suite de tests Futuremark montre la performance pure des puces vidéo dans les tâches extrêmes. Les performances qui y sont montrées sont en bon accord avec ce qui devrait être obtenu en théorie, et correspondent en partie à ce que nous avons vu ci-dessus dans nos propres tests mathématiques de RightMark 2.0. Mais dans ce test, la différence entre les solutions est encore plus grande.

    Ainsi, dans ce test mathématique, la GTX 480 basée sur le nouveau GF100 a finalement surpassé la GTX 285 exactement deux fois, ce qui est conforme à la théorie. Mais l'écart entre la nouvelle solution et le HD 5870 s'est avéré trop grand - 1,7 fois. Nous n'envisageons pas encore le HD 5970 à double puce ...

    En général, les cartes vidéo AMD surpassent naturellement les concurrents de Nvidia dans ce test, mais la nouvelle solution basée sur le GPU Nvidia GF100 a quand même réussi à s'en approcher. Rappelez-vous que ce test de mathématiques est assez simple et est conçu pour montrer des performances proches du pic théorique. Dans les tests de calcul plus complexes, tels que les calculs physiques, une image légèrement différente est obtenue. Des calculs simples mais intenses sont exécutés beaucoup plus rapidement sur les cartes AMD.

    Direct3D 11: shaders de calcul et de géométrie

    Pour tester les nouvelles solutions de Nvidia et AMD sur des tâches utilisant les capacités DirectX 11, nous avons utilisé des exemples des SDK de Microsoft, AMD et Nvidia, ainsi que certaines de leurs démos.

    Tout d'abord, regardons les tests utilisant un nouveau type de shader - Compute. Leur apparition est l'une des innovations les plus importantes des dernières versions de l'API DX, elles sont utilisées pour diverses tâches: post-traitement, simulations, etc. Le premier test montre un exemple de rendu HDR avec mappage de tons du SDK DirectX avec post-traitement utilisant des shaders de pixel ou de calcul.

    Il faut admettre la nette victoire de la solution monopuce d'AMD sur la nouvelle Nvidia Geforce GTX 480 dans ce test. La carte de la nouvelle puce GF100 annoncée aujourd'hui est à la traîne de la Radeon HD 5870 concurrente dans les deux modes, en utilisant à la fois des shaders de pixels et de calcul. De plus, le décalage est assez perceptible - jusqu'à une fois et demie. Le double GPU HD 5970 n'a qu'un seul GPU dans ce test, son résultat est donc encore plus bas que celui du HD 5870.

    Le deuxième benchmark de calcul de shader, également tiré du SDK DirectX de Microsoft, montre le problème de gravité informatique à N corps - une simulation d'un système de particules dynamiques qui est affecté par des forces physiques telles que la gravité.

    Et dans ce test de calcul, la nouvelle solution Nvidia perd à nouveau face à son concurrent le plus proche, la Radeon HD 5870. Dans ce cas, il est d'environ 25%, ce qui est également beaucoup. Le HD 5970 à double puce échoue une fois de plus à montrer ses capacités et se limite au fonctionnement de l'un des deux GPU installés sur la carte.

    Le prochain test est un programme de démonstration de Nvidia appelé Realistic Character Hair. Il n'utilise pas un code purement synthétique de shaders de calcul ou de géométrie, mais un complexe de shaders et de tessellation géométriques et informatiques, il est donc un peu plus proche des problèmes réels que de la pure synthèse des deux premiers tests.

    Dans ce test, cependant, le nouveau GPU de Nvidia fonctionne bien, bien devant le Radeon HD 5870 à une seule puce et le double GPU HD 5970, dont le deuxième GPU a de nouveau échoué. Dans le même temps, non seulement la différence de performances entre les cartes à puce unique jusqu'à 1,5-1,8 fois est intéressante, mais également leur comportement différent lorsque la tessellation matérielle est activée.

    La nouvelle carte graphique Geforce GTX 480 basée sur la puce GF100 dans ce cas accélère de 15% lorsque la tessellation est activée, et la solution AMD basée sur RV870 ralentit de près de 5%. En d'autres termes, dans ce cas, la tessellation est bénéfique pour la solution de Nvidia, mais pas pour AMD. Apparemment, cela est dû à l'organisation différente du convoyeur géométrique, à la prise en compte des performances dont nous allons maintenant passer.

    Direct3D 11: Performances de tessellation

    La tessellation matérielle est à juste titre considérée comme l'innovation la plus importante de Direct3D 11. Nous l'avons examiné en détail dans notre article théorique sur le Nvidia GF100. Il existe plusieurs schémas de partitionnement des primitives graphiques (pavages). Par exemple, la tessellation phong, les triangles PN, la subdivision Catmull-Clark.

    La tessellation a déjà commencé à être utilisée dans les premiers jeux DirectX 11, tels que STALKER: Call of Pripyat, DiRT 2, Aliens vs Predator, Metro 2033. Dans certains d'entre eux, la tessellation est utilisée pour les modèles de personnages (tous les jeux du genre FPS répertoriés), dans d'autres, pour l'imitation surface d'eau réaliste (DiRT 2). Le schéma PN Triangles est utilisé dans STALKER: Call of Pripyat, dans Metro 2033 - tessellation Phong. Ces méthodes sont introduites relativement rapidement et facilement dans le processus de développement du jeu et les moteurs existants, ce qui a été fait.

    Le premier test de tessellation que nous aurons est l'exemple de tessellation de détail du SDK ATI Radeon. En fait, il montre non seulement la tessellation, mais aussi deux techniques de bumpmapping différentes: la cartographie normale des cartes normales et la cartographie d'occlusion de parallaxe. Eh bien, comparons les solutions DirectX 11 de Nvidia et AMD dans différentes conditions:

    La première conclusion suggère la suivante: la technique de cartographie d'occlusion de parallaxe par pixel (barres du milieu dans le diagramme) est réalisée moins efficacement sur Geforce GTX 480 et RADEIN HD 5870 que la tessellation (barres inférieures). Autrement dit, la simulation de la géométrie à l'aide de calculs de pixels offre des performances inférieures à la géométrie réelle rendue à l'aide de la tessellation. C'est d'ailleurs la promesse de la tessellation où la cartographie de parallaxe est maintenant utilisée.

    Ensuite, en ce qui concerne les performances des cartes GTX 480 et AMD les unes par rapport aux autres. Le double GPU HD 5970 est en avance sur les variantes à un seul GPU, ce qui est tout à fait compréhensible. Mais la GTX 480 a 5 à 15% d'avance sur la HD 5870. Plus avec la tessellation activée, moins avec les calculs par pixel. Ce qui est conforme à nos attentes - dans les jeux avec uniquement le support DX9 ou DX10, la différence entre la GTX 480 et la HD 5870 devrait également être moindre que dans les jeux DX11 avec tessellation.

    Comme deuxième test pour les performances de tessellation, nous aurons un autre exemple pour les développeurs 3D du SDK ATI Radeon - PN Triangles. En fait, les deux exemples sont également inclus dans le SDK DX, de sorte que de nombreux développeurs de jeux créeront leur code en fonction d'eux. Nous avons testé cet exemple avec un facteur de tessellation différent pour voir dans quelle mesure un changement affecte les performances globales.

    Dans cet exemple, peut-être, nous avons d'abord vu la vraie puissance géométrique de l'architecture graphique du GF100. Oui, il ne s'agit que d'un test synthétique et il est peu probable que de tels rapports de division extrêmes soient utilisés au début. Mais des synthétiques sont nécessaires pour aider à évaluer les perspectives de solutions aux problèmes futurs.

    Et Geforce GTX 480 montre ici parfaitement ce dont le GF100 est capable dans les tâches de tessellation. La puce unique est plusieurs fois en avance sur la carte à double puce du concurrent. L'avantage sur le HD 5970 atteint quatre fois, et le HD 5870 monopuce dans ce test est vaincu avec un score écrasant. En fait, le GF100 permet quelques pas de plus de facteur de tessellation que le RV870. C'est ce que signifie être une architecture spécialement conçue avec la nouvelle API de tessellation à l'esprit.

    Mais jetons un coup d'œil à une autre référence, la démo Nvidia Realistic Water Terrain, également connue sous le nom d'île. D'ailleurs, l'auteur de ce programme est Timofey Cheblokov, alias Smalltim, connu des passionnés de 3D. Sa démonstration sur l'île utilise la tessellation et la cartographie des déplacements pour rendre réalistes les surfaces océaniques et de terrain. Elle a l'air très bien:

    En général, Island n'est pas un test purement synthétique pour la tessellation, mais contient des shaders de pixels et de calcul plutôt complexes, de sorte que la différence de performances peut être moindre que dans le cas précédent, mais cette position sera plus proche de la réalité.

    Dans ce cas, nous avons testé la démo à quatre taux de tessellation différents, ici ce paramètre est appelé Dynamic Tessellation LOD. Si, au rapport de division le plus bas, la carte du GF100 n'est que légèrement en avance sur la version monopuce d'AMD, et même inférieure à la HD 5970, alors avec une augmentation du rapport de division et de la complexité de la scène finale, les performances de la GTX 480 ne diminuent pas autant que la vitesse de rendu des solutions concurrentes.

    En conséquence, nous avons à nouveau eu une situation où la puce GF100 de la nouvelle architecture graphique de Nvidia offre des performances de pavage similaires à celles du RV870 avec une complexité de scène considérablement différente. Ainsi, avec un ratio LOD maximum de 100 dans ce programme, la GTX 480 affiche les mêmes performances que la Radeon HD 5870, mais avec un ratio de seulement 25 - c'est-à-dire avec plusieurs fois plus de triangles (28 millions contre 4 millions dans ce cas ). C'est juste une énorme différence!

    Conclusions sur les tests synthétiques

    Sur la base des résultats des tests synthétiques du nouveau modèle Nvidia Geforce GTX 480 basé sur le GPU GF100, ainsi que des résultats d'autres modèles de cartes vidéo des principaux fabricants de puces vidéo, nous pouvons conclure qu'il s'agit d'une architecture graphique Nvidia très puissante, qui a considérablement amélioré les performances et Opportunités. Les nouveaux modèles de cartes vidéo basés sur GF100 sont devenus l'un des plus rapides parmi tous ceux à puce unique.

    L'augmentation du nombre d'unités de traitement de géométrie et leur fonctionnement en parallèle ont considérablement amélioré les performances des shaders de tessellation et de géométrie. Dans les tâches de tessellation synthétique, la nouvelle solution de Nvidia n'a tout simplement pas d'égal. Même une solution à double GPU n'aide pas le concurrent, et même en comparant des cartes vidéo avec un seul GPU, la solution basée sur GF100 l'emporte dans de tels tests sur la meilleure carte basée sur RV870 jusqu'à 4-6 fois. Et jusqu'à la sortie de l'architecture d'un concurrent, spécialement durcie pour un traitement efficace de la géométrie, la situation ne changera pas.

    Si nous jugeons les performances des applications 3D sans tessellation, nous pouvons supposer que les tests de jeu seront les mêmes que dans nos tests synthétiques - quelque part, la Geforce GTX 480 sera en avance sur le concurrent, et quelque part elle sera un peu en retard. De plus, il ne devrait pas y avoir de pertes trop importantes, car il n'y a pas de jeux qui seraient complètement limités par des calculs mathématiques ou des performances d'échantillonnage de texture - les seuls paramètres par lesquels nous nous posons des questions sur l'architecture du GF100.

    Dans les tests synthétiques pour la tessellation, les shaders géométriques et les calculs physiques (simulations de tissus et de particules dans le package Vantage, qui utilise également des shaders géométriques), la nouvelle puce Nvidia GF100 est nettement plus puissante que les autres. Comme dans d'autres tests de calcul avec des programmes complexes. Mais les mathématiques simples comme les tests purement informatiques de RightMark ou Vantage, comme prévu, ont été surclassées par les solutions AMD, et Nvidia est toujours à la traîne. Il s'avère que le GF100 a approché le CPU dans ses fonctionnalités, est devenu encore plus polyvalent (rappelez-vous C ++ et la mise en cache comme un CPU), mais en comparaison avec le RV870, il a un peu moins de puissance de "nombre de broyage", qui différait toujours entre les GPU et les CPU.

    Les performances de calcul et de texture de pointe relativement faibles, que nous avons notées dans notre article, conduisent à un retard par rapport au concurrent dans certains tests artificiels, mais en général, la GTX 480 a montré des résultats très décents, ce qui devrait être confirmé dans la prochaine partie de notre article. Dans celui-ci, vous vous familiariserez avec les tests de la dernière solution de Nvidia, basée sur le nouveau GPU, dans les applications de jeu les plus modernes.

    Nous supposons que les résultats du jeu correspondront approximativement à nos conclusions tirées de l'analyse des résultats de tests synthétiques. Bien qu'il n'y ait parfois aucune différence, car la vitesse de rendu dans les jeux dépend souvent de plusieurs caractéristiques des cartes vidéo à la fois, et dépend beaucoup plus du taux de remplissage et de la bande passante mémoire que les synthétiques. Nous pensons que la Geforce GTX 480 devrait légèrement surpasser son concurrent mono-GPU Radeon HD 5870 dans les jeux sans tessellation et sera certainement en avance dans les tests avec son utilisation.

    Récemment, après de longs préparatifs et de nombreuses promesses, NVidia a néanmoins sorti de nouveaux adaptateurs vidéo pour le marché de masse: GeForce GTX 480 et GeForce GTX 470. Nous avons déjà réussi à nous familiariser avec chacun des nouveaux produits lors de notre premier test. Cela signifie qu'aujourd'hui à l'ordre du jour n'est pas la tâche de les étudier très attentivement, nous allons simplement rappeler brièvement les principaux paramètres. «Alors, que sera cet article?» - demandez-vous, nos chers lecteurs. Et dans cet article, nous allons "faire de l'overclocking". Oui, l'auteur a décidé de remédier à la situation qui a causé tant de bruit.

    GTX 480 à l'intérieur et à l'extérieur (brièvement)

    la publicité

    Comme je l'ai promis, il n'y aura pas d'étude détaillée de la structure et de l'architecture de l'adaptateur vidéo, nous ne rappellerons que les points clés pour ceux qui liront inattentivement notre premier avis ou qui souhaitent rafraîchir leur mémoire des caractéristiques. Commençons par une vue externe de la carte.

    Avant nous, il y a le même adaptateur vidéo de ZOTAC qui était dans le premier examen. En fait, il n'y a qu'un autocollant de ZOTAC ici, et la carte vidéo est un échantillon du design de référence, sans aucun changement. Les dimensions de l'adaptateur vidéo sont de 27 cm de long et 12 cm de profondeur. L'impression ZOTAC sépare les deux parties du système de refroidissement. À sa droite se trouve une turbine avec la possibilité d'ajuster la vitesse par programmation. Sur la gauche, nous voyons le haut du radiateur en aluminium et quatre caloducs. En fait, il y a cinq tuyaux, un seul est caché sous le couvercle de la carte vidéo. Le dos de la planche ne se détache en aucun cas. Le seul microcircuit qui nous intéresse est un microcircuit labellisé CHL8266, qui est chargé de gérer l'alimentation de l'adaptateur vidéo. Profitant des capacités de ce microcircuit, nous pouvons ajuster manuellement la tension fournie au GPU à l'aide d'utilitaires spécialisés.

    LA CLOCHE

    Il y a ceux qui lisent cette actualité avant vous.
    Abonnez-vous pour recevoir les derniers articles.
    Email
    Nom
    Nom de famille
    Comment voulez-vous lire The Bell
    Pas de spam