Geforce 8800 gts année de sortie. Test de la carte vidéo ASUS EN8800GTS. Fréquences nominales et overclocking

Les fabricants pratiquent depuis longtemps la sortie de solutions moins chères basées sur des processeurs graphiques du segment de prix supérieur. Grâce à cette approche, la variation des solutions prêtes à l'emploi augmente considérablement, leur coût diminue et la majorité des utilisateurs préfèrent souvent les produits avec le rapport prix / performance le plus favorable.
De même, NVIDIA a fait de même avec la dernière puce G80, le premier GPU au monde avec une architecture unifiée et la prise en charge de la nouvelle API de Microsoft, DirectX 10.
En même temps que le produit phare GeForce 8800 GTX, une version moins chère appelée GeForce 8800 GTS est sortie. Elle se distingue de sa grande sœur par le nombre réduit de processeurs pixels (96 contre 128), la mémoire vidéo (640 Mo au lieu de 768 Mo pour la GTX). La conséquence de la diminution du nombre de puces mémoire a été une diminution de la profondeur de bits de son interface à 320 bits (pour GTX - 384 bits). Des caractéristiques plus détaillées de l'adaptateur graphique en question peuvent être trouvées en examinant le tableau :

La carte vidéo ASUS EN8800GTS est entrée dans notre laboratoire de test, que nous examinerons aujourd'hui. Ce fabricant est l'un des partenaires les plus importants et les plus performants de NVIDIA, et ne lésine traditionnellement pas sur l'emballage et l'emballage. Comme le dit le proverbe, "il devrait y avoir beaucoup de bonnes cartes vidéo". La nouveauté se présente dans un coffret aux dimensions impressionnantes :


Sur sa face avant se trouve un personnage du jeu Ghost Recon: Advanced Warfighter. Le boîtier ne se limite pas à une seule image - le jeu lui-même, comme vous l'avez peut-être deviné, est inclus dans le package. Au verso les paquets sont donnés brèves caractéristiques produit:


ASUS considérait cette quantité d'informations insuffisante, faisant une sorte de livre prêt à l'emploi :


Par souci d'équité, notons que cette méthode est pratiquée depuis longtemps et, en aucun cas, pas seulement par ASUS. Mais, comme on dit, tout est bon avec modération. Le contenu d'information maximal s'est transformé en un inconvénient pratique. Un léger souffle de vent et le haut de la pochette s'ouvre. Lors du transport du héros de la revue d'aujourd'hui, nous avons dû inventer et plier la languette de retenue pour qu'elle justifie son objectif. Malheureusement, le plier peut facilement endommager l'emballage. Et enfin, ajoutons que les dimensions de la box sont déraisonnablement grandes, ce qui cause quelques désagréments.

Adaptateur vidéo : ensemble complet et inspection minutieuse

Eh bien, passons directement au paquet et à la carte vidéo elle-même. L'adaptateur est emballé dans un sac antistatique et un conteneur en mousse, ce qui élimine les dommages électriques et mécaniques à la carte. La boîte contient des disques, des adaptateurs DVI -> D-Sub, VIVO et des cordons d'alimentation supplémentaires, ainsi qu'un étui pour les disques.


Parmi les disques inclus dans l'ensemble, le jeu de course GTI et le benchmark 3DMark06 Advanced Edition sont remarquables ! 3DMark06 a été repéré pour la première fois dans un bundle d'une carte vidéo série et de masse ! Sans aucun doute, ce fait séduira les utilisateurs activement impliqués dans l'analyse comparative.


Eh bien, passons directement à la carte vidéo. Il est basé sur un PCB de conception de référence utilisant un système de refroidissement de référence, et il ne diffère des autres produits similaires que par un autocollant avec le logo du fabricant, qui conserve le thème Ghost Recon.


Le verso de la carte de circuit imprimé est également banal - de nombreux composants smd et régulateurs de tension y sont soudés, c'est tout :


Contrairement à la GeForce 8800 GTX, la GTS ne nécessite qu'un seul connecteur d'alimentation supplémentaire :


De plus, elle est plus courte que la sœur aînée, ce qui plaira certainement aux propriétaires de petites carrosseries. Il n'y a pas de différences en termes de refroidissement, et ASUS EN8800GTS, comme le GF 8800 GTX, utilise un refroidisseur avec un grand ventilateur de type turbine. Le radiateur est composé d'une base en cuivre et d'un boîtier en aluminium. Le transfert de chaleur de la base aux ailettes s'effectue en partie par des caloducs, ce qui augmente l'efficacité globale de la structure. L'air chaud est évacué à l'extérieur unité système, cependant, une partie de celui-ci, hélas, reste à l'intérieur du PC en raison de quelques trous dans le boîtier du système de refroidissement.


Cependant, le problème d'un fort chauffage est facilement résolu. Par exemple, un ventilateur à vitesse lente de 120 mm améliore assez bien les conditions de température de la carte.
En plus du GPU, le refroidisseur refroidit les puces mémoire et les éléments d'alimentation, ainsi que le DAC du signal vidéo (puce NVIO).


Ce dernier a été retiré du processeur principal en raison des hautes fréquences de ce dernier, qui ont provoqué des interférences et, par conséquent, des interférences en fonctionnement.
Malheureusement, cette circonstance entraînera des difficultés lors du changement de refroidisseur, les ingénieurs NVIDIA n'avaient donc tout simplement pas le droit de le faire de mauvaise qualité. Jetons un coup d'œil à la carte vidéo sous sa forme "nue".


Le PCB contient une puce G80 de révision A2, 640 Mo de mémoire vidéo, cumulés avec dix puces Samsung. Le temps d'accès mémoire est de 1,2 ns, ce qui est légèrement plus rapide que la GeForce 8800 GTX.


Veuillez noter que la carte a deux emplacements pour les jetons. S'ils étaient soudés au PCB, la taille totale de la mémoire serait de 768 Mo et sa capacité serait de 384 bits. Hélas, le développeur de la carte vidéo a estimé qu'une telle étape était inutile. Ce schéma est utilisé uniquement dans les cartes vidéo professionnelles de la série Quadro.
Enfin, on note que la carte ne possède qu'un seul slot SLI, contrairement à la GF 8800 GTX qui en possède deux.

Tests, analyse des résultats

La carte vidéo ASUS EN8800GTS a été testée sur un banc d'essai avec la configuration suivante :
  • processeur - AMD Athlon 64 [email protégé] MHz (Venise);
  • carte mère - ASUS A8N-SLI Deluxe, chipset NVIDIA nForce 4 SLI;
  • RAM - 2х512 Mo [email protégé] MHz, synchronisations 3.0-4-4-9-1T.
Des tests ont été effectués en système opérateur Windows XP SP2, le pilote de chipset version 6.86 est installé.
L'utilitaire RivaTuner a confirmé la conformité des caractéristiques de la carte vidéo avec celles déclarées :


Les fréquences du processeur vidéo sont 510/1190 MHz, mémoire - 1600 MHz. Le chauffage maximal obtenu après plusieurs exécutions du test Canyon Flight du package 3DMark06 était de 76 ° C à une vitesse de ventilateur du système de refroidissement standard égale à 1360 tr/min :


A titre de comparaison, je dirai que dans les mêmes conditions la GeForce 6800 Ultra AGP qui m'est parvenue chauffe jusqu'à 85°C à la vitesse maximale du ventilateur, et au bout d'un long moment elle se bloque carrément.

Les performances de la nouvelle carte vidéo ont été testées à l'aide de références synthétiques populaires et de certaines applications de jeux.

Les tests effectués par les applications de développement Futuremark ont ​​révélé ce qui suit :


Bien entendu, sur un système doté d'un processeur central plus puissant, par exemple un représentant de l'architecture Intel Core 2 Duo, le résultat serait meilleur. Dans notre cas, l'Athlon 64 moralement dépassé (même s'il est overclocké) ne permet pas d'exploiter pleinement le potentiel des meilleures cartes vidéo d'aujourd'hui.

Passons aux tests dans de vraies applications de jeu.


Need for Speed ​​​​Carbon montre clairement la différence entre les rivaux, et la GeForce 7900 GTX est plus que perceptible par rapport aux cartes de la génération 8800.


Étant donné que Half Life 2 nécessite non seulement une carte vidéo puissante, mais également un processeur rapide pour jouer confortablement, une nette différence de performances n'est observée qu'aux résolutions maximales avec le filtrage anisotrope et l'anticrénelage plein écran activés.


Dans la peur. approximativement la même image est observée que dans HL2.


Dans les modes lourds de Doom 3, la carte en question s'en sort très bien, mais la faiblesse du processeur central ne permet pas d'apprécier pleinement l'écart entre la GeForce 8800 GTS et sa grande sœur.


Puisque Pray est fait sur le moteur Quake 4, qui à son tour est un développement de Doom3, les résultats de performances des cartes vidéo dans ces jeux sont similaires.
La progressivité de la nouvelle architecture de shader unifiée et une certaine « réduction » des capacités par rapport à sa sœur aînée placent la GeForce 8800 GTS entre l'adaptateur graphique le plus rapide de NVIDIA aujourd'hui et le produit phare de la sept millième ligne. Cependant, il est peu probable que les Californiens aient agi différemment - une nouveauté de cette classe devrait être plus puissante que ses prédécesseurs. Je suis heureux que la GeForce 8800 GTS soit beaucoup plus proche de la GeForce 8800 GTX en termes de capacités de vitesse que de la 7900 GTX. La prise en charge des technologies graphiques les plus récentes inspire également l'optimisme, ce qui devrait laisser aux propriétaires de tels adaptateurs une bonne marge de performance pour un avenir proche (et, espérons-le, plus lointain).

Verdict

Après examen de la carte, nous avons eu une très bonne impression, qui a été grandement améliorée par le facteur coût du produit. Ainsi, au moment de son apparition sur le marché et quelque temps plus tard, ASUS EN8800GTS, selon price.ru, coûtait environ 16 000 roubles - son prix était clairement surestimé. Maintenant, la carte est vendue pour environ 11 500 roubles pendant une longue période, ce qui ne dépasse pas le coût de produits similaires de concurrents. Cependant, compte tenu de l'offre groupée, l'idée d'ASUS est sans aucun doute dans une position gagnante.

avantages:

  • Prise en charge de DirectX 10 ;
  • structure de puce renforcée (architecture unifiée);
  • excellent niveau de performance;
  • riche équipement;
  • marque célèbre;
  • le prix est comparable aux produits de concurrents moins réputés
Inconvénients:
  • grosse boite pas toujours pratique
Nous remercions le bureau de représentation russe d'ASUS pour la carte vidéo fournie pour les tests.

Les critiques, souhaits et commentaires sur ce matériel sont acceptés dans le forum placer.

Encore 128 tireurs californiens plus puissants, mais avec des lances tronquées (512 Mo et 256 bits)

Partie 1 : Théorie et architecture

Dans l'article précédent consacré à la sortie d'une nouvelle solution milieu de gamme Nvidia Geforce 8800 GT basée sur la puce G92, nous évoquions que cette solution utilise une puce dans laquelle toutes les unités d'exécution ALU et TMU ne sont pas déverrouillées, certaines d'entre elles attendent dans les ailes pour être inclus dans une carte graphique d'un niveau de prix différent. Et maintenant, le moment est venu, Nvidia a annoncé une version mise à jour de la Geforce 8800 GTS, qui a conservé le même nom que la solution junior basée sur le G80. Il est plus facile de le distinguer par la quantité de mémoire vidéo installée, elle est égale à 512 Mo, contrairement aux versions précédentes de 320 Mo et 640 Mo. Ce modèle a donc été nommé - Geforce 8800 GTS 512MB.

La nouvelle version de la Geforce 8800 GTS est basée sur la puce G92 déjà utilisée dans la Geforce 8800 GT, une carte vidéo de ce qu'on appelle le niveau de prix moyen supérieur, nous connaissons donc déjà les principales caractéristiques et caractéristiques. Contrairement aux deux modèles Geforce 8800 GT avec un prix recommandé de 200 $ à 250 $ (ce qui ne correspond pas bien aux prix réels en ce moment, soit dit en passant), la nouvelle solution a un prix recommandé par le fabricant de 349-399 $. Une caractéristique spécifique de la puce vidéo utilisée est la prise en charge d'un bus mémoire de 256 bits uniquement, mais grande quantité unités exécutives universelles déverrouillées. Regardons de plus près la nouvelle solution bas de gamme haut de gamme de Nvidia ...

Avant de lire ce document, nous vous recommandons de lire attentivement les documents théoriques de base DX Current, DX Next et Longhorn, qui décrivent divers aspects des accélérateurs graphiques matériels modernes et des caractéristiques architecturales des produits Nvidia et AMD.

Ces matériaux prédisaient avec précision la situation actuelle des architectures de puces vidéo, de nombreuses hypothèses sur les solutions futures étaient justifiées. Des informations détaillées sur l'architecture unifiée de Nvidia G8x / G9x sur l'exemple des puces précédentes se trouve dans les articles suivants :

Comme nous l'avons mentionné dans l'article précédent, la puce G92 comprend tous les avantages du G8x : une architecture de shader unifiée, une prise en charge complète de DirectX 10, des méthodes de filtrage anisotrope de haute qualité et un algorithme CSAA anti-aliasing avec jusqu'à seize échantillons. Certains blocs de puces sont légèrement différents de ceux du G80, mais le principal changement par rapport au G80 est la technologie de fabrication 65 nm, qui a réduit les coûts de production. Considérez les caractéristiques du GPU et les nouvelles solutions vidéo basées sur celui-ci :

Accélérateur graphique Geforce 8800 GTS 512 Mo

  • Nom de code de la puce G92
  • Technologie 65 nm
  • 754 millions de transistors (plus que le G80)
  • Architecture unifiée avec une gamme de processeurs partagés pour le traitement en continu des sommets et des pixels et d'autres types de données
  • Prise en charge matérielle de DirectX 10, y compris le modèle de shader - Shader Model 4.0, génération de géométrie et enregistrement de données intermédiaires à partir de shaders (sortie de flux)
  • Bus mémoire 256 bits, quatre contrôleurs 64 bits indépendants
  • Fréquence centrale 650 MHz (Geforce 8800 GTS 512 Mo)
  • Les ALU fonctionnent à plus du double de la fréquence (1,625 GHz pour Geforce 8800 GTS 512 Mo)
  • 128 ALU scalaires à virgule flottante (formats entiers et à virgule flottante, prise en charge de la précision FP 32 bits au sein de la norme IEEE 754), MAD + MUL sans perte d'horloge)
  • 64 unités d'adressage de texture avec prise en charge des composants FP16 et FP32 dans les textures
  • 64 blocs de filtrage bilinéaire (comme dans le G84 et le G86, il n'y a pas de filtrage trilinéaire libre et un filtrage anisotrope plus efficace)
  • Possibilité de branchement dynamique dans les shaders de pixels et de vertex
  • 4 blocs ROP larges (16 pixels) avec prise en charge des modes anti-aliasing jusqu'à 16 échantillons par pixel, y compris le format framebuffer FP16 ou FP32. Chaque bloc se compose d'un tableau d'ALU configurables de manière flexible et est responsable de la génération et de la comparaison de Z, MSAA, mélange. Performances maximales de l'ensemble du sous-système jusqu'à 64 échantillons MSAA (+ 64 Z) par cycle, en mode Z uniquement - 128 échantillons par cycle
  • Enregistrez les résultats avec jusqu'à 8 tampons d'images simultanément (MRT)
  • Toutes les interfaces (deux RAMDAC, deux Dual DVI, HDMI, HDTV) sont intégrées sur la puce (contrairement à la puce externe NVIO dans Geforce 8800)

Spécifications de la carte de référence Geforce 8800 GTS 512Mo

  • Fréquence centrale 650 MHz
  • Fréquence des processeurs universels 1625 MHz
  • Nombre de processeurs universels 128
  • Le nombre d'unités de texture - 64, les unités de mélange - 16
  • Fréquence de mémoire effective 1,94 GHz (2 * 970 MHz)
  • Type de mémoire GDDR3
  • Capacité mémoire 512 mégaoctets
  • Bande passante mémoire 64,0 gigaoctets par seconde.
  • Taux de remplissage théorique maximum 10,4 gigapixels par seconde.
  • Taux d'échantillonnage de texture théorique jusqu'à 41,6 gigatexels par seconde.
  • Deux connecteurs DVI-I Dual Link, prend en charge la sortie à des résolutions allant jusqu'à 2560x1600
  • connecteur SLI
  • Bus PCI Express 2.0
  • Sortie TV, sortie HDTV, prise en charge HDCP
  • Prix ​​recommandé 349-399 $

Comme vous pouvez le voir sur les spécifications, la nouvelle version Geforce 8800 GTS 512 Mo est assez différente des anciennes. Le nombre d'unités d'exécution a augmenté : ALU et TMU, la fréquence GPU a également augmenté de manière significative, y compris la fréquence des unités de shader. Malgré le bus mémoire tronqué (256 bits contre 320 bits dans les anciennes versions), la bande passante mémoire est restée la même, puisque sa fréquence de fonctionnement a été portée à la valeur correspondante. En conséquence, le nouveau GTS a considérablement augmenté la puissance d'exécution des shaders ainsi que la vitesse de récupération des textures. Dans le même temps, le taux de remplissage et la bande passante mémoire sont restés les mêmes.

En raison de la largeur de bits modifiée du bus mémoire, la taille de ce dernier ne peut plus être égale à 320 Mo ou 640 Mo, mais seulement à 256 Mo, 512 Mo ou 1 Go. La première valeur est trop petite, elle ne suffira évidemment pas pour une carte de cette classe, et la dernière est trop élevée, le gain de performances insignifiant justifiera difficilement l'augmentation du prix de telles variantes (qui pourrait bien apparaître dans le futur) . Par conséquent, Nvidia a choisi la variante du milieu avec un ensemble de cartes de 512 Mo. Cela, comme nos recherches récentes l'ont montré, est le juste milieu pour tous les jeux modernes qui sont très exigeants en quantité de mémoire vidéo et utilisent jusqu'à 500-600 mégaoctets. On ne se lasse pas de répéter que cela ne veut pas dire que toutes les ressources du jeu doivent se trouver uniquement dans la mémoire locale de la carte vidéo, la gestion des ressources peut être confiée au contrôle des API, notamment en Direct3D 10 avec virtualisation de la mémoire vidéo.

Architecture

Comme il était écrit dans l'article précédent sur la Geforce 8800 GT, on peut dire que le G92 est le précédent flagship du G80, transféré vers un nouveau procédé technique, mais avec quelques modifications. La nouvelle puce dispose de 8 grandes unités de shader et de 64 unités de texture, ainsi que de quatre ROP larges. Malgré tous les changements pour le mieux, le nombre de transistors dans la puce semble être trop grand, probablement, la complexité accrue de la puce s'explique par l'inclusion d'une puce NVIO précédemment séparée dans sa composition, ainsi qu'une nouvelle génération processeur vidéo. De plus, le nombre de transistors a été affecté par les TMU plus sophistiquées, et il est possible d'augmenter les caches pour fournir un bus mémoire 256 bits plus efficace.

Il y a très peu de changements architecturaux dans la puce G92, nous en avons tous parlé dans l'article précédent, et nous ne le referons pas. Tout ce qui a été dit dans les revues des solutions précédentes reste en vigueur, nous ne présentons que le schéma principal de la puce G92, désormais avec les 128 processeurs universels :

De tous les changements dans la puce, par rapport au G80 - seulement un nombre réduit de ROP et quelques changements dans le TMU, qui ont été décrits dans notre matériel précédent. Attardons-nous encore une fois sur le fait que 64 unités de texture dans Geforce 8800 GTS 512 Mo dans des applications réelles dans la plupart des cas ne seront PAS plus fortes que 32 unités dans Geforce 8800 GTX. Avec le filtrage trilinéaire et/ou anisotrope activé, leurs performances seront approximativement les mêmes, puisqu'ils ont le même nombre d'unités de filtrage de texture. Bien sûr, lorsque des échantillons non filtrés sont utilisés, les performances des solutions sur le G92 seront plus élevées.

PureVideo HD

L'un des changements attendus du G92 est le processeur vidéo intégré de deuxième génération connu des G84 et G86, qui a reçu une prise en charge étendue de PureVideo HD. Cette version du processeur vidéo décharge presque complètement le processeur lors du décodage de tous les types de données vidéo, y compris les formats "lourds" H.264 et VC-1. Le G92 utilise nouveau modèle processeur vidéo PureVideo HD programmable, y compris le moteur BSP. Le nouveau processeur prend en charge le décodage des formats H.264, VC-1 et MPEG-2 avec une résolution allant jusqu'à 1920x1080 et un débit binaire allant jusqu'à 30-40 Mbps, effectuant le travail de décodage des données CABAC et CAVLC dans le matériel, qui vous permet de lire tous les lecteurs HD-DVD et Blu-ray existants, même sur des PC monocœur de puissance moyenne. Le décodage VC-1 n'est pas aussi efficace que le H.264, mais il est toujours pris en charge par le nouveau processeur. Vous pouvez en savoir plus sur le processeur vidéo de deuxième génération dans nos critiques de G84 / G86 et G92, dont les liens sont donnés au début de l'article.

PCI Express 2.0

L'une des véritables innovations du G92 est la prise en charge du bus PCI Express 2.0. La deuxième Version PCI Express double la bande passante standard de 2,5 Gb/s à 5 Gb/s, de sorte que x16 peut transférer des données à des vitesses allant jusqu'à 8 Go/s dans chaque sens, contre 4 Go/s pour la version 1.x. Dans le même temps, il est très important que PCI Express 2.0 soit compatible PCI Express 1.1 et que les anciennes cartes vidéo fonctionnent dans les nouvelles cartes mères ah, et les nouvelles cartes vidéo prenant en charge la deuxième version resteront fonctionnelles dans les cartes mères sans sa prise en charge. A condition d'avoir une alimentation externe suffisante et sans augmenter la bande passante de l'interface, bien sûr.

Le principal concurrent de Nvidia a estimé l'impact réel d'une bande passante de bus PCI Express plus élevée sur les performances de ses matériaux. Selon eux, une carte vidéo de milieu de gamme avec 256 mégaoctets de mémoire locale accélère d'environ 10 % lors du passage de PCI Express 1.0 à 2.0 dans des jeux modernes comme Company of Heroes, Call of Juarez, Lost Planet et World In Conflict, le les indicateurs changent de 5 % à 25 % pour différents jeux et conditions de test. Naturellement, la parole à des résolutions élevées, lorsque le tampon de trame et les tampons associés occupent la majeure partie de la mémoire vidéo locale et que certaines ressources sont stockées dans la mémoire système.

Pour assurer la rétrocompatibilité avec les solutions PCI Express 1.0 et 1.1 existantes, la spécification 2.0 prend en charge les taux de transfert de 2,5 Gbit/s et 5 Gbit/s. La rétrocompatibilité PCI Express 2.0 permet l'utilisation de solutions héritées de 2,5 Gbit/s dans des emplacements de 5,0 Gbit/s, qui fonctionneront à une vitesse inférieure, tandis qu'un appareil conçu selon les spécifications de la version 2.0 peut prendre en charge les vitesses de 2,5 Gbit/s et 5 Gbit/s. ... En théorie, tout va bien avec la compatibilité, mais en pratique, des problèmes peuvent survenir avec certaines combinaisons de cartes mères et de cartes d'extension.

Prise en charge des interfaces externes

Ici, tout est identique à celui de la GeForce 8800 GT, il n'y a pas de différences. Une puce NVIO supplémentaire disponible sur les cartes Geforce 8800, qui prend en charge les interfaces externes en dehors du principal (deux RAMDAC 400 MHz, deux Dual Link DVI (ou LVDS), HDTV-Out), dans ce cas a été incluse dans la puce elle-même, prise en charge de tous ces interfaces intégrées dans le G92 lui-même.

Les cartes vidéo Geforce 8800 GTS 512 Mo ont généralement deux sorties DVI Dual Link avec support HDCP. En ce qui concerne le HDMI, ce connecteur est supporté, il peut être implémenté par les fabricants sur des cartes de conception spéciale. Bien que la présence d'un connecteur HDMI sur une carte vidéo soit totalement facultative, il sera remplacé avec succès par l'adaptateur DVI vers HDMI fourni avec la plupart des cartes vidéo modernes.

Dans notre dernier article, nous avons examiné ce qui se passe dans la gamme de prix inférieure, dans laquelle de nouveaux produits d'AMD sont récemment apparus - les séries Radeon HD 3400 et HD 3600. Aujourd'hui, nous allons légèrement lever les yeux dans la hiérarchie des cartes. et parler des anciens modèles. Le héros de notre revue cette fois sera GeForce 8800 GTS 512 Mo.

Qu'est-ce que la GeForce 8800 GTS 512 Mo ? Le nom, franchement, ne donne pas une réponse sans ambiguïté. D'une part, cela rappelle en quelque sorte les meilleures solutions du passé basées sur la puce G80. En revanche, la taille de la mémoire est de 512 Mo, ce qui est inférieur à celui des prédécesseurs correspondants. En conséquence, il s'avère que l'indice GTS, couplé au nombre 512, induit simplement en erreur un acheteur potentiel. Mais en fait, nous parlons, sinon de la plus rapide, alors, en tout cas, de l'une des solutions graphiques les plus rapides présentées en ce moment par NVIDIA. Et cette carte n'est pas basée sur la G80 sortante, mais sur la G92 beaucoup plus progressive, sur laquelle d'ailleurs était basée la GeForce 8800 GT. Pour rendre la description de l'essence de la GeForce 8800 GTS 512 Mo encore plus claire, passons directement aux caractéristiques.

Caractéristiques comparatives des GeForce 8800 GTS 512 Mo

Modèle Radeon HD 3870 GeForce 8800 GT GeForce 8800 GTS 640 Mo GeForce 8800 GTS 512 Mo GeForce 8800 GTX
Nom de code du noyau RV670 G92 G80 G92 G80
Celles. processus, nanomètre 65 65 90 65 90
Nombre de processeurs de flux 320 112 96 128 128
Nombre d'unités de texture 16 56 24 64 32
Nombre de blocs de mélange 16 16 20 16 24
Fréquence centrale, MHz 775 600 513 650 575
Fréquence de l'unité de shader, MHz 775 1500 1180 1625 1350
Fréquence de mémoire vidéo effective, MHz 2250 1800 1600 1940 1800
Taille de la mémoire vidéo, Mo 512 256 / 512 / 1024 320 / 640 512 768
Largeur du bus d'échange de données, Bit 256 256 320 256 384
Type de mémoire vidéo GDDR3 / GDDR4 GDDR3 GDDR3 GDDR3 GDDR3
Interface PCI-Express 2.0 PCI-Express 2.0 PCI-Express PCI-Express 2.0 PCI-Express

Jetez un œil au tableau ci-dessus. Sur la base de ces données, nous pouvons conclure que nous avons une solution bien formée et solide qui peut rivaliser avec les sommets actuels de la société californienne. En fait, nous avons une puce G92 à part entière avec des fréquences élevées et une mémoire GDDR3 très rapide fonctionnant à près de 2 GHz. À propos, nous avons parlé du fait que dans la version initiale, le G92 était censé avoir exactement 128 processeurs de flux et 64 unités de texture dans notre test de la GeForce 8800 GT. Comme vous pouvez le voir, pour le modèle avec l'indice GT, une puce quelque peu dépouillé a été attribuée pour une raison. Cette décision a permis de délimiter quelque peu le segment des cartes vidéo productives et d'y créer un produit encore plus parfait. De plus, à l'heure actuelle, la production du G92 est déjà bien établie et le nombre de puces capables de fonctionner à des fréquences supérieures à 600 MHz est assez important. Cependant, même dans les premières révisions, le G92 a facilement conquis 700 MHz. Vous comprenez vous-même que maintenant cette ligne n'est pas la limite. Nous aurons le temps de nous en assurer au fil de la matière.

Nous avons donc devant nous un produit de XFX - une carte vidéo GeForce 8800 GTS 512 MB. C'est ce modèle qui va faire aujourd'hui l'objet de notre étude approfondie.

Enfin, devant nous se trouve le conseil lui-même. Le produit XFX est basé sur une conception de référence, donc tout ce qui sera dit sur ce produit peut être appliqué à la plupart des solutions d'autres sociétés. Après tout, ce n'est un secret pour personne qu'aujourd'hui, l'écrasante majorité des fabricants base la conception de leurs produits sur exactement ce que propose NVIDIA.

Concernant la GeForce 8800 GTS 512 Mo, il est à noter que le circuit imprimé est emprunté à la GeForce 8800 GT. Elle a été considérablement simplifiée par rapport aux cartes vidéo basées sur le G80, mais elle répond pleinement aux exigences de la nouvelle architecture. Du coup, on peut conclure que la sortie de la GeForce 8800 GTS 512 Mo n'a été compliquée par rien. Nous avons le même PCB et presque la même puce que son prédécesseur avec l'indice GT.

Quant aux dimensions de la carte vidéo en question, à cet égard, elle correspond parfaitement à la GeForce 8800 GTS 640 Mo. Ce que vous pouvez voir par vous-même sur la base de la photo donnée.

NVIDIA a jugé nécessaire d'apporter des modifications au système de refroidissement. Il a subi de sérieux changements et ressemble désormais dans son apparence au refroidisseur de la GeForce 8800 GTS 640 Mo classique, plutôt qu'à la GeForce 8800 GT.

La conception de la glacière est assez simple. Il se compose d'ailettes en aluminium, qui sont soufflées par une turbine correspondante. Les ailettes du dissipateur thermique sont percées de caloducs en cuivre d'un diamètre de 6 mm chacun. Le contact avec la puce se fait au moyen d'une base en cuivre. La chaleur est évacuée de la base et transférée au radiateur, où elle est ensuite dissipée.

Notre GeForce 8800 GTS était équipée d'une puce révision A2 G92 en provenance de Taïwan. La mémoire est remplie de 8 puces fabriquées par Qimonda avec un temps d'accès de 1,0 ns.

Enfin, nous avons inséré la carte graphique dans le slot PCI-E. La carte a été détectée sans aucun problème et autorisée à installer les pilotes. Il n'y a eu aucune difficulté en ce qui concerne les logiciels auxiliaires. GPU-Z a affiché toutes les informations nécessaires assez correctement.

La fréquence du GPU est de 678 MHz, la mémoire - 1970 MHz, le domaine shader - 1700 MHz. En conséquence, nous voyons à nouveau que XFX ne change pas son habitude d'élever les fréquences au-dessus de celles d'usine. Cependant, cette fois, l'augmentation est faible. Mais généralement, l'assortiment de l'entreprise contient de nombreuses cartes de la même série, dont la fréquence diffère. Certains d'entre eux, bien sûr, ont d'excellents indicateurs.

Riva Tuner ne nous a pas non plus laissé tomber et a affiché toutes les informations sur le suivi.

Après cela, nous avons décidé de vérifier dans quelle mesure le refroidisseur de stock s'acquitte de sa tâche. La GeForce 8800 GT a eu de sérieux problèmes avec cela. Le système de refroidissement avait une marge d'efficacité assez douteuse. Ceci, bien sûr, suffisait pour utiliser la carte à sa valeur nominale, mais pour plus cela nécessitait de remplacer le refroidisseur.

Cependant, la GeForce 8800 GTS est d'accord avec cela. Après une longue charge, la température n'est montée qu'à 61°C. C'est un excellent résultat pour une solution aussi puissante. Cependant, chaque baril de miel a sa propre mouche dans la pommade. Pas sans ça ici. Malheureusement, le système de refroidissement est très bruyant. De plus, le bruit devient assez désagréable déjà à 55°C, ce qui nous a même surpris. Après tout, la puce s'est à peine réchauffée. Pourquoi diable la turbine se met-elle à fonctionner intensément ?

Ici, Riva Tuner est venu à notre secours. Cet utilitaire est utile non seulement car il vous permet d'overclocker et d'ajuster le fonctionnement de la carte vidéo, mais il possède également des fonctions pour contrôler la vitesse du ventilateur, si, bien sûr, la carte elle-même prend en charge cette option.

Nous avons décidé de régler le RPM à 48% - c'est un fonctionnement absolument silencieux de la carte, lorsque vous pouvez complètement oublier son bruit.

Cependant, ces ajustements ont conduit à une augmentation de la température. Cette fois, il faisait 75°C. Bien sûr, la température est un peu élevée, mais à notre avis, cela vaut la peine de se débarrasser du hurlement de la turbine.

Cependant, nous ne nous sommes pas arrêtés là. Nous avons décidé de vérifier le comportement de la carte vidéo lors de l'installation d'un système de refroidissement alternatif.

Le choix s'est porté sur Thermaltake DuOrb - un système de refroidissement efficace et élégant, qui à un moment donné a bien géré le refroidissement de la GeForce 8800 GTX.

La température a baissé de 1°C par rapport au refroidisseur standard fonctionnant à vitesse automatique (la vitesse a été augmentée automatiquement à 78% sous charge). Eh bien, bien sûr, la différence d'efficacité est négligeable. Cependant, le niveau de bruit est également devenu considérablement plus bas. Certes, Thermaltake DuOrb ne peut pas non plus être qualifié de silencieux.

En conséquence, le nouveau refroidisseur de stock de NVIDIA ne laisse que des impressions favorables. Il est très efficace et, de plus, permet de régler n'importe quel niveau de RPM, ce qui convient aux amateurs de silence. De plus, même dans ce cas, bien qu'il soit pire, il fait face à la tâche.

Enfin, mentionnons le potentiel d'overclocking. Soit dit en passant, il s'est avéré que c'était la même chose pour une glacière ordinaire et pour DuOrb. Le cœur a été overclocké à 805 MHz, le domaine de shader à 1944 MHz et la mémoire à 2200 MHz. C'est une bonne nouvelle que la meilleure solution qui possède initialement hautes fréquences, a un stock solide, à la fois pour la puce et la mémoire.

Nous avons donc testé la carte vidéo GeForce 8800 GTS 512 Mo de XFX. Nous pouvions passer en douceur à la partie test à ce stade, mais nous avons décidé de vous parler d'une autre solution intéressante, cette fois de l'usine ATI, fabriquée par PowerColor.

La principale caractéristique de cette carte vidéo est la mémoire DDR3. Permettez-moi de vous rappeler que la plupart des entreprises livrent la Radeon HD 3870 avec DDR4. La version de référence était équipée du même type de mémoire. Cependant, PowerColor choisit assez souvent des moyens non standard et dote ses produits de fonctionnalités différentes des autres.

Cependant, un autre type de mémoire n'est pas la seule différence entre la carte PowerColor et les solutions tierces. Le fait est que la société a également décidé d'équiper la carte vidéo non pas d'une turbine standard, d'ailleurs, plutôt efficace, mais d'un produit encore plus productif de ZeroTherm - le refroidisseur GX810.

PCB simplifié. Pour la plupart, cela a affecté le système d'alimentation. Il devrait y avoir quatre condensateurs en céramique dans cette zone. De plus, sur la plupart des planches, elles sont situées dans une rangée, proches les unes des autres. Il en reste trois sur la carte PowerColor - deux d'entre eux sont situés là où ils devraient être et un autre est placé en haut.

La présence d'un radiateur en aluminium sur les circuits de puissance atténue quelque peu l'impression de telles caractéristiques. Pendant la charge, ils sont capables de chauffer sérieusement, donc le refroidissement ne sera pas superflu.

Les puces mémoire sont recouvertes d'une plaque de cuivre. À première vue, cela peut être une bonne nouvelle, car c'est un élément capable de faire baisser la température lorsque la mémoire chauffe. Cependant, ce n'est pas vraiment le cas. Premièrement, il n'a pas été possible de retirer la plaque sur cette copie de la carte. Apparemment, il adhère étroitement à la colle thermofusible. Peut-être, si vous faites un effort, le radiateur peut être retiré, mais nous ne sommes pas devenus zélés. Par conséquent, nous n'avons jamais découvert quelle mémoire est installée sur la carte.

La deuxième chose pour laquelle on ne peut pas faire l'éloge de PowerColor est que le refroidisseur a une conception capable de diriger l'air sur le PCB, réduisant ainsi sa température. Cependant, la plaque empêche partiellement ce soufflage. Cela ne veut pas dire qu'il interfère complètement. Mais tous les radiateurs en mémoire seraient beaucoup meilleure option... Ou, du moins, vous ne devez pas utiliser d'interface thermique, après quoi la plaque ne peut pas être retirée.

Le refroidisseur lui-même n'était pas sans problèmes. Oui, bien sûr, le ZeroTherm GX810 - bonne glacière... Son efficacité est excellente. Ceci est largement facilité par un bol tout en cuivre comme radiateur avec un long tube de cuivre traversant toutes les ailettes. Mais le problème est qu'il y a un connecteur à 2 broches sur la carte. En conséquence, le refroidisseur fonctionne toujours dans un seul mode, à savoir le maximum. Dès l'instant où l'ordinateur est allumé, le ventilateur du refroidisseur tourne à sa vitesse maximale, créant un bruit très grave. On pourrait encore s'en remettre, s'il ne s'agit que de 3D, après tout, on connaissait les Radeon X1800 et X1900 plus bruyantes, mais quand le refroidisseur est si bruyant en 2D... Cela ne peut qu'irriter.

La seule bonne nouvelle est que ce problème peut être résolu. Après tout, vous pouvez utiliser le régulateur de vitesse. Par exemple, c'est exactement ce que nous avons fait. À la vitesse minimale, le refroidisseur est silencieux, mais l'efficacité chute immédiatement de façon spectaculaire. Il existe une autre option - pour changer le refroidissement. Nous l'avons essayé aussi. Pour ce faire, nous avons pris le même Thermaltake DuOrb et constaté que l'installation n'est pas possible.

D'une part, les trous de montage s'adaptent, mais les gros condensateurs sur le PCB empêchent les fixations. En conséquence, nous terminons notre examen du conseil d'administration sur une note plutôt négative. Passons maintenant au comportement de la carte vidéo lorsqu'elle est installée sur un ordinateur.

La fréquence centrale est de 775 MHz, ce qui correspond à la référence. Mais la fréquence de la mémoire est bien inférieure à la valeur traditionnelle - seulement 1800 MHz. Cependant, ce n'est pas particulièrement surprenant. Nous avons affaire à la DDR3. C'est donc un indicateur tout à fait adéquat. N'oubliez pas non plus que la DDR4 a des latences nettement plus élevées. Ainsi, la performance finale sera approximativement au même niveau. La différence n'apparaîtra que dans les applications gourmandes en bande passante.

Soit dit en passant, j'attire votre attention sur le fait que la carte dispose du BIOS 10.065. Il s'agit d'un firmware assez ancien et il contient probablement une erreur PLL VCO. Par conséquent, vous ne pourrez pas overclocker votre carte au-dessus de 862 MHz. Cependant, le correctif est assez simple. Pour ce faire, il suffit de mettre à jour le BIOS.

Riva Tuner a affiché toutes les informations nécessaires sur les fréquences et les températures sans aucun problème.

La température de chargement était de 55 °C, ce qui signifie que la carte n'a pas été très chaude. La seule question qui se pose est : s'il y a une telle marge d'efficacité, pourquoi n'utiliser que la vitesse maximale pour la glacière ?

Maintenant sur l'overclocking. En général, ce n'est un secret pour personne que la réserve de fréquence du RV670 est plutôt petite, mais dans notre échantillon, elle s'est avérée terriblement petite. Nous avons réussi à augmenter la fréquence de seulement 8 MHz, soit jusqu'à 783 MHz. La mémoire a montré des résultats plus remarquables - 2160 MHz. De cela, nous pouvons conclure que la carte utilise très probablement de la mémoire avec un temps d'accès de 1,0 ns.

Recherche des performances des cartes vidéo

Vous pouvez voir la liste des participants au test ci-dessous :

  • GeForce 8800 GTS 512 Mo (650/1625/1940) ;
  • GeForce 8800 GTS 640 Mo (513/1180/1600) ;
  • Radeon HD 3870 DDR3 512 Mo (775/1800);
  • Radeon HD 3850 512 Mo (670/1650).

Banc d'essai

Pour connaître le niveau de performance des cartes vidéo évoquées ci-dessus, nous avons collecté système d'essai la configuration suivante :

  • Processeur - Core 2 Duo E6550 (333 × 7, L2 = 4096 Ko) @ (456 × 7 = 3192 MHz) ;
  • Système de refroidissement - Xigmatek HDT-S1283;
  • Interface thermique - Arctic Cooling MX-2;
  • RAM - Corsair TWIN2в6400С4-2048 ;
  • Carte mère - Asus P5B Deluxe (Bios 1206) ;
  • Bloc d'alimentation - Silverstone DA850 (850 W);
  • Disque dur - Serial-ATA Western Digital 500 Go, 7200 tr/min ;
  • Système d'exploitation - Windows XP Service Pack 2 ;
  • Pilote vidéo - Forceware 169.21 pour Cartes graphiques NVIDIA, Catalyseur 8.3 pour les cartes AMD ;
  • Moniteur - Benq FP91GP.

Pilotes utilisés

Le pilote ATI Catalyst a été configuré comme suit :

  • Catalyseur A.I. : Standard ;
  • Niveau de détail MipMap : Haute qualité ;
  • Attendre l'actualisation verticale : toujours désactivé ;
  • Anticrénelage adaptatif : désactivé ;
  • Anticrénelage temporel : désactivé ;

Le pilote ForceWare, à son tour, a été utilisé avec les paramètres suivants :

  • Filtrage de texture : haute qualité ;
  • Optimisation de l'échantillon anisotrope : Off ;
  • Optimisation trilinéaire : désactivée ;
  • Optimisation des threads : Activé ;
  • Antialiasing correct gamma : activé ;
  • Anticrénelage de transparence : désactivé ;
  • Synchronisation verticale : Désactivation forcée ;
  • Autres paramètres : par défaut.

Packages de test utilisés :

  • Doom, Build 1.1- tests dans l'utilitaire BenchemAll. Pour un test sur un des niveaux du jeu, nous avons enregistré une démo ;
  • Proie, Build 1.3- tests via HOC Benchmark, démo HWzone. Booster les graphismes éteint... Qualité d'image Plus haut... Double démo ;
  • F.E.A.R., Build 1.0.8- tests via le benchmark intégré. Ombres douces éteindre;
  • Avoir besoin Pour la vitesse Carbone, version 1.4- paramètres de qualité maximale. Flou de mouvement désactivée... Les tests ont été effectués avec Fraps;
  • TimeShift, version 1.2- les détails ont été forcés en deux versions : High Detail et Very High Detail. Les tests ont été effectués avec Fraps;
  • Unreal Tournament 3, version 1.2- paramètres de qualité maximale. Démo au niveau VCTF ?
  • Monde en conflit, build 1.007- deux réglages ont été utilisés : Medium et High. Dans le second cas, les filtres de qualité (filtrage anisotrope et anti-aliasing) étaient désactivés. Les tests ont été effectués à l'aide du benchmark intégré ;
  • Crysis, version 1.2- tests en modes Moyen et Élevé. Les tests ont été effectués avec Fraps.

* Après le nom du jeu, le build est indiqué, c'est-à-dire la version du jeu. Nous essayons de maximiser l'objectivité du test, nous n'utilisons donc que des jeux avec les derniers correctifs.

Résultats de test

La 8800 GTX marque un événement marquant dans l'histoire du graphisme 3D. C'était la première carte à prendre en charge DirectX 10 et son modèle de shader unique associé, améliorant considérablement la qualité d'image par rapport aux générations précédentes, et en termes de performances, elle est restée longtemps inégalée. Malheureusement, toute cette puissance et coût en conséquence. Avec la concurrence attendue d'ATI et la sortie de modèles de milieu de gamme moins chers basés sur la même technologie, la GTX était considérée comme une carte destinée uniquement aux passionnés qui voulaient être à la pointe du traitement graphique moderne.

Historique du modèle

Pour remédier à cette situation, nVidia a sorti une carte GTS 640 Mo de la même gamme un mois plus tard, et une GTS 320 Mo quelques mois plus tard. Les deux offraient des performances similaires à celles de la GTX, mais à un prix beaucoup plus raisonnable. Cependant, à environ 300-350 $, ils étaient encore trop chers pour les joueurs au budget serré - ce n'étaient pas des modèles de milieu de gamme mais des modèles haut de gamme. Rétrospectivement, les GTS valaient chaque centime investi, car ce qui a suivi pendant le reste de 2007 a été décevant après la déception.

Les premières à arriver étaient les cartes 8600 GTS et GT de milieu de gamme, qui étaient des versions fortement simplifiées de la série 8800. Elles étaient plus petites et plus silencieuses et disposaient de nouvelles capacités de traitement vidéo HD, mais les performances étaient inférieures aux attentes. Leur acquisition était peu pratique, bien qu'ils soient relativement peu coûteux. Carte graphique alternative ATI Radeon Le HD 2900 XT correspondait au GTS 640 Mo en termes de vitesse, mais il consommait une énorme quantité d'énergie sous charge et était trop cher pour être dans le milieu de gamme. Enfin, ATI a essayé de sortir la série DX10 sous la forme des HD 2600 XT et Pro, qui étaient encore mieux multimédia que la nVidia 8600, mais manquaient de puissance pour mériter l'attention des joueurs qui avaient déjà acheté des cartes graphiques de génération précédente telles que comme le X1950 Pro ou le 7900 GS.

Et maintenant, un an après le lancement de la 8800 GTX avec la sortie de la 8800 GT, est apparue la première véritable mise à jour du modèle avec prise en charge de DirectX 10. Bien que cela ait pris beaucoup de temps, mais nVidia GeForce Les spécifications de la 8800 GT étaient conformes au modèle GTS et le prix, compris entre 200 et 250 $, a finalement atteint la fourchette de prix moyenne que tout le monde attendait. Mais qu'est-ce qui rendait la carte si spéciale ?

Plus gros n'est pas mieux

Avec le développement de la technologie et le nombre de transistors dans le CPU et le GPU, il existe un besoin naturel de réduire leur taille. Cela conduit à une consommation d'énergie plus faible, ce qui signifie moins de chauffage. Plus de processeurs s'adaptent sur un seul cristal de silicium, ce qui réduit leur coût et donne théoriquement une limite de prix inférieure pour les équipements fabriqués à partir de ceux-ci. Cependant, l'évolution des processus de production présente des risques élevés pour les entreprises, il est donc habituel de sortir une toute nouvelle architecture basée sur des technologies existantes et éprouvées, comme ce fut le cas avec les 8800 GTX et HD 2900 XT. Avec l'amélioration de l'architecture, il y a une transition vers un matériel moins gourmand en énergie, sur lequel la nouvelle conception est basée à nouveau plus tard.

Cette voie a été suivie par la série 8800 avec les cœurs G80 des GTX et GTS, produits en technologie 90 nm, et la nVidia GeForce 8800 GT est basée sur la puce G92, déjà réalisée en 65 nm. Bien que le changement semble faible, il équivaut à une réduction de 34 % de la taille des tranches ou à une augmentation de 34 % du nombre de processeurs sur une tranche de silicium. En conséquence, les composants électroniques sont de plus en plus petits, moins chers, plus économiques, ce qui est un changement extrêmement positif. Cependant, le noyau du G92 n'a pas seulement rétréci, il y a autre chose.

Tout d'abord, le moteur de traitement vidéo VP2, qui était utilisé dans la série 8600, fait désormais son apparition dans la GeForce 8800 GT 512 Mo. Il est donc désormais possible de profiter de la vidéo haute définition sans freinage du système. Le moteur d'affichage final, qui est piloté par une puce séparée sur la 8800 GTX, est également intégré au G92. En conséquence, il y a 73 millions de transistors de plus sur la puce que la 8800 GTX (754 millions contre 681 millions), bien que le nombre de processeurs de flux, la puissance de traitement de texture et les ROP soient inférieurs à ceux du modèle plus puissant.

La nouvelle version de l'algorithme d'anti-aliasing transparent de nVidia, ajoutée à l'arsenal des GeForce 8800 GT, est conçue pour améliorer considérablement la qualité de l'image tout en maintenant des performances système élevées. De plus, le nouveau processeur n'a pas ajouté de nouvelles capacités graphiques.

La société de fabrication, apparemment, s'est longuement demandé quelles fonctionnalités des cartes de la série 8800 précédentes n'étaient pas pleinement utilisées et pourraient être réduites, et lesquelles devraient être laissées. Le résultat est une conception de GPU qui se situe quelque part entre GTX et GTS en termes de performances, mais avec des fonctionnalités GTS. En conséquence, la carte 8800 GTS est devenue complètement redondante. Les 8800 Ultra et GTX offrent toujours plus de puissance graphique, mais avec moins de fonctionnalités, à un prix beaucoup plus élevé et avec une consommation d'énergie plus élevée. Dans ce contexte, la carte GeForce 8800 GT 512 Mo a vraiment pris une position de force.

Architecture GPU

La carte graphique GeForce 8800 GT utilise la même architecture unifiée que nVidia a dévoilée lorsqu'elle a annoncé pour la première fois le processeur G80. Le G92 se compose de 754 millions de transistors et est fabriqué selon le procédé 65 nm de TSMC. La taille du substrat est d'environ 330 mm 2, et bien qu'il soit sensiblement plus petit que celui du G80, il est encore loin d'être qualifié de petit morceau de silicium. Il y a un total de 112 cœurs de flux scalaires, qui fonctionnent à 1500 MHz en standard. Ils sont regroupés en 7 clusters, chacun avec 16 processeurs de flux qui partagent 8 blocs d'adresse de texture, 8 sections de filtre de texture et leur propre cache indépendant. Il s'agit de la même configuration que Nvidia utilisée dans les puces G84 et G86 au niveau du cluster de shader, mais le G92 est un GPU beaucoup plus complexe que l'un ou l'autre.

Chacun des processeurs de shader dans un cycle d'horloge peut former deux instructions MADD et MUL, les blocs combinés en une seule structure peuvent traiter toutes les opérations et tous les calculs de shader qui se présentent à la fois sous forme d'entier et de virgule flottante. Il est cependant curieux que malgré la capacité des processeurs de flux à être les mêmes que le G80 (à l'exception du nombre et de la fréquence), nVidia prétend que la puce peut atteindre 336 GFLOPS. Cependant, pour calculer NADD et MUL, une vitesse de 504 GFLOPS est requise. Il s'est avéré que le fabricant a utilisé une approche prudente de la puissance de calcul et n'a pas inclus le MUL dans le calcul des performances globales. Lors des briefings et des tables rondes, nVidia a déclaré que certaines améliorations architecturales devraient permettre à la puce de se rapprocher de son débit maximum théorique. En particulier, le gestionnaire de tâches a été amélioré, distribuant et équilibrant les données qui arrivent par le pipeline. NVidia a annoncé qu'elle prendrait en charge la double précision des futurs GPU, mais cette puce ne fait que l'émuler, ce qui est associé à la nécessité de suivre les normes IEEE.

Architecture ROP

La structure ROP du G92 est similaire à celle de tout autre GPU de la série GeForce 8. Cela signifie que chaque section dispose d'un cache L2 et est affectée à un canal mémoire 64 bits. Il y a un total de 4 sections ROP et une interface de stockage de données 256 bits. Chacun d'eux est capable de traiter 4 pixels par horloge si chacun d'eux est spécifié par quatre paramètres (RVB et couleur Z). Si seul le composant Z est présent, alors chaque section peut traiter 32 pixels par horloge.

Les ROP prennent en charge tous les formats d'anti-aliasing courants utilisés dans le GPU des modèles précédents de la huitième série GeForce. Étant donné que la puce a une interface GDDR 256 bits, nVidia a décidé d'apporter quelques améliorations à l'efficacité de la compression ROP pour réduire l'utilisation de la bande passante et de la mémoire graphique avec l'anti-aliasing activé à 1600x1200 et 1920x1200.

Dérivés de l'architecture originale du G80, les blocs d'adresse de filtre et de texture, ainsi que les sections ROP, fonctionnent à une fréquence d'horloge différente de celle des processeurs de flux. Nvidia appelle cette vitesse de base. Dans le cas de la GeForce 8800 GT, les caractéristiques de la carte vidéo sont déterminées par la fréquence de 600 MHz. En théorie, cela se traduit par un taux de remplissage de 9600 gigapixels par seconde (Gp/s) et un taux de remplissage de texture bilinéaire de 33,6 Gp/s. Selon les utilisateurs, la fréquence d'horloge est très sous-estimée, et l'augmentation du nombre de transistors ne garantit pas l'ajout ou la conservation Fonctionnalité... Lorsque l'entreprise est passée de la technologie 110 nm à la technologie 90 nm, grâce à l'optimisation, elle a réduit le nombre de transistors de 10 %. Par conséquent, il ne sera pas surprenant que la puce ait au moins 16 processeurs de flux supplémentaires désactivés dans ce produit.

Exécution constructive

La conception de référence de la carte prévoit le fonctionnement du cœur, de l'unité de shader et de la mémoire à 600 MHz, 1500 MHz et 1800 MHz, respectivement. La 8800 GT est dotée d'un système de refroidissement à fente unique et un carénage en métal noir brillant masque presque complètement sa face avant. Le ventilateur d'un diamètre de 50 mm correspond à la conception des refroidisseurs radiaux des modèles haut de gamme et remplit ses fonctions de manière très silencieuse dans tous les modes de fonctionnement. Peu importe si l'ordinateur est inactif, chargé uniquement par un travailleur Bureau Windows, ou votre jeu préféré est en cours d'exécution - il ne sera pratiquement pas entendu dans le contexte d'autres sources de bruit dans le boîtier du PC. Cependant, il convient de noter que la première fois que vous allumez votre ordinateur avec une nouvelle carte vidéo, vous pouvez avoir peur. Le ventilateur se met à hurler lorsque le GPU est à pleine capacité, mais le bruit s'atténue avant même que le bureau n'apparaisse.

La lunette métallique attire les empreintes digitales, mais cela ne devrait pas poser de problème, car une fois installée, il sera impossible de les voir. Selon les utilisateurs, le couvercle permet d'éviter les dommages accidentels aux composants tels que les condensateurs sur la face de la carte. Circuit imprimé, peint en vert, associé à une lunette de radiateur noire, confère à la 8800 GT un caractère reconnaissable. Le modèle est marqué du logo GeForce le long du bord supérieur de la lunette. Mark Rein, vice-président de la société, a déclaré aux journalistes que cela avait un coût supplémentaire, mais était nécessaire pour aider les utilisateurs à déterminer quelle carte graphique est le cœur du système lors des LAN parties.

Sous le radiateur se cachent huit puces de mémoire graphique de 512 Mo pour un total de 512 Mo d'espace de stockage. Il s'agit d'une DRAM GDDR3 avec une fréquence effective allant jusqu'à 2000 MHz. Le GPU prend en charge à la fois la GDDR3 et la GDDR4, mais cette fonctionnalité n'a jamais été utilisée dans cette série.

Chauffage et consommation électrique

La carte graphique nVidia GeForce 8800 GT est très sexy. Son design est tout simplement très agréable à l'œil et, avec les changements internes du G92, il dégage une impression de conception solide.

Plus important que les aspects esthétiques, cependant, selon les utilisateurs, le fait que le fabricant a réussi à intégrer toute la puissance dans un appareil à un seul emplacement. Ce n'est pas seulement un changement bienvenu, c'est une agréable surprise. Les caractéristiques de la GeForce 8800 GT sont telles qu'on peut supposer qu'il y a un refroidisseur avec une hauteur de deux emplacements. La raison pour laquelle nVidia a renoncé à cette conception mince était un changement dans le processus de fabrication qui a réduit la chaleur à un niveau qu'un ventilateur à profil bas pouvait gérer. En fait, la température a tellement baissé que même une glacière relativement petite n'a pas besoin de tourner très vite, ce qui laisse la carte pratiquement silencieuse même lors de jeux intenses. Cependant, la température de la carte augmente considérablement, une quantité d'air importante est donc nécessaire pour éviter la surchauffe. À la suite d'une baisse processus technologique La GeForce 8800 GT 512 Mo ne consomme que 105 W même à pleine charge. Ainsi, un seul connecteur d'alimentation à six broches est nécessaire. C'est un autre changement agréable.

La carte a été la première à prendre en charge PCIe 2.0, qui permet de recevoir une puissance allant jusqu'à 150 watts. Cependant, la société a constaté que pour une compatibilité descendante, il est beaucoup plus facile de limiter la puissance à 75 watts. Cela signifie que, que la carte soit ou non connectée à cartes mères avec PCIe 1.1 ou PCIe 2.0, seuls 75 W sont fournis via le connecteur et le reste de l'alimentation est fourni via le connecteur supplémentaire.

Processeur VP2

En parlant de la possibilité de transmettre des signaux HDCP, il convient d'évoquer le processeur vidéo de nouvelle génération, que nVidia a intégré au G92. VP2 est un processeur SIMD programmable unique qui est suffisamment flexible pour s'étendre à l'avenir. Il fournit un traitement très intensif de la vidéo encodée H.264, déplaçant la charge du CPU vers le GPU. En plus du VP2, il y a aussi un processeur de streaming H.264 et un décodeur AES128. Le premier est spécialement conçu pour accélérer les schémas de codage CAVLC et CABAC - des tâches très lourdes CPU dans un environnement purement logiciel. AES128 permet un traitement plus rapide du protocole de cryptage requis pour les systèmes de sécurité vidéo tels que AACS et Media Foundation. Ces deux schémas nécessitent un codage vidéo (à la fois compressé et non compressé) lorsqu'ils sont transmis sur des bus tels que PCI-Express.

Amélioration de la qualité des images

Nvidia travaille dur pour améliorer la technique d'anti-aliasing transparent qui est apparue pour la première fois dans la 7e série GeForce. Le multi-échantillonnage a peu d'effet sur les performances de la carte, mais est inefficace dans la plupart des cas. D'un autre côté, le suréchantillonnage fournit une qualité d'image bien meilleure et plus stable, mais au détriment d'une vitesse plus lente, il s'agit d'une méthode d'anticrénelage incroyablement gourmande en ressources.

Les pilotes fournis avec la carte vidéo contiennent un nouvel algorithme de multi-échantillonnage. Les différences sont assez importantes, mais la décision finale est prise par l'utilisateur lui-même. La bonne nouvelle est que, puisqu'il s'agit d'un changement au niveau du pilote, tout matériel prenant en charge l'anticrénelage transparent peut utiliser le nouvel algorithme, y compris les cartes publiées après la GeForce 7800 GTX. Pour activer le nouveau mode, il vous suffit de télécharger les dernières mises à jour sur le site du constructeur.

D'après les avis des utilisateurs, le pilote de la GeForce 8800 GT ne sera pas difficile à mettre à jour. Bien que la page Web de la carte vidéo ne contienne que des liens vers des fichiers pour le système d'exploitation Windows Vista et XP, recherchez avec page d'accueil vous permet de trouver ce dont vous avez besoin. Pour nVidia GeForce 8800 GT, les pilotes Windows 7-10 sont installés avec l'utilitaire de pilote GeForce 342.01 de 292 Mo.

Connectivité

Les connecteurs de sortie de la nVidia GeForce 8800 GT sont assez standard - 2 ports DVI-I dual-link avec prise en charge HDCP, qui conviennent à la fois aux interfaces analogiques et numériques des moniteurs et des téléviseurs, et un port vidéo analogique à 7 broches fournit un composite conventionnel et la sortie composante. connecteurs DVI peut être utilisé en combinaison avec un adaptateur DVI-VGA et DVI-HDMI, ainsi n'importe quelle connexion est possible. Cependant, nVidia prend toujours en charge l'audio pour une utilisation avec Connecteurs HDMI une option optionnelle pour les fabricants tiers - il n'y a pas de processeur audio à l'intérieur du VP2, donc le son est réalisé via le connecteur S / PDIF de la carte. C'est décevant car la carte mince et silencieuse est idéale pour les jeux home cinéma.

GeForce 8800 GT est le premier système graphique Conforme PCI Express 2.0, ce qui signifie qu'il peut accéder à la mémoire jusqu'à 16 Go/s. - deux fois plus rapide que la norme précédente. Bien que cela puisse être utile pour les postes de travail et les tâches intensives en calculs, cela ne sera pas utile pour le joueur moyen. Dans tous les cas, la norme est entièrement compatible avec toutes les versions PCIe précédentes, il n'y a donc rien à craindre.

Les sociétés partenaires de Nvidia proposent des versions overclockées de la GeForce 8800 GT, ainsi que des packs de jeux.

BioShock par 2K Games

BioShock était l'un des meilleurs jeux sur le marché lorsque la carte graphique est sortie. Il s'agit d'un jeu de tir à la première personne génétiquement modifié se déroulant dans la ville sous-marine de Rapture, créé au fond de l'Atlantique par un homme nommé Andrew Ryan dans le cadre de son rêve art déco des années 1930. 2K Boston et 2K Australia ont sous licence et utilisé Unreal Engine 3 d'Epic Games pour obtenir le meilleur effet, et ont également utilisé certaines des fonctionnalités de DirectX 10. Tout cela est contrôlé via une option dans le panneau de configuration graphique du jeu.

La scène BioShock a forcé les développeurs à utiliser beaucoup de shaders d'eau. La technologie DirectX 10 a contribué à améliorer l'ondulation lorsque les personnages se déplacent dans l'eau, et les pixel shaders ont été massivement utilisés pour créer des objets et des surfaces humides. De plus, la version DX10 du jeu utilise un tampon de profondeur pour créer des effets de particules "doux" qui interagissent avec leur environnement et semblent plus réalistes.

La nVidia GeForce 8800 GT, dont les caractéristiques lui permettent de montrer ses atouts dans BioShock, n'est que légèrement inférieure à la GTX en 1680x1050. Au fur et à mesure que ce paramètre augmente, l'écart entre les cartes augmente, mais pas de manière importante. La raison en est probablement le fait que le jeu ne prend pas en charge l'anti-aliasing transparent, et l'énorme avantage de la bande passante mémoire de la 8800 GTX devient controversé.

Selon les avis des utilisateurs, la 8800 GT fonctionne également assez bien avec le SLI activé. Si ses capacités ne se rapprochent pas de la GTX, la Radeon HD 2900 XT avec 512 Mo de mémoire en configuration CrossFire lui fait concurrence. Peut-être encore plus intéressant est le fait qu'en 1920x1200, la 8800 GT est presque aussi rapide que la 640 Mo GTS !

Démo du lecteur Crysis Syngle par Electronic Arts

Ce jeu va littéralement faire pleurer votre carte graphique ! La grande surprise a été ses graphismes - elle a surpassé tout ce qui était dans les jeux informatiques avant elle. Les tests avec le GPU runner intégré sont beaucoup plus rapides qu'ils ne l'est réellement. Environ 25 ips dans le test de performance suffisent pour obtenir une fréquence d'images conviviale. Contrairement à d'autres jeux, la faible fréquence d'images semble toujours assez plate ici.

La carte vidéo nVidia GeForce 8800 GT, dont les caractéristiques dans Crysis permettent d'atteindre des fréquences d'images suffisantes à une résolution de 1680x1050 avec des détails élevés sous DirectX 10, n'est pas aussi rapide que la GTX, mais est nettement plus productive que les Radeon HD 2900 XT et 8800 GTS 640 Mo. Le GTS 320 Mo a du mal à gérer Crysis et devra abaisser la plupart des paramètres à moyen pour obtenir une fréquence d'images supérieure à 25 ips même avec une qualité d'image de 1280 x 1024.

Performance

Comme prévu, la 8800 GTX reste inégalée, mais dans l'ensemble, la GeForce 8800 GT GTS surpasse la plupart des tests. Aux résolutions et aux paramètres d'anticrénelage les plus élevés, la bande passante mémoire réduite du GT échoue et le GTS prend de l'avance de temps en temps. Cependant, compte tenu de la différence de prix et d'autres avantages, la 8800 GT est quand même meilleure. A l'inverse, comparer à chaque fois GeForce GTX 8800 / GT 8800 confirme pourquoi la première carte est si chère. Alors que d'autres modèles commencent à ralentir significativement avec une augmentation du nombre de pixels, avec anti-aliasing transparent et filtrage anisotrope, la 8800 GTX continue d'afficher d'excellents résultats. En particulier, Team Fortress 2 en 1920x1200 avec 8xAA et 16xAF sur la 8800 GTX tourne deux fois plus vite que sur la GT. Cependant, pour la plupart, la GeForce 8800 GT se comporte bien. Bien sûr, si vous ne tenez pas compte des fréquences d'images incroyablement basses de Crysis.

Conclusion

Bien que la carte graphique GeForce 8800 GT ne dépasse pas les spécifications du leader de la série 8800 GTX, elle offre des performances similaires pour une fraction du prix, et comprend également de nombreuses fonctionnalités supplémentaires. Et si vous ajoutez ici la petite taille et le fonctionnement silencieux, le modèle semblera tout simplement phénoménal.

gastroguru 2017