Techno : GeForce FX

Publié le 18/11/2002 par
Imprimer
Le GPU
Un an après le TNT, NVIDIA lança le GeForce 256 (NV10), un véritable GPU (Graphic Processor Unit). En effet, le GeForce 256 intégrait une nouvelle fonction jusqu'alors réservée aux cartes graphiques des stations de travail : le Transformation & Lighting, qui était jusqu'alors géré par le processeur central. Cadencé à 120 MHz, il offrait un fillrate de 480 Mpixels /s, contre 300 Mpixels /s au TNT2 Ultra. Afin d'exploiter au mieux ce fillrate, le GeForce 256 fut par ailleurs le premier processeur graphique PC à être associé avec de la mémoire vidéo de type DDR-SDRAM, qui offrait une bande passante double de celle de la SDRAM utilisée jusqu'alors.

C'est au printemps 2000 qu'est apparu le GeForce2 GTS (Giga Texel Shader - NV15). Gravé en 0.18 Micron, contre 0.22 Micron pour le GeForce256, le Geforce2 GTS dispose d'une fréquence par défaut de 200 MHz (166 MHz pour la mémoire) lui permettant de mettre une claque au GeForce256, du moins sur le papier, d'autant que contrairement à ce dernier il est capable de passer du single au dual texturing sans perdre en fillrate. Reste qu'en pratique, les performances ne furent que de 20% supérieures à une GeForce256 DDR. En effet, le GeForce2 GTS ne dispose que de 10% de bande passante mémoire en plus. Côté fonctions, le GeForce2 GTS a introduit le NSR (NVIDIA Shading Rasterizer), version moins évoluée du Pixel Shader de DirectX 8.0 que nous étudierons un peu plus loin.

Comme vous le savez, le GeForce2 a depuis été décliné en plusieurs versions : Le GeForce2 MX (NV11) pour l'entrée de gamme, le GeForce2 Pro cadencé à 200 MHz et couplé a de la DDR 200 MHz, le GeForce2 Ultra à 250 / 230 MHz et le GeForce2 Go pour portable. Le GeForce4 MX que l'on trouve encore dans l'entrée de gamme NVIDIA est également basé sur cette architecture, même si il emprunte quelques fonctions au GeForce4 Ti.
Pro-gra-mmable !
1 an après le GeForce2 GTS, ce fut autour du GeForce3 d'être introduit sur le marché. Doté de pas moins de 57 Millions de transistors, soit plus qu'un Pentium 4, ce GPU était cadencé à 200 MHz contre 230 MHz pour la DDR-SDRAM l'accompagnant, ce qui sur le papier n'est pas une évolution par rapport au GeForce2 Ultra. Mais dans les faits, NVIDIA a fortement optimisé le GeForce3, notamment au niveau de la gestion de la bande passante mémoire et du FSAA, ce qui le rend bien plus rapide que ce dernier.

Mais la grosse innovation technologique intégrée au sein d'un GeForce3 va bien plus loin : il s'agit de la programmabilité des effets visuels via les Vertex et Pixel Shaders. Les Shaders sont en fait de petits programmes qui peuvent être exécutés par le GPU, et dont le but est d'agir sur les données associées aux vertices (sommets des triangles) dans le cas des Vertex Shaders ou à celles des pixels dans le cas des Pixels Shaders. Pour la première fois, les develloppeurs n'étaient plus contraints d'utiliser les effets pré-câblées dans la puces et DirectX, mais pouvais créer leurs propres effets.

Environ 6 mois après le GeForce3, NVIDIA lançait deux déclinaisons de ce dernier, le GeForce3 Ti 200 et 500 qui se distinguaient uniquement de part leurs fréquences respectives de 175/200 et 240/250. En Février 2002, NVIDIA décidait d'aller plus loin dans son architecture DirectX 8 avec les GeForce4 Ti, disponibles en 3 versions 4200, 4400 et 4600 cadencées à 250/250, 275/275 et 300/325. En sus de fréquences plus élevées que celles des GeForce3 Ti, les GeForce4 Ti amélioraient encore l'optimisation de la bande passante mémoire par rapport au GeForce3, disposaient d'une seconde unité dédiée aux calculs géométriques, du bi-écran et d'un FSAA amélioré.

Riva 128 puis Riva 128 ZX
TNT puis TNT2
GeForce256 puis GeForce2
GeForce3 puis GeForce4

En toute logique, il était temps pour NVIDIA de passer à une autre génération de GPU après le GeForce4. C'est chose faite avec le GeForce FX !
Vos réactions

Top articles