Nvidia lance la GeForce GT 1030

Publié le 17/05/2017 à 19:18 par
Imprimer

Relativement discrètement, Nvidia vient de débuter la commercialisation d'une nouvelle déclinaison dans la famille GeForce 10 : la GeForce GT 1030. Une carte graphique d'entrée de gamme qui va venir se positionner face à la récente Radeon RX 550 d'AMD.

Bien qu'il ait souvent peu d'intérêt pour l'utilisateur final, le marché des cartes graphiques d'entrée de gamme reste important pour AMD et Nvidia puisqu'il permet de faire du volume dans la durée avec des produits qui restent au catalogue bien plus longtemps que le reste de la gamme.

Nvidia se devait donc de réagir à la Radeon RX 550 d'AMD, basée sur Polaris 12, un nouveau GPU 14nm. La GeForce GT 1030 va ainsi succéder aux vieillissantes GeForce GT 700 (Kepler) avec un nouveau GPU de génération Pascal : le GP108. Comme le GP107 et contrairement aux plus grosses puces de la famille, celui-ci est fabriqué en 14nm par Samsung.

Grossièrement, le GP108 est un demi GP107 avec 3 SM (384 unités de calcul) et un bus mémoire de 64-bit. La GT 1030 affiche une puissance similaire à celle de la RX 550 mais profite d'une architecture plus efficace. Par contre sa bande passante est nettement inférieure puisqu'elle doit se contenter d'un bus de 64-bit.

Là où la solution de Nvidia se démarque c'est évidemment au niveau de la consommation qui tombe à 30W et permet de généraliser le refroidissement passif avec des radiateurs compacts. Cela se ressent aussi au niveau de la note puisque la GT 1030 se trouve à 75€ contre 90€ pour la RX 550.

Evidemment, de telles cartes graphiques n'ont à peu près aucun intérêt pour les joueurs. Elles vont permettre la mise à jour d'anciens systèmes vers une connectique d'affichage et des moteurs vidéos modernes (HDMI 2.1, DP 1.3/1.4, HEVC…), mais également aux OEM d'apposer un sticker Radeon ou GeForce sur des machines d'entrée de gamme.

Ces GPU auront un peu plus d'intérêt dans le monde mobile et devraient y débarquer sous peu. Nvidia aura l'avantage de la consommation alors qu'AMD aura plus de facilités à attirer le chaland avec une mémoire vidéo plus importante.

Vos réactions

Top articles