DepanneTonPC, dépannage et aide informatique

Connexion :


Pass oublié | Inscription

En ce moment sur le site :

Lexique informatique

Partenaires :

Blog Coupe du monde
The Site Oueb
Tom's Hardware
NDFR

La GeForce 8800, le G80 pointe le bout de ses pixels

Publié par Spena le 05/10/2006 12:50 dans la rubrique Archives
Tags
On en sait aujourd'hui un peu plus, par l'intermédiaire de DailyTech, sur la prochaine génération de cartes graphiques du fondeur Nvidia basée sur le processeur graphique G80.

Gérant le futur DirectX10 en natif, les nouveaux modèles se déclinent en deux offres distinctes.

Le haut de gamme, tout d'abord, avec la GeForce 8800GTX qui ne devrait pas manquer de faire saliver plus d'un joueur avec son GPU cadencé 575Mhz et ses 768 Mo de mémoire G-DDR3 cadencées quant à elle 900Mhz bénéficiant d'un bus mémoire de 384 Bits. Côté Shaders, la carte sera compatible avec les Shaders Model 4.0 et on parle même de 128 unités de shaders unifiées fonctionnant à 1350Mhz.
Ce dernier point est toutefois un des plus hypothétiques...

On peut penser que le prix sera à la démesure de la consommation probable de la carte: Nvidia recommanderait une alimentation de pas moins de 450W pour une configuration optant pour cette carte.



Pour les utilisateurs les moins fortunés ou les moins gourmands, Nvidia lancera en parallèle une GeForce 8800GTS. Nettement bridée par rapport à sa grande soeur, elle pourra néanmoins se targuait de ses 640Mo de mémoire à 800Mhz, de son G80 cadencé à 500Mhz et de tout de même 96 Shaders...
Si la carte promet d'être plus abordable, il faudra tout de même compter sur une alimentation de 400W, toujours selon Nvidia, pour faire correctement fonctionner la bête !

A noter que la consommation de la bête ne sera pas le seul élément gargantuesque des nouvelles GeForce. Si l'on se fie aux photos des prototypes circulant sur le Web depuis quelques jours, la carte devrait mesurer au bas mot 20 cm et posséderait un refroidissement hybride: watercooling et ventirad classique.
Reste à savoir si ces deux méthodes devront être combinées, très peu probable, ou si elles laisseront le choix à l'utilisateur d'utiliser le moyen de refroidissement qu'il juge le plus approprié à son cas...

Ces informations sont, bien sûr, à prendre avec des pincettes et les vrais traits de la carte graphique ne s'esquisseront qu'à l'approche de sa date de sortie.
Commentaires | Imprimer | Ajouter à : Facebook Scoopeo del.icio.us Digg this Technorati