Aller au contenu
  • Pas encore inscrit ?

    Pourquoi ne pas vous inscrire ? C'est simple, rapide et gratuit.
    Pour en savoir plus, lisez Les avantages de l'inscription... et la Charte de Zébulon.
    De plus, les messages que vous postez en tant qu'invité restent invisibles tant qu'un modérateur ne les a pas validés. Inscrivez-vous, ce sera un gain de temps pour tout le monde, vous, les helpeurs et les modérateurs ! :wink:

Messages recommandés

Posté(e)

Ma config:

 

Athlon 2400+ sur k7s5a Pro

512 Mo DDR PC2100

GF 4 MX 440 SE 64 Mo DDR

 

je voudrais changer de CG passe que la MX :-P

j'hésites entre +sieurs modeles:

 

GF4 ti4200 de chez Abit: http://www.abit.com.tw/abitweb/webjsp/fran...+Ti4200-8X+OTES

systeme de refroisissement :-P

 

GF FX 5600 256Mo DDR dans le style de celle-là:

http://www.abit.com.tw/abitweb/webjsp/engl...FX5600+DT+256MB

 

ou encore une GF 4800 SE (equivalent des anciennes ti 4400 en agp8x)

 

j'ai pense a une radeon 9700 Pro mais c pas le meme budget..... :-(

 

Laquelle conviendrait le mieux à ma config et me permettrait de tenir le coup encore quelques temps tranquillou??

c pour faire du jeux, lecture DVD....

 

 

Merci d'avance :-P

:P

Posté(e)

as tu pensé a une ATI radeon 9700 NON pro, c celle que j ai et c vraimen,t un trés bon produit je n en sui pas du tou déçu, au contraire, je l ai overclocké au nivo d une 9700 Pro, et franchement :-P magnifique :P

Je te la conseil fortement en plus avec les joli peti driver Omega 3,6 optimisé et patché 9700 ---> 9800 ça marche du feu de dieu :-(

Posté(e)

j ai installé les pilote Omega 3,6 (optimisé) qui inclu un utilitaire d overclocking, lastuce 9700 en 9800 etc... Pour la refroidir j ai récupéré un ventilo de pentium166Mhz que j ai mi de l autre coté du GPU, rien pour les mémoire juste le courant d air ki passe ds ma tour grave au ventilo, les fréquence de ma 9700 non pro: 350Mhz pour le GPU et 305Mhz pour les mémoires, aucun artefac et aucun plantage :-(

Que du bon :P

Posté(e)
j ai installé les pilote Omega 3,6 (optimisé) qui inclu un utilitaire d overclocking, lastuce 9700 en 9800 etc... Pour la refroidir j ai récupéré un ventilo de pentium166Mhz que j ai mi de l autre coté du GPU, rien pour les mémoire juste le courant d air ki passe ds ma tour grave au ventilo, les fréquence de ma 9700 non pro: 350Mhz pour le GPU et 305Mhz pour les mémoires, aucun artefac et aucun plantage :-(

Que du bon :P

astucieux. :-P

 

je dirai que le point fort de la 4200 de chez abit c que vu son syst de refroidissement, l'OC sera chose facile deja que ce sont des cartes simples à OC....

Posté(e)

point fort de la 4200 de chez abit c que vu son syst de refroidissement, l'OC sera chose facile deja que ce sont des cartes simples à OC....

 

=> oui mais DirectX 8.1 /!\ est ce bien raisonnable d'acheter une carte DX 8.1 alors que les jeux utilisant le renderer DX9 commencent à pointer leur nez ?

Posté(e)
=> oui mais DirectX 8.1 /!\ est ce bien raisonnable d'acheter une carte DX 8.1 alors que les jeux utilisant le renderer DX9 commencent à pointer leur nez ?

 

Oui c vrai c aussi un peu pour ça que j'hésites, mais est-ce vraiment une grosse lacune?

je connais pas du tout les FX, tandis que les Ti ont fait leurs preuves, y'a du dechet dans les fx, genre la 5200.

halala, pas facile tt ça.

Posté(e) (modifié)

Ati 9600 Pro et un coup d'omega driver :P

 

copier coller de TT-H ==>

Beyond 3D a publié un petit comparatif entre cartes ATI et NVIDIA dans le jeux Tomb Raider : Angel Of Darkness. Si d'un point de vue ludique le jeu n'est pas ce que nous avons vu de mieux, son moteur 3D est assez abouti. Il permet d'utiliser les dernières technologies dont les Pixel Shader 2.0. Les Pixel Shader 2.0 représentent une des avancées majeures de DirectX 9. Ils sont utilisés pour plusieurs effets comme les ombrages, le depth of field (flouttage de l'arrière plan), l'eau etc…

 

Le test de Beyond 3D montre un avantage très clair des cartes ATI envers leur concurrente directe de NVIDIA. Les cartes ATI sont plus de deux fois plus rapides que leurs homologues NVIDIA. Les développeurs du jeu en étaient visiblement conscients vu qu'ils désactivent pas mal d'options avec les GeForce FX histoire de leur permettre d'afficher un framerate correct.

 

Qui plus est, le jeu permet d'utiliser le compilateur Cg pour les shader. Celui-ci n'apporte cependant qu'un gain négligeable avec les GeForce FX. En réalité, la seule chose qu'il "apporte" est une baisse énorme des performances avec les Radeon… Bref, dans Tomb Raider, il sert plus à ralentir les Radeon qu'à accélérer les GeForce…

 

Certains de nos confrères présentent ces résultats avec un léger étonnement. Ce qui nous a surpris étant donné qu'il a été établit très clairement et à maintes reprises que les capacités en Pixel Shader 2.0, c'est-à-dire en Pixel Shader au format floating point (FP), des GeForce FX étaient très faibles. Même avec les GeForce FX 5900 ! Le doublement des performances dont parlait NVIDIA lors de l'annonce de ce GPU semble bel et bien ne pas répondre à l'appel…

 

Nous avons réalisé beaucoup de tests à ce sujet que nous n'avons pas publiés pour plusieurs raisons : premièrement par manque de temps et ensuite parce que ces tests sont purement synthétiques et donc souvent mal compris par les lecteurs qui préfèrent un test en situation réelle. Et pourtant, ces tests synthétiques indiquent le fillrate maximum que peut atteindre une carte avec un shader bien précis. Sachant que les performances sont dans la majorité des cas fonctions du fillrate voir même exclusivement du fillrate en haute résolution, ces tests théoriques sont tout à fait adaptés pour analyser les performances d'une carte.

 

Nous avons testé un large panel de shader différents. Certains étant purement mathématiques pour tester la précision ou le débit des cartes et d'autres étant des shader utilisés (ou qui le seront) dans des situations réelles. Il n'est d'ailleurs pas utile de rentrer loin dans les détails pour connaître les capacités des cartes :

 

* Si nous prenons une situation qui arrange le mieux les GeForce FX, la Radeon correspondante est 2X plus rapide.

* Si nous prenons une situation qui arrange le mieux la Radeon, la GeForce FX est 4X plus lente !

* Et ce n'est pas tout : les GeForce FX voient encore leurs performances réduites lorsque plus de 2 registres sont utilisés (alors que DX9 en requiert 12). Ainsi, nous avons pu tomber sur des situations extrêmes où la Radeon est 8 à 10 fois plus rapide que la GeForce FX à fréquence égale.

 

Inutile d'aller plus loin dans les détails : les GeForce FX sont loin derrière au niveau des performances en Pixel Shader 2.0.

 

 

En pratique qu'est-ce que ça signifie ? Qu'une GeForce FX est 2 à 8 fois plus lente qu'une Radeon pour calculer les Pixel Shader 2.0. Sachant que lorsque ceux-ci sont utilisés les performances dépendent souvent presque uniquement du fillrate en PS2.0, il n'est pas difficile de comprendre qu'elles seront proportionnelles à ce fillrate… C'est ce qui explique le problème des GeForce FX dans le dernier Tomb Raider.

 

Bien entendu, il reste à voir quand la majorité des développeurs vont passer aux Pixel Shader 2.0. La plupart des shader simples peuvent être réalisés en Pixel Shader 1.1 à 1.4 et NVIDIA ne doit pas spécialement pousser les développeurs à utiliser des shaders complexes qui montrent les GeForce FX sous leur mauvais jour… Le problème ne se posera donc pas dans tous les jeux et certainement pas dans Doom III qui se contente de shader plus simples (ce qui montre au passage qu'on peut faire quelque chose de joli sans utiliser de shader complexes). Mais cela reste malgré tout un point important à prendre en compte lors d'un nouvel achat. Le handicap des GeForce FX avec les Pixel Shader 2.0 pourrait réduire la durée de vie de ces cartes et, paradoxalement, une "vieille" Radeon 9700 Pro serait plus tournée vers l'avenir ! Cela faisait longtemps que nous n'avions plus vu une telle disparité entre 2 cartes graphiques visant le même marché… Ceci est bien entendu loin d'être l'idéal pour l'évolution de la 3D et doit certainement causer pas mal de problèmes à quelques développeurs...

 

Espérons que NVIDIA arrive à corriger le tir avec la génération suivante et que les NV4x soient plus des GeForce FP que des GeForce FX…

 

 

 

Un peu de théorie :

GeForce FX 5900 Ultra en PS 2.0

 

Fillrate = 1800 / X

 

X étant le nombre d'instructions (vectorielles + scalaires) + la moitié du nombre de textures. X doit être arrondi vers le haut lorsqu'il n'est pas entier.

 

 

Radeon 9800 Pro en PS 2.0

 

Fillrate = 3040 / Y

 

Y étant la plus grande de ces 3 valeurs : nombre de textures, nombre d'instructions vectorielles (couleurs en général) et nombre d'instructions scalaires (transparence en général)

 

 

Radeon 9600 Pro en PS 2.0

 

Fillrate = 1600 / Y

 

 

GeForce FX 5600 Ultra rev2 en PS 2.0

 

Fillrate = 800 / X

 

 

Pour éclaircir le tout : un petit exemple. Prenons un shader constitué de 6 textures, de 21 instructions vectorielles et de 8 instructions scalaires.

 

X = 32 donc

 

* Le fillrate de la GeForce FX 5900 Ultra est de 56,25 MPixels/s

 

* Le fillrate de la GeForce FX 5600 Ultra est de 25,00 MPixels/s

 

Y = 21 donc

 

* Le fillrate de la Radeon 9800 Pro est de 144,75 MPixels/s

 

* Le fillrate de la Radeon 9600 Pro est de 76,20 MPixels/s

 

Si ce shader est appliqué sur tous les pixels, une Radeon 9800 Pro pourra le faire tourner en 1280x1024 avec un peu plus de 100 FPS. Une GeForce FX 5900 Ultra devra se contenter de 40 FPS dans les mêmes conditions. En ce qui concerne les cartes milieu de gamme, la Radeon 9600 Pro pourra le faire tourner à plus de 55 FPS alors que la GeForce FX 5600 Ultra devrait se contenter de moins de 20 FPS...

 

La différence est énorme et pourtant elle ne tient même pas compte de la perte de performances liée à l'utilisation de plus de 2 registres sur la GeForce FX. Inutile de dire qu'un long shader aura tendance à avoir besoin de plus de registres… ou devra être allongé pour en utiliser moins ! Ce qui ne fait pas vraiment plus l'affaire de la GeForce FX…

 

 

Rendons à César ce qui appartient à César : lors de nos tests nous avons malgré tout cela trouvé un point positif aux GeForce FX. Ils sont capables de traiter une instruction SINCOS en un seul cycle contre 6 pour une Radeon (et 8 définis par Microsoft). NVIDIA utilise probablement les unités de type DX8 (qui se tournent les pouces lors de l'exécution d'un shader DX9) pour accélérer SINCOS. Nous n'avons pas vérifié la précision, mais Microsoft définissant très clairement celle requise par SINCOS, nous pouvons supposer que NVIDIA la respecte. Le problème est que SINCOS est utilisé dans de longs shaders et que cet avantage des GeForce FX est masqué par le manque de performances global. SINCOS est généralement utilisé dans des textures procédurales comme celles utilisées dans le test Pixel Shader 2.0 de 3DMark03.

Modifié par Y@kuz@

Rejoindre la conversation

Vous publiez en tant qu’invité. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.
Remarque : votre message nécessitera l’approbation d’un modérateur avant de pouvoir être visible.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...