Aller au contenu
  • Pas encore inscrit ?

    Pourquoi ne pas vous inscrire ? C'est simple, rapide et gratuit.
    Pour en savoir plus, lisez Les avantages de l'inscription... et la Charte de Zébulon.
    De plus, les messages que vous postez en tant qu'invité restent invisibles tant qu'un modérateur ne les a pas validés. Inscrivez-vous, ce sera un gain de temps pour tout le monde, vous, les helpeurs et les modérateurs ! :wink:

Messages recommandés

Posté(e)
"Mieux" c'est "gigaflops / prix" ? Si on suivait toujours ta logique on aurait tous des Pentium 4 à 24GHz à l'heure qu'il est. Quoique pour des calculs uniquement en virgule flottante ça ne soient pas les meilleurs, mais comme c'est le seul truc que tu regardes, ce sont les moins chers.

Heureusement que tout le monde n'a pas juste besoin de Gigaflops !

 

ben étant donné que ce sont grâce à eux qu'on peut déduire de manière synthétique la qualité des unités de calculs graphiques, que ce soit en shaders, pour le rendu ou pour les textures, cela reste encore le meilleur indicateur de puissance graphique :P:P ....il n'existe pas une CG à moindre puissance en Gflops qui réussisse de meilleurs benchmarks, contrairement aux CPU.....

Posté(e) (modifié)
Comment croire que tu es réellement objectif si tu ne veux même pas entendre parler de nvidia ou que, quoi qu'on dise, tu vas nous répondre qu'on est des fanboys !?

 

Je pense plutôt que l'objectivité-ou la connaissance-sont mises à mal lorsqu'on essaye de comparer les deux fabricants.....non seulement Nvidia n'est pas capable de présenter des CG de la même génération, mais de plus le rapport Q/P est désastreux-et ils en sont aussi conscients, car ils ne s'amusent pas à rebaptiser leurs anciennes CG pour le simple plaisir, ils savent parfaitement qu'ils ne sont plus compétitifs.

 

Après, si quelqu'un veut acheter une nouvelle voiture et qu'on estime pouvoir lui recommander une R16 au prix d'une Honda Civic parce que Renault n'a rien produit depuis, c'est , à mes yeux, du fanboyisme....

 

Côté drivers, mon expérience tend à prouver que les utilisateurs ont les merdes les plus incompréhensibles lorsqu'ils tentent de changer leur carte graphique sous Windows, et côté Linux les drivers propriétaires ATI sont bien plus buggés que ceux de nvidia, alors que les drivers open-source au contraire offrent plus de fonctionnalités pour ATI que pour nvidia sans toutefois parvenir au niveau de performance des drivers proprio.

 

Et moi, côté drivers, je passe indifféremment depuis des années de l'un à l'autre...quant à l'argument Linux, je ne sais franchement pas ce qu'il fait là, seb57 parlant de changement pour jouer aux jeux récents.....

 

Pour finir, j'aimerais qu'une bonne fois pour toutes on m'explique en quoi avoir une carte "qui gère DX11" c'est mieux qu'une carte "qui gère DX10",

 

il suffit de jouer à DIRT 2 pour comprendre aussitôt....de plus, Seb57 précise bien:

 

j'aimerais pouvoir profiter à 100% des derniers jeux
Modifié par MasterThiefGarrett
Posté(e)

Donc en gros il faudrait une GTS 250 et sinon ? au dessus ? ( Alim 650W )

Posté(e)

en premier choix, une 5770, pas une 250 (qui n'est qu'une 9800 gtx dont on a changé l'étiquette, et la 9800 GTX+ était aussi en OEM la GTS 150, et la 9800 en version GT est en fait la 8800GT rebaptisée...autrement dit, la 250 est aussi la 150, mais également la 9800GTX+ qui n'est qu'une variante de la 8800GT).

 

Pour l'alimentation, c'est surtout l'ampérage du rail +12 V qui importe, quel est-il ?

Posté(e)
ben étant donné que ce sont grâce à eux qu'on peut déduire de manière synthétique la qualité des unités de calculs graphiques, que ce soit en shaders, pour le rendu ou pour les textures, cela reste encore le meilleur indicateur de puissance graphique :lol::lol:
C'est de la "puissance de calcul" pure, c'est super pratique pour le folding mais pour les jeux franchement si les algos de shading / antialiasing / mapping sont mauvais c'est pas en les rendant plus rapides que tu vas gagner quoi que ce soit. Pour en revenir aux P4 cités précédemment l'augmentation de fréquence a eu, en plus de l'effet de "plus de calculs par seconde", de démontrer que l'architecture avec des pipelines trop longs perdait énormément de son efficacité (pertes de très nombreuses branches de prédiction, donc plein de calculs fait pour rien) quand on montait en fréquence. Perso j'en ai rien à cirer de la puissance pure, mais chacun voit midi à sa porte. Si tout ce qu'il te faut pour te décider ce sont des résultats de benchmarks, alors tu as bien de la chance : tu ne sais pas à quoi tu échappes !

 

Nvidia n'est pas capable de présenter des CG de la même génération (...) le rapport Q/P est désastreux-et ils en sont aussi conscients (...) ils savent parfaitement qu'ils ne sont plus compétitifs
1 - D'où sors-tu ces infos ? Si tu as des mémos internes de nvidia, ça nous intéresse...

2 - En quoi tenter de pourrir nvidia de cette façon ça apporte de l'eau à ton moulin de non-troll ?

 

l'argument Linux, je ne sais franchement pas ce qu'il fait là
Je parlais de mon expérience personnelle. J'ai plus eu à toucher aux drivers ATI / nvidia sous Linux que sous Windows. Cependant, quand j'ai eu à y toucher sous Windows j'ai vraiment eu des envies de meurtres quand on m'a annoncé qu'il fallait le Framework .Net pour les outils de configuration ATI, mais bon, ça aussi c'est causé par mon expérience de développeur C# (courte mais pas suffisamment, malheureusement). Tu parles de voitures, j'ai bien le droit de parler de Linux ? ;-p

 

il suffit de jouer à DIRT 2 pour comprendre aussitôt
Désolé d'insister mais n'étant pas un fan des jeux de courses ultra-réalistes (vu que je préfère les jeux pour leur côté "fun"), et n'ayant pas les moyens de jouer à Dirt2, je suis toujours intéressé par l'explication.

 

Pour finir, j'émets un doute quant à la possibilité de "profiter à 100% des derniers jeux" (pour de vrai) avec n'importe quelle marque/modèle de carte graphique pour un budget de 100 à 150€

Posté(e)
Tu parles de voitures, j'ai bien le droit de parler de Linux ? ;-p

 

A la seule différence, que les voitures, il y a des jeux là-dessus :P

Posté(e) (modifié)
Si tout ce qu'il te faut pour te décider ce sont des résultats de benchmarks, alors tu as bien de la chance : tu ne sais pas à quoi tu échappes !

 

oui, cela suffit largement pour un joueur....ce que l'on cherche, c'est la carte qui fournit le plus de fps, pas autre chose

 

 

1 - D'où sors-tu ces infos ? Si tu as des mémos internes de nvidia, ça nous intéresse...

2 - En quoi tenter de pourrir nvidia de cette façon ça apporte de l'eau à ton moulin de non-troll ?

 

je ne pense pas qu'il faille les mémos internes d'une entreprise pour savoir quand elle perd pied.....une simple analyse suffit largement.Et même des pro-Nvidia ont baissé les bras devant le coup du PhysX, qui est tout simplement lamentable.

 

Quant à "pourrir " Nvidia, disons qu'une entreprise française qui s'amuserait à changer les logos de son matériel en prétendant que c'est du nouveau sorti tout chaud des fours aurait vite droit aux foudres jupitérines de feue la DGCCRF...une boite qui s'amuserait à verrouiller son matériel pour qu'aucun concurrent ne puisse utiliser quoi que ce soit serait elle aussi condamnée (BMW en a su quelque chose, dans les années 90, toujours pour rester dans les allégories automobiles)....mais pas Nvidia....qui n'ose même pas assumer:

 

Mais je vous jure que c'est pas moi, c'est les autres

 

On va quand même pas les féliciter pour ne pas avoir sorti à temps de produits compétitifs et vendre à prix surcôtés des CG dépassées, non?

Modifié par MasterThiefGarrett
Posté(e)

"Oui cela suffit largement pour un joueur...ce que l'on cherche, c'est la carte qui fournit le plus de fps, pas autre chose"

 

Je suis désolé de te contredire mais là tu es vraiment à côté, j'ai été joueur à un moment et je peux en témoigner. Il y a plein de paramètres à prendre en compte dans le choix et pas seulement ces FPS (non les benchmarks ne sont pas tous fiables et s'en référer est une belle erreur). Les shaders, la gravure, les pipelines, le nombre de transistor, les sorties ! Tout est important alors peut-être que tu n'es intéressé que par les fps mais ne mets pas tout le monde dans le même panier car c'est pas le cas !

 

Je dirige le post de 3Dmark 05 dans la section overclocking et j'en ai vu passer des gens s'étonnant de leur score, la plupart des membres qui répondaient (dont certains bien plus expérimentés que moi) s'aligner sur le même principe :

"Le test sur un jeu est bien plus significatif qu'un test 3D mark" !

 

Sur le reste de ton post, on sera tous d'accord pour dire que Nvidia recycle ses cartes graphiques bien plus qu'AMD, c'est une réalité...mais là n'est pas le problème posé alors le mieux serait faire preuve d'un peu plus d'objectivité dans les sujets consacrés aux conseils que l'on va donner aux autres utilisateurs.

Posté(e)
"Oui cela suffit largement pour un joueur...ce que l'on cherche, c'est la carte qui fournit le plus de fps, pas autre chose"

 

Les shaders, la gravure, les pipelines, le nombre de transistor, les sorties ! Tout est important alors peut-être que tu n'es intéressé que par les fps mais ne mets pas tout le monde dans le même panier car c'est pas le cas !

 

Je dirige le post de 3Dmark 05 dans la section overclocking et j'en ai vu passer des gens s'étonnant de leur score, la plupart des membres qui répondaient (dont certains bien plus expérimentés que moi) s'aligner sur le même principe :

"Le test sur un jeu est bien plus significatif qu'un test 3D mark" !

 

Sur le reste de ton post, on sera tous d'accord pour dire que Nvidia recycle ses cartes graphiques bien plus qu'AMD, c'est une réalité...mais là n'est pas le problème posé alors le mieux serait faire preuve d'un peu plus d'objectivité dans les sujets consacrés aux conseils que l'on va donner aux autres utilisateurs.

 

pour la remarque sur les shaders, les pipelines...la calcul des Gflops se fait justement à partir du nombre d'unités dédiées, comme je le précisais là haut:shaders+textures +Rendu.

 

De plus, pour les pipelines, ils n'existent plus réellement, avec la rasterisation.

 

Quant à la finesse de gravure, c'est le sujet à ne pas aborder, justement, car Nvidia n'a pas non plus pu suivre ATI:TSMC ne travaille pour l'instant que pour ATI, avec les aléas que l'on sait, d'ailleurs.....résultat, CG qui chauffent bien plus et consomment énormément plus, pour des performances similaires, voire moindres....non, s'il y a deux autres facteurs à prendre en compte, ce serait la BP et la GDDR (et là encore, qui s'amuse à changer la GDDR5 de certains modèles pour de la GDDR3, voire 2 de bien moindre performance, sans rien dire? :P )

 

Pour Futuremark et ses scores, quand on sait ce qu'ont fait aussi les gens de cette boite pour ne pas déplaire à Nvidia (tests biaisés pour favoriser Nvidia, Nvidia qui fournit des drivers spécialement bidonnés pour rafler la mise :P ), cela en dit long sur la valeur à leur accorder...et là par contre, tu as raison, rien de mieux qu'un jeu pour évaluer ce qu'une CG a dans le ventre.

 

Pour l'objectivité...quiconque en a une seule once ne peut pas recommander Nvidia, car le faire c'est manquer vraiment de recul.

Posté(e)

OK, pour résumer : nvidia c'est de la merde, Linux y'a aucun jeu, les joueurs veulent uniquement la carte la plus puissante et quiconque dit le contraire est un crétin. On va s'arrêter là si tu veux bien.

Rejoindre la conversation

Vous publiez en tant qu’invité. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.
Remarque : votre message nécessitera l’approbation d’un modérateur avant de pouvoir être visible.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...