Aller au contenu

Isilmandir

Membres
  • Compteur de contenus

    33
  • Inscription

  • Dernière visite

Réputation sur la communauté

0 Neutral

À propos de Isilmandir

  • Rang
    Member
  • Date de naissance 06/10/1983

Contact Methods

  • Website URL
    http://
  • ICQ
    0

Profile Information

  • Sexe
    Male
  • Intérêts
    Cinéma et informatique

Autres informations

  • Mes langues
    Français et anglais (niveau scolaire)
  1. Merci pour ta réponse. Mon choix n'est pas encore fait, car, effectivement, le prix des 120 Hz, plus élevé que celui des 60 Hz me rebute toujours.
  2. Bonjour, Mon écran plat me sert beaucoup pour regarder des films, qu'ils soient en HD ou en SD. Mon autre loisir est le jeu vidéo, mais vraiment dans une moindre mesure. Je suis un joueur tout ce qu'il y a de plus occasionnel, loin d'avoir les niveaux d'exigences que l'on peut avoir dans ce milieu. Enfin, bien sûr, il y a la bureautique et Internet. Voulant remplacer mon écran plat, j'ai le choix désormais entre des écrans plats 60 Hz et des écrans plats 120 Hz. Ces derniers sont plus chers, car ils sont tous compatibles 3D. Or, il se trouve que moi et la 3D, que cela soit dans les films ou dans les jeux vidéos, ça fait deux. Autrement dit, pour faire simple, je suis allergique à la 3D. J'aimerais savoir si, hormis la 3D, un écran plat 120 Hz a un intérêt pour une personne telle que moi. Également, j'ai lu que les films en 48 ips, voire 60 ips, pourraient faire leur apparition dans le futur. Un écran plat 60 Hz est-il suffisant pour afficher autant d'image par seconde ? Merci d'avance de vos réponses, car aux prix où sont vendus les écrans plats 120 Hz, j'aimerais que cet investissement soit utile, si je dois me diriger vers eux.
  3. Je ne voudrais presser quiconque, mais personne ne peut me donner un avis ?
  4. Je connais ces sites. Cependant, il ne remplaceront jamais l'avis de personnes expertes en la matière, ou, à défaut, qui connaissent ce domaine. Et c'est justement ces avis que j'attends. Je te remercie tout de même.
  5. Salut à la communauté, Je requiert votre aide au sujet de mon alimentation. Je dispose actuellement d'une Antec EarthWatts 650 Watts 80+. Elle me permet d'alimenter un boîtier qui dispose de trois ventilateurs, d'un processeur Intel Core i7 2600k, d'une carte graphique ATI Radeon HD 5850 (cadencée à 755 Mhz puisqu'elle était, par défaut, overclockée à sa sortie d'usine), d'une carte son, d'un lecteur blu-ray et d'un graveur DVD. Ces composants se trouvent sur une Asus P8P67 LE. L'année prochaine, avec la possible arrivée des GPU gravé en 28 nm pour les cartes graphiques, je compte changer celle que j'ai actuellement. Celle que je prendrais, que ce soit chez AMD ou chez Nvidia, se situera au même niveau que la Radeon HD 5850, à son époque. Comprenez, par exemple, que si AMD garde la même dénomination, ce sont les Radeon HD 7950 ou 7970 qui m'intéresseront. Cependant, mon alimentation suffira-t-elle ? Au début, j'avais une alimentation no name de 650 Watts, mais, après avoir lu quelques dossiers sur la Toile, j'ai vite compris que je prenais des risques considérables. J'avais donc acheté une alimentation Antec qui délivrait "la même" puissance que la no name, ceci pour être tranquille. La no name a finit, elle, a la décharge. Cependant, en prévision d'un futur changement de carte graphique, je souhaiterais savoir si mon alimentation actuelle tiendra le coup. De plus, comme c'est la période des promotions, si il s'avère nécessaire de faire un changement, je pourrais faire quelques économies. Mes yeux se tournent vers les alimentations pouvant délivrer entre 850 Watts maximum et 1000 Watts maximum. Mais, compte tenu des prix, si c'est inutile... Quand j'achète un composant, je n'ai pas envie de voir la moitié, voire plus, de ses performances se perdre dans la nature. Que vous dire de plus ? Que le CrossFire, pour AMD, ou le SLI, pour Nvidia, sont deux technologies qui m'importe peu. Autrement dit, je me contenterais toujours d'une seule carte graphique. Enfin, l'overclocking est une pratique que je laisse aux fins connaisseurs. Là aussi, ce n'est pas demain la veille que je m'y mettrais. Merci d'avance pour vos réponses.
  6. Je remercie tous les participants pour avoir répondu à mes questions. Ce sera donc un Phenom X4 955 que je prendrais. J'ai lu aussi qu'il existe des Phenom X6, sensés concurrencer le Core i7. Mais si un Core i7 m'est inutile, je me doute bien qu'il en est de même pour un Phenom X6. Et puis, évidemment, ces derniers sont plus chers à l'achat que les Phenom X4. Par contre, là où j'hésite beaucoup, c'est... carte mère DDR2 ou DDR3... ju&ges, tu m'as dis que c'est à moi de voir et tu as raison, lol, mais... grrrrr... la DDR2 va être amener à disparaître... peut-être. Mais, en même temps, avec 4 Go de DDR2 PC-6400 800 Mh, je m'en sort très bien. Dans le pire des cas, je peut prendre une 3eme barrette de 2 Go de DDR2 pour avoir 6 Go au total et être prêt pour le futur, car on ne trouvera peut-être plus, dans l'avenir, de DDR2, mais avec 6 Go de Ram, j'auraît ce qu'il me faut pour jouer tranquillement. Actuellement, je n'utilise jamais mes 4 Go de mémoire vive en totalité. Je vais réfléchir là-dessus...
  7. Et quelles cartes mères (pour AMD) acceptent les deux formats de mémoires ? J'ai beau cherché, je ne trouve rien.
  8. D'accord, d'accord... Autre chose. Je me suis rendu compte que les cartes mères pour AMD et pour Intel ne supportent pas toutes la DDR2. Certaines sont compatible uniquement qu'avec de la DDR3. Or, j'ai acheté il y a très peu de temps (moins de quatre mois) 2 x 2 Go de DDR2 PC-6400 800 Mhz. Cela m'a coûté environ 80 euros. Vous comprendrez que je n'ai pas envie, à nouveau, de dépenser 80 euros pour mettre de la DDR3. De plus, même encore aujourd'hui, les gains de performance qu'apporte la DDR3 par rapport à la DDR2 sont minimes. L'utilisateur ne verra aucun changement. Il suffit, d'ailleurs, de lire les test fait par des professionnels ou de lire les commentaires des forumeurs à ce sujet. C'est éloquent. Qu'est-ce que vous pensez de ce choix de continuer en DDR2 et d'acheter donc une carte mère DDR2 ?
  9. Donc, niveau évolution, c'est AMD qui est plus intéressant, grâce à sa rétrocompatibilité (je ne sais pas si j'emploie le bon mot).... bien, bien, bien. Un point important car je ne compte pas changer systèmatiqement de carte mère quand je mettrais un nouveau processeur. D'autant plus que les prix des carte mères pour processeurs Intel sont bien plus élevés que celles pour processeurs AMD. Quand à l'utilisation de mon PC... les applications que j'utilise et qui demandent le plus de puissances sont bien les jeux vidéos.
  10. Effectivement. Cela dit, ça va être dur... car il y a une différence de 140 euros tout de même entre Intel et AMD. On me rétorquera certainement que c'est le prix à payer pour la puissance mais... 140 euros, est-ce vraiment justifié, lol ? Et puis, bon... est-ce que je vais voir une différence entre mon Core 2 Quad Q6600 2,40 Ghz et un Core i7 860 ? Si ce n'est pas le cas, mettre 140 € de plus pour choisir Intel ne me semble pas nécessaire. J'attend de voir des avis là-dessus. Je sais que mon Core 2 Quad Q6600 2,40 Ghz n'est jamais utilisé à sa pleine capacité, même sur des jeux vidéos puissants, comme Crysis. Donc, forcèment, je sais d'avance ce qu'il se passera avec un Core i7 860. C'est vrai que, plus que la puissance, c'est l'investissement financier qui me tracasse le plus.... Le seuil psychologique, lol... Normal, quand on voit la différence de prix !
  11. Bonjour, Actuellement, je dispose d'un processeur Intel Core 2 Quad Q6600 2,40 Ghz, lui-même sur une carte mère Asus P5K. Je désirerais changer de processeur. Et mon choix serait soit le processeur d'AMD, le Phenom II X4 955 Soc AM3, soit le processeur d'Intel, le Core i7 860 (LGA 1156). Quand à la carte mère, quelque soit mon choix, il faudra la changer. Je suis un joueur, mais pas un hardcore gamer. Je dispose actuellement d'une ATI Radeon HD 5850 1 Ghz et de 4 Go de ram. Donc, de ce côté-là, aucun souci. Quel processeur choisir ? Le magasin informatique où j'achèterais le matos vend le Core i7 860 (LGA 1156) à 315 et le Phenom II X4 955 Soc AM3 à 175 . Concernant la carte mère, je prendrais ce qu'il y a de plus basique, à savoir une Asus P7P55D (P55 - LGA1156) à 175 , pour Intel, ou une MSI 770-C45 (DDR3) à 69 ou une Asus M4N78-AM (μATX) à 65 pour AMD. Comme je le constate rapidement, passer chez AMD me reviendra largement moins cher. Or, n'étant pas Picsou, c'est vrai que je suis intéressé par ce constructeur. Mais que valent les Phenom II X4 955 face aux Core i7 860 ? Concernant l'évolution, est-ce plus intéressant chez AMD ou chez Intel ? Je vous remercie de vos réponses.
  12. Bonjour, Je vois que la 3D relief prend de plus en plus d'ampleur. Est-ce que cela restera un effet de mode, comme dans les années 90, ou est-ce que cela va s'installer durablement, seule l'avenir nous le dira. Mais si c'était la deuxième hypothèse qui l'emporte, pensez-vous que les utilisateurs auront toujours le choix entre la 2D et la 3D relief ? Je m'explique. J'ai vu des films en 3D relief et j'en suis venu à la conclusion que la 3D relief chez moi, ce sera non. Je préfère voir un film 3D relief au cinoche. Je ne vais pas vous expliquer pourquoi, ce serait trop long. Je vous demande simplement si cette 3D relief, dans le cas de la deuxième hypothèse, sera incontournable, ou est-ce que j'aurai toujours le choix. J'avais lu que la rétrocompatibilté 2D des films 3D relief sur blu-ray 3D serait de la partie, mais depuis, plus rien. En savez-vous plus ? Ben oui, je m'inquiète, le cinéma, j'adore cela. Mais je n'aimerais pas à avoir regarder obligatoirement des films en 3D relief. Merci pour vos réponses.
  13. J'ai trouvé cette conversation sur le Net : http://forum.hardware.fr/hfr/HardwarePerip...jet_46147_1.htm mais aussi ceci : http://www.lesnumeriques.com/article-240-4537-35.html Cela explique donc pourquoi j'ai une mauvaise qualité d'image. Mon écran est tout simplement "knot out" pour le HDMI, quand bien même il est HDCP ! Mais il faut dire que lorsque je l'ai acheté, je me foutais pas mal des Blu-ray. J'étais loin de m'être tourné vers la HD !
  14. Pourtant, mon moniteur et ma carte graphique sont HDCP, sinon, en DVI, les résultats de CyberLink BD_Advisor seraient négatifs. Logique ! Le HDMI, comme tu l'a dis très bien dans ton commentaire précédent, n'est qu'un cordon DVI "amélioré". On y a rajouté simplement le son. Alors, oui, les résultats du logiciel de Cyberlink devrait être les même. Mais, cela dit, si il faut activer le HDCP quand je passe en HDMI, je ne vois pas comment faire, car, moi aussi, je ne trouve de solution nulle part. Ce qui est normal, puisque, à ce que je sache, le HDCP s'active tout seul. Quoiqu'il en soit, je n'ai pas encore eu l'occasion de tester un film Blu-ray en DVI, mais tout porte à croire que je pourrais le lire. Ce qui ne devrait pas être le cas en HDMI. Le HDCP rentre en jeu quand on regarde un Blu-rau, uniquement. Je tiens quand même à dire que cet affichage pourri commence dès que j'allume l'ordinateur. Quand le bios est lu, il y a clairement une différence entre le mode HDMI et le mode DVI. Ce dernier est meilleur. Et puis, cet affichage pourri continuera, jusqu'à ce que j'éteigne l'ordinateur. Autrement dit, soit la carte graphique est fautive, soit mon écran est fautif. Je peut penser aussi que le cordon HDMI, neuf, ait des dysfonctionnements. Pour ce faire, je vais acheter un adaptateur HDMI/DVI pour la prise DVI de ma carte graphique. Je serai ainsi fixé. Car si l'affichage est correct, je ne vois que l'écran ou le cordon qui puissent me poser problème. Le port HDMI de ma carte graphique fonctionne très bien, sinon, il n'y aurait tout simplement aucun affichage.
×
×
  • Créer...