Sharemanga: Quelle carte graphique ... ? - Sharemanga

Aller au contenu

Règles de la section "Problèmes et discussions informatique"

-Cette section est destinée aux problèmes de matériel informatique, de logiciel, de divxbox/platines divx.
-Pour tous les problèmes , il est demandé de donner un maximum d'information pour pouvoir vous aider (ex: configuration de l'ordinateur, symptômes, etc...).
-Les problèmes liés aux vidéos doivent être postés dans la section "Problèmes vidéos et audios"
-Merci de lancer une recherche (ici) avant de lancer un nouveau sujet au cas où ce problème existe déjà, et a déjà été résolu.
  • 2 Pages +
  • 1
  • 2
  • Vous ne pouvez pas commencer un sujet
  • Vous ne pouvez pas répondre à ce sujet

Quelle carte graphique ... ? parce que "jeu" le vaut bien

Posté mardi 01 décembre 2009 à 12:13 (#1) L'utilisateur est hors-ligne   Morpheus14 

  • Akamatsu Meister
  • PipPipPipPipPipPipPipPipPipPipPipPip
  • Groupe : Modérateur Général
  • Messages : 7 249
  • Inscrit(e) : 26/08/2004

 

Voir le messageJojo, le 01/12/2009 à 11:31, dit :

Autrement, simple curiosité, pourquoi personne parle des geforce et uniquement des radeons ?


Tout simplement par qu'en informatique, ça fonctionne par "vague" au niveau des préférences. Là où certaines préférences sont logiques, comme intel par rapport à amd pour les cpu, d'autres sont complètement aberrante comme ati par rapport à nvidia. La seule chose qui sauve ati, c'est les prix réduit de ses cartes, parce que niveau pref :huh: :o

Bien sur j'en connais un qui ne sera pas d'accord, mais pourtant les faits sont là, dans n'importe quel vrai test, les plus récentes des ati arrivent à peine au niveau de l'ancienne génération d'nvidia dans beaucoup de domaine :rolleyes: ( et ça ne se joue pas à deux fois rien, c'est souvent du simple au double ).

Pour celui qui ne fait que de la bureautique et de la vidéo, c'est amplement suffisant je suis bien d'accord, mais quand je lis certaines personnes dire que les HD4/5 sont les meilleurs... haha

Malheureusement, on ne peut qu'attendre que la tendance populaire change à nouveau et que les performances soient de nouveau apprécié à leur juste valeur.

Posté mardi 01 décembre 2009 à 14:56 (#2) L'utilisateur est hors-ligne   Jojo 

  • Tapisserie
  • PipPipPipPipPipPip
  • Groupe : Membres
  • Messages : 530
  • Inscrit(e) : 13/06/2003

Je me disais aussi, parce que d'après les benchmarks que j'avais pu voir, les GeForce se placaient généralement en tête... sans oublier les technos du genre physX ou Cuda parfois/souvent utilisées dans les jeux vidéos/ et logiciels de photo/video.
Je me demandais si y'avait une raison autre qu'idéologique dans le fait que ca ne parle que de radeon.

Posté mardi 01 décembre 2009 à 20:17 (#3) L'utilisateur est hors-ligne   khoral 

  • Mur du forum
  • PipPipPipPipPipPipPipPip
  • Voir le blog
  • Groupe : Membres +
  • Messages : 1 106
  • Inscrit(e) : 29/04/2003

Voir le messageMorpheus14, le 01/12/2009 à 12:13, dit :

Tout simplement par qu'en informatique, ça fonctionne par "vague" au niveau des préférences. Là où certaines préférences sont logiques, comme intel par rapport à amd pour les cpu, d'autres sont complètement aberrante comme ati par rapport à nvidia. La seule chose qui sauve ati, c'est les prix réduit de ses cartes, parce que niveau pref :huh: :o

Bien sur j'en connais un qui ne sera pas d'accord, mais pourtant les faits sont là, dans n'importe quel vrai test, les plus récentes des ati arrivent à peine au niveau de l'ancienne génération d'nvidia dans beaucoup de domaine :rolleyes: ( et ça ne se joue pas à deux fois rien, c'est souvent du simple au double ).

Pour celui qui ne fait que de la bureautique et de la vidéo, c'est amplement suffisant je suis bien d'accord, mais quand je lis certaines personnes dire que les HD4/5 sont les meilleurs... haha

Malheureusement, on ne peut qu'attendre que la tendance populaire change à nouveau et que les performances soient de nouveau apprécié à leur juste valeur.

Obligé de réagir hein :D J'vais essayer de pas être méchant, ça a tendance à décridibiliser les propos (j'allais commencer par "Quand on dit des conneries" pour être honnête).

Quand on dit quelque chose (poli hein), on cite ses sources. Et si ça provient de tests personnels, on précise les conditions du test, et on donne des résultats.
Sinon, je peux aussi dire "Ce qui sauve nVidia, c'est que JSH (j'sais jamais épeler son nom, le CEO de nVidia quoi) est un bon vendeur". Bref.

Commençons par le côté "dérangeant" de la politique de nVidia ces derniers mois. Depuis la sortie de l'architecture G92 (GeForce 8), nVidia n'a pas eu d'innovation majeure. Ils n'ont fait que renommer les cartes (les GeForce 9) et améliorer légèrement la plateforme (les GT200 et 300 dernièrement). Et ça, c'est quand même se foutre de la gueule des gens.
Un exemple (récent) : GeForce 310, une GeForce 210 renommée

Ensuite, parlons des performances.
Un nouveau lien globalisant les reviews : Reviews de la HD5970
En lisant ces différents articles, on peut voir qu'une HD5970, qui correspond à un CrossFire de HD5870, est au même niveau qu'une GeForce GTX295 (on compare donc ici les 2 cartes les plus haut de gamme dans les 2 marques).
On peut donc dire que la nouvelle génération d'ATI est au même niveau que l'ancienne de nVidia... Ou pas.
Tout d'abord, la nouvelle génération d'ATI gère le DirectX 11, nVidia s'étant arrêté au 10/10.1 selon les cartes. Certes il n'y a pas encore beaucoup de jeux le gérant, mais il y en a, donc ça a un intérêt.
Ensuite, le prix. Je prends comme référence le site www.materiel.net, site plutôt connu. Une HD5970 se trouve à 600€ (enfin se trouve... Se trouvait. Là y'a rupture de stock tellement la demande est importante). Une GTX295 se trouve à 450€. Une HD5870 se trouve dans les 400€. Prenons bien en compte que, du fait de la loi de l'offre et de la demande, les prix des cartes d'ATI ont grimpé de manière assez affolante ces derniers temps. Ces cartes étaient moins chères à leur sortie (de l'ordre de 100/150€ moins chères). Une fois les problèmes d'approvisionnement résolus (c'est pas près d'arriver), elles redescendront.

On peut donc, sur le plan des résultats, avoir bien meilleur pour aussi cher (je parle des prix à la sortie, les prix aujourd'hui n'étant pas représentatifs vu la pénurie).

De plus, précisons que si jouer en DirectX11 et faire péter les scores sur des benchmarks ne vous intéresse pas, une HD4890 est un excellent investissement (très bonne carte graphique, gère le DirectX 10.1, et pas si chère que ça pour ses résultats). J'ai même conseillé à un ami de changer sa GTS250 pour une HD4770 (toute deux coutant 100€), et les résultats étaient là (et assez impressionnants). Par contre là j'ai pas de tests.

Précisons encore que pour les plus geeks (et fortunés) d'entre nous, les HD5XXX gèrent toutes le EyeFinity, qui permet d'afficher une image sur 3 écrans maximum (6 sur la version équipée de 6 MiniDisplay Ports, pas encore sortie).

Pour finir, on peut parler du futur de nVidia, à savoir Fermi. Pour l'instant, tout ce qu'on a vu de cette architecture, c'est... rien. Enfin si, une démo graphique, mais sans voir la carte, donc on ne sait pas ce qui tournait derrière (surement une carte basée sur la nouvelle architecture Tesla, autrement dit une carte pour le monde de l'entreprise, et qui ne sera jamais mise à la vente pour les particuliers).
Normalement, on devrait avoir des nouvelles de la Fermi "grand public" courant janvier (j'ai pas suivi les news ce week-end, désolé si une info est sortie et que je l'ai ratée, mais ça m'étonnerait ^^).

Je pense avoir bien résumé la situation, si j'ai oublié quelque chose, encore désolé, mais j'ai essayé de faire court et concis (EDIT : Bon en fait, c'est pas court...).

EDIT 2 : J'oubliais, sur les jeux récents (CoD Modern Warfare 2 par exemple), la HD5970 surpasse très largement la GTX295. On peut voir ça sur la review de guru3D, cf le lien des reviews que j'ai mis plus haut.
Donc le "arrive à peine au niveau", hum ^^
Allez, une petite review en plus (chez AnandTech, reconnu comme un des meilleurs testeurs sur le net) : HD5970 chez AnandTech
Les chiffres parlent d'eux-mêmes :)
Pas de signature, j'ai rien à ajouter sur moi, je suis tout à fait complet comme ça :x

Posté mercredi 02 décembre 2009 à 23:49 (#4) L'utilisateur est hors-ligne   doobik 

  • Modo en carton
  • PipPipPipPipPipPipPipPipPipPip
  • Groupe : Modérateur Section
  • Messages : 2 077
  • Inscrit(e) : 08/07/2003

ahah l'éternel bataille entre Nvidia et Ati :rolleyes:

ceci dit, je suis d'accord avec Morphy, sur une même génération les cartes Nvidia sont en générales plus performantes mais malheureusement trop chere comparé a ce qu'offre Ati.

Posté jeudi 03 décembre 2009 à 08:02 (#5) L'utilisateur est hors-ligne   khoral 

  • Mur du forum
  • PipPipPipPipPipPipPipPip
  • Voir le blog
  • Groupe : Membres +
  • Messages : 1 106
  • Inscrit(e) : 29/04/2003

C'est pas toujours vrai ça (qu'elles sont plus performantes). Et pourtant dieu sait que je suis un nVidia fanboy ^^ Mais y'a des fois, faut regarder la vérité en face.

Si on regarde à génération commune, on peut voir ma comparaison GTS250/HD4770 du post précédent, ou GTX295/HD5970 sur le très haut de gamme. Et là, on a encore ATI qui bat nVidia.
Par contre, si on revient aux GeForce 8 (avec la 8800GTX en très haut de gamme, face à la X800 si je dis pas de bêtise, je suivais pas trop ATI à l'époque), nVidia était clairement devant. Il ne faut pas parler de périodes (même si, à l'évidence, il y en a), mais plutôt de bons matériels ou pas, et de bons rapports qualité/prix ou pas. Et évidemment, ça dépend de l'utilisation qu'on veut en faire. Une GTX295 (comme une HD5970 d'ailleurs) ne servira pas à grand monde, à part pour faire péter les scores sous 3DMark.

Plus qu'à attendre les premières Fermi et comparer donc :rolleyes:


edit: tu compares des cartes de génération différente :/

Ce message a été modifié par doobik - jeudi 03 décembre 2009 à 11:28.

Pas de signature, j'ai rien à ajouter sur moi, je suis tout à fait complet comme ça :x

Posté jeudi 03 décembre 2009 à 12:50 (#6) L'utilisateur est hors-ligne   Jojo 

  • Tapisserie
  • PipPipPipPipPipPip
  • Groupe : Membres
  • Messages : 530
  • Inscrit(e) : 13/06/2003

J'avoue avoir beaucoup de mal à comprendre quel est l'intérêt de faire tourner un jeux à 70 fps au lieu de 50, sachant que l'oeil humain ne voit aucune différence au dessus de quoi, 30 fps ? :rolleyes:

Cela dit senpai, tu as oublié de parler de physX et Cuda, qui sont au moins aussi utilisés que directX 11 à l'heure actuelle -_-

Pour les benchmarks, dur dur d'indiquer un classement absolu... même les tests des fps moyens dans une dizaine de jeux sont biaisés, ca donne souvent du.
"j'ai testé la dernière Radeon (sur un i7/SDD/16Go ram à 20 000Mhz), ca explose la nvidia (montée sur pentium II)"
J'exagère, mais y'a souvent de ça... ^_^

Après faut aussi compter le potentiel d'overclock des cartes graphiques, qui là dépend également de la marque qui a assemblé la carte, etc.
Au final, on en revient à une guerre de religion. ;-)

Posté jeudi 03 décembre 2009 à 13:27 (#7) L'utilisateur est hors-ligne   khoral 

  • Mur du forum
  • PipPipPipPipPipPipPipPip
  • Voir le blog
  • Groupe : Membres +
  • Messages : 1 106
  • Inscrit(e) : 29/04/2003

J'prends tes remarques au cas par cas pour les réponses ;)

Le fait de jouer à 70 FPS au lieu de 50, en effet, globalement, tu vas pas voir la différence. Y'a que dans les moments avec énormément d'effets graphiques à afficher que la carte affichant 70 tiendra mieux (= plus longtemps avant de ramer) que celle affichant 50. Et on peut en plus assumer que la première tiendra les jeux plus longtemps que la seconde (dans une optique de carte graphique achetée pour durer).

Pour physX et Cuda, t'as dis exactement ce qu'il fallait ^^ C'est autant utilisé que DirectX 11 aujourd'hui.
Le truc bête, c'est que DirectX 11 va être de plus en plus utilisé, contrairement à physX et Cuda ^^ (sauf milieu professionnel avec les cartes Tesla).

Pour les benchmarks, c'est vrai que tu ne peux pas comparer les résultats entre benchs. Il faut rester sur le même pour avoir une échelle fixe. Mais bon, la plupart des benchs testent sur du i7 920 couplé à 6 Go de RAM, donc bon, ça reste comparable, toute proportion gardée.
Après, j'ai vu un mec qui a fait un test original, à savoir une même carte graphique sur différents processeurs. Et globalement, ça donnait ATI devant si le processeur est bas/moyen de gamme, et nVidia devant couplé avec du processeur haut de gamme. Si ça intéresse quelqu'un, j'peux retrouver le lien.

Pour le potentiel d'overclock, c'était valable jusqu'au GeForce 8 ta remarque. Depuis, autant chez ATI que chez nVidia, les cartes sont livrées totalement identiques aux marques distributrices. Certaines les livrent telles qu'elles, d'autres les overclockent en usine et les vendent déjà boostées, mais au final, on a le même matériel entre les mains quelle que soit la marque. Du coup, on a aussi les mêmes possibilités d'overclocking.


A propos des remarques sur "la guerre entre ATI et nVidia", faut quand même différencier ceux qui stagnent à dire "ATI c'est mieux" ou "nVidia c'est mieux" sans étoffer leurs propos, et ceux qui tiennent un discours construit, données techniques à l'appui (et j'espère faire partie de la seconde catégorie ^^).
Parce que sur un topic appelé "Conseil pour l'achat de matériel informatique", on peut comparer plusieurs cartes entre elles sans tomber dans la guerre des fanboys. Il faut juste rester sur les données techniques et les benchs, sans considération de préférence de marque.
Pas de signature, j'ai rien à ajouter sur moi, je suis tout à fait complet comme ça :x

Posté jeudi 03 décembre 2009 à 14:02 (#8) L'utilisateur est hors-ligne   Morpheus14 

  • Akamatsu Meister
  • PipPipPipPipPipPipPipPipPipPipPipPip
  • Groupe : Modérateur Général
  • Messages : 7 249
  • Inscrit(e) : 26/08/2004

AH lala, il y aurait tellement à dire, mais pour éviter de tomber dans le troll ( parce que comme le dit doobik, tu compares ce qu'il te plait, c'est pour cela que je n'ai pas répondu avant hier Image IPB, et comme ce n'est pas le lieu pour ce genre de débat ).

Mais là, je me sens obligé de relever cette partie :

Voir le messagekhoral, le 03/12/2009 à 13:27, dit :

Pour physX et Cuda, t'as dis exactement ce qu'il fallait ^^ C'est autant utilisé que DirectX 11 aujourd'hui.
Le truc bête, c'est que DirectX 11 va être de plus en plus utilisé, contrairement à physX et Cuda ^^ (sauf milieu professionnel avec les cartes Tesla).


heeuuuu :rolleyes:

Je vais donc reprendre tes propres dire :

khoral, le 01/12/2009 à 20:17, dit :

Obligé de réagir hein :D J'vais essayer de pas être méchant, ça a tendance à décridibiliser les propos (j'allais commencer par "Quand on dit des conneries" pour être honnête).



Parce que là, dire que d'un physx et cuda sont "autant" utiliser que directx 11 c'est totalement faux et de deux, dire qu'ils seront de moins ne moins utilisé au profit du directx 11 c'est également erroné, même si pour cuda la situation est bien plus compliqué à l'heure actuel. ^_^

Physx est déjà largement déployé parmis les programmeurs et ne fait que croitre de mois en mois. Là où le nombre d'appli dx11 se compte sur les doigts d'une main, les appli physx sont des centaines Image IPB. Le autant, je ne vois pas où tu as pu le trouver ^^'

De plus, il s'étend de plus en plus depuis qu'nvidia a fourni des kits dev à tous les éditeurs, constructeurs et développeurs, MÊME pour les jeux vidéo ! des kit dev ont été fournis pour le PS3 et Xbox... les premiers jeux étant déjà sorti si ma mémoire est bonne.


Pour cuda, c'est une guerre qui va commencé. C'est d'ailleurs une de tes remarques le 01/12 ( qui m'a fait sourire au passage ), seul ati à des carte dx11 , mais c'est simplement parce qu'nvidia à cuda et physx ! Là où ati avait un besoin vital de carte dx11, nvidia n'en a pas besoin dans l'immédiat puisque ses cartes font, presque, la même chose depuis plus 1 an ;-)
Et d'ailleurs, ils continuent à le développer puisqu'il n'y a qu'à voir le flash qui est maintenant pris ne charge par cuda, les encodages, les calculs complexe et simple, même la lecture de vidéo HD et, là où je te rejoins, lorsque les tesla sortiront, cuda pourra être utiliser à son véritable potentiel.

Le dx11, contrairement à ton avis - de toute évidence - n'est pas sur de gagner cette guerre à l'heure actuel, il n'y a donc aucun moyen de savoir si dx 11 sera plus développer que cuda étant donné que pour utilisé dx11, il faut une ati et pour cuda, une nvidia -_-

Tu n'es donc pas si neutre que tu veux le faire croire 0:) ( mais qui l'est de toute façon ? xD ).

PS: je tiens à préciser quand même, au cas où, que je ne suis pas un pro-nvidia contrairement à ce que l'on peut penser en lisant mes deux messages, j'ai des ati dont je suis pleinement satisfait et idem pour nvidia. Comme je l'ai écrit le 01, c'est par "vague", il y a quelques années, à l'époque des geforce5/6, je trouvais ati bien meilleur, ma radeon 9700 leur tenait tête facilement ^^ mais actuellement, l'engouement n'est pas normal.

ps² : bon bah plus besoin du coup xD

Ce message a été modifié par Morpheus14 - jeudi 03 décembre 2009 à 15:20.


Posté jeudi 03 décembre 2009 à 15:17 (#9) L'utilisateur est hors-ligne   doobik 

  • Modo en carton
  • PipPipPipPipPipPipPipPipPipPip
  • Groupe : Modérateur Section
  • Messages : 2 077
  • Inscrit(e) : 08/07/2003

c'est bon vous pourrez continuer a vous taper dessus j'ai envoyé un coup de pied dans le sujet.

Posté jeudi 03 décembre 2009 à 15:21 (#10) L'utilisateur est hors-ligne   khoral 

  • Mur du forum
  • PipPipPipPipPipPipPipPip
  • Voir le blog
  • Groupe : Membres +
  • Messages : 1 106
  • Inscrit(e) : 29/04/2003

Le titre est mal choisi, on compare des technologies, pas des marques (et vu comme on est partis, on va même en arriver à comparer les sockets et les processeurs, en dérivant depuis le GPGPU, donc ça sera plus du tout ATI et nVidia qui seront concernés ^^). Enfin bon.

Je c/c ce que j'ai écris en réponse dans l'autre topic :

Bah ça évidemment, on prend partie pour ceux qui font les meilleures cartes sur le moment ^^

J'corrige juste un point, je ne disait pas que DirectX 11 allait "gagner" face à PhysX, ce sont d'ailleurs 2 technologies différentes (j'entends par là "qui font des choses différentes"). L'exemple le plus simple qui me vienne à l'esprit étant la tessellation, qui, sauf erreur de ma part, est gérée par DirectX 11, et pas par PhysX (et c'est pas le but).
Par contre, dire que PhysX est répandu, c'est faux. C'est utilisé, mais pas répandu.
Je ne sais pas si ce site est à jour : PhysXInfo, mais si on en croit la liste, il existe 234 jeux gérant le PhysX. Certes, c'est beaucoup plus que le nombre de jeux gérant DirectX 11 (qui doit se compter sur les doigts de 2 mains), mais c'est tout de même très peu (surtout pour une architecture vieille de plus de 5 ans au moins).
A propos des kits de dev, le SDK de PhysX a toujours été libre d'accès (déjà à l'époque où AGEIA le gérait). Tu confonds avec les plugins Cuda que nVidia a récemment dévoilé, à toi de me dire si c'est bien de ça que tu parles. Et si oui, il n'existe pas de jeu gérant Cuda, vu qu'il s'agit de la fameuse interface GPGPU, qui permet de décharger le processeur de certains calculs qui seront effectués par la carte graphique.

Ce qui me fait conclure par le fait qu'il n'y aura pas de guerre entre Cuda, PhysX et DirectX 11.
Cuda servira à faire du GPGPU, qui a l'air d'être la nouvelle orientation de nVidia (et pour ma part, je trouve ça très intéressant), chose que ne fait pas ATI (et pour l'instant, ils ne parlent pas de le faire). Néanmoins, cela ne servira que dans le monde professionel, au niveau des particuliers on ne bourrine pas assez les processeurs.
PhysX n'a pas réellement décollé, et selon moi ne décollera jamais. Pas assez de choses intéressantes proposées par l'architecture pour justifier le temps de travail en plus pour l'intégration. Ça ne m'étonnerait pas que dans quelques années, PhysX disparaisse.
Enfin, DirectX 11 et la machine Microsoft derrière. Partout dans la presse (offline et online) on peut lire que DirectX 11 apporte des nouveautés importantes et intéressantes, contrairement à DirectX 10/10.1 qui ont fait un flop. Ainsi, je pense pouvoir dire que les futurs jeux qui vont sortir auront tous une version DirectX 11 (pour faire une comparaison, on peut se rappeler le passage de DirectX 8 à DirectX 9). De plus, DirectX 11 est compatible avec les cartes graphiques DirectX 10/10.1 et DirectX 9, ce qui n'était pas le cas avec DirectX 10 (qui nécessitait l'achat d'une carte compatible). Les développeurs ne sont donc plus obligés de créer 2 codes différents selon la carte et l'OS.

Une dernière petite remarque, les cartes Tesla sont déjà sorties et ont été présentées au dernier CEO. On en entend pas trop parler car il s'agit de cartes réservées au monde de l'entreprise, et donc pas très intéressantes pour la particulier, sinon pour essayer de deviner à quoi va ressembler Fermi ^^

Edit : J'avais zappé, mais quand tu dis "tu compares ce qui te plait", tu remarqueras que j'ai fais en gros 2 comparaisons. Une sur le milieu de gamme avec les nVidia GTS250 et HD4770, et une très haut de gamme avec les GTX295 et HD5970. Donc ce n'est pas "ce qui me plait", mais "ce qui est comparable".
Pas de signature, j'ai rien à ajouter sur moi, je suis tout à fait complet comme ça :x

Posté jeudi 03 décembre 2009 à 15:29 (#11) L'utilisateur est hors-ligne   doobik 

  • Modo en carton
  • PipPipPipPipPipPipPipPipPipPip
  • Groupe : Modérateur Section
  • Messages : 2 077
  • Inscrit(e) : 08/07/2003

le départ du "hors sujet" était la comparaison entre les 2 constructeurs, je prend cela comme sujet principal.

rien ne vous empêchera de parler d'autres constructeur.

Posté jeudi 03 décembre 2009 à 15:42 (#12) L'utilisateur est hors-ligne   khoral 

  • Mur du forum
  • PipPipPipPipPipPipPipPip
  • Voir le blog
  • Groupe : Membres +
  • Messages : 1 106
  • Inscrit(e) : 29/04/2003

C'est juste que je trouve que ça fait titre de discussion à troll, alors qu'on essaie d'éviter justement ^^
Rien de bien méchant au final :rolleyes:

Edit : Merci ^_^ (et joli jeu de mots)
Pas de signature, j'ai rien à ajouter sur moi, je suis tout à fait complet comme ça :x

Posté jeudi 03 décembre 2009 à 15:49 (#13) L'utilisateur est hors-ligne   doobik 

  • Modo en carton
  • PipPipPipPipPipPipPipPipPipPip
  • Groupe : Modérateur Section
  • Messages : 2 077
  • Inscrit(e) : 08/07/2003

on est entre personnes civilisés alors je vais mettre "quelle carte graphique ... ?"

Posté jeudi 03 décembre 2009 à 16:34 (#14) L'utilisateur est hors-ligne   Jojo 

  • Tapisserie
  • PipPipPipPipPipPip
  • Groupe : Membres
  • Messages : 530
  • Inscrit(e) : 13/06/2003

Juste un point de détail

Citation

Cuda servira à faire du GPGPU, qui a l'air d'être la nouvelle orientation de nVidia (et pour ma part, je trouve ça très intéressant), chose que ne fait pas ATI (et pour l'instant, ils ne parlent pas de le faire). Néanmoins, cela ne servira que dans le monde professionel, au niveau des particuliers on ne bourrine pas assez les processeurs.
PhysX n'a pas réellement décollé, et selon moi ne décollera jamais. Pas assez de choses intéressantes proposées par l'architecture pour justifier le temps de travail en plus pour l'intégration. Ça ne m'étonnerait pas que dans quelques années, PhysX disparaisse.
Enfin, DirectX 11 et la machine Microsoft derrière. Partout dans la presse (offline et online) on peut lire que DirectX 11 apporte des nouveautés importantes et intéressantes, contrairement à DirectX 10/10.1 qui ont fait un flop. Ainsi, je pense pouvoir dire que les futurs jeux qui vont sortir auront tous une version DirectX 11 (pour faire une comparaison, on peut se rappeler le passage de DirectX 8 à DirectX 9). De plus, DirectX 11 est compatible avec les cartes graphiques DirectX 10/10.1 et DirectX 9, ce qui n'était pas le cas avec DirectX 10 (qui nécessitait l'achat d'une carte compatible). Les développeurs ne sont donc plus obligés de créer 2 codes différents selon la carte et l'OS.


Est-ce vraiment utile de parler de l'avenir pour comparer des cartes graphiques, surtout de "quelques années".
C'est certainement le composant du pc qui se "périme" le plus vite : dans deux ans, toutes les cartes actuelles seront à reléguer au placard, au même titre que les cartes dx9 aujourdhui.

Sinon oui, DX11 sera plus utilisé que DX10, ne serait-ce que, si j'ai bien suivi, parce que DX11 pourra tourner en mode "bridé" sur des cartes non spécifique, ce qui n'était pas le cas de DX10. (Rien de tel qu'un manque de compatibilité avec le vieux matos pour plomber une techno)

Posté jeudi 03 décembre 2009 à 17:23 (#15) L'utilisateur est hors-ligne   khoral 

  • Mur du forum
  • PipPipPipPipPipPipPipPip
  • Voir le blog
  • Groupe : Membres +
  • Messages : 1 106
  • Inscrit(e) : 29/04/2003

C'est bien ça.

Par contre, quand je parle de quelques années, certes ça sera dépassé mais ça tournera encore.
Un exemple tout simple : je joue toujours avec ma GeForce 8800GTX, qui a pourtant un peu plus de 2 ans.
De plus, quand je discute avec des amis qui me demandent de leur monter une config (les amis en question n'étant pas des geeks, donc on parle de la config du quidam moyen qui joue aux jeux connus), ils me demandent une config qui tienne 2/3 ans sans changer de matériel. Donc il y a des gens pour qui ça compte (même si ils savent que dans 2/3 ans ça sera dépassé, ils veulent juste pouvoir lancer les jeux).

Sinon, dernières infos, nVidia devrait faire une demo de Fermi en janvier, mais ne devrait (conditionnel attention) les proposer à la vente que vers mars 2010. Ce délai est principalement dû aux problèmes de TSMC (le fondeur des puces graphiques nVidia et ATI) qui n'arrive pas à produire assez de puces 40nm (et c'est là la raison principale de la pénurie des dernières ATI).
Source pour Fermi
Source pour les problèmes de TSMC
Pas de signature, j'ai rien à ajouter sur moi, je suis tout à fait complet comme ça :x

Partager ce sujet :


  • 2 Pages +
  • 1
  • 2
  • Vous ne pouvez pas commencer un sujet
  • Vous ne pouvez pas répondre à ce sujet


1 utilisateur(s) en train de lire ce sujet
0 membre(s), 1 invité(s), 0 utilisateur(s) anonyme(s)

Thème et langage