Alte Thema ATI oder Nvidia

  • Moin,


    ich plane mein System ein wenig umzugestalten und u.A. gibt es eine neue Grafikarte.


    Mein Favorit: 3072MB Gigabyte Radeon HD 7970 WindForce 3X Aktiv PCIe 3.0 x16


    Die Windfoce scheint alles zu haben was ein Spielerechner zu braucht. Da ich seit Jahren nur Radeon Grafikkarten hatte und nie ein Problem sehe ich keinen Grund nicht wieder eine zu kaufen.


    Von Freunden und Bekannten wurde mir jetzt aber mehrfach eher zu einer neuen Nvidia GeForce geraten. Gibt es da irgendwelche tollen Vorteile die ich übersehe? Von der Leistung her müßte die 7970 mit der GTX 680 vergleichbar sein, aber so einen "Wow, das ist ja viel besser"-Effekt habe ich da nicht.


    Im Internet finde ich auf jedenfall viele Seiten wo man sich auf vielen Seiten Bekriegt was den nun besser ist. ATI oder Nvidia. Gibt es da wirklich einen Unterschied?

  • ATI gibt es schon lange nicht mehr, die sind von AMD aufgekauft worden und heißen seit langem AMD.


    Die Unterschiede zwischen beiden Herstellern muß man teilweise mit der Lupe suchen. Wenn du einfach nur die Grafikkarte einbaust, Treiber auf Standard lässt und losspielen willst ist die Marke ziemlich egal, meist ist hier AMD besser, da die bei der Milchmädchen Rechnugn aka "Preisleistung" das letzte Prozent besser sind als Nvidia, was allerdings nicht so viel ausmacht, dass man Nvidia verschmähen müßte.
    Die Unterschiede fallen einem auf, wenn man im Treiber und im Spiel bei den Qualitätsstufen herumspielt. Bei maximalen Textureinstellungen sieht das Bild auf einer Nvidia besser aus. Bei Kantenglättung sieht eine AMD besser aus.
    Nutzt du Linux bist du meist mit Nvidia besser beraten, da die Treiber dort besser laufen.
    Bei 3D ist Nvidia besser
    Bei Auflösungen größer FullHD bist du mit AMD meist besser dabei, da bei den Nvidia Pendants der Speicher knapp wird.


    Von der Leistung her müßte die 7970 mit der GTX 680 vergleichbar sein

    Die GHZ Edition, wo der Chip auf über 1000Mhz läuft ist unmerklich langsamer als die 680. Die normale 7970 ist nur unmerklich schneller als eine 670


    Entscheidend besser ist keiner von beiden, wenn du also nix besonderes machst, kaufe, was dir persönlich besser liegt (bei mir isses Nvidia)

  • Wobei Savage...


    Vieles kannst du auch wieder umkehren und grade das Nvidia-Linux Thema... das "F*** you Nvidia!" von Torwalds war schon ein recht klares Zeichen :P


    Es kommt sehr viel auf die Treiber an, ein neuer "Wundertreiber" kann ziemlich viel verändern. Ich hab mich über das Jahr 2012 ziemlich viel mit der GTX600 Serie/der Kepler Architektur beschäftigt - dennoch, durch die ganzen treiber updates kann ich vermutlich jetzt auch nicht pauschal sagen welche Karte die bessere ist. Dazu gab es erste Tests zur GTX680 die die unglaublich niedrigen Verbrauchswerte gelobt haben... tja ich hab meinen Augen nicht getraut als die landläufige Meinung in den Foren später war, dass Nvidia im Vergleich zu AMD immer noch Stromfresser auf den Markt haut.


    In Sachen Bildqualität war Nvidia in der Vergangenheit oft besser - jedoch muss man inzwischen echt genau recherchieren, wer jetzt wirklich die besseren Karten anbietet, und am Ende macht es eh fast keinen Unterschied. Ich würde ganz einfach nach dem besten P/L Verhältnis gehen und der liegt meist ganz klar bei AMD.


    Wenn du Metro 2033 maxed out spielen willst solltest du zu AMD greifen... unerklärlicherweise ist das ein Nvidia-Spiel bei dem AMD die Nase vorn hat.


    AMD punktet bei der aktuellen Generation vor allem hohen Auflösungen und Multimonitoranwendungen. Nvidias Karten brechen da im Vergleich völlig ein - wobei das inzwischen auch wieder durch Treiber behoben sein könnte, es gibt ja nicht bei jedem Update wieder neue umfangreiche Tests. Wie gesagt, grade bei den zum Jahresende erschienen Updates kann man sich da gar nicht mehr so sicher sein.


    Ich selbst habe eine Nvidia Karte weil a) dieGTX560 Ti 2011 klar das bessere Angebot war und b) weil mir die Treiber von AMD auf den Sack gehen. Nvidia Inspector ist z.B. ein ziemlich gutes Tool.


    Fazit: Such ein wenig nach Tests für Karten in deiner Preiskategorie und nimm die Karte mit dem besten P/L Verhältnis. Viel falsch machen kann man da nicht mehr. Wenn ich aber noch einen Tipp geben darf: dieses Jahr dürfte wieder eine neue Generaton auf den Markt kommen (GtX700 / Radeon HD8000) - die Preise für die alten Karten dürften dann sicherlich fallen.





    °●

    The power of a psyker is darkness, fire, and death, given life and purpose to rend souls and break minds. — First line of the Litany of Lies and Truths

  • Vieles kannst du auch wieder umkehren und grade das Nvidia-Linux Thema... das "F*** you Nvidia!" von Torwalds war schon ein recht klares Zeichen :P

    Auch wenn die Linux Gemeinde für Open Source ist und damit gegenteilig von Nvidia denkt nützt es als Kunde einem recht wenig, wenn man die beliebtere Konkurrenz nicht in der Lage ist einen funktionsfähigen Treiber auf die Beine zu stellen.
    Open Source ist bis zu einem gewissen Grad sinnvoll. Wird das Projekt dann aber zu groß wie Linux wo dann zuviele herumbasteln schadet das dem Projekt. Da ist ein geschlossenes System dann stimmiger, weil einfacher zu handhaben und weniger Problembelastet.

    In Sachen Bildqualität war Nvidia in der Vergangenheit oft besser

    Kommt auf das Setting an. High Quality Texturen ist immer noch ein deutlicher Unterschied zu erkennen. Leider findet man da selten vernünftige Vergleiche, das läuft auch ähnlich in die Richtung wie Musik "Verbesserungen" die einen wollen es Original haben, die anderen finden Schummeleien durch Equalizer und Co gut. Ich gehöre zu den Leuten, die eher auf Original stehen. In der Hinsicht ist Nvidia immer noch besser.
    Bei mir steht allerdings auch ein Monitor wo Bildqualität über Geiz ist Geil steht, wie das auf einem Media Markt Billig TFT aussieht kann ich nicht sagen.

    Wenn du Metro 2033 maxed out spielen willst solltest du zu AMD greifen...

    Das ist leider bei vielen Spielen so, das mal hier oder mal da der Hersteller die Nase vorne hat. Im Mittel nehmen sich die Karten nicht viel.

    AMD punktet bei der aktuellen Generation vor allem hohen Auflösungen und Multimonitoranwendungen.

    Technisch kann der AMD Chip 6 Monitore gleichzeitig ansteuern. In der Praxis tun das aber nur Karten, die passend ausgebaut sind, normale Karten machen bei 3 Monitoren Schluß, was identisch mit den derzeitigen Nvidia Karten ist.
    Multimonitoring ist auch nur bedingt AMDs Stärke, da man meist mit aktiven Adaptern herumspielen muß. Gut ist der hohe VRAM bei AMD, da dieser bei hohen Auflösungen nötig ist.
    (Kann mich übrigens an viele Probleme mit AMD und HDMI erinnern auf einer HD5xxx, ist das immer noch so, dass man Overscan nicht ausschalten kann und Farbprofil, wie Auflösungseinstellungen nicht beim HDMI Ausgang einstellen kann?)
    Hohe Auflösung benötigt viel VRAM, die meisten Nvidia Karten haben weniger VRAM als die AMD Pendants. Bei normaler Anwendung, also Treiber Standard, FullHD Auflösung und kein oder geringes Antialising spielt es jedoch zur Zeit noch keine Rolle ob 2GB VRAM oder 3 oder noch mehr. Bei 2560*1600 hohen Settings und hohem AA sollte es aber 3 oder besser 4GB sein, wobei dann wieder das Problem kommt, dass die meisten GPUs (680 und 7970GHZ alleine schon wieder zu schwach sind und man schon über Mulitkartensysteme nachdenken sollte)


    Hoher Stromverbrauch, Laut und Heiß ist übrigens immer noch ein unbegründetes Phänomen was Nvidia nachgesagt wird. Bei Multimonitoranwendungen und Videodecodierung (also DVD/BluRay schauen) ist Nvidia deutlich sparsamer als AMD. Im Idle nimmt sich der Verbrauch nix wenn dann gibt es lediglich unter Last mal Ausreißer.
    Das kommt alles von der 400er Serie, wo Nvidia unter Zugzwang die Karten zu früh auf den Markt brachte, als die Chipproduktion noch nicht so weit war (die Chips liefen auf viel zu hoher Spannung als wirklich nötig, nur um funktionsfähige Karten auf den Markt bringen zu können) und der mangelhafte Kühler war zu laut und hat die Chips mit der hohen Spannung nicht ausreichend kühlen können, was dazu führt, dass die Karten viel Strom brauchen. Das war bei den ersten Modellen der 400er Serie so, heute ist das kein Problem mehr bzw Nvidia ist genauso schlecht wie AMD...

  • Uff, das war schnell. Ja... hi ;)


    Im Prinzip stimme ich dir zu. Nur mit Multimonitoring (equivalent mit große Auflösungen allgemein) meinte ich was anderes. Ja, AMD kann mehr Monitore mit einer Karte ansprechen, aber dann kann ich auch gleich zur Matrox greifen, ein Gaming Setup mit 6 Monitoren mit passabler Auflösung kann man vergessen.


    Was ich meinte ist eben für gewöhnlich klar das Mehr an verbauten RAM bei AMD und wenn ich mich nicht irre ist die Speicherbandbreite der 78XX/79XX Karten bei AMD größer. Das zusammen zeigt in wirklich fast allen Tests einen klaren Vorteil gegenüber Nvidia Karten wo teilweise selbst eine GTX680 langsamer als eine 78XX ist und grade noch so eine GTX690 die Oberhand behält - sobald Auflösungen größer als Full HD und extreme Antialiasingmethoden, Supersampling, etc ins Spiel kommen. Und das sind dann wieder Anforderungen wo ganz klar im Bereich des Normalzockers eher weniger eine Rolle spielen - die wenigsten Spieler besitzen ein SLI/Crossfire System, zumal die aller immer noch mit Kinderkrankheiten zu kämpfen haben und einfach teuer sind.


    edit: gah, englische korrektur im browser... edit2: ah ja, im Endeffekt hast du das so auch angesprochen ^^

    The power of a psyker is darkness, fire, and death, given life and purpose to rend souls and break minds. — First line of the Litany of Lies and Truths

  • Hol dir eine 660 oder 670. Die 670 konnt ich schon testen. Das reicht dicke! Die 680/690 würd ich wegen der Mikroruckler nicht nehmen.
    Man kann auch mutlimonitoring mit SLI. Einfach erweitern und fertig.
    Habe mit NVIDIA bisher nie Probleme gehabt. Keine einzelne Karte war defekt. Bei ATI/AMD schon des öfteren. Lässt sich natürlich nicht verallgemeinern, aber ich bleib bei NVIDIA. Die Stabilität, Haltbarkeit, Lautstärke der Lüfter und Benutzerfreundlichkeit überzeugen mich.

  • Hol dir eine 660 oder 670. Die 670 konnt ich schon testen. Das reicht dicke!


    Ich würde eher die GTX670 empfehlen, letztendlich jedoch die Karte, die in den Tests am besten abschneidet. Für Tests empfehle ich Computerbase.de oder hardwareluxx.de (grade offline wie ich sehe) - oder eine Vielzahl von englischen Hardwareblogs, welche wirklich sehr gute Arbeit leisten.


    Die 680/690 würd ich wegen der Mikroruckler nicht nehmen. Man kann auch mutlimonitoring mit SLI. Einfach erweitern und fertig.


    Die GTX680 ist eine Single-GPU Karte und hat somit keine Mikroruckler. Die GTX690 hat nachweislich in Tests kaum mehr sichtbare Mikroruckler (wenn's sein muss, such ich die Tests auch raus, aber ich denke Google hilft). Multimonitoring kann man auch mit einer Karte, eine GTX680 sollte potent genug für Auflösungen um 1920x1080 sein. Nimmt man mehrere Karten im SLI hat man wieder Mikroruckler.


    Habe mit NVIDIA bisher nie Probleme gehabt. Keine einzelne Karte war defekt. Bei ATI/AMD schon des öfteren. Lässt sich natürlich nicht verallgemeinern, aber ich bleib bei NVIDIA. Die Stabilität, Haltbarkeit, Lautstärke der Lüfter und Benutzerfreundlichkeit überzeugen mich.

    Stabilität, Haltbarkeit, Lautstärke der Lüfter kommen auf den Hersteller der Karte an - und der ist weder Nvidia noch AMD sondern MSI, ASUS, Gigabyte, EVGA, Zotac, Gainward, KFA², etc...


    Sollte die Wahl auf Nvidia fallen würde ich EVGA empfehlen und davon ausgehend andere Karten miteinbeziehen.


    Edit: Hier ein Beispiel für einen dicken Grafikkartentest.

    The power of a psyker is darkness, fire, and death, given life and purpose to rend souls and break minds. — First line of the Litany of Lies and Truths

  • Ich nutze selbst schon eine Weile eine 7950 OC von Sapphire und bin sehr zufrieden. Bis auf die angesprochenen Punkte ist es wirklich größtenteils eine Geschmacksfrage welchen Hersteller man bevorzugt. Interessant kann es noch sein, dass die Nvidia Karten stromsparender im Multimonitorbetrieb und bei der Bluray Wiedergabe sind. Wenn das beides bei dir nicht gegeben ist, dann nehmen sich die Karten auch von der Leistungsaufnahme her nicht viel.

    Aldrig mer förpestas mitt inre.
    Allt svartnar


    FlakkaDakka Lüneburg
    only porn is more porn

  • @

    Epistolarius
    Ich hab hier ein SLI System. Und glaub mir da ruckelt nichts! Für Full HD reicht sogar eine gtx460. Ist immer die Frage welches Spiel. Und EVGA kommt bei mir nicht in die Tüte. Tja, so sind Meinungen eben verschieden.

  • Kommt ja auch auf dein Setting, deine Frames und das Spiel/Last an, ob es Mikroruckler gibt oder eben nicht. Ebenso sind die auch verschieden stark und man nimmt das dann auch nur verschieden wahr.
    Sicher ist, dass das Problem bei den aktuellen Nvidias wohl am besten gelöst ist, als bisher üblich und man mit dem Framelimiter (Bestandteil des Treibers) auch komplett unterbinden kann.
    Multikartensysteme immer von Nvidia, die haben da deutlich mehr Arbeit reingesteckt als AMD mit ihrem Crossfire.


    460 mit 1GB Vram für SLI ist imho der größte Unsinn, den man machen kann. SLI macht Sinn, wenn die Leistung einer einzelnen GPU nicht mehr ausreicht und/oder man auf mehreren Bildschirmen spielen will (Bei Multimonitor SLI gibt's so oder so keine Mikroruckler), dann sollte man allerdings auch dran denken, dass so ein Setup viel VRAM braucht und der VRAM der Karten sich nicht addiert.
    Fand persönlich die 460 nie wirklich gut, da die ihre Leistung nur durch den Takt bekommen hatte und dem beschnittenem Chip schnell die Puste ausgeht.


    EVGA ist der Haushersteller von Nvidia, so wie Sapphire bei AMD. EVGA würde ich bevorzugen, da die Jungs auch Garantie geben, wenn man das Kühlsystem wechselt und bisher habe ich noch keine Karte gesehen die ein hervorragendes Kühlkonzept angeboten hatte (Einige HIS ATI Karten hatten mal die AC Silencer), bei meiner 470 war nach 2 Wochen der Kühler runtergerissen.

  • @

    Epistolarius
    Ich hab hier ein SLI System. Und glaub mir da ruckelt nichts! Für Full HD reicht sogar eine gtx460. Ist immer die Frage welches Spiel. Und EVGA kommt bei mir nicht in die Tüte. Tja, so sind Meinungen eben verschieden.


    Tut mir leid skywalke46, ich kann dir glauben so viel ich will - aber Mikroruckler sind ein bewiesenes Problem auf das jedoch nicht jeder Mensch anspricht. Glückwunsch, wenn du es nicht bemerkst. Viele andere Menschen hätten da weniger Glück, mich stört es extrem.


    edit: Vollste Zustimmung @Savage.



    BTW: ASUS DirectCU II ist der beste Grafikkartenkühler (welcher preinstalled ist) zurzeit auf dem Markt.



    °●

    The power of a psyker is darkness, fire, and death, given life and purpose to rend souls and break minds. — First line of the Litany of Lies and Truths

  • Epsitolarius, lese dich noch mal bei der 600er Serie ein bißchen ein, in dem Bereich hat Nvidia viel getan.
    Wenn du pro GPU einen Monitor ansteuerst, gibt es den Wechsel zwischen den GPUs beim Bildaufbau nicht mehr und da gibt es keine Mikroruckler. Bei einem Monitor arbeiten die GPUs neuerdings etwas besser zusammen was synchronität angeht. Kommt dann Vsync und der Framelimiter, obwohl das System mehr könnte, schneidet man das Problem wirklich raus.


    @DLM
    liest du eigentlich mit?
    Wenn du keine besonderen Dinger mit der Grafikkarte machen willst, außer "einfach" installieren und spielen, kaufe deine Windforce und sei glücklich.

  • Ja mal schauen, zur Zeit werkelt bei mir noch meine MSI N560GTX Ti TwinFrozr II/OC - ich werd bis zur 700er Serie mit einem Ersatz warten :D


    Das mit den Mikroruklern weiß ich, dennoch immernoch ein Problem. Klar kann man die FPS begrenzen, Ich glaube das ist jedoch anfälliger für framedrops. Bin mir aber nicht sicher. Das letzte mal als ich darüber was gelesen habe war irgendwann im November.


    edit: Da der Stromverbrauch allerdings auch immer weiter ins Sichtfeld rückt ist das angesichts steigender Strompreise allerdings vielleicht auch nochmal ein wenig Überdenken wert.




    °●

    The power of a psyker is darkness, fire, and death, given life and purpose to rend souls and break minds. — First line of the Litany of Lies and Truths

  • Mir ist der Leistungsgewinn bei den bezahlbaren 600er Karten noch deutlich zu gering als dass ich tauschen werde. Würde zwar gerne noch etwas mehr Grafikpower haben, aber dazu müßten die 670/680 noch billiger werden. Ich habe vor zig Jahren günstig die 470 für 200€ bekommen und die läuft leise auf Niveau einer 570, dass wird sie wohl auch noch ein bißchen.

    SavageSkull


    Verdammte Kacke, die Hälfte von dem was hier steht verstehe ich nicht.


    Ich will X-Com und Far Cry 3 spielen und dann hol ich mir die Windforce.


    Hab ich mir gedacht, für Leute wie dich gibt es keinen nennenswerten Unterschied zwischen AMD und Nvidia Karten, kauf die und gut ist.

  • Ja klar, wenn du da sehr empfindlich drauf bist und irgendwelche Ruckler merkst... Das kannst du bei dir selbst ja besser beurteilen.


    Jedenfalls bei 60FPS merke ich keine Ruckler, nicht die Bohne. BF3 läuft bei 60FPS auf 3 Minitoren mit gtx 460 SLI. Nicht auf Ultra, das ist klar.
    Es geht auch immer teuerer und besser, logisch. Aber um die 460ger gehts ja hier nicht, sondern um ne Empfehlung. Da bleib ich dabei, die 670 ist ein gutes Gesamtpaket.

  • @DLM
    Was hast du denn für eine CPU? Es kann sein, dass eine alte CPU dann das Spiel ausbremst und deine 5mal so schnelle neue Grafikkarte nur ein 3mal so schnelles Bild auf den Bildschirm zaubert.


    Quelle: http://www.computerbase.de/forum/showthread.php?t=818979

  • Soll ein komplett neues System her.


    Hast PM mit der Auflistung. Geplant ist ein Intel Core i5 3470 4x 3.20GHz So.1155.

  • @Savage: Ahem. Darf ich dazu ein paar Tests ausgraben?


    https://www.computerbase.de/ar…/bericht-gpu-braucht-cpu/
    https://www.computerbase.de/ar…braucht-cpu-zweiter-teil/


    Das hier ist ein ziemlich guter Test, und zwar wird bei sehr geringer Auflösung auf die Auswirkung verschiedener RAM Taktungen geprüft. Wenn also schon RAM solche Unterschiede bringt...
    https://www.computerbase.de/ar…-fuer-intel-ivy-bridge/4/


    Und wegen Multi-GPU/Mikroruckler:
    https://www.computerbase.de/ar…x-hd-7970-mit-i7-3970x/8/



    ofc gibt's noch viele andere Seiten mit guten Berichten.





    °●

    The power of a psyker is darkness, fire, and death, given life and purpose to rend souls and break minds. — First line of the Litany of Lies and Truths

  • mit 5mal so schnell und 3mal so schnell war im übertragenden Sinne gemeint. Ich kenne die Tests. DLM hatte vorher einen kleinen DualCore 1,8Ghz, was da die HD7970 gebracht hätte, kannst du dir sicherlich denken.
    Ich selbst habe erst seit kurzem einen schnellen Ivy Bridge und nicht mehr den alten Core2Quad, interessant sind dabei die Frameverläufe denn die obwohl manche Spiele kaum schneller geworden sind, gibt es deutlicher weniger und deutlich schwächere Leistungseinbrüche und es fühlt sich alles deutlich flüssiger an.
    Im Prinzip praktisch das was ich von Computerbase zitiert habe und in deinen Links auch so steht.


    Zum Thema SLI zitiere ich nochmal deinen Link:

    Zitat

    Bei Nvidia ist das Spielgeschehen deutlich besser, Spaß macht Battlefield 3 aber dennoch nur bedingt. Auch auf den GeForce-Probanden lässt sich beobachten, dass zwei GPUs das Bild sehr schnell hintereinander fertigstellen und es daraufhin eine längere Wartezeit gibt, wobei die Abstände nicht ganz so ungleichmäßig sind.


    Wen die Mikroruckler stören, muss aber nicht direkt verzweifelt aufgeben. Denn es gibt durchaus einen Trick, der ganz brauchbare Ergebnisse liefert: ein FPS-Limiter. Denn mit diesem ist es möglich, die Frameausgabe derart zu manipulieren, dass die Abstände von Bild zu Bild ziemlich gleichmäßig werden und das Spiel besser läuft.


    Bedenke dass die Mikroruckler nur zustande kommen, weil die GPUs abwechselnd ein Bild darstellen. Bei mehreren Monitoren ist das nicht so, da dort jede Grafikkarte ein Bild auf einem Bildschirm darstellt. Es gibt bei Multimonitoring keine Mikroruckler.