Verfasst: Di 8. Jun 2004, 03:10
LoL,
gerade bei 3D-Center gefunden, vom 25.5.04.
Wir sind entsetzt über das, was einem von Nvidia zugemutet wird, wenn man nach dem Kauf einer leistungsstarken GeForceFX 5900 derartigen Matsch wie im ersten Screenshot geliefert bekommt, wo man doch 8x AF aktiviert. Viele wichtige Texturen kriegen hier nur 2x. Möchte man generell nur mit 2x AF spielen, braucht es keine 5900er Karte. Sofern auf den nichtprimären Texturschichten nur Lightmaps liegen, ist diese "Optimierung" unproblematisch, aber natürlich kann niemand garantieren, dass nicht auch die sekundäre Textur-Stage für Basemaps genutzt werden.
Ausführlich hört man von ATI, was Temporal AA bringen soll, und Nvidia brüstet sich, 4x Antialiasing jetzt mit besserem Grid zu liefern, wobei dieses Grid schon 2000 von 3dfx sowie als Multisampling-Variante 2002 von ATI angeboten wurde. Wenn es Verbesserungen gibt, wollen die Herren vom Marketing dafür Applaus für ihre Auftraggeber einheimsen. Im gleichen Zuge wird, ganz ohne Tammtamm, woanders wieder gespart. Neuen Treiber geladen und Performance gewonnen? Angesichts der ausgereizten Treiber gehen diese "Gewinne" so gut wie immer mit Bildqualitätsverlust einher.
Wie wir zu Beginn anklingen ließen, haben die Firmen ein leichtes Spiel, da der über den Leistungsgewinn erfreute Kunde meistens keine Untersuchungen anstellt, woher diese "Gewinne" eigentlich kommen. Dabei wurde ihm ja auch etwas genommen. Das eigentlich inakzeptable ist, dass ihm auch die Option auf hergebrachte Qualität genommen wird. Inzwischen führt das zu solcher "Qualität" wie im ersten Screenshot zu sehen. Wer mag noch an einen Zufall glauben, dass die Treiber bei synthetischen Testprogrammen bessere Qualität liefern, als in Spielen geboten wird?
Der Slider für "Quality", "Performance" und "High Performance" nutzt unserer Meinung nach auch beim Detonator 45.23 ungünstige Konfigurationen. "Quality" liefert noch volle Qualität (sollen wir das wirklich loben, oder ist das nicht eine Selbstverständlichkeit?) während "Performance" praktisch nur noch bilinear filtert und damit unbrauchbar ist, von "High Performance" ganz zu schweigen.
Viele Spiele sind bei vollem Detailgrad ziemlich CPU-limitiert. Dann noch Bildqualität zu opfern (oder die Auflösung zu senken), bringt relativ wenig Geschwindigkeit. Mit dem 56.72er Forceware schätzen wir nach einigen Testläufen mit Fraps die durchschnittliche Max Payne Ingame-Framerate auf etwa 75-80 fps. Mit dem 45.23er Detonator büßt man rund 25% ein und muss mit circa 60 fps leben.
Senkt man die Auflösung von 1280x960 auf 1152x864, spart das etwa 20% Füllrate (was allerdings nicht vollständig in Geschwindigkeit umgesetzt wird – ein Hinweis auf begrenzte CPU-Limitierung), ohne dass die Feinkörnigkeit des Bildes durch den geringen Auflösungsverlust wirklich leidet. Es gibt in der Theorie viele Möglichkeiten, bei knapper Leistung die Geschwindigkeit zu steigern oder "überschüssige" Leistung in Bildqualität einzutauschen. Aktuelle Treiber verbauen jedoch viele interessante Optionen.
Wer z. B. wegen einem TFT-Display in 1280x1024 spielen möchte, braucht entweder eine GeForceFX 5900 Ultra, oder muss Details wegschalten. Wir halten die Grafik mit 8x AF und ohne Detail-Texturen für ansprechender als mit Detailtexturen und 2x AF – wobei das erste Setting natürlich schneller ist. Eine echte Wahl bleibt gar nicht: Der aktuelle Forceware-Treiber ist für Max Payne mit seiner 2x-statt-8x AF-Texturqualität schlicht unzumutbar.
Dieser Artikel wäre ohne Tools von Thomas Bruckschlegel (3D-Analyze), Xmas (Texture Filter TestApp) und Demirug (D3D AF-Tester) nicht möglich gewesen. Gedankt sei auch dem ganzen 3DCenter-Forum für die Fülle an Tipps und Hinweisen.
gerade bei 3D-Center gefunden, vom 25.5.04.
Wir sind entsetzt über das, was einem von Nvidia zugemutet wird, wenn man nach dem Kauf einer leistungsstarken GeForceFX 5900 derartigen Matsch wie im ersten Screenshot geliefert bekommt, wo man doch 8x AF aktiviert. Viele wichtige Texturen kriegen hier nur 2x. Möchte man generell nur mit 2x AF spielen, braucht es keine 5900er Karte. Sofern auf den nichtprimären Texturschichten nur Lightmaps liegen, ist diese "Optimierung" unproblematisch, aber natürlich kann niemand garantieren, dass nicht auch die sekundäre Textur-Stage für Basemaps genutzt werden.
Ausführlich hört man von ATI, was Temporal AA bringen soll, und Nvidia brüstet sich, 4x Antialiasing jetzt mit besserem Grid zu liefern, wobei dieses Grid schon 2000 von 3dfx sowie als Multisampling-Variante 2002 von ATI angeboten wurde. Wenn es Verbesserungen gibt, wollen die Herren vom Marketing dafür Applaus für ihre Auftraggeber einheimsen. Im gleichen Zuge wird, ganz ohne Tammtamm, woanders wieder gespart. Neuen Treiber geladen und Performance gewonnen? Angesichts der ausgereizten Treiber gehen diese "Gewinne" so gut wie immer mit Bildqualitätsverlust einher.
Wie wir zu Beginn anklingen ließen, haben die Firmen ein leichtes Spiel, da der über den Leistungsgewinn erfreute Kunde meistens keine Untersuchungen anstellt, woher diese "Gewinne" eigentlich kommen. Dabei wurde ihm ja auch etwas genommen. Das eigentlich inakzeptable ist, dass ihm auch die Option auf hergebrachte Qualität genommen wird. Inzwischen führt das zu solcher "Qualität" wie im ersten Screenshot zu sehen. Wer mag noch an einen Zufall glauben, dass die Treiber bei synthetischen Testprogrammen bessere Qualität liefern, als in Spielen geboten wird?
Der Slider für "Quality", "Performance" und "High Performance" nutzt unserer Meinung nach auch beim Detonator 45.23 ungünstige Konfigurationen. "Quality" liefert noch volle Qualität (sollen wir das wirklich loben, oder ist das nicht eine Selbstverständlichkeit?) während "Performance" praktisch nur noch bilinear filtert und damit unbrauchbar ist, von "High Performance" ganz zu schweigen.
Viele Spiele sind bei vollem Detailgrad ziemlich CPU-limitiert. Dann noch Bildqualität zu opfern (oder die Auflösung zu senken), bringt relativ wenig Geschwindigkeit. Mit dem 56.72er Forceware schätzen wir nach einigen Testläufen mit Fraps die durchschnittliche Max Payne Ingame-Framerate auf etwa 75-80 fps. Mit dem 45.23er Detonator büßt man rund 25% ein und muss mit circa 60 fps leben.
Senkt man die Auflösung von 1280x960 auf 1152x864, spart das etwa 20% Füllrate (was allerdings nicht vollständig in Geschwindigkeit umgesetzt wird – ein Hinweis auf begrenzte CPU-Limitierung), ohne dass die Feinkörnigkeit des Bildes durch den geringen Auflösungsverlust wirklich leidet. Es gibt in der Theorie viele Möglichkeiten, bei knapper Leistung die Geschwindigkeit zu steigern oder "überschüssige" Leistung in Bildqualität einzutauschen. Aktuelle Treiber verbauen jedoch viele interessante Optionen.
Wer z. B. wegen einem TFT-Display in 1280x1024 spielen möchte, braucht entweder eine GeForceFX 5900 Ultra, oder muss Details wegschalten. Wir halten die Grafik mit 8x AF und ohne Detail-Texturen für ansprechender als mit Detailtexturen und 2x AF – wobei das erste Setting natürlich schneller ist. Eine echte Wahl bleibt gar nicht: Der aktuelle Forceware-Treiber ist für Max Payne mit seiner 2x-statt-8x AF-Texturqualität schlicht unzumutbar.
Dieser Artikel wäre ohne Tools von Thomas Bruckschlegel (3D-Analyze), Xmas (Texture Filter TestApp) und Demirug (D3D AF-Tester) nicht möglich gewesen. Gedankt sei auch dem ganzen 3DCenter-Forum für die Fülle an Tipps und Hinweisen.