Ny GFFX 5900 review på Beyond3D..

Permalänk
Medlem

Ny GFFX 5900 review på Beyond3D..

Finns att läsa här: http://www.beyond3d.com/reviews/albatron/gffx5900pv/

Säger i princip samma sak som den "beta" review som kom häromdagen på beyond3d som visade på GFFX kortens dåliga PS2.0..

Min egen slutsats är iaf att om man ska lira Doom3 som bara använder stencil shadows så klarar man sig nog fint med ett FX 5900, men man får nog gå till mamma och grina när man ska köra andra dx9-spel som använder pixel shaders(HL2 TR:AOD etc..)..

Själv har jag nu helt 100% bestämt mig för att inte köpa gffx och det blir helt klart ett radeon 9800 pro.. Speciellt som jag tycker HL2 ser ut som ett mycket roligare spel än Doom3..

- Preed -

Visa signatur

/ Preed
[ Intel i7 13700K ] [ MSI MAG Z790 Tomahawk WIFI ] [ 2x32GB Kingston Fury Beast 6000MHz DDR5 ] [ Kingston Fury Renegade M.2 NVMe SSD Gen 4 2TB ] [ Noctua NH-D15 chromax ]

Permalänk

Ämnet är i alla fall ingen nyhet... Det har jag vetat sedan jag såg Shadermark-bänktesten...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Sachankara
Ämnet är i alla fall ingen nyhet... Det har jag vetat sedan jag såg Shadermark-bänktesten...

hehe nä men du vet väl att syntetiska tester är helt menlösa och visar inget om riktig prestanda
jag lovar Pappy och JD berättade det för mig

j/k

Visa signatur

Från den andra sidan. :)

Permalänk

Funkar inte FX 5900 ultra korten bra med dx9 ? Eller till hl2 ?

Visa signatur

Lind@

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Lindisloo
Funkar inte FX 5900 ultra korten bra med dx9 ? Eller till hl2 ?

De har väldigt dålig PS2.0 prestanda. Om det betyder att de inte kommer klara HL2 bra återstår ju att se. Förmodligen kommer nVidia optimera skiten ur det skulle jag tro eftersom det vore väldigt illa för dom ifall det inte funkade bra på deras kort. Men jag kan tänka mig att många mindre populära DX9 spel kommer fungera dåligt på FX-korten.

Permalänk
Medlem

Doom3 kör OpenGL och använder stencil shadows och inte pixel shaders, så där kommer nog FX korten inte ha några problem..

- Preed -

Visa signatur

/ Preed
[ Intel i7 13700K ] [ MSI MAG Z790 Tomahawk WIFI ] [ 2x32GB Kingston Fury Beast 6000MHz DDR5 ] [ Kingston Fury Renegade M.2 NVMe SSD Gen 4 2TB ] [ Noctua NH-D15 chromax ]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Preed
Doom3 kör OpenGL och använder stencil shadows och inte pixel shaders, så där kommer nog FX korten inte ha några problem..

- Preed -

Jo då, Doom3 använder PS, dock bara OpenGLs motsvarighet till PS1.1/1.4 vad jag vet så det är inga problem för NV3x. Det verkar däremot inte alls bli lika shader intensivt som HL2.

Permalänk
Medlem

TR:AOD=Buggigaste spel som släppts sen Hidden&Dangerous.
att sedan publicera benchmarks på detta skämt till spel visar bara dåligt omdöme av de som utfört testen.
Att fx korten har dålig PS2.0 prestanda vet vi sen förrut så denna artikel tillför inget nytt.

Permalänk
Medlem

Jo det tillför något, för det råkar vara det enda dx9 spelet som finns hittils att testa med..

- Preed -

Visa signatur

/ Preed
[ Intel i7 13700K ] [ MSI MAG Z790 Tomahawk WIFI ] [ 2x32GB Kingston Fury Beast 6000MHz DDR5 ] [ Kingston Fury Renegade M.2 NVMe SSD Gen 4 2TB ] [ Noctua NH-D15 chromax ]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Preed
Jo det tillför något, för det råkar vara det enda dx9 spelet som finns hittils att testa med..

- Preed -

Så att "det enda dx9 spelet" råkar vara det buggigaste spelet detta århundrade spelar ingen roll, buggigt spel=buggigt benchmark.

Permalänk
Medlem

Uhh, gillar mitt grafikkort allt mindre och mindre... tur att man fick det gratis iallafall och har ett ati radeon 9700 pro på hyllan ifall man vill byta tebaks.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blomman
Så att "det enda dx9 spelet" råkar vara det buggigaste spelet detta århundrade spelar ingen roll, buggigt spel=buggigt benchmark.

Jo men den ackumulerade kunskapen ger det betydelse.

Alla syntetiska tester visar att PS-prestandan på FX-korten suger bajamaja.
Första spelet som använder mycket DX9 visar exakt samma trend som de syntetiska testerna. Dessutom är detta spel med i nVidias så kallade "The Way it's meant to be played"-program OCH det är ett av de första (om inte DET första) som använder Cg fullt ut.

Sammanlagt är det rätt värdefull information.
För övrigt har jag spelet men har inte märkt att det skulle vara buggigt. Vad består buggarna av?
Jag säger inte emot dig med att det skulle vara buggigt, jag har hört många andra säga det också och jag misstror det inte, men själv har jag kört det både på ATis och nVidias kort och det enda jag märkt är att visa kombinationer av effekter ballar ur helt.

Om det är buggar i spelmekaniken så är det ju knappast något som gör spelet som benchmark buggigt dock.

BTW S_Z
Doom 3 använder sig av Pixel Shader 2.0-mostvarande effekter. Faktum är att det tom. använder Radeon 8500-9200s 48 bits (integer visserligen) precision också.
Men vad jag förstått är det ganska simpla effekter och ganska sparsamt användande av hög precision.

Sorry om jag stavar som en get, är lite småtrött.

Visa signatur

Från den andra sidan. :)

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AnteP
BTW S_Z
Doom 3 använder sig av Pixel Shader 2.0-mostvarande effekter. Faktum är att det tom. använder Radeon 8500-9200s 48 bits (integer visserligen) precision också.
Men vad jag förstått är det ganska simpla effekter och ganska sparsamt användande av hög precision.

Ok, har jag väl inte varit tillräckligt uppdaterar vad gäller Doom3..kan inte säga att det är något spel jag direkt längtar efter
Va ganska säker på att jag hade läst att Carmack hade sagt att han endast skulle använda motsvarande DX8 shaders. Jag vet att det står så i Maximum PCs artikel om HL2 men det kanske inte kan räknas som den mest pålitliga källan direkt
Är detta med att han skall använd PS2.0 något han ”nyligen” har gått ut med?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AnteP
Jo men den ackumulerade kunskapen ger det betydelse.

Detta spel har noll värde, x+0 = x

Citat:

Alla syntetiska tester visar att PS-prestandan på FX-korten suger bajamaja.

Håller med, men testen av tr:aod är irrelevant.

Citat:

Första spelet som använder mycket DX9 visar exakt samma trend som de syntetiska testerna. Dessutom är detta spel med i nVidias så kallade "The Way it's meant to be played"-program OCH det är ett av de första (om inte DET första) som använder Cg fullt ut.
Sammanlagt är det rätt värdefull information.

Spelar ingen roll hur mycket DX9/Cg som används när spelet kryllar av grafikbuggar och grafiken den presterar är av dx7 kvalitét.

Citat:

För övrigt har jag spelet men har inte märkt att det skulle vara buggigt. Vad består buggarna av?
Jag säger inte emot dig med att det skulle vara buggigt, jag har hört många andra säga det också och jag misstror det inte, men själv har jag kört det både på ATis och nVidias kort och det enda jag märkt är att visa kombinationer av effekter ballar ur helt.

Har du spelat hela spelet ?, kryllar av grafikbuggar förutom alla rena spelbuggar.

Citat:

Om det är buggar i spelmekaniken så är det ju knappast något som gör spelet som benchmark buggigt dock.

Om grafikmotorn/spelet är buggigt, varför skulle benchmarket av samma motor/spel vara felfri ?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blomman
...

DOF, Glow, reflektioner etc. är ju av betydligt högre kvalitet än vad något DX7 eller 8 spel någonsin visat upp.

Personligen har jag som sagt inte sett en enda grafikbugg hittills förutom när jag själv börjat leka med inställningarna. Deras PS2.0 preset funkar felfritt både på FX 5900 Ultra och 9800 Pro här.
(Har iofs bara spelet till fjärde banan typ.)

De enda buggarna jag märkt av finns i spelmekaniken. Typ fiendernas AI. Men det påverkar knappast testets värde som grafiktest.

Visa signatur

Från den andra sidan. :)

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av S_Z
Är detta med att han skall använd PS2.0 något han ”nyligen” har gått ut med?

Nej det har varit så sen dag ett.
Carmack var första källan till jämförelser av 16, 24 och 32 bits flyttalsprecision något som bara går att använda med DX9 kortens shaders.

Visa signatur

Från den andra sidan. :)

Permalänk
Medlem

Nu vart jag lite orolig av att läsa allt dethär hade ju precis tänk å beställa ett Gfx men verkar ju som att kortet inte kommer klara av att köra DX9 spel... hur kommer hl2 flyta tex?

Även om de test som gjorts nu kanske va lite buggiga så visar dom på att Gfx inte klarar av dx9 så bra... ska man köpa ett radeon då istället?
aja hoppas nvidia fixar det på nått sätt

mvh

Visa signatur

Asus P8Z68-V PRO/GEN3 || intel i5 2500k ||Corsair vengeance 1600mhz 16gb || gtx680 || Corsair HX750W || Win8pro 64bit || Corsair force 3 120gb || WD black 1TB ||

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AnteP
Nej det har varit så sen dag ett.
Carmack var första källan till jämförelser av 16, 24 och 32 bits flyttalsprecision något som bara går att använda med DX9 kortens shaders.

Ok, men hur kan det komma sig att så många (exempelvis Anandtech) har fått för sig att det bygger kring OpenGLs motsvarighet till DX8. När Doom3 först kom upp så var det ju sagt att det skulle bygga kring GF3 hårdvara om jag inte minns fel men mycket har ju iofs ändrats sen dess.

Att man kan använda 32/24/16-bits FP gör väl inte direkt att det motsvarar DX9 shaders? Det gör väl inte så man kan dra ner på antal ”rendering passes” eller så att man kan göra mer avancerade shaderprogram. Jag trodde inte OpenGL hade någon riktig motsvarande DX9 klar än, det är väl det som är OpenGL2.0.