Ursprungligen inskrivet av A.N'doja
SweC: tack för ett bra test och tack för att vi får se verkliga siffror.
För övrigt så tycker jag några stycken i tråden är ute och cyklar lite grann, kan ha läst fel, har fått fel information eller helt enkelt inte har testat dem olika korten etc.
7900GT korten(T) som klockades i testet var inte ens högt klockade. Kanske högtklockade utan voltmodd, alltså orginal volt 1.2V i 2D och 1.3V i 3D, men det finns överklockade kort som snurrar på i 560/1650Mhz när du köper dem och dem snurrar på i 1.2V i 2D och 1.3V i 3D precis som default.
Det som händer när du/ni voltmoddar ett kort till 1.4V VGPU alltså GTX kortets Load/3Dvolt, är att du klockar upp ditt 7900GT kort till GTX hastigheter och mer där till vilket inte är några konstigheter på något vis för dom flästa, och du har helt plötsligt ett kort som presterar bättre än alla TopOfTheLine kort som finns på marknaden idag oavsett om ni spelar med 1280*1024/1600*1280/HDR/AA/AF/.
Det finns ingen som kan göra nåt åt saken förutom att klocka ett X1900XTX men till vilket pris?? Det Lustiga här tycker jag är att 700Mhz på ett 7900GTX presterar inte som 700Mhz på ett GT samt 1700Mhz på minnena på vardera.
Det spelar det ingen roll om prestandatesterna testas med samma system. Då kan man fråga sig , aha varför då ? - ja det är en bra fråga men så ser verkligheten ut. för 2000:- så får du ett X1800GTO och är det prisvärdaste kortet i den klassen men 7900GT är det prisvärdaste kortet överlag här.
Vi har tagit upp dem här diskussionerna X- Antal ggr i forumet, och personer som stått vid en sida har helt plötsligt bytt sida för att dem har sett verkligheten. Så mest prestanda för pengarna får du om du köper ett 7900GT precis som resterande skriver, men genom en voltmodd+klock får du prestanda över alla kort som finns på marknaden.
Angående HDR så är inte HDR något man argumenterar för, och absolut inget man argumenterar för om man ska blanda i DX10. Dessa korten som finns på marknaden stöder för det första inte DX10 och sedan HDR på det ?
HDR finns i några spel idag, man kanske kan räkna upp en 3-4 stycken max. Att använda HDR spelar inga faktorer in i att man ska använda ett fetare ATI kort oavsett vilken upplösning du spelar i.
För att Ta Oblivion som ett mycket bra exempel, så finns det inget kort på marknaden oavsett system som driver Oblivion _ i genom snitt _ hackfritt i ens 1280*1024 med HDR och maxxar dina inställningar InGame.
Att argumentera för HDR i ett spel som Oblivion då man också tänker på ögon godis och maxxar sina ingame inställningar är lite som att skjuta sig i foten tycke jag. Därför är varken Oblivion eller HDR en argumentation varför man ska köpa ett Ati kort som det ser ut idag. Det finns några stycken spel som redan hackar i dagens läge med top of the line Gkort oavsett processor och minne:
1. Condemned - Criminal Origins
2. Oblivion
3. Hitman - Blood Money
Detta är spel som släppts tidigt 2006. Jag tycker det inte finns några anledningar att dra in HDR i högre upplösningar i spel där spelen redan hackar då du kör maxingame inställningar med full AA/AF stöd i 1280*1024, det måste ni ju hålla med om ?. Vad händer då om du aktiverar HDR+AA/AF/QF i ett nyare spel och lirar i ex: 1280*1024 ?_?
Vänner, spelen hackar som fan.
Men det finns anledningar också så klart varför man köper ett X1900XT, det är lite finare bildkvalitet när vi pratar om Tv-out, det är lite finare bildkvalitet, O.B.S - i vissa spel långt ifrån alla spel. Det är därför olika personer alltid lägger fram samma bilder när man kommer till bildkvalitet, för att det är just dem spel där det märks, marginalt.
* Ati korten är Varmare, Ati korten drar mer ström, Ati korten är dyrare, Ati korten låter mer, Ati korten presterar lite bättre(marginalt).
* Nvidia korten är svalare, Nvidia korten drar mindre ström, Nvidia korten låter mindre, Nvidia korten presterar marginalt Sämre.
Men att Nvidia korten presterar marginalt sämre som du inte ens kan uppfatta med dina ögon är inget att argumentera för att köpa ett Ati kort, och precis som många utav er säger och även har sagt i andra trådar på SweC, så är marginalen i prestanda så liten att det inte ens skulle vara lönt att betala 500:- för 15fps. Därför lämnar i det åt sidan, vi skiter i fps.
Resten handlar då om HDR vilket båda Märkena har fullt stöd för när vi pratar TopOfTheLine. Men när man drar in HDR och maxingame så kvittar det vilket kort du använder för det hackar precis lika mycket oavsett kort. Och människor vad hjälper det då att ett Ati kort kan aktivera HDR+AA då ?
Med andra ord ännu mer Hack.
Jag sitter på ett X1900XT idag som är flashat till ett X1900XTX och snurrar på i 650Mhz/1600Mhz och är nöjd absolut, men skulle aldrig få för mig att köpa detta kortet för 5200:- som det kostade innan.
Och det jag tycker är bra med detta kort är att kortet är ett monster, det är inget snack om saken. Men jag hade ett 7900GT som var voltmoddat+klock och vilket presterar bäst ? 7900GT presterar bäst. Det finns bara en sak som 7900GT faller på och det är sina 256GDDR då motsvarande är 512GDDR.
Nu undrar endel varför jag hoppade ifrån 7900GT till X1900XTX så klart, mycket enkelt. Jag skulle byta kylare och råkade stöta emot resistorerna runt GPUN med kylblocket som var inkletat med Kylpasta. Och när jag startade datorn så började det flimra, så jag trodde att jag hade pajat kortet på nåt skumt vänster. Sanningen var att det som behövdes var att dränka en trasa med Aceton och bara torka av sen hade det funkat som det skulle, (offrade tjejens AGP kort för att testa om min teori funkade:P).