Produkttest: 16 grafikkort prestandatestade

Permalänk
Medlem

Jag saknade ett X1900GT kort i dessa tester, men de är relativt nya så jag förstår att de inte fanns att få tag på när ni gjorde testet. Men det hade gett 7900GT en värdig match.

Tycker också ni borde nämna att möjligheten finns att låsa upp X1800GTO korten och göra det till ett XL (XT beroende på hur mkt kortet klockar). Det är givetvis inte så att alla kort går att låsa upp men inte hellre går alla 7900GT kort att klocka sådär tokhögt med voltmodd men det nämner ni ändå. Samt att det inte krävs nån hårdmoddning för att låsa upp ett X1800GTO.

Sen tycker jag det är värt att nämna att spänningen till Ati korten går att ändra i windows, och att än en gång så behövs ingen hårdmoddning för detta.

Annars var det ett bra test tycker jag, det lär få slut på en del frågor i forumet om vilket kort man bör köpa i den och den prisklassen osv.

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Discokungen
Citat:

Ursprungligen inskrivet av Gambit_2K
Tycker också ni borde nämna att möjligheten finns att låsa upp X1800GTO korten och göra det till ett XL (XT beroende på hur mkt kortet klockar). Det är givetvis inte så att alla kort går att låsa upp men inte hellre går alla 7900GT kort att klocka sådär tokhögt med voltmodd men det nämner ni ändå. Samt att det inte krävs nån hårdmoddning för att låsa upp ett X1800GTO.

Tokhögt?! Det var väl inte ens voltmoddat?

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MOrKiz
HUr lyckas du med det? HAr i princip bara användt Nvidia kort sedan 3DFX försvann från scenen, tror aldrig jag har råkat ut för en sådan sak.

Och Nej. HDR är inget köpargument. Du kunde nämna 3 spel. Inte ens en tjugondel av all spel som släpps har eller kommer ha stöd för det.

Notera att han sa att Ati var bar på nya tekniker, så som HDR. Det har för fan knappt börjat.

Sen om man tittar på spel som kommer i framtidne har rätt många HDR.

Permalänk
Medlem

Antagligen kunde inte swec voltmodda, klocka mm de korten de använde i testen eftersom dom ska skicka tillbacks.

Najs test. Bra eftersom man ser vad som är mest prisvärt mm.
Men det vore intressant att se prestandan på en processor som ligger i de felstas prisklass. Inte så många som kör en FX60 vad jag vet.
Nu är ju detta enbart ett grafikkortstest och man kan ju inte få allt =).

mvh
alegro

Permalänk

SweC: tack för ett bra test och tack för att vi får se verkliga siffror.

För övrigt så tycker jag några stycken i tråden är ute och cyklar lite grann, kan ha läst fel, har fått fel information eller helt enkelt inte har testat dem olika korten etc.

7900GT korten(T) som klockades i testet var inte ens högt klockade. Kanske högtklockade utan voltmodd, alltså orginal volt 1.2V i 2D och 1.3V i 3D, men det finns överklockade kort som snurrar på i 560/1650Mhz när du köper dem och dem snurrar på i 1.2V i 2D och 1.3V i 3D precis som default.

Det som händer när du/ni voltmoddar ett kort till 1.4V VGPU alltså GTX kortets Load/3Dvolt, är att du klockar upp ditt 7900GT kort till GTX hastigheter och mer där till vilket inte är några konstigheter på något vis för dom flästa, och du har helt plötsligt ett kort som presterar bättre än alla TopOfTheLine kort som finns på marknaden idag oavsett om ni spelar med 1280*1024/1600*1280/HDR/AA/AF/.

Det finns ingen som kan göra nåt åt saken förutom att klocka ett X1900XTX men till vilket pris?? Det Lustiga här tycker jag är att 700Mhz på ett 7900GTX presterar inte som 700Mhz på ett GT samt 1700Mhz på minnena på vardera.

Det spelar det ingen roll om prestandatesterna testas med samma system. Då kan man fråga sig , aha varför då ? - ja det är en bra fråga men så ser verkligheten ut. för 2000:- så får du ett X1800GTO och är det prisvärdaste kortet i den klassen men 7900GT är det prisvärdaste kortet överlag här.

Vi har tagit upp dem här diskussionerna X- Antal ggr i forumet, och personer som stått vid en sida har helt plötsligt bytt sida för att dem har sett verkligheten. Så mest prestanda för pengarna får du om du köper ett 7900GT precis som resterande skriver, men genom en voltmodd+klock får du prestanda över alla kort som finns på marknaden.

Angående HDR så är inte HDR något man argumenterar för, och absolut inget man argumenterar för om man ska blanda i DX10. Dessa korten som finns på marknaden stöder för det första inte DX10 och sedan HDR på det ?

HDR finns i några spel idag, man kanske kan räkna upp en 3-4 stycken max. Att använda HDR spelar inga faktorer in i att man ska använda ett fetare ATI kort oavsett vilken upplösning du spelar i.

För att Ta Oblivion som ett mycket bra exempel, så finns det inget kort på marknaden oavsett system som driver Oblivion _ i genom snitt _ hackfritt i ens 1280*1024 med HDR och maxxar dina inställningar InGame.
Att argumentera för HDR i ett spel som Oblivion då man också tänker på ögon godis och maxxar sina ingame inställningar är lite som att skjuta sig i foten tycke jag. Därför är varken Oblivion eller HDR en argumentation varför man ska köpa ett Ati kort som det ser ut idag. Det finns några stycken spel som redan hackar i dagens läge med top of the line Gkort oavsett processor och minne:

1. Condemned - Criminal Origins
2. Oblivion
3. Hitman - Blood Money

Detta är spel som släppts tidigt 2006. Jag tycker det inte finns några anledningar att dra in HDR i högre upplösningar i spel där spelen redan hackar då du kör maxingame inställningar med full AA/AF stöd i 1280*1024, det måste ni ju hålla med om ?. Vad händer då om du aktiverar HDR+AA/AF/QF i ett nyare spel och lirar i ex: 1280*1024 ?_?

Vänner, spelen hackar som fan.

Men det finns anledningar också så klart varför man köper ett X1900XT, det är lite finare bildkvalitet när vi pratar om Tv-out, det är lite finare bildkvalitet, O.B.S - i vissa spel långt ifrån alla spel. Det är därför olika personer alltid lägger fram samma bilder när man kommer till bildkvalitet, för att det är just dem spel där det märks, marginalt.

* Ati korten är Varmare, Ati korten drar mer ström, Ati korten är dyrare, Ati korten låter mer, Ati korten presterar lite bättre(marginalt).

* Nvidia korten är svalare, Nvidia korten drar mindre ström, Nvidia korten låter mindre, Nvidia korten presterar marginalt Sämre.

Men att Nvidia korten presterar marginalt sämre som du inte ens kan uppfatta med dina ögon är inget att argumentera för att köpa ett Ati kort, och precis som många utav er säger och även har sagt i andra trådar på SweC, så är marginalen i prestanda så liten att det inte ens skulle vara lönt att betala 500:- för 15fps. Därför lämnar i det åt sidan, vi skiter i fps.

Resten handlar då om HDR vilket båda Märkena har fullt stöd för när vi pratar TopOfTheLine. Men när man drar in HDR och maxingame så kvittar det vilket kort du använder för det hackar precis lika mycket oavsett kort. Och människor vad hjälper det då att ett Ati kort kan aktivera HDR+AA då ?

Med andra ord ännu mer Hack.

Jag sitter på ett X1900XT idag som är flashat till ett X1900XTX och snurrar på i 650Mhz/1600Mhz och är nöjd absolut, men skulle aldrig få för mig att köpa detta kortet för 5200:- som det kostade innan.

Och det jag tycker är bra med detta kort är att kortet är ett monster, det är inget snack om saken. Men jag hade ett 7900GT som var voltmoddat+klock och vilket presterar bäst ? 7900GT presterar bäst. Det finns bara en sak som 7900GT faller på och det är sina 256GDDR då motsvarande är 512GDDR.

Nu undrar endel varför jag hoppade ifrån 7900GT till X1900XTX så klart, mycket enkelt. Jag skulle byta kylare och råkade stöta emot resistorerna runt GPUN med kylblocket som var inkletat med Kylpasta. Och när jag startade datorn så började det flimra, så jag trodde att jag hade pajat kortet på nåt skumt vänster. Sanningen var att det som behövdes var att dränka en trasa med Aceton och bara torka av sen hade det funkat som det skulle, (offrade tjejens AGP kort för att testa om min teori funkade:P).

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Vad är nu detta Doja.. en teknisk och argumenterande inlägg.. im impressed ..

Permalänk
Citat:

Ursprungligen inskrivet av MOrKiz
Vad är nu detta Doja.. en teknisk och argumenterande inlägg.. im impressed ..

Albin is BACK!!!

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MOrKiz
Saknar ordentliga prisuppgifter i testet. Du kan få 7900GTX för så lite som 4500kr nu. Så jag håller inte riktigt med om slutsatsen att ATI korten skulle vara billigare i top segmentet..

Friamannen: Du klagar på Nvidias drivrutiner men inte ATi`s control panel? Måste fan vara den sämsta produkten på marknaden..

jag hoppas verkligen du menar control center

control panelen är sjukt bra o simpel om man jämför med supertråkiga nvidia

det som fick mig att byta

ati forever

Permalänk
Citat:

Ursprungligen inskrivet av jonaktiv
jag hoppas verkligen du menar control center

control panelen är sjukt bra o simpel om man jämför med supertråkiga nvidia

det som fick mig att byta

ati forever

Kontroll panelen för Ati är relativt smidig men du kan göra fler inställningar i Nvidias panel som är inbyggt med drivisarna, så jag förstår inte alls varför du bytte Märke på kort för en sån skit sak ?

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Citat:

Ursprungligen inskrivet av A.N'doja

Angående HDR så är inte HDR något man argumenterar för, och absolut inget man argumenterar för om man ska blanda i DX10. Dessa korten som finns på marknaden stöder för det första inte DX10 och sedan HDR på det ?

HDR finns i några spel idag, man kanske kan räkna upp en 3-4 stycken max. Att använda HDR spelar inga faktorer in i att man ska använda ett fetare ATI kort oavsett vilken upplösning du spelar i.

För att Ta Oblivion som ett mycket bra exempel, så finns det inget kort på marknaden oavsett system som driver Oblivion _ i genom snitt _ hackfritt i ens 1280*1024 med HDR och maxxar dina inställningar InGame.
Att argumentera för HDR i ett spel som Oblivion då man också tänker på ögon godis och maxxar sina ingame inställningar är lite som att skjuta sig i foten tycke jag. Därför är varken Oblivion eller HDR en argumentation varför man ska köpa ett Ati kort som det ser ut idag. Det finns några stycken spel som redan hackar i dagens läge med top of the line Gkort oavsett processor och minne:

1. Condemned - Criminal Origins
2. Oblivion
3. Hitman Blood Money

Detta är spel som släppts tidigt 2006. Jag tycker det inte finns några anledningar att dra in HDR i högre upplösningar i spel där spelen redan hackar då du kör maxingame inställningar med full AA/AF stöd i 1280*1024, det måste ni ju hålla med om ?. Vad händer då om du aktiverar HDR+AA/AF/QF i ett nyare spel och lirar i ex: 1280*1024 ?_?

Antar att HDR-delen är riktad mot mina inlägg, så jag får väl kommentera.
Först och främst har jag aldrig ens nämnt DX10 i sammanhanget. Att Crysis finns både i DX9- och DX10-utförande är ingen hemlighet. Dessutom har ju det talats om (vet inte om det är bekräftat från Crytech?) att deras gameplay-demo löpte på ett x1900XTX. Det flöt onekligen bra, det var en hel del HDR inblandat. Om man nu får 5-10FPS extra med ett ATi-kort är alltså detta helt irrelevant? Ok.

Var skjuter jag mig i foten? Förstår inte vad du menar. Visst ska man kunna JÄMFÖRA resultat med HDR + allt jävla möjligt ögongodis just för JÄMFÖRANDETS skull. Är det inte just jämförelser som roundup-tester går ut på? http://www.anandtech.com/video/showdoc.aspx?i=2746&p=4
Där ser vi att ATi klarar sig betydligt bättre i HDR under samma grafikkvalitet som Nvidia i det mest krävande testet. I Town-testet har faktiskt Nvidia lite bättre minimum-fps, men det är inte alls samma marginal som i Gate-testet.NV = 19, ATi = 26. Det märks när man spelar.

Bara för att du själv verkar föredra högre andra inställningar före aktiverat HDR så behöver inte alla tänka likadant.

Vad spelar det för roll om de spelen du listar upp inte klarar av att köra maxat? Det ger väl fortfarande en VINK om exempelvis Nvidia har 15FPS och ATi har 3?

Visa signatur

C2D Q6600 || Gigabyte P31-DS3L || Corsair 6400 1GB*2 || 8800GT || Audigy2

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Flamso
Tokhögt?! Det var väl inte ens voltmoddat?

Nej jag tror många missförstod det jag skrev. Det jag menade är att det är ingen garanti att alla 7900GT som är voltmoddade går att köra tokhögt. Men att testet nämner att man kan voltmoddakortet.

Då tycker jag att man kan nämna att ett X1800GTO går att låsa upp också. Samt att om man nämner att man kan hårdvoltmodda ett 7900GT borde det nämnas att det kan göras i mjukvara för ATI's del och att man inte behöver tänka på sin garanti typ.

"7900GT-modellen klarar dock inte i närheten av de frekvenser som 7900GTX har eftersom den får lägre spänning till processorn. Här finns det gott om modifikationer som man kan göra för att ändra på detta, men man måste tänka på att garantin inte gäller längre när man gör det."

Doja: Att inte använda HDR + AA för att man inte kan maxa alla spelinställningar är ett mycket dumt argument tycker jag.

"The most notable thing which becomes apparant looking at this chart is that moving from 2x to 4x anti-aliasing (in this scenario at least) is practically 'free', with both modes offering around a 7% drop in performance from rendering without anti-aliasing. The performance hit becomes much greater once 6 samples are taken, exhibiting almost an 18% drop in frame rate."

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Citat:

Ursprungligen inskrivet av Gambit_2K
Lite prat om HDR

Argh, är inte dropsen värre? Jag offrar 3FPS för 4xAA + HDR vilken dag som helst. Läckert.

Synd att Oblivion är ett såpass oviktigt spel som inte alls utgör en indikation på hur framtida spel kommer utnyttja nya tekniker dock

Visa signatur

C2D Q6600 || Gigabyte P31-DS3L || Corsair 6400 1GB*2 || 8800GT || Audigy2

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Friamannen
Argh, är inte dropsen värre? Jag offrar 3FPS för 4xAA + HDR vilken dag som helst. Läckert.

Synd att Oblivion är ett såpass oviktigt spel som inte alls utgör en indikation på hur framtida spel kommer utnyttja nya tekniker dock

AAah men vidöppna områden + mycket shaders är ju en ganska bra fingervisare ändå. Särskilt om du gör en liten redigering av en ini filerna.

Jag tror Doja lekt med sina ini filer lite för mkt i Oblivion. För det är ingen annan jag vet som klagat så mkt eller som verkat fått såna drops.

Crysis är ju det som pekar mest mot framtiden just nu, och där spelas ju just DX9 verionen på 1 st X1900XTX.

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Citat:

Ursprungligen inskrivet av Gambit_2K
AAah men vidöppna områden + mycket shaders är ju en ganska bra fingervisare ändå. Särskilt om du gör en liten redigering av en ini filerna.

Jag tror Doja lekt med sina ini filer lite för mkt i Oblivion. För det är ingen annan jag vet som klagat så mkt eller som verkat fått såna drops.

Crysis är ju det som pekar mest mot framtiden just nu, och där spelas ju just DX9 verionen på 1 st X1900XTX.

Jag trodde att min ironi var uppenbar
Håller dock med dig på alla punkter.

Tycker ATi:s GPU verkar mer byggd för framtiden så att säga, men vi får väl se.

Visa signatur

C2D Q6600 || Gigabyte P31-DS3L || Corsair 6400 1GB*2 || 8800GT || Audigy2

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Friamannen
Jag trodde att min ironi var uppenbar
Håller dock med dig på alla punkter.

Tycker ATi:s GPU verkar mer byggd för framtiden så att säga, men vi får väl se.

Haha sorry såg inte smileyn, för snabb att hoppa till slutsatser nu för tiden

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Medlem

Skit kul att se denna typen av test på SweClockers.com... Tummen upp!

Bara en sak och det är mjukvaran, jag tycker ni borde använda nyare spel att jämföra med... Tex: GRAW och Oblivion.

Mvh

Permalänk
Medlem

Ännu ett helt ointressant test ... när ska hårdvarohemsidor lära sig att testa grafikkort på ett vettigt sätt?

Är det verkligen så svårt att förstå att en bunke siffror inte hjälper någon förutom den mest lättlurade konsumenten. Ni ska väl inte sälja NVIDIA-korten så varför presentera värdelösa siffror med NVIDIA i top?

"head to head" tester säger inte mig någotting om hur korten presterar och jag har påpekat det innan.

Testa korten med max spelbara inställningar, jämför fps:en och bildkvaliten, men det som spelar störst roll är speluplevelsen. Läs gärna [H]ardOcp´s guide hur dom med gott exempel gör sina tester. Tester som säger mig hur bra resultat jag kan förvänta mig med maximal speluplevelse. Inte bara en bunke siffror och staplar.

Visa signatur

Steve Jobs: We're better than you are! We have better stuff.
Bill Gates: You don't get it, Steve. That doesn't matter!

Permalänk
Citat:

Ursprungligen inskrivet av jokke
Testa korten med max spelbara inställningar, jämför fps:en och bildkvaliten, men det som spelar störst roll är speluplevelsen. Läs gärna [H]ardOcp´s guide hur dom med gott exempel gör sina tester. Tester som säger mig hur bra resultat jag kan förvänta mig med maximal speluplevelse. Inte bara en bunke siffror och staplar.

Väl rutet! Sweclockers behöver utveckla sina tester lite.

Visa signatur

C2D Q6600 || Gigabyte P31-DS3L || Corsair 6400 1GB*2 || 8800GT || Audigy2

Permalänk
Citat:

Ursprungligen inskrivet av Friamannen
Antar att HDR-delen är riktad mot mina inlägg, så jag får väl kommentera.
Först och främst har jag aldrig ens nämnt DX10 i sammanhanget. Att Crysis finns både i DX9- och DX10-utförande är ingen hemlighet. Dessutom har ju det talats om (vet inte om det är bekräftat från Crytech?) att deras gameplay-demo löpte på ett x1900XTX. Det flöt onekligen bra, det var en hel del HDR inblandat. Om man nu får 5-10FPS extra med ett ATi-kort är alltså detta helt irrelevant? Ok.

Var skjuter jag mig i foten? Förstår inte vad du menar. Visst ska man kunna JÄMFÖRA resultat med HDR + allt jävla möjligt ögongodis just för JÄMFÖRANDETS skull. Är det inte just jämförelser som roundup-tester går ut på? http://www.anandtech.com/video/showdoc.aspx?i=2746&p=4
Där ser vi att ATi klarar sig betydligt bättre i HDR under samma grafikkvalitet som Nvidia i det mest krävande testet. I Town-testet har faktiskt Nvidia lite bättre minimum-fps, men det är inte alls samma marginal som i Gate-testet.NV = 19, ATi = 26. Det märks när man spelar.

Bara för att du själv verkar föredra högre andra inställningar före aktiverat HDR så behöver inte alla tänka likadant.

Vad spelar det för roll om de spelen du listar upp inte klarar av att köra maxat? Det ger väl fortfarande en VINK om exempelvis Nvidia har 15FPS och ATi har 3?

Jag förstår hur du tänker här os.v. Ja att ati håller sig bättre i Oblivion är det inget snack om saken. Sen föredrar jag alltid HDR+MAXingame.

När jag skrev angående HDR samt HDR+AA så var det generellt till alla, annars hade jag citerat dig, men kom på då du drog upp det.

Saken är den här att många förklarar att ati är bättre grafikkort än Nvidia av några spekulationer ifrån en kille som inte ens sitter med ett 7900 ort till exempel. När jag då förklarar att du drar igång exempel vis Condemned och fullt på max ingame så ligger du många ggr i spelet på en fps runt 14, och då finns det inte ens HDR att aktivera. Där tycker jag inte att det hjälper med ett X1900XT(X) om vi nu säger att just i det spelet så ligger Atis TopOfTheLine, ca; 10fps mer än vad 7900~ gör. Hackar inprinsip lika mycket, iaf så pass lika mycket att det stör spelaren bakom skärmen.

Sen det här med DX10 var inte riktat mot dig heller, utan jag drog väl mest en summering utav vad många har skrivit i tråden och svarade alla mer eller mindre. Hänger du med nu ?

Att Crysis flöt onekligen bra på ett XTX är egentligen inte så konstigt, snubbarna bakom spelet har haft mycket lång tid samt optimerat spelet riktigt bra. Precis som dem snubbarna bakom Tomb Rider-Legends. Det flyter på ett gammalt AGP kort hur bra som helst med lite AA/AF men spelet är relativt snyggt.

Sen så är 7900GT det absolut det prisvärdaste kortet på marknaden som du får ut mest för pengarna och drar ifrån alla TopOfTheLine och det är inte illa.

Gambit: nope .ini är default.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Vad skiljer X1800GTOO från överiga X1800 serien? Tänker först på X1800XT 256MB?

Och varför var inte X1800XT med överhuvedtaget? Hyffsat prisvänligt just nu med

Sedan skulle det vara intressant med kommentarer i sammanhang med olika kort beteer sig i vissa upplösningar upp till 1600 * Att enbart läsa diagram kanske inte ger så mycket intryck när det mest handlar om hur mycket värme och klockvänligt det är?

Ex på vad jag menar

http://www.thetechlounge.com/article/276-13/XFX+GeForce+7600+...

Citat:

Page 13 of 14
Performance Summary

Half-Life 2

At 1024x768, the X1800 GTO and 7600 GT perform basically the same. At 1600x1200, the 7600 GT leads slightly with NoAA/NoAF, but the X1800 GTO takes the lead with 4xAA/8xAF. At 2048x1536, the 7600 GT starts out 5fps ahead, but then with 4xAA/8xAF the X1800 GTO jumps 4fps ahead. Essentially, these cards are on an even playing field in Half-Life 2. You’ll be able to play just fine up to 1600x1200 with 4xAA/8xAF. You could even play up to 2048x1536 with NoAA/NoAF, actually, but enabling AA/AF will be too much and you’ll get frame rates in the mid-30s.

Information som detta är något jag verkligen uppskattar, men som jag tycker jag inte ser allt för sällan. Just detaljerad beskrivning om hur kort beter sig i vissa upplösningar är något jag saknar.

Permalänk

Konstigt att ni inte har testat HDTV och DvD prestanda och bildkvalitet.

Permalänk
Citat:

Ursprungligen inskrivet av Ozeroun
Vad skiljer X1800GTOO från överiga X1800 serien? Tänker först på X1800XT 256MB?

Och varför var inte X1800XT med överhuvedtaget? Hyffsat prisvänligt just nu med

Sedan skulle det vara intressant med kommentarer i sammanhang med olika kort beteer sig i vissa upplösningar upp till 1600 * Att enbart läsa diagram kanske inte ger så mycket intryck när det mest handlar om hur mycket värme och klockvänligt det är?

Ex på vad jag menar

http://www.thetechlounge.com/article/276-13/XFX+GeForce+7600+...

Information som detta är något jag verkligen uppskattar, men som jag tycker jag inte ser allt för sällan. Just detaljerad beskrivning om hur kort beter sig i vissa upplösningar är något jag saknar.

Detaljerade beskrivningar lär vi nog inte se här på forumet, då ingen av testarna klarar av att skriva målande och berättande, diagram däremot behärskar dom till fullo. Informativt kanske det är men speciellt underhållande... Ungefär som att titta på målarfärg som torkar typ...:)

Visa signatur

Striker Extreme, E4300@3200, 8800GTS 320MB, 2GB PC6400, WD Raptor 74GB x2, Eizo L768, Corsair HX 620, Vista Home Premium.

Permalänk
Discokungen
Citat:

Ursprungligen inskrivet av Gambit_2K
Nej jag tror många missförstod det jag skrev. Det jag menade är att det är ingen garanti att alla 7900GT som är voltmoddade går att köra tokhögt. Men att testet nämner att man kan voltmoddakortet.

Då tycker jag att man kan nämna att ett X1800GTO går att låsa upp också. Samt att om man nämner att man kan hårdvoltmodda ett 7900GT borde det nämnas att det kan göras i mjukvara för ATI's del och att man inte behöver tänka på sin garanti typ.

"7900GT-modellen klarar dock inte i närheten av de frekvenser som 7900GTX har eftersom den får lägre spänning till processorn. Här finns det gott om modifikationer som man kan göra för att ändra på detta, men man måste tänka på att garantin inte gäller längre när man gör det."

Visst förstår jag varför de inte gjorde det men det hade ju gagnat artikeln väldigt mycket då de flesta som läser dessa artiklar gärna gör sånt. Sen angående garantin:

=/

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Medlem

Usch för HDR, så himla meningslöst i mina ögon. Själva grafiken blir inte bättre på nåt sätt, det blir bara ljusare, FÖR LJUST.

HL2 Lost Coast någon?

Kanske grafiken blir bättre på något sätt, inte vet jag, men själv tycker jag bara det är onödigt...

Visa signatur

[Intel Dual Core 6420 @ 2,13GHz || 2048 DDR2 || ATI Radeon x1950Pro || MX518 || Koss SB45]
[iAudio U3 1 gb + Sennheiser CX-300]
daVanii på PSN

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
Kontroll panelen för Ati är relativt smidig men du kan göra fler inställningar i Nvidias panel som är inbyggt med drivisarna, så jag förstår inte alls varför du bytte Märke på kort för en sån skit sak ?

jo det gjorde jag^^ samt för ati tool osv..samt på den tiden jag köpte kortet fanns bara fx o skit från nvidia..då vissa var kassa o vissa var bra..men då jag inte va insatt och kunde välja rätt

men nu lever jag upp till ati ^^

det blir så bara helt enkelt..precis som amd o intel

Permalänk
Medlem

Det får bli två 7600GT till hösten, och sen en fin voltmod på dom.

Visa signatur

R7 5800X | Asus ROG Strix X570-I Gaming | 16 GB RAM | RTX 3080 | 2 TB SSD | CM NF200P | Corsair SF600

Permalänk
Citat:

Ursprungligen inskrivet av A.N'doja

Saken är den här att många förklarar att ati är bättre grafikkort än Nvidia av några spekulationer ifrån en kille som inte ens sitter med ett 7900 ort till exempel. När jag då förklarar att du drar igång exempel vis Condemned och fullt på max ingame så ligger du många ggr i spelet på en fps runt 14, och då finns det inte ens HDR att aktivera. Där tycker jag inte att det hjälper med ett X1900XT(X) om vi nu säger att just i det spelet så ligger Atis TopOfTheLine, ca; 10fps mer än vad 7900~ gör. Hackar inprinsip lika mycket, iaf så pass lika mycket att det stör spelaren bakom skärmen.

Att Crysis flöt onekligen bra på ett XTX är egentligen inte så konstigt, snubbarna bakom spelet har haft mycket lång tid samt optimerat spelet riktigt bra. Precis som dem snubbarna bakom Tomb Rider-Legends. Det flyter på ett gammalt AGP kort hur bra som helst med lite AA/AF men spelet är relativt snyggt.

Sen så är 7900GT det absolut det prisvärdaste kortet på marknaden som du får ut mest för pengarna och drar ifrån alla TopOfTheLine och det är inte illa.

Jag får helt enkelt dra mina slutsatser från det jag ser och läser på Internet. Har ingen möjlighet att testa något av korten head-to-head så att säga
Jag tycker att alla skillnader är relevanta, eftersom dem ger en fingervisning. Det är ju precis som 3DMark06 (nåja, halvkass exempel), där ligger fpsen under 20 men det är ju ändå ett program för att just jämföra prestanda. 15FPS är ju alltid bättre än 5FPS, och det ger ju tydliga signaler om vilket kort som klarar bäst inställningar med ett bra flyt.

Huruvida ATi är bättre i Crysis låter jag vara osagt, eftersom jag inte sett någon jämförelse. Det ska dock bli väldigt intressant att se om ATi:s shader-taktik kommer ge dem ett försprång mot Nvidia (vilket jag tror). Det om något vore ett köpargument för ett ATi-kort. Inget kan bli mer next-gen än Crysis i mina ögon.

Att 7900GT är det mest prisvärda håller nog alla med om. Hade jag själv gått i köptankar hade jag dock väntat på att ATi gett ett riktigt gensvar (med ex prissänkningar), eftersom min tillit till Nvidia inte är stor för tillfället. Mina erfarenheter av NV40 är inte roliga.

Visa signatur

C2D Q6600 || Gigabyte P31-DS3L || Corsair 6400 1GB*2 || 8800GT || Audigy2

Permalänk
Citat:

Ursprungligen inskrivet av Friamannen

Så sant som det var skrivet

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Citat:

Ursprungligen inskrivet av A.N'doja
Så sant som det var skrivet

Herregud, tror aldrig jag kommit överens med dig =P

Visa signatur

C2D Q6600 || Gigabyte P31-DS3L || Corsair 6400 1GB*2 || 8800GT || Audigy2

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Friamannen
Herregud, tror aldrig jag kommit överens med dig =P

Det är Doja-mannen vi talar om.. det är inte meningen att man ska vara samms med honm