Produkttest: 16 grafikkort prestandatestade

Permalänk

Någon som vet hur det är med ljudnivån med referens kylningen på 7900gtx?

Visa signatur

Main: Intel i7-9700K | Be quiet! Dark Rock Pro 4 | Corsair Vengance 16GB 3200mhz | ASUS ROG STRIX Z390-F GAMING | Asus GeForce GTX 1080 Ti ROG Strix Gaming OC | Asus ROG Swift PG329Q 32"

Permalänk

Stor och bra testa. Fint gjort!

Angående om att ATIs X1900-serien skulle vara mer framtidsäkra är ren strunt prat. Visst den har massa lullu men som alltingen inte används eller används i liten skala, som t ex HDR+AA.
Men när dessa lullu på X1900-serien kommer verkligen till användning i väldigt många (nya) spel så är kortet redan för slött, specielt för en som vill ha AA/AF på med hög upplösing och högsta inställningar, och vill inte hacka sig genom spelet.

apophis_84: Under 45db när fläkten är på max

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Citat:

Ursprungligen inskrivet av DataNusse
Men när dessa lullu på X1900-serien kommer verkligen till användning i väldigt många (nya) spel så är kortet redan för slött

Tack det jag menar och så kmr det vara också.

Citat:

Ursprungligen inskrivet av Friamannen
Herregud, tror aldrig jag kommit överens med dig =P

Jag är iaf inte så svår att komma överens med IRL, lite knepigare för mig att uttrycka mig bra i svenska språket när jag skriver

Citat:

Ursprungligen inskrivet av MOrKiz
Det är Doja-mannen vi talar om.. det är inte meningen att man ska vara samms med honom

HA! :P:D

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av xplane_uppsala
Detaljerade beskrivningar lär vi nog inte se här på forumet, då ingen av testarna klarar av att skriva målande och berättande, diagram däremot behärskar dom till fullo. Informativt kanske det är men speciellt underhållande... Ungefär som att titta på målarfärg som torkar typ...:)

Och alla är inte intresserad av att hur mycket man kan överklocka, voltmodda, presterar i SLI och vad dyraste graffet presterar heller

Och är det värt lägga ut 1000kr extra för ett 7900gt 512mb version i stället för x1800xt 512 variant?

Eller presterar 7900 256mb i samma prisklass som x1800xt 512mb samma prestanda?

Permalänk
Citat:

Ursprungligen inskrivet av DataNusse
Angående om att ATIs X1900-serien skulle vara mer framtidsäkra är ren strunt prat. Visst den har massa lullu men som alltingen inte används eller används i liten skala, som t ex HDR+AA.

Men när dessa lullu på X1900-serien kommer verkligen till användning i väldigt många (nya) spel så är kortet redan för slött, specielt för en som vill ha AA/AF på med hög upplösing och högsta inställningar, och vill inte hacka sig genom spelet.

Vad vet du? Visst kan den vara mer "framtiddsäker" än 7900GTX? Eller har du en magisk kristallkula någonstans? Dem verkar ganska vanligt förekommande på det här forumet. S

Självklart fattar vem som helst att man inte kommer kunna köra maxad grafik med AA/AF på alla spel som kommer inom den snara framtiden, men ett grafikkort är väl bättre ju högre inställningar man kan ha med bra flyt? Alla köper inte nytt grafikkort varje år, så därför är det ganska viktigt/intressant hur pass korten presterar även i den närmsta framtiden.

Självklart är ju ATi:s extra "lullu" också försumbart eftersom det är en fördel för ATi. Vi är ju inte alls entusiaster på forumet. Det är inte alls folk som sitter med extremt dyra maskiner och vill ha så bra kvalitet som möjligt. Eller?

Lägg ner dem här äckligt patetiska inläggen som präglas av så kallad fanboyism...

Visa signatur

C2D Q6600 || Gigabyte P31-DS3L || Corsair 6400 1GB*2 || 8800GT || Audigy2

Permalänk
Citat:

Ursprungligen inskrivet av Friamannen
Vad vet du? Visst kan den vara mer "framtiddsäker" än 7900GTX? Eller har du en magisk kristallkula någonstans? Dem verkar ganska vanligt förekommande på det här forumet. S

Självklart fattar vem som helst att man inte kommer kunna köra maxad grafik med AA/AF på alla spel som kommer inom den snara framtiden, men ett grafikkort är väl bättre ju högre inställningar man kan ha med bra flyt? Alla köper inte nytt grafikkort varje år, så därför är det ganska viktigt/intressant hur pass korten presterar även i den närmsta framtiden.

Självklart är ju ATi:s extra "lullu" också försumbart eftersom det är en fördel för ATi. Vi är ju inte alls entusiaster på forumet. Det är inte alls folk som sitter med extremt dyra maskiner och vill ha så bra kvalitet som möjligt. Eller?

Lägg ner dem här äckligt patetiska inläggen som präglas av så kallad fanboyism...

Right back at'ya. Har du en magisk kristallkula som berättar för dig att X1800/X1900 är mer framtidssäkert och kommer prestera bättre i framtida spel än 7900? Inget grafikkort har varit mer framtidsäkert än konkurentens kort, och defenetivt inte X1800/X1900 eller 7900.

Dessa "lullu" som X1800/X1900 har är bra men används knappast i stor skala idag, och när dessa "lullu" kommer börja användas i stor utsträckning så är kortet för slö att användas med höga inställningar/upplösning/AA/AF. Men vad är då menningen att ha massa "lullu" när man kan inte använda det med en acceptabel prestanda?
Ta 6800-serien och SM3.0. 6800-serien "lullu" var bra och "fint" när det kom och skulle vara "framtidsäkert" eftersom fler spel skulle använda SM3.0. Idag för att använda 6800- seriens "lullu" i dagens spel med ok prestanda/fps som måste man dra ner ordentligt på inställningar/upplösning/AA/AF.

Mitt inlägg präglas av ett motargument och inte av favoritisering av företag eller produkt. Och det finns inte heller något patetiskt i mitt inlägg, bara en annan åsikt.
Du bara godtar och påstår att X1800/1900 skulle vara mer framtidsäkert än 7900 utan att bevisa det. Och att säga att mina inlägg präglas av fanboyism är bara ett bevis på ren hykleri från din sida.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Citat:

Ursprungligen inskrivet av DataNusse
Right back at'ya. Har du en magisk kristallkula som berättar för dig att X1800/X1900 är mer framtidssäkert och kommer prestera bättre i framtida spel än 7900? Inget grafikkort har varit mer framtidsäkert än konkurentens kort, och defenetivt inte X1800/X1900 eller 7900.

Dessa "lullu" som X1800/X1900 har är bra men används knappast i stor skala idag, och när dessa "lullu" kommer börja användas i stor utsträckning så är kortet för slö att användas med höga inställningar/upplösning/AA/AF. Men vad är då menningen att ha massa "lullu" när man kan inte använda det med en acceptabel prestanda?
Ta 6800-serien och SM3.0. 6800-serien "lullu" var bra och "fint" när det kom och skulle vara "framtidsäkert" eftersom fler spel skulle använda SM3.0. Idag för att använda 6800- seriens "lullu" i dagens spel med ok prestanda/fps som måste man dra ner ordentligt på inställningar/upplösning/AA/AF.

Mitt inlägg präglas av ett motargument och inte av favoritisering av företag eller produkt. Och det finns inte heller något patetiskt i mitt inlägg, bara en annan åsikt.
Du bara godtar och påstår att X1800/1900 skulle vara mer framtidsäkert än 7900 utan att bevisa det. Och att säga att mina inlägg präglas av fanboyism är bara ett bevis på ren hykleri från din sida.

Jag har ingen kristallkula och har därför inte på något sätt påstått att någon av dem kommer vara mer framtidsäker, som du hävdar. Läs igenom det en gång till och se själv:

Citat:

Huruvida ATi är bättre i Crysis låter jag vara osagt, eftersom jag inte sett någon jämförelse. Det ska dock bli väldigt intressant att se om ATi:s shader-taktik kommer ge dem ett försprång mot Nvidia (vilket jag tror). Det om något vore ett köpargument för ett ATi-kort. Inget kan bli mer next-gen än Crysis i mina ögon.

Om det nu är så att jag någonstans skrivit: "ATi är mer framtidssäkert, så är det", så hänvisa mig gärna.

Jag tycker för övrigt inte man börjar ett motargument genom att förklara vad någon annan tror eller tycker som "rent strunt prat". Det är snarare en idiotförklaring än en mogen argumentering (hade dock förstått dig om jag faktiskt hade hävdat att mina ord var ett faktum). Tyvärr sänkte jag mig under irritation till samma nivå och förklarade ditt inlägg som patetiskt, förlåt för det.

Angående "lullu"... Verkar som du syftar endast på AA/AF + HDR. Men det gör inte jag (iaf när jag blickar framåt). Jag tänker framförallt på shaders, som väl snart kommer användas lika flitigt som bump-mapping idag. Vad jag förstått så har ju ATi i och med denna arkitektur satsar mer på shader-enheter, och det är ju mycket möjligt att det kommer löna sig. Som jag sa, självklart kan man inte förvänta sig att kunna köra med allt ögongodis aktiverat om ett år. Men det betyder ju inte att grafikkorten måste bytas ut.

Håller med dig om SM3.0. Det var snarare en fin stämpel och marknadsföringknep för 6800-serie än något användbart.
Däremot tror jag ATis dubbla antal shader-enheter borde ha någon inverkan på overall-prestanda, men det är bara vad jag tror som sagt.

Får väl förtydliga igen, jag har inte godtagit eller påstått att ATis kort är mer framtidssäkra än Nvidias. Skrev nog tom "vi får vänta och se" någonstans. när jag läser ditt inlägg får jag intrycket att 60% av ditt motargument är baserat på feltolkningar...

Visa signatur

C2D Q6600 || Gigabyte P31-DS3L || Corsair 6400 1GB*2 || 8800GT || Audigy2

Permalänk
Citat:

Ursprungligen inskrivet av DataNusse
apophis_84: Under 45db när fläkten är på max

45db är i allra högsta grad väldigt mycket.
Hade för mig att jag har sett att den ska ligga på ca 23db, men kanske hade fel. Du råkar inta ha någon källa på de?

Mvh

Visa signatur

Main: Intel i7-9700K | Be quiet! Dark Rock Pro 4 | Corsair Vengance 16GB 3200mhz | ASUS ROG STRIX Z390-F GAMING | Asus GeForce GTX 1080 Ti ROG Strix Gaming OC | Asus ROG Swift PG329Q 32"

Permalänk
Citat:

Ursprungligen inskrivet av Friamannen

Om det nu är så att jag någonstans skrivit: "ATi är mer framtidssäkert, så är det", så hänvisa mig gärna.

Jag argumenterar inte emot "vi får vänta och se", jag motargumenterar "Tycker ATi:s GPU verkar mer byggd för framtiden så att säga". Byggd för framtiden, med andra ord framtidsäkert. Men jag diskuterar inte fakta här, jag komfronterar din åsikt bara.

Citat:

Ursprungligen inskrivet avapophis_84

45db är i allra högsta grad väldigt mycket.
Hade för mig att jag har sett att den ska ligga på ca 23db, men kanske hade fel. Du råkar inta ha någon källa på de?

Mvh

Nja det beror på hur man mätter det. 1cm från ljudkällan eller 2m. Men för stock kylning så är ~45db är rättså lågt, det brukar vanligtvis ligga runt 50-55db för stockkylningar.

Källan är guru3d.com -> http://www.guru3d.com/article/Videocards/326/4/

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Discokungen

Jag vill inte se hur mycket ett X1900XTX låter med stockkylning... Gärna i samma artikel så man är säker på att de jämför på samma sätt.

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk

En sak jag inte förstår är hur man mäter Db.

60Db = när 2 stycken står och pratar med varandra.

Men om man skulle öka till 70Db så skulle det låta dubbelt så högt ? hur fungerar den mätningen ???

då hade jag velat sätta den till 120Db ?

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Discokungen
Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Och är det värt lägga ut 1000kr extra för ett 7900gt 512mb version i stället för x1800xt 512 variant?

Eller presterar 7900 256mb i samma prisklass som x1800xt 512mb samma prestanda?

[/B]

Ingen expertutlåtande om denna fråga?

Permalänk
Medlem

Jättebra test!

Fick man lite bättre koll,
blir X1900XTX crossfire för min del.

tack för de.

Visa signatur

DELL Dell UltraSharp 3007WFP-HC - Logitech G15 bord - Logitech MX revolution - AMD Athlon 64 X2 4800+ - Samsung 3X 500Gb - Seasonic S12 Nätaggregat 600W - Dubbla X1900XTX - 2GB Minne

Permalänk
Citat:

Ursprungligen inskrivet av DataNusse
Jag argumenterar inte emot "vi får vänta och se", jag motargumenterar "Tycker ATi:s GPU verkar mer byggd för framtiden så att säga". Byggd för framtiden, med andra ord framtidsäkert. Men jag diskuterar inte fakta här, jag komfronterar din åsikt bara.

Uttryck dig på ett sådant sätt i så fall...

Visa signatur

C2D Q6600 || Gigabyte P31-DS3L || Corsair 6400 1GB*2 || 8800GT || Audigy2

Permalänk
Medlem

Har ett 1800GTO på datorn och tänkte överklocka det. Undrar om jag kan överklocka till 675/1404mhz utan att höja volt och utan mer kylning?

Vilket program är bäst för överklockning?

Visa signatur

X2 3800+, 1800GTO, 1024MB, 500GB

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av A.N'doja
SweC: tack för ett bra test och tack för att vi får se verkliga siffror.

För övrigt så tycker jag några stycken i tråden är ute och cyklar lite grann, kan ha läst fel, har fått fel information eller helt enkelt inte har testat dem olika korten etc.

7900GT korten(T) som klockades i testet var inte ens högt klockade. Kanske högtklockade utan voltmodd, alltså orginal volt 1.2V i 2D och 1.3V i 3D, men det finns överklockade kort som snurrar på i 560/1650Mhz när du köper dem och dem snurrar på i 1.2V i 2D och 1.3V i 3D precis som default.

Det som händer när du/ni voltmoddar ett kort till 1.4V VGPU alltså GTX kortets Load/3Dvolt, är att du klockar upp ditt 7900GT kort till GTX hastigheter och mer där till vilket inte är några konstigheter på något vis för dom flästa, och du har helt plötsligt ett kort som presterar bättre än alla TopOfTheLine kort som finns på marknaden idag oavsett om ni spelar med 1280*1024/1600*1280/HDR/AA/AF/.

Det finns ingen som kan göra nåt åt saken förutom att klocka ett X1900XTX men till vilket pris?? Det Lustiga här tycker jag är att 700Mhz på ett 7900GTX presterar inte som 700Mhz på ett GT samt 1700Mhz på minnena på vardera.

Det spelar det ingen roll om prestandatesterna testas med samma system. Då kan man fråga sig , aha varför då ? - ja det är en bra fråga men så ser verkligheten ut. för 2000:- så får du ett X1800GTO och är det prisvärdaste kortet i den klassen men 7900GT är det prisvärdaste kortet överlag här.

Vi har tagit upp dem här diskussionerna X- Antal ggr i forumet, och personer som stått vid en sida har helt plötsligt bytt sida för att dem har sett verkligheten. Så mest prestanda för pengarna får du om du köper ett 7900GT precis som resterande skriver, men genom en voltmodd+klock får du prestanda över alla kort som finns på marknaden.

Angående HDR så är inte HDR något man argumenterar för, och absolut inget man argumenterar för om man ska blanda i DX10. Dessa korten som finns på marknaden stöder för det första inte DX10 och sedan HDR på det ?

HDR finns i några spel idag, man kanske kan räkna upp en 3-4 stycken max. Att använda HDR spelar inga faktorer in i att man ska använda ett fetare ATI kort oavsett vilken upplösning du spelar i.

För att Ta Oblivion som ett mycket bra exempel, så finns det inget kort på marknaden oavsett system som driver Oblivion _ i genom snitt _ hackfritt i ens 1280*1024 med HDR och maxxar dina inställningar InGame.
Att argumentera för HDR i ett spel som Oblivion då man också tänker på ögon godis och maxxar sina ingame inställningar är lite som att skjuta sig i foten tycke jag. Därför är varken Oblivion eller HDR en argumentation varför man ska köpa ett Ati kort som det ser ut idag. Det finns några stycken spel som redan hackar i dagens läge med top of the line Gkort oavsett processor och minne:

1. Condemned - Criminal Origins
2. Oblivion
3. Hitman - Blood Money

Detta är spel som släppts tidigt 2006. Jag tycker det inte finns några anledningar att dra in HDR i högre upplösningar i spel där spelen redan hackar då du kör maxingame inställningar med full AA/AF stöd i 1280*1024, det måste ni ju hålla med om ?. Vad händer då om du aktiverar HDR+AA/AF/QF i ett nyare spel och lirar i ex: 1280*1024 ?_?

Vänner, spelen hackar som fan.

Men det finns anledningar också så klart varför man köper ett X1900XT, det är lite finare bildkvalitet när vi pratar om Tv-out, det är lite finare bildkvalitet, O.B.S - i vissa spel långt ifrån alla spel. Det är därför olika personer alltid lägger fram samma bilder när man kommer till bildkvalitet, för att det är just dem spel där det märks, marginalt.

* Ati korten är Varmare, Ati korten drar mer ström, Ati korten är dyrare, Ati korten låter mer, Ati korten presterar lite bättre(marginalt).

* Nvidia korten är svalare, Nvidia korten drar mindre ström, Nvidia korten låter mindre, Nvidia korten presterar marginalt Sämre.

Men att Nvidia korten presterar marginalt sämre som du inte ens kan uppfatta med dina ögon är inget att argumentera för att köpa ett Ati kort, och precis som många utav er säger och även har sagt i andra trådar på SweC, så är marginalen i prestanda så liten att det inte ens skulle vara lönt att betala 500:- för 15fps. Därför lämnar i det åt sidan, vi skiter i fps.

Resten handlar då om HDR vilket båda Märkena har fullt stöd för när vi pratar TopOfTheLine. Men när man drar in HDR och maxingame så kvittar det vilket kort du använder för det hackar precis lika mycket oavsett kort. Och människor vad hjälper det då att ett Ati kort kan aktivera HDR+AA då ?

Med andra ord ännu mer Hack.

Jag sitter på ett X1900XT idag som är flashat till ett X1900XTX och snurrar på i 650Mhz/1600Mhz och är nöjd absolut, men skulle aldrig få för mig att köpa detta kortet för 5200:- som det kostade innan.

Och det jag tycker är bra med detta kort är att kortet är ett monster, det är inget snack om saken. Men jag hade ett 7900GT som var voltmoddat+klock och vilket presterar bäst ? 7900GT presterar bäst. Det finns bara en sak som 7900GT faller på och det är sina 256GDDR då motsvarande är 512GDDR.

Nu undrar endel varför jag hoppade ifrån 7900GT till X1900XTX så klart, mycket enkelt. Jag skulle byta kylare och råkade stöta emot resistorerna runt GPUN med kylblocket som var inkletat med Kylpasta. Och när jag startade datorn så började det flimra, så jag trodde att jag hade pajat kortet på nåt skumt vänster. Sanningen var att det som behövdes var att dränka en trasa med Aceton och bara torka av sen hade det funkat som det skulle, (offrade tjejens AGP kort för att testa om min teori funkade:P).

o ghost recon: advanced warfighter.