Höstens grafikkort: del 2

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av -Boris-
Problemet är att ska man gå upp i pris till 9800GTX+ så är man nästan på HD4870s pris. Skiljer liksom ynka 300:-. Och kan man berättiga 450:- extra för att få ett 9800GTX+ istället för HD4850, så kan man berättiga de sista 300:- för att få så mycket bättre prestanda som ett HD4870 ger.

Du kan verkligen inte vara ekonomisk haha tänker du alltid sådär när du handlar mat.. varje krona är en krona värd och för sitt i ekonomin

Bra test förövrigt. Men det blir nog att köra på mitt 8800GT och 8800gts ett bra tag till maxar ju wow

Visa signatur

Cherry MX Brown:Compaq MX 11800, Cherry MX Blue: Razer Blackwidow, Cherry MY: Schneider g81, Black ALPS : Delll AT102W Black, Buckling Spring: IBM Model M, IBM Model N2, Rubber Dome: Keytronic ErgoForce....Senast aktiv Idag

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av joshoa
Du kan verkligen inte vara ekonomisk haha tänker du alltid sådär när du handlar mat.. varje krona är en krona värd och för sitt i ekonomin

Bra test förövrigt. Men det blir nog att köra på mitt 8800GT och 8800gts ett bra tag till maxar ju wow

Min poäng är att ska man gå upp 400:- för att få ett kort med snäppet lägre prestanda så kan man gå upp 300:- till och samtidigt få mycket bättre prestanda. För det är det första av de två stegen som är det oekonomiska.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av 2good4you
nVidia har det inte lätt när "deras" Crysismotor går till DX10.1:

http://www.fudzilla.com/index.php?option=com_content&task=vie...

Om nVidia inte gör om sitt fula knep att be/tvinga utvecklaren att ta bort denna "boost" som ATI kan få.

Visa signatur

Hiroshima 45, Tjernobyl 86, Windows 95.

Leeloo Dallas Multipass

Permalänk
Medlem

Nvidia har fortfarande prestanda tronen. AMD har inget som är lika bra som GTX 280 SLI. 4870 X2 är mycket billigare, men inte riktigt lika bra. Har man mycket pengar att slösa och vill ha bästa prestandan så är det fortfarande Nvidia som gäller.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Happen
Nvidia har fortfarande prestanda tronen. AMD har inget som är lika bra som GTX 280 SLI. 4870 X2 är mycket billigare, men inte riktigt lika bra. Har man mycket pengar att slösa och vill ha bästa prestandan så är det fortfarande Nvidia som gäller.

nVidia har inte heller något kort som är ens i närheten av lika bra som 280GTX i SLI. Så AMD vinner fortfarande med HD4870 X2.

Permalänk
Medlem

Intressant att de att två Radeon HD 4850 presterar så bra i CrossFire.. I Devil May Cry 4 fördubblas faktiskt prestandan med ett till kort, riktigt bra.

Skulle även vara intressant att se hur det påverkar korten att köra PCIExpress med X8 läge istället

Btw.. någon som har något förslag på relativt billigt moderkort med Crossfire-stöd X16? (Intel)
Känns som det är lättare ett få tag på billiga kort för SLI med fullhastighet rent generellt..

Visa signatur

ASUS M4a89gtd PRO USB3 - AMD Phenom II x6 1090T - Gigabyte 6970 Windforce - OCZ Agility 120 gb - FractalDesign Newton R3 600W - Antec Kühler H2O - FractalDesign Define R3

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Happen
Nvidia har fortfarande prestanda tronen. AMD har inget som är lika bra som GTX 280 SLI. 4870 X2 är mycket billigare, men inte riktigt lika bra. Har man mycket pengar att slösa och vill ha bästa prestandan så är det fortfarande Nvidia som gäller.

HD4870X2 tar nVidia i allt. Räcker det inte med ett så kan man köra 2st, precis som du säger att man kan köra dubbla GTX280. Finns hur många fall som helst där ett HD4870X2 tar dubbla GTX280. Dubbla HD4870X2 ger visserligen inte alltid så bra prestanda för att det krävs mer optimering innan en quad gpu uppsättning är mer mogen, men det gör verkligen inte dubbla GTX280 heller. HD4000 serien leder topprestanda, pris/prestanda och prestanda/watt.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Citat:

Ursprungligen inskrivet av 2good4you
Det är generellt något snabbare i spel idag, och kommer boostas ytterliggare av drivers. G92 är sönderoptimerad om du jämför och fick precis en liten boost själv med drivern som precis släpptes.

Flera grafikkortstillverkare skippar nVidia's referenskylare, så det finns kort utan. T.ex Gainward, Sparkle och ASUS på en modell dom har av 9800GTX+ för att dom kyler bättre än nVidia's referenskylare:

http://www.prisjakt.nu/bilder/bild.php?p=343906&type=standard...
http://www.prisjakt.nu/bilder/bild.php?p=348637&type=standard...
http://www.prisjakt.nu/bilder/bild.php?p=342427&type=standard...

Det finns dualslot-modeller av HD4850 att köpa för samma pris som 9800GTX+, och då även OC modeller som är en del snabbare än standard:

http://www.prisjakt.nu/produkt.php?p=332086

Att du ens diskuterar det är löjligt då det var högt ointressant av dig och andra fan-boys när HD3870 hade en förbannat mycket bättre kylare än 8800GT. Dessutom är det inte alla som vill ha ett grafikkort med dual-slot kylare, något som 9800GTX inte finns med, så riktigt bra att det finns alternativ, men bara när det gäller nVidia. Det enda dom har i alternativ är en helsikes massa kort med korkade namn och med samma grafikprocessor, samt brist på att använda blytenn i sina tillverkningsprocesser och få dom att hålla, vilket dom inte gör.

För att helt slå ditt 9800GTX+ och för den som klagar på ljudnivå samt vill ha god prestanda så finns ett ljudlöst 4850 1GB till samma pris som 9800GTX+:

http://www.prisjakt.nu/produkt.php?p=340702

För samma peng (och som redan nämt en ljudlös modell också om man vill) får man 4850 1GB dom tar 9800GTX+ i allt.

Är det glasklart för dig nu eller?

Sen, bara för att en processor är superskalär så innebär inte det att dess potential är 100% teoretisk. Den är fullt användbar beroende på hur bra koden utnyttjar arkitekturen. RV770's 800 stream-processorer drar om nVidia i beräkningar. Senast jag kollade så låg ATI snäppet bättre än nVidia i F@H och då var det innan HD4000 serien hade kommit.

EDIT: nVidia har det inte lätt när "deras" Crysismotor går till DX10.1:

http://www.fudzilla.com/index.php?option=com_content&task=vie...

Påstående om att det finns mer prestanda att hämta ut från AMD kort men att G92 är redan uroptimerad med dagens driver är bristfälligt. Det finns inga belägg för sådant påstående.

Tillverkningsfelet för nVidia chip är att blytennet tålde inte hög temperatur och sen en snabb avkylning. Sedan finns det hörsäg att TSMC rekommenderade denna tillverkningsätt till nVidia och att de har betalat en bra summa för misstaget till nVidia, men som sakt det är obekräftat hörsäg.

Ljudlös modeller har en tendens att bli väldigt varma (100c+), speciellt om har ett kort på över 100W som hd4850. Men det brukar lösas med väldigt bra luftflöde i chassit, eller en 12cm fläkt på kortet dock så får man offra 2pci slot. Så en sådan model konkuerrar bra mot GTX+.

Det finns inga generella tester där man har mött RV770 och GT200 beräkningskraft i olika aplikationer öga mot öga. Allt som har gjorts är jämförts teoretiska siffror som inte alltid speglar verkligheten.

Innan HD4000 kom så hade nVidia inget stöd för F@H, bara AMD med HD2xxx/3xxx. Det var juni i år som Stanford samarbete med nVidia släppte F@H stöddet för alla deras kort som stödjer CUDA. Sedan dess så har nVidia kort varit att föredra för bearbetning av Work Units då dessa kort är mycket mer effektivare.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av DataNusse
Innan HD4000 kom så hade nVidia inget stöd för F@H, bara AMD med HD2xxx/3xxx. Det var juni i år som Stanford samarbete med nVidia släppte F@H stöddet för alla deras kort som stödjer CUDA. Sedan dess så har nVidia kort varit att föredra för bearbetning av Work Units då dessa kort är mycket mer effektivare.

Helt sant så är nVidia bättre på F@H numera. Dock så är det förbryllande då den typen av beräkningar borde trivas på AMDs arkitektur. Finns ju en möjlighet att det finns potential i korten som släpps lös framöver. Dock tvivlar jag tyvärr ganska mycket på det.

Permalänk
Citat:

Ursprungligen inskrivet av -Boris-
Helt sant så är nVidia bättre på F@H numera. Dock så är det förbryllande då den typen av beräkningar borde trivas på AMDs arkitektur. Finns ju en möjlighet att det finns potential i korten som släpps lös framöver. Dock tvivlar jag tyvärr ganska mycket på det.

RV770 har igentligen 160 shader med skalär arkitektur där varje shader klarar 5 beräkningar. nVidias GT200 och G92 har 240 respektive 128 shaders som bygger inte på samma skalär arkitekur utan där varje shader gör en beräkning. Detta gör att man behöver inte köra yters optimerade koder som med RV770.

Jag har också mina tvivel på att AMD kort kommer upp till samma bearbetningkraft i F@H som nVidias kort. Trots allt så har stanford haft lång tid att optimera produktion med AMD kort sedan RV670 som bygger på samma skalär arkitektur som RV770.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
[B] Påstående om att det finns mer prestanda att hämta ut från AMD kort men att G92 är redan uroptimerad med dagens driver är bristfälligt. Det finns inga belägg för sådant påstående.

[/b]

Det finns inga belägg för det för att du inte förstår vad det är du diskuterar om? RV770 har mer att hämta jämfört med G92 då det dels är en mer komplex arkitektur och den är betydligt senare än G8/G9x. G92 är absolut mer optimerad och presterar sitt max i nästan alla lägen av vad den kan.

Citat:

[b]Tillverkningsfelet för nVidia chip är att blytennet tålde inte hög temperatur och sen en snabb avkylning. Sedan finns det hörsäg att TSMC rekommenderade denna tillverkningsätt till nVidia och att de har betalat en bra summa för misstaget till nVidia, men som sakt det är obekräftat hörsäg.

[/b]

T.ex som datorer som stängs av och på, kallas kort och gott temperaturväxling, något en mikroprocessor måste vara designad för att klara. Du behöver heller inte besvära dig med att förklara för mig varför, jag vet mycket väl, och har inte med blytennet i sig att göra, utan hur man använder det då det krävs god ingengörskonst.

Citat:

Ljudlös modeller har en tendens att bli väldigt varma (100c+), speciellt om har ett kort på över 100W som hd4850. Men det brukar lösas med väldigt bra luftflöde i chassit, eller en 12cm fläkt på kortet dock så får man offra 2pci slot. Så en sådan model konkuerrar bra mot GTX+.

Tendens? Du kanske borde tänka på vad du själv har en stor tendens till att vara. Fläktlösa kyldesigner brukar gå varmare, men kylaren som sitter på det kortet är konstuerad för att klara det, likaså grafikprocessorn. AMD's kisel eller deras tillverkningsprocesser, oavsett grafikprocessorer eller CPU'er har generellt alltid tålt höga temperaturer innan dom tar skada av det. Vill även tillägga att det var ett vekligt svar på allt bs du skrev om kylarna och vad man får för pengarna, överbevisad som vanligt.

Citat:

[b]Det finns inga generella tester där man har mött RV770 och GT200 beräkningskraft i olika aplikationer öga mot öga. Allt som har gjorts är jämförts teoretiska siffror som inte alltid speglar verkligheten.

[/b]

Det har jag inte sett något utan heller. Observera att jag snackar om HD4850 mot 9800GTX+. Alla max siffror är teoretiska, även dom max värden som du sett uppmätta eller marknadsförda för nVidia's grafikprocessorer.

Citat:

[b]RV770 har igentligen 160 shader med skalär arkitektur där varje shader klarar 5 beräkningar. nVidias GT200 och G92 har 240 respektive 128 shaders som bygger inte på samma skalär arkitekur utan där varje shader gör en beräkning. Detta gör att man behöver inte köra yters optimerade koder som med RV770.

[/b]

Det är lättare att utnyttja eller nå högre effektivitet på nVidia's grafikprocessorer. Dels för att dom inte är lika parallelliserade, utan färre i antal, högre klockfrekvens på dom samt skalära, men rejält mycket färre i antal. Sen har RV770 10st kärnor som innehåller 16 block av streamprocessorer. Dom 160 block med 5SP i varje block kan exekvera 5st trådar simultant om koden är sådan, dvs i bästa fall, medans nVidia kan exekvera 1st per SP, dvs 240. Det finns SPU's på nVidia korten som i vissa fall kan hjälpa till med beräkningar och öka beräkningskapaciteten något. Många gånger är SP användbara i RV770 och är inte så förbannat teoretiskt som du påstår. Faktum är att dom är rätt lika nVidia's SP's. Du kan läsa själv vad Anandtech skriver om saken och lära dig:

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=3

Citat:

Innan HD4000 kom så hade nVidia inget stöd för F@H, bara AMD med HD2xxx/3xxx. Det var juni i år som Stanford samarbete med nVidia släppte F@H stöddet för alla deras kort som stödjer CUDA. Sedan dess så har nVidia kort varit att föredra för bearbetning av Work Units då dessa kort är mycket mer effektivare.

Jag har också mina tvivel på att AMD kort kommer upp till samma bearbetningkraft i F@H som nVidias kort. Trots allt så har stanford haft lång tid att optimera produktion med AMD kort sedan RV670 som bygger på samma skalär arkitektur som RV770.

Om det nu stämmet så är F@H en applikation. Vi har Photoshop, Cyberlink Power Director m.fl programvaror som kan utnyttja GPGPU. Skulle tro att RV770 är rätt rå där. Hittar du en jämförelse får du gärna visa.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
RV770 har igentligen 160 shader med skalär arkitektur där varje shader klarar 5 beräkningar. nVidias GT200 och G92 har 240 respektive 128 shaders som bygger inte på samma skalär arkitekur utan där varje shader gör en beräkning. Detta gör att man behöver inte köra yters optimerade koder som med RV770.

Det var som fan, alla andra påstår att RV770 har 800 shaders som är arrangerade för att kunna utföra 160 olika flerstegsberäkningar parallellt. Nu vet jag egentligen ingenting om det här ämnet men någon har tutat i mig att utnyttjandegraden oftast är minst 70% med icke-optimerad kod. Något som tydligen är extremt lätt att överstiga, och i grafikkort där sådana avsevärt högre. Återigen helt ooptimerat.

Isf börde det inte finnas så mycket utrymma att utnyttja för en optimering? Dessutom, var inte teori och simuleringar gällande skalär arkitektur ganska färdigutredd redan för tio år sen så om ATI har gjort en rejält underutnyttjad processor enligt dessa linjerna och med inte mer än 5 skalära shaders har väl någon på tidigt stadium gjort ett ganska blatant räknefel?

Allt det här har jag läst på nätet så rätta mig om jag har fel.

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av tannat
Det var som fan, alla andra påstår att RV770 har 800 shaders som är arrangerade för att kunna utföra 160 olika flerstegsberäkningar parallellt. Nu vet jag egentligen ingenting om det här ämnet men någon har tutat i mig att utnyttjandegraden oftast är minst 70% med icke-optimerad kod.

Precis som du säger så används stream-processorerna ganska bra, en av anledningarna till att det presterar så bra. Sen har i stort sett allt förbättrats i RV770.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Citat:

Ursprungligen inskrivet av 2good4you
[]Det finns inga belägg för det för att du inte förstår vad det är du diskuterar om? RV770 har mer att hämta jämfört med G92 då det dels är en mer komplex arkitektur och den är betydligt senare än G8/G9x. G92 är absolut mer optimerad och presterar sitt max i nästan alla lägen av vad den kan.

Gör du? För du bygger hela ditt påstående på RV770 komplexitet och att det skulle innebära att det finns mer prestanda/kraft att hämta ur bara pågrund av sin komplexitet. Man har hört detta med RV670 så det här är bara en deja vu.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Hjälpsam

HD3800 serien fick ju ett rejält lyft med Catalyst 8.5 tex, HD3870 går jämnt med 8800GT i de flesta senare tester jag sett.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Allebaggen
Men 4850 CF gav ÄNNU bättre prestanda i de flesta testen så det är inte så jättegrymt faktiskt.

Bra test men fattar inte varför ni slutat att ha med 3DMark06 / Vantage då det är en ganska bra jämförelse och bra så man själv vet vad man borde få med sina kort..? Vill gärna ha ett svar

Mvh David

Futurmarks tester är inte speciellt bra för att visa spelprestanda och ifall man har med dem så är risken att man måste slopa något annat. Det är ändå en begränsad tid man har då testet måste bli klart.

Citat:

Ursprungligen inskrivet av helmesjoe
Trevligt test, MEN VAR ÄR 9800GX2?! Är det något jag missat eller varför är det en sådan brist på test av 4870X2 vs 9800GX2? Det är ju det som är det intressanta, 280GTX har vi redan sett massor av gånger.

9800GX2 är utgående och ingen tillverkare vill få den testad längre, den fanns dock med i förra grafikkortstestet så man kan läsa det.

Citat:

Ursprungligen inskrivet av svart_smurf
Jag undrar en sak, hur mycket var processorn överclockad med? Sen varför använde ni ett x38 moderkort?

Den var inte överklockad, då hade det angetts. Jag har vart med om problem när man kör två olika moderkort och skall överklocka dem till samma frekvens...blev en massa bortkastat jobb tyvärr då ena moderkortet inte klarade den frekvensen med alla grafikkort. Samtidigt så kan det vara en idé att höja frekvenserna lite, men då kommer det även finnas läsare som vill se hur grafikkorten presterar vid "normal frekvenser". Det går tyvärr inte att göra alla glada där.

Förstår inte vad du menar med X38? Ifall du menar att vi skulle använt X48 så är det exakt samma krets....Det handlar endast om utvalda X38-kretsar för att de skall kunna ha officiellt stöd för processorer med 1600 MHz FSB. Det var även tal om att Intel beslöt sig för att göra ett urval av kretsarna för att P35 visade sig så överklockningsbar, medan X38 hade större problem att nå höga bussfrekvenser.

Visa signatur

Perhaps its everything you say-G´kar
Fools to the left of me feeders to the right - I need to find a real job! - Londo Mollari (Babylon 5)

Permalänk
Citat:

Ursprungligen inskrivet av Ratatosk
HD3800 serien fick ju ett rejält lyft med Catalyst 8.5 tex, HD3870 går jämnt med 8800GT i de flesta senare tester, jag sett.

Troligen, men denna lyft fanns bara i Vista. Denna prestanda lyft uteblev helt i XP.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Gör du? För du bygger hela ditt påstående på RV770 komplexitet och att det skulle innebära att det finns mer prestanda/kraft att hämta ur bara pågrund av sin komplexitet. Man har hört detta med RV670 så det här är bara en deja vu.

Med ovanstående text har du härmed bekräftat att du inte förstår. Som vanligt...

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Citat:

Ursprungligen inskrivet av 2good4you
Med ovanstående text har du härmed bekräftat att du inte förstår. Som vanligt...

Ett simpelt svar från en simpel man. Som alla gånger.

Att du säger att jag inte förstår något som du har inget belägg för.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Avstängd

tycker igentligen att i sådana här tester ska man bara köra referensmodellerna
annars blir det så konstigt, för varige tillverkare släpper ju massvis med överklockade modeller och passiva modeller och allt vad det heter.

Permalänk
Avstängd

Visst, GTX 280 presterar skit för vad det kostar.
Men fan 9800GTX+ presterar ju riktigt bra för vad det kostar.

Visa signatur

[Asus Rampage II Gene /w NB Mod Noctua NC-U6] [Intel Core i7 920 @ 4.0GHz] [Gigabyte Geforce GTX 480 @ Stock] [Corsair Dominator GT 1600MHz 3x3GB - 7-7-7-20] [Corsair HX620W] [Antec Mini P180 Black]

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Kroolz
Visst, GTX 280 presterar skit för vad det kostar.
Men fan 9800GTX+ presterar ju riktigt bra för vad det kostar.

Precis, den presterar som HD4850 men kostar nästan som HD4870. Eller vänta nu, är det bra?