Mer information om Geforce 9800

Permalänk
Citat:

Ursprungligen inskrivet av Gurrty
Hej, jag har tyvär svårt att lägga större vikt vid det testet, då det är för mig obegripligt att HD3870X2 skulle presterar lite sämre än 9600GT och vara 30% långsammare än 8800Ultra. De flesta tester med Call Of Duty 4 visar att HD3870X2 presterar jämlikt med 8800Ultra, ibland bättre.

http://www.firingsquad.com/hardware/amd_radeon_hd_3870_x2_per...
(4% bättre än 8800Ultra i 1920 x 1200 4xAA/16xAF)

http://www.legitreviews.com/article/656/7/
(Obefintlig skillnad)

http://www.tomshardware.se/grafikkort/20080228/ati_radeon_hd_...
(7% sämre än 8800Ultra i 1920 x 1200)

http://techreport.com/articles.x/13967/6
(11% bättre än 8800Ultra i 1920 x 1200 4xAA/16xAF)

Dessa resultat är förvisso ganska spridda, men det talar emot Anandtechs resutlat, om att HD3870X2 skulle vara 30% sämre än 8800Ultra. Det jag sa var att Call Of Duty 4 har bra mycket bra Crossfire stöd, vilket var överdrivet. Det jag syftade på var dock att det är mycket bättre Crossfire stöd i Call Of Duty 4 än Cysis.

Jo fast du måste ju titta på vilka drivrutiner de olika testsidorna använder sig av samt OS. Nu använder sig Anandtech av absolut de senaste drivrutinerna både fr Ultra och för 9600GT samt 64 bitars OS (möjligt några av dina sidor använder samma OS).
Man prestandatestar _aldrig_ med äldre drivrutiner utan detta är helt och hållet deras ansvar som kodar drivrutiner att de senaste skall prestera bäst. Om de inte har lyckats med det får de åtgärda det tills vidare.

Dubbla 9600GT är generellt bättre än 3870X2 och det vet de flesta. Anandtech är förmodligen bland de mer trovärdiga sidorna och de vet de flesta också om. Det skulle vara dumt att ifråga sätta dom nu. 2good4you och jag har haft våra diskussioner ATi vs Nvidia och till och med han är med mig om att Anandtech är bland de bättre prestandasidorna av alla de där ute, det säger väl endel?

Citat:

Ursprungligen inskrivet av NoCc
Jag tror du missuppfattade honom. Han menar att ATI inte har någon fördel i 3D-mark på optimeringssidan, inte att dem prestarar bättre i det än vad dem gör spel.

Han menar att varken ATI eller Nvidia sponsrar/stöder dem, och får bättre resultat på så sätt som t.ex i crysis.

Ah, ok men det är ju inte det han skriver? Han skriver att ATi inte har fördel i 3DMark 2005 och 2006 medans jag skriver att ATi har fördel. Sedan om de är optimerade eller om det är arkitekturen som är bättre ämnad för 3DMark är ointressant. ATi fungerar bättre med 3DMArk 2005 och 6 liksom Nvidia för 3DMark 2003.

Citat:

Ursprungligen inskrivet av oscarstegland
Jag är långt från den enda som tror detta på Swec forumet, det är bara att kolla i varje grafikkortsrelaterade thread på sweclockers.com så kommer den här diskussionen alltid upp, och då kommer du se mer än jag som hävdar detta. Det jag säger är jävligt logiskt med tanke på att ATI's kort oftast har högre clocks, mer shaders, bättre minne, osv. Fixar du ett program som kan utnyttja det på rätt sätt är det inte så jävla konstigt att ett kort från ATI utpresterar ett kort från Nvidia med lägr clocks, mindre shaders, sämre minne, osv. Just därför är ju ett 2900xt en mycket bättre lösning när det kommer till professionell 3d-grafik än många Nvidia kort. Besvara mig då detta. Ett HD3870, trots den "dåliga" arkitekturen jämfört med G92, är som sagt bättre på pappret än 8800gt. Varför utklassar då 8800gt HD3870 både med och utan AA i 3dmark06. Och om ATI's tidigare serier har presterat bättre i spel också, så tycker jag knappast att det är en fördel i 3dmark att ha ATI. Jag börjar undra vad du menar med fördel exakt. Jag har verkligen inget emot Nvidia, men jag tycker inte att folk som vägrar tro att TWIMTBP loggan inte betyder något ska hävda att 3dmark är orättvist mot Nvidia när Nvidia på pappret har sämre kort. 3dmark är uppbyggt på så sätt att det skall visa rättvisa resultat från båda bolag. Om 3dmark inte hade utnyttjat shader arkitekturen på ATI's kort hade vi sett samma resultat som i spel.

Samtidigt som jag inte tycker att 3dmark är orättvist, så är det självklart en trend just nu att ATI's kort ofta utpresterar Nvidia kort men sen inte visar samma prestanda i spel. Om prestandajämförelsen i 3dmark mellan ett ATI kort och ett Nvidia kort ligger på 1:1 så kan man ju dra slutsatsen att med nuvarande arkitekturerna så kommer Nvidia kortet prestera bättre i spel. Om det är det du menar med fördel (att ATI inte får samma resultat som i spel) så ber jag om ursäkt.

Du behöver inte be om ursäkt, jag tror vi pratar sidan om varandra, tror vi missförstår varandra. Men EXAKT! Det är ju precis det jag skriver, som du nu skrev, att ATi har FÖRDEL i 3DMark 2005 och 2006 för att ATis arkitektur fungerar bättre med 3DMark 2005 och 2006 mot vad Nvidias arkitekturer gör. Det är precis det du skriver.

Detta har ingenting med optimering att göra då båda företagen optimerar för 3DMark. Nvidia har alltid haft fördel i 3Dmark 2003 på grund av att deras arkitekturer nästan alltid har fungerat bättre i 3DMark 2003, liksom ATi i 2005 och 2006 MEN att 8800GT får lika eller bättre resultat jämfört med HD3870 är på grund av att 8800GT är så pass mycket kraftigare kort generellt. Det ser ut på papper som att 3870 skulle vara kraftigare tycker många vilket är fel. Det skulle endast vara kraftigare i shader intensiva spel vilket är logist eftersom vi har den prestandan vi har idag mellan 8800GT och 3870 som därefter skiljer cirka 20% överlag.

8800GT är ett starkare kort, de ligger inte jämlikt som 7900GTX och X1900XTX gjorde där X1900XTX generellt var ett bättre presterande kort, framförallt med AA/AF aktiverat.

Varför presterar HD2900XT 512 bättre i 3DMark @ default än vad 8800GT gör trots att 8800GT utpresterar 2900XT 512? Givetvis på grund av arkitekturen och även minnesbussen i detta fallet självklart.

Jämför man 8800Ultra mot HD2900XT sprunger Ultrat runt 2900 i spel men ändå ligger de väldigt lika i 3DMark prestanda. Skulle de vart lika kraftfulla kort i spel eller mer jämlika som tidigare serier som 1900 serien mot 7900 serien hade ATi ätit upp Nvidia i 3Dmark 2005 och 2006.

Ber om ursäkt om jag skrev samma sak på olika sätt, lite trötter.

Mvh Albin

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Hjälpsam

En "fördel" som ATI har i 3DMark06 är att testet körs utan AA.
ATI är något sämre än Nvidia på AA.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Det ska bli kul att se prestanda testerna på 9800 modellerna lite längre fram.

Visa signatur

Fractal Design Define R5 l Intel i7 5820k l Gigabyte X99-UD3 l MSI RX 480 8gb l EVGA G2 850W l Crucial Sport 8gb ddr4 l WDC Black 3tb + WDC Black 1TB + WDC Red 1TB + Intel 530 SSD 120gb l Cooler Master Hyper 212 EVO l Dell U2515H l Asus MG248Q freesync l Windows 10 64-bit

Permalänk
Citat:

Ursprungligen inskrivet av AlbinNdoja
Jo fast du måste ju titta på vilka drivrutiner de olika testsidorna använder sig av samt OS. Nu använder sig Anandtech av absolut de senaste drivrutinerna både fr Ultra och för 9600GT samt 64 bitars OS (möjligt några av dina sidor använder samma OS).
Man prestandatestar _aldrig_ med äldre drivrutiner utan detta är helt och hållet deras ansvar som kodar drivrutiner att de senaste skall prestera bäst. Om de inte har lyckats med det får de åtgärda det tills vidare.

Dubbla 9600GT är generellt bättre än 3870X2 och det vet de flesta. Anandtech är förmodligen bland de mer trovärdiga sidorna och de vet de flesta också om. Det skulle vara dumt att ifråga sätta dom nu. 2good4you och jag har haft våra diskussioner ATi vs Nvidia och till och med han är med mig om att Anandtech är bland de bättre prestandasidorna av alla de där ute, det säger väl endel?

Ah, ok men det är ju inte det han skriver? Han skriver att ATi inte har fördel i 3DMark 2005 och 2006 medans jag skriver att ATi har fördel. Sedan om de är optimerade eller om det är arkitekturen som är bättre ämnad för 3DMark är ointressant. ATi fungerar bättre med 3DMArk 2005 och 6 liksom Nvidia för 3DMark 2003.

Du behöver inte be om ursäkt, jag tror vi pratar sidan om varandra, tror vi missförstår varandra. Men EXAKT! Det är ju precis det jag skriver, som du nu skrev, att ATi har FÖRDEL i 3DMark 2005 och 2006 för att ATis arkitektur fungerar bättre med 3DMark 2005 och 2006 mot vad Nvidias arkitekturer gör. Det är precis det du skriver.

Detta har ingenting med optimering att göra då båda företagen optimerar för 3DMark. Nvidia har alltid haft fördel i 3Dmark 2003 på grund av att deras arkitekturer nästan alltid har fungerat bättre i 3DMark 2003, liksom ATi i 2005 och 2006 MEN att 8800GT får lika eller bättre resultat jämfört med HD3870 är på grund av att 8800GT är så pass mycket kraftigare kort generellt. Det ser ut på papper som att 3870 skulle vara kraftigare tycker många vilket är fel. Det skulle endast vara kraftigare i shader intensiva spel vilket är logist eftersom vi har den prestandan vi har idag mellan 8800GT och 3870 som därefter skiljer cirka 20% överlag.

8800GT är ett starkare kort, de ligger inte jämlikt som 7900GTX och X1900XTX gjorde där X1900XTX generellt var ett bättre presterande kort, framförallt med AA/AF aktiverat.

Varför presterar HD2900XT 512 bättre i 3DMark @ default än vad 8800GT gör trots att 8800GT utpresterar 2900XT 512? Givetvis på grund av arkitekturen och även minnesbussen i detta fallet självklart.

Jämför man 8800Ultra mot HD2900XT sprunger Ultrat runt 2900 i spel men ändå ligger de väldigt lika i 3DMark prestanda. Skulle de vart lika kraftfulla kort i spel eller mer jämlika som tidigare serier som 1900 serien mot 7900 serien hade ATi ätit upp Nvidia i 3Dmark 2005 och 2006.

Ber om ursäkt om jag skrev samma sak på olika sätt, lite trötter.

Mvh Albin

Då förstår jag bättre lite bättre vad du säger :D. Men jag har på sistone hört folk som hävdar att 3dmark lutar åt ATI's sida på grund av något slags samarbete. 3dmark hade ju varit idealt om spel utnyttjade båda arkitekturerna på samma sätt som 3dmark gör. Vi får hoppas att Futuremark's spel är lika balanserade som 3dmark är.

Tror dock som du säger att 9000 serien inte är något att hänga i julgranen. Väntar hellre tills ATI's HD4000 serie kommer ut och om den presterar tillräckligt bra så köper jag nog HD4870x2. Om den inte presterar bra är det G100/GT200 som gäller. Orkar egentligen inte vänta längre dock. Har väntat jättelänge på bra presterande kort innan jag köper ny dator och vare sig HD3870x2 (trots att det är ett bra kort) eller 9000 serien är vad jag förväntade mig. Sitter som sagt på en P4 2.4 ghz, Sis moderkort som ej är kompatibelt med överklockning, 768 mb ram @ 166 mhz, Radeon 9600XT. Min snitt fps i Crysis är inte vacker.

Citat:

Ursprungligen inskrivet av Ratatosk
En "fördel" som ATI har i 3DMark06 är att testet körs utan AA.
ATI är något sämre än Nvidia på AA.

Sedan R600 har Nvidia haft stor fördel när det gäller AA på grund av att ATI inte har implementerat multicykel AA tror jag det är. Kollar man dock på förra generationen var inte Geforce 7000 serien kompatibel med HDR (Shader Model 3.0) och AA samtidigt och då låg ATI bra till när det gällde AA (med eller utan HDR). Vi får hoppas att de lyckas igen så att det blir lite konkurrens och mer highend kort under 3500 sek.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Medlem

Säkert bara jag, men är jävligt nyfiken på nästa serie från nVidia. Dels på nyheter, kommer ny kärna/fler kärnor, DX10.1 eller senare, bättre prestanda, mer minne, GDDR5? Är så jävla trött på allt skit som aldrig utvecklas, vore bra om värmen kunde försvinna för det första. Det går fakiskt att använda sig utav värmen i en dator. Istället för att bara kyla bort den, bör man använda den.

Varför inte utvinna energi ur damm som kommer in i datorn när de ändå håller på ... Med andra ord, jag vill ha NYTT. Som ni så fint påpekat tidigare: "Same Shit different name". Konsumenterna är mogna för ny teknik och en snabbare utveckling och det gäller inte bara grafikkort.

En annan sak som blir intressant är namnet, ska de köra på 10800-serie eller kommer de döpa om dem. Om de ska göra det, är det ett alldeles ypperligt tillfälle att göra det nu. Varför inte låta de heta: Z18-A, Z18-B, Z17-A eller något liknande. Är så trött på alla långa och fåniga namn som den kommersiella världen hittar på. Titta bara på alla filmtitlar exmpelvis.

Utvecklingen bör komma snart, efterfrågan finns där. Just nu konkurrerar företagen mot varandra så de glömmer bort oss konsumenter i striden.

Visa signatur

En dator blir aldrig som man tänkt sig

Permalänk
Citat:

Ursprungligen inskrivet av oscarstegland

Sedan R600 har Nvidia haft stor fördel när det gäller AA på grund av att ATI inte har implementerat multicykel AA tror jag det är. Kollar man dock på förra generationen var inte Geforce 7000 serien kompatibel med HDR (Shader Model 3.0) och AA samtidigt och då låg ATI bra till när det gällde AA (med eller utan HDR). Vi får hoppas att de lyckas igen så att det blir lite konkurrens och mer highend kort under 3500 sek.

Eftersom R600 arkitekturen är mycket shaderbaserat och man valde att implementera AA med shaders blev det inte speciellt lyckat då de flesta spel inte är shader intensiva idag. Dock gjorde man en refresh med HD3850 och 70 bland annat och det såg genast bättre ut, inte tillräckligt dock.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ralleballe
Det verkar som att 8800gt kommer att hålla ett tag, och i framtiden 2x8800gt i SLI. Inget att lägga pengar på de nya 9800-serien.

Tror också att 8800 kort kommer att hålla ett bra tag. Det är typ bara Crysis som man inte får 60+ konstant. Visst är det spelbar på High/Very High. 50 - 60 fps är ju duglig att spela. Lär nog inte upgradera nånting på ett tag. Funderade ett tag på SLI med korten som jag har nu men då måste jag byta ut moderkorten. För den här verkar bara stödja CrossFire.

Visa signatur

PC1: P600s |ROG Z790-F Wi-Fi |13700KF |RTX3090 Aorus Master
PC2: H440W |H80i |i7 8770K 5GHz |RTX2060
PC3: Void X |i5 10400f |GTX2070 Super
VR: Valve Index |Oculus Quest 2 256GB
Konsol Setup: LG OLED77CX6 |Xbox Series X |Playstation 5

Permalänk
Medlem

Vad får ett 3870x2 eller ett Ultra i DX10 med allting på High? Vilken avg fps? Själv får jag 43 av fps med min SLI laptop med dubbla 8800m GTX med DX10 och allting High i DX10.

Visa signatur

Desktop: Core I7 2600K @ 4Ghz, 8GB Corsair XMS3 DDR3 @ 1600 MHz, GTX 680.
TV-dator: Core I7 965 @ 3.6 Ghz, 6GB Corsair XMS3 DDR3 @ 1333 MHz, EVGA GTX 680.

Dell XPS M1730, X9000 @3.4 GHz, 4GB, 9800m GTX SLI, 320GB Raid 0 SATA, AGEIA PHYSX, 1920x1200 WUXGA Screen.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Spiroo
Säkert bara jag, men är jävligt nyfiken på nästa serie från nVidia. Dels på nyheter, kommer ny kärna/fler kärnor, DX10.1 eller senare, bättre prestanda, mer minne, GDDR5? Är så jävla trött på allt skit som aldrig utvecklas, vore bra om värmen kunde försvinna för det första. Det går fakiskt att använda sig utav värmen i en dator. Istället för att bara kyla bort den, bör man använda den.

Varför inte utvinna energi ur damm som kommer in i datorn när de ändå håller på ... Med andra ord, jag vill ha NYTT. Som ni så fint påpekat tidigare: "Same Shit different name". Konsumenterna är mogna för ny teknik och en snabbare utveckling och det gäller inte bara grafikkort.

En annan sak som blir intressant är namnet, ska de köra på 10800-serie eller kommer de döpa om dem. Om de ska göra det, är det ett alldeles ypperligt tillfälle att göra det nu. Varför inte låta de heta: Z18-A, Z18-B, Z17-A eller något liknande. Är så trött på alla långa och fåniga namn som den kommersiella världen hittar på. Titta bara på alla filmtitlar exmpelvis.

Utvecklingen bör komma snart, efterfrågan finns där. Just nu konkurrerar företagen mot varandra så de glömmer bort oss konsumenter i striden.

Jag håller inte med något du skriver, faktiskt. Dels kommer AMD antagligen bli först med både GDDR5 (evt. 4000-serien utifrån nuvarande uppgifter) och Dual-Core GPU:er (Evt. R700/R700XT). I en arbetande krets kan man inte bli av med värmen helt - försök få något som rör sig (fysiskt eller elektroniskt) att inte generera energi, det är inte det lättaste, så att säga. Det går att använda sig av värmen - men till vad? För att driva fläktar tänka för att bli av med värmen?
Utveckling kostar pengar, och ofta snubblar man bara över en lösning som kan komma att vara till användning, så jag tror inte det läggs ned allt för mycket resurser på dyr forskning i onödan.

Dina förslag på namn är antagligen ännu mer förvirrande än de nuvarande då serierna är ganska lätta för konsumenterna att förstå - högre siffror är bättre, utifrån AMDs nya seriedefinitioner, och desto fler tecken inom Nvidia, desto bättre prestanda representeras. Att baka in massa tecken kors och tvärs förvirrar bara ännu mer. Det är ju som att tänka sig "Hej, jag har ett Nvidia GeForce Z18-A" Jo, visst, funkar kanske i StarTrek, men det är en annan värld.

Efterfrågan på ny teknik är inte så fantastiskt stor. Efterfrågan på billigare teknik är störst. Sedan hos enthusiaster verkar tekniken vara ointressant sålänge det presterar som det skall, även hur dum/dyr lösningen är.

Permalänk
Citat:

Ursprungligen inskrivet av Magnus72
Vad får ett 3870x2 eller ett Ultra i DX10 med allting på High? Vilken avg fps? Själv får jag 43 av fps med min SLI laptop med dubbla 8800m GTX med DX10 och allting High i DX10.

Vilken upplösning ?

G92 GTS 512MB oc'd med DX10, allt high i 1280x1024 ger mig 47fps, med DX9 (oxo i Vista) ger det 51fps.

Men med mer user tweaked config , 2xAA, 1680x1050
sys_spec_GameEffects = 3
sys_spec_MotionBlur = 1
sys_spec_ObjectDetail = 3
sys_spec_Particles = 3
sys_spec_Physics = 3
sys_spec_PostProcessing = 1
sys_spec_Shading = 3
sys_spec_Shadows = 2
sys_spec_Sound = 3
sys_spec_Texture = 2
sys_spec_VolumetricEffects = 3
sys_spec_Water = 2

!TimeDemo Run 3 Finished.
Play Time: 50.97s, Average FPS: 39.24
Min FPS: 30.43 at frame 1962, Max FPS: 48.99 at frame 1000
Average Tri/Sec: -41079104, Tri/Frame: -1046800
Recorded/Played Tris ratio: -0.88
TimeDemo Play Ended, (4 Runs Performed)

mycket hög min fps

Visa signatur

ASUS ROG Strix G17 G713QR-HG022T (Ryzen 9 5900HX, RTX 3070 Max-P 115+15W, G.Skill Ripjaws 2x16GB 3200MHz CL22 1.2v (F4-3200C22D-32GRS), 17.3" 1920x1080 300Hz 3ms, 2x1TB NVMe) + 27" 2560x1440 Acer Nitro XV272UV + Corsair K55 RGB + Deltaco DM210