Geforce GTX 285 och 295

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Calle
Inga tester utan FSAA, AF?

Kan ju vara intressant att se hur resp kort hanterar detta...

x2, även lite mer... "om jag köper det här kortet med ungefär vilka inställningar är det ok att spela i" tester och speciellt hur mycket snabbara blir dom om man kottar lite på AA och FS skulle vara väldigt intressanta. Men gissar att det inte fanns tid för mer inställningar.

Permalänk
Medlem

Angående 3dmark vantage:
Om det kallas just fusk för nVidia är kanske inte helt rätt eftersom nVidia inte verkligen försökt göra som det har blivit (antar jag)
Men det är inte "rent spel", kan ju vilken kotte som helst hålla med om... Man är inte ATI fanboy för att man kritiserar ett test som behandlar grafikkort helt åt helskotta. Att man ens kan försvara detta.... otroligt

Men iallafall, tycker också att de borde testat AA, är ju en stor del av grafiken. Men inte dåligt test för det.

Permalänk
Medlem

Felet ligger ju i 3dmark vantage: när man spelar används GPU + ev. Fysikkort samtidigt, så att testa ett åt gången var inte särskilt smart.

Att då säga att man inte får göra ett kombinerat grafikkort + fysikkort istället för att fixa det feldesignade programmet är inte bara lite korkat.

Visa signatur

Main Core i9-9900k | NH-D15 | ROG STRIX Z390-F | 16GB DDR4 3200 MHz LPX | STRIX 2080 Ti GAMING OC | Samsung 970 EVO 1TB + Toshiba XG5 256GB | RM650X | R5 Blackout
HTPC/Barndator: Core i5-8400 | ASUS PRIME B360M-A | 16GB DDR4 2666 MHz | STRIX GTX 1070 OC | 2 x Toshiba XG5 256GB
Extradator: Core i7 870 | ASRock H55M-LE | 8GB 1600 MHz | Intel 320 120GB | HD6950 2GB | VX 550W

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av mfm
Felet ligger ju i 3dmark vantage: när man spelar används GPU + ev. Fysikkort samtidigt, så att testa ett åt gången var inte särskilt smart.

Att då säga att man inte får göra ett kombinerat grafikkort + fysikkort istället för att fixa det feldesignade programmet är inte bara lite korkat.

Eller så stoppar man det bara direkt i mjukvaran som de gjorde och alla är nöjda utom de som helt plötsligt inte längre får sätta nytt världsrekord på ett ensamt GTX260 och en Q6600.

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk

[QUOTE]Ursprungligen inskrivet av sykes90
[B] finns det någon anledning med att ni testar en överklockad gtx 285 mot referensdesigner, förutom för att få nvidia att se bättre ut
har alltid tyckt att i tester ska det vara standard frekvenser som gäller

Kan vara intressant att ha med ett överklockat kort om man gillar att ha det värsta , bara för att du inte är intresserad så kan väl andra vara det?!

Visa signatur

Intel Q9550 @ 2,83 GHz | Asus Maximus II Formula | Corsair Dominator TWIN2X8500C5DF 4GB | Noctua NH-C12P | XFX Geforce GTX280 XXX | 2 x 250GB WD Caviar Blue RAID + 1 TB Hitachi Deskstar | Thermaltake 850W | LianLi PC-A17A | W7 64-bit

Permalänk
Citat:

Ursprungligen inskrivet av FredrikMH
...

Självklart jämför man då korten från samma generation. Man kan ju inte jämföra en volvo 740 och en volvo v70.

Och nej precis GTX 295 är ingen ny generation.

Men I alla fall min åsikt. AMD har sålt sina kort från denna generation som smör och haft prestandatronen pretty much hela vägen. Så jag tycker man kan antyda att ATI/AMD helt enkelt tog den här rundan/generationen. För den är ju snart över och nya kort är på G, Är väl bara något kvartal ifrån?!

Visa signatur

i7 2600K | XFX 6970 | 8GB DDR3 1600mhz Vengeance| 1TB HDD | DVD-RW Dual Layer

Permalänk
Citat:

Ursprungligen inskrivet av P1nGviN

Och felet är inte Physx, felet är att drivrutinen lurar Vantage att tro att det är ett fysikkort (vilket det inte är).

Gör det enkelt istället för att krångla till det som ni gör. Nvidia och ATi är två olika företag som sysslar med samma sak, grafikkort. Om du skall utveckla ett grafikkort som presterar bättre än mitt och jag skall utveckla ett grafikkort som presterar bättre än ditt så är det ganska ointressant att du har implementerat PhysX stöd i ditt grafikkort/drivrutiner. Det är ju bara bra för dig och för de som skall spela. Här är det egentligen slut diskuterat och 3Dmark är meningslöst.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av AlbinNdoja
Gör det enkelt istället för att krångla till det som ni gör. Nvidia och ATi är två olika företag som sysslar med samma sak, grafikkort. Om du skall utveckla ett grafikkort som presterar bättre än mitt och jag skall utveckla ett grafikkort som presterar bättre än ditt så är det ganska ointressant att du har implementerat PhysX stöd i ditt grafikkort/drivrutiner. Det är ju bara bra för dig och för de som skall spela. Här är det egentligen slut diskuterat och 3Dmark är meningslöst.

Say what?

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Citat:

Ursprungligen inskrivet av P1nGviN
Say what?

Ja precis. Att Nvidia har PhysX och ATi inte gör ju inte att Nvidia fuskar. Nu skriver inte jag endast mot dig utan mot alla så den som ger bäst prestanda ger ju bäst prestanda. Sedan om det är ett kort som i din "verklighet" skulle vara är egentligen ganska ointressant.

Ati har väl också något liknande eller det var mot DUMA/CUDA eller vad det nu hette.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AlbinNdoja
Ja precis. Att Nvidia har PhysX och ATi inte gör ju inte att Nvidia fuskar. Nu skriver inte jag endast mot dig utan mot alla så den som ger bäst prestanda ger ju bäst prestanda. Sedan om det är ett kort som i din "verklighet" skulle vara är egentligen ganska ointressant.

Ati har väl också något liknande eller det var mot DUMA/CUDA eller vad det nu hette.

"den som ger bäst prestanda ger ju bäst prestanda"

Ja och t.ex. ett gtx280 ger sämre prestanda än 4850x2 / 4850 CF i nästan alla spel. Alltså har 4850x2 bäst prestanda. Ändå visar 3dmark vantage mer poäng åt gtx280. Så den som ger bäst prestanda ger bäst prestanda (4850x2 / CF) men mindre poäng i 3dmark vantage.

"Sedan om det är ett kort som i din "verklighet" skulle vara är egentligen ganska ointressant."

Ja för det är ju inte i verkligheten som kortens prestanda är intressant utan det är bara intressant hur mycket poäng korten får i 3dmark vantage.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av AlbinNdoja
Ja precis. Att Nvidia har PhysX och ATi inte gör ju inte att Nvidia fuskar. Nu skriver inte jag endast mot dig utan mot alla så den som ger bäst prestanda ger ju bäst prestanda. Sedan om det är ett kort som i din "verklighet" skulle vara är egentligen ganska ointressant.

Ati har väl också något liknande eller det var mot DUMA/CUDA eller vad det nu hette.

Grejen är den att GTX 280 omöjligen kan prestera så bra i fysik och grafik samtidigt. Testresultatet är för snett. Och hur vet man vad som ger bäst prestanda om testresultat blir fel? Nu är ju inte 3Dmark det enda man testar med, men en betydande del i recensioner, och påverkar därmed folks totala uppfattning om vad som är snabbast.

Permalänk

so what om ATI får stryk av Nvidias GTX295 som är nyare än HD4870X2 men Ati är väl på g med en fräschare version av HD4800 korten om jag inte minns fel då kanske siffrorna ser annorlunda ut.

Men varför detta bråk om Nvidia hit och ATi dit om man har ett kort man är nöjd med varför klaga?

mitt hd4870 är itne det bästa i världen men den gör sitt jobb.
Och jag är nöjd visst det vore najs med GTX295 i SLI men det kostar mer än det smakar.

men detta är min uppfattning inget annat.

Visa signatur

|- ASUS P6T deluxe v2-|- Intel Corei7 920 stock speed stock cooling-|- XFX HD4890 i CF|- Corsair dominator 1600mhz DDR3 -|- ANTEC P190-|- samsung 226bw-|

Permalänk
Medlem

om jag har förstått denna diskusion om physx så är det fel att använda 1grafikort för både grafik och fysik...

men om man har ett gtx 295 för grafik och ett gtx 9800+ som fysik då? skulle det fortvarande vara "fusk"?

får så vitt jag vet så tillåter inte 3dmark det heller...

Visa signatur

Stationär: Ryzen9 5900x | DDR4 3200MHz 2x16GB | Geforce GTX1080 | Asus x570-F | Samsung 980 pro 512GB | Samsung 70 pro 256GB | Corsair AX 1200W |
Server: Ryzen9 5950x | 128GB RAM |

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av McVit
om jag har förstått denna diskusion om physx så är det fel att använda 1grafikort för både grafik och fysik...

men om man har ett gtx 295 för grafik och ett gtx 9800+ som fysik då? skulle det fortvarande vara "fusk"?

får så vitt jag vet så tillåter inte 3dmark det heller...

Nä då är det inte fusk. Eftersomett kort kan vara helt dedikerat till sin uppgift. Men 3Dmark är inte programmerat för detta och kan inte göra så. Utan då är risken att den kör fysik på GTX 295 kortet istället. Därför är det också spärrat.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av VretaKloster

Kan vara intressant att ha med ett överklockat kort om man gillar att ha det värsta , bara för att du inte är intresserad så kan väl andra vara det?!

Jag menar att ett prestandatest borde testa på lika vilkor, vilket är omöjligt eftersom det finns typ 35 överklockade variationer på varige modell som alla presterar olika. Testar man överklockade kort borde ett med orginalfrekvenserna finnas med som referens

Permalänk
Medlem

i nästa grafiktest ni gör här på sweclockers ta inte med 3dmark i den artilken för de gör bara att folk börjar tjafsa sen är de inte 3dmark som visar hur mkt spel prestanda man får. sen att nvidia har physx är en fördel inte fusk, dom köpte ett företag o intregrea de i sin mjukvara istället. am/ati snickrar ju oxå på nått sånt förmodligen.

så fimpa 3dmark av alla sorter o ta med fler spel kanske nåra mmorpg o racing spel inte bara pangpang fps o strategi... hellre fler spel än 3dmark poäng för de är inget o skryta om, 3dmark poäng alltså. ja fick runt 11k i 3dmark 06 o typ 3-4k i vantage men de säger ju ingenting om hur kortet presterar i spel så mer spel test åt folket

Permalänk
Medlem

Varför testar inte Sweclockers med upplösningar såsom 2560x1600? Det kan väl ändå inte finnas någon som använder ett 295 alt X2 i lägre upplösningar än 1920x1200 eller??

Visa signatur

1: Win7, i7 920@4GHz, 12GB Dominator, Gainward 4870x2, CM Cosmos, 150GB Raptor + 750GB HDD
2. SuSE 11.1, Q9550@400x8½, 8GB A-Data, GeForce 8500GT, Antec 1200, 4TB HDD

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av niclaso
Varför testar inte Sweclockers med upplösningar såsom 2560x1600? Det kan väl ändå inte finnas någon som använder ett 295 alt X2 i lägre upplösningar än 1920x1200 eller??

Jo jag, jag har en skärm som är 1600 x 1200......Ha aldrig förutfattad mening

Visa signatur

ASUS P6T Deluxe-V2, Core-i7-975EE, ATI-4890xxx 1Gb, 6GB Corsair 12800 Dominator, VelociRaptor-300, Plextor 716-SA,
X-Fi Fatal1ty, Corsair HX-850W, Coolermaster Stacker.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av niclaso
Varför testar inte Sweclockers med upplösningar såsom 2560x1600? Det kan väl ändå inte finnas någon som använder ett 295 alt X2 i lägre upplösningar än 1920x1200 eller??

Jo.

Permalänk
SweClockers
Citat:

Ursprungligen inskrivet av niclaso
Varför testar inte Sweclockers med upplösningar såsom 2560x1600? Det kan väl ändå inte finnas någon som använder ett 295 alt X2 i lägre upplösningar än 1920x1200 eller??

2560x1600 skärmar är rätt ovanliga. Tror knappt en procent av våra besökare kör med den upplösningen. 1920 är väl annars vad många siktar på nuförtiden med billigare 24"-skärmar och allt.

Visa signatur

» Kontakta oss » SweClockers på Facebook » SweClockers på Youtube » Blips of SweClockers (Spotify)
» Pappa till Moderskeppet » SweClockers chefredaktör 2007–2015

Permalänk

himla synd att dom inte har med 4870 i CF

Visa signatur

HTPC: Late 2014 Mac Mini
Bärbar: Mid 2012 MacBook Air

Permalänk
Quizmaster Malmö 22

Drar ström som dammsugare, varma som ungsplattor o kostar multum....nä, det går inte det här.

....mitt 8800GTS (G92) hängde sig i gamla FarCry utan inblås chassifläkt direkt på kortet så de här nya hade man knappt vågat testa....

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem

8800GTS???

Citat:

Ursprungligen inskrivet av HansGBG
Jo jag, jag har en skärm som är 1600 x 1200......Ha aldrig förutfattad mening

är 8800GTS ett 295 eller X2?
Skulle tro att du antingen har fel i din profil eller missat lite. Skulle inte tro att 8800GTS funkar så bra på en 24" i högre upplösningar med tex COD4.

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av Andreas D
2560x1600 skärmar är rätt ovanliga. Tror knappt en procent av våra besökare kör med den upplösningen. 1920 är väl annars vad många siktar på nuförtiden med billigare 24"-skärmar och allt.

Det ena utesluter ju inte det andra.

Även om det är en klar minoritet på Swec. som sitter med 30"-skärmar så är det ändå intressant att se hur kortet presterar i 2560x1600, eftersom man ändå får säga att korten är avsedda för den typen av upplösningar. Dessutom så testar i princip varenda site på nätet med den upplösning, vi pratar "crème dé la crème". Är det ett max kort så tycker jag att det ska testas med största möjliga motstånd. 2560x1600 8xAA etc. m.m.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk

Vet inte riktigt huruvida upplösningar över 1920x1200 skulle kunna intressera mer än ett fåtal människor, men iallafall just den upplösningen skulle vara nyttig att ha med tror jag

Som herr redaktören skrev, det är kanske 1-3% som använder sig av en 30"-bjässe eller mer som klarar den upplösningen, men det finns väl kanske en 10% som slagit till på en 24"are som klarar fullHD (mig inräknad) som skulle tycka en sådan upplösning vore kul att ha med

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av Broder Truck
Vet inte riktigt huruvida upplösningar över 1920x1200 skulle kunna intressera med än ett fåtal människor, men iallafall just den upplösningen skulle vara nyttig att ha med tror jag

Som herr redaktören skrev, det är kanske 1-3% som använder sig av en 30"-bjässe eller mer som klarar den upplösningen, men det finns väl kanske en 10% som slagit till på en 24"are som klarar fullHD (mig inräknad) som skulle tycka en sådan upplösning vore kul att ha med

Pssst: Crème dé la crème /besserwisser mode off

Men se det så här. Om all annan hårdvara du använder är high-end. Varför ska inte då bildskärmen också vara high-end? Man vill ju testa det värsta av det värsta och då borde en 30"-skärm vara med. Som allting annat så kommer ju även de att sjunka i pris, jag menar för ett år sedan var det inte många som satt med 24"-displayer. Då satt jag med en 19"-wide, nu sitter jag på en 24"-wide. Om ett år så kanske jag sitter på en 30"-wide.

Jag läste tyska i skolan så ok, min franska är under alla kritik. Ändrat dock.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk

Jo, high-end och high-end, själv tycker jag att min, och din, 24"-are till bildskärm är highend nog, hehe, men det är klart, overkill finns ju alltid.

Ja, som du säger, om ett år kanske 30" är vad 24" idag. Men då kanske det skulle smaka bättre med sådana tester i det skedet, när de skärmarna börjar hitta hem till lite fler folk

Jag tycker dock att det vore intressant att se ett par tre olika upplösningar, men förstår att det kanske tar lite extra tid och möda att genomföra ett sådant test. Prio vore ju dock upplösningar 1600x1200 samt 1920x1200 i mina ögon Skulle ett test på 2560x1600 åka med är väl inte jag den som klagar, hehe ^^

Offtopic - Jag var fransos i skolan ^^ Tog bort mitt påpekande

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Men se det så här. Om all annan hårdvara du använder är high-end. Varför ska inte då bildskärmen också vara high-end? Man vill ju testa det värsta av det värsta och då borde en 30"-skärm vara med. Som allting annat så kommer ju även de att sjunka i pris, jag menar för ett år sedan var det inte många som satt med 24"-displayer. Då satt jag med en 19"-wide, nu sitter jag på en 24"-wide. Om ett år så kanske jag sitter på en 30"-wide.

Jag läste tyska i skolan så ok, min franska är under alla kritik. Ändrat dock.

visst vore det kul att läsa om dylika siffror i tester, för som sagt vissa vill ha det bästa av det bästa idag, medans andra kommer skaffa det sedan framöver när priserna är mer humana på just den produkten och då kan det ju vara roligt o sett prestanda ett bra tag innan. Så man vet vad man skall välja. Men som sagt jag sitter hellre o lirar på min 19" 4:3 än på en helt ny 24" skärm. iof skulle jag gärna ta en 21" wide idag av samma modell, men det kanske kommer fram i sommar när skattmasen levererat sitt.

Jag förstår dock de som inte har de där stora dyra sakerna, och känner det orelevant. Men då kan man ju faktiskt "kräva" ett lite mer utökat test med fler upplösningar och skärmstorlekar.

Själv har jag lite dålig erfarenhet av benchprogram och hur det sedan funkar i verkligheten. Men det är ju en annan sak.

min nyaste dator är på reparation.

Permalänk
Medlem

Inte nVidia som fuskar utan det är testet som är missvisande.

Visa signatur

[Tiger MP. 2xAMD Athlon MP 1.4GHz , 2x512MB ddr, ?350w PSU, 80GB HDD, Geforce4 ti 4600]
[i7 950, ASUS p6t, xfx 650w, 30GB SSD a-data, 3x2GB corsair xms3, 8800GT, ][i7 920, 3x4GB Vengeance, gtx 260] [i5 3570k, MSI twin frozr PE GTX 570, Corsair 4x2GB xms3]
[3930k, GA-X79-UD3, EVGA GTX 780SC ACX, Corsair Force 3 120GB, XFX 850w, Corsair Air 540, Corsair h100i, Corsair 4x4GB Vengeance]

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av Layon
Inte nVidia som fuskar utan det är testet som är missvisande.

Väl sagt. Det är Futuremark som valt att lägga till stöd för PhysX så de kan lika lätt ta bort det med en uppdatering.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt