NVIDIA bäst för en långsammare CPU?

Permalänk

NVIDIA bäst för en långsammare CPU?

Denna tävling är fascinerande och jag förstår att ni kör testerna med den snabbaste processorn för att driva GPUn till sin gräns.
Men det hjälper inte mig att välja ett kort som passar en långsammare processor: kan jag maxa ut ett HD6850 Med en Core i5, eller kommer drivrutinerna att vara en flaskhals på en långsammare processor? Det är också en skillnad mellan NVIDIA och ATI som jag skulle vilja se undersökts. Kan ni komplettera era recensioner med en test på i5-760 eller i7-860? Det skulle också vara bra att se om 2x8 CF/SLI har blivit en flaskhals...

Permalänk
Medlem

skulle oxå vilja se lite test med sämre processorer, alla tester idag har en överklockad i7a. finns ju en del som sitter på i5,i3 eller E serien som jag själv. sen finns det ju även ett par med AMD oxå.

fanns lite såna test förr i tiden men nu verkar det vara köras med klockade i7or.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Avstängd

Hur kan ni ha missat denna isåfall?

http://www.sweclockers.com/artikel/12567-sa-paverkas-bildfrek...

Skrivet av Syranolic:

Det skulle också vara bra att se om 2x8 CF/SLI har blivit en flaskhals...

Kolla min signatur för det. Notera även upplösningen dom kör i.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem

Kör 2st GTX480 tillsammans med en i5 760 samt att grafikkorten går i x8/x8. Visst flaskar i5:an, men det är inte mycket.

Visa signatur

R7 5800X - RTX 3080

Permalänk
Medlem
Skrivet av SeF.Typh00n:

Hur kan ni ha missat denna isåfall?

http://www.sweclockers.com/artikel/12567-sa-paverkas-bildfrek...

Kolla min signatur för det. Notera även upplösningen dom kör i.

är ju bara ett spel dom testar. villa ha ett vanligt där dom byter ut i7a till något sämre

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Avstängd
Skrivet av Aka_The_Barf:

är ju bara ett spel dom testar. villa ha ett vanligt där dom byter ut i7a till något sämre

Det är ju ganska givet om dom skriver att en I7 870 med 2 kärnor eller med låg klock inte klarar ge grafikkortet tillräckligt med information, att en processor som motsvarar det eller en sämre inte klarar det heller.

Sen märks det ju också när man spelar och/eller jämför med tester som är gjorda.

T ex Min E6600 är helt jäkla outdated och "flaskar" mitt HD5850 rätt bra.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk

Kan ju säga att i t.ex. bad company 2 så används bara 70-75% av mitt GTX 470 och då går min PhenomII i 3.9 ghz. Vet inte om det är normalt eller om jag måste ändra nått?

Visa signatur

Asrock P67 Extreme6 | Intel 2600k @ 4.5Ghz) | Noctua NH-D14 | Corsair 8GB DDR3 1600Mhz
ASUS GTX 770 DCII OC @ 1260/7900 | Intel X25-M G2 80GB| ~3.2TB HDD
Antec 1200 | Corsair HX 620 80+
ASUS PB278Q

Permalänk
Medlem

Anledningen till att man testar grafikkort med den värsta CPU man kan är för att slippa problem med att CPU:n flaskar, rätt trist att konstatera att GTX580 är lika snabb som en 5770 med en 2.2 Ghz Athlon i majoriteten av spelen

Sen blir det snabbt orimligt många tester att göra, tänk dig själv att om du lägger till bara en extra CPU att testa så får man göra dubbelt så många benchmarks, och ska man rimligt hitta flaskhalsen för varje spel så kan det ju bli en 5-10 gånger fler test att köra utan att egentligen få speciellt mycket mer vettig data.

Vist skulle det vara lite intressant att hitta ett AMD och ett Nvidia kort som presterade exakt lika bra i ett spel och sen byta till en långsammare/snabbare CPU och se vad som händer, men spontant så kommer skillnaderna vara försumbara då i alla fall jag tror att skillnaden i CPU belastning mellan ett identiskt presterande AMD och Nvidia kort är extremt liten.

Visa signatur

"Jag har inte gått 5 år på Chalmers, men till och med jag vet att det är en dum idé att blanda vatten och elektronik"
Min Fru

Permalänk

Men ATI vs NVIDIA då?

Skrivet av SeF.Typh00n:

Hur kan ni ha missat denna isåfall?

http://www.sweclockers.com/artikel/12567-sa-paverkas-bildfrek...

Kolla min signatur för det. Notera även upplösningen dom kör i.

Tack för första länken, det är bara synd att dom testade två ATI. Min poäng är att två jämförbar kort (enligt en test med en snabb CPU) kan prestera olika från varandra på en sämre CPU, på grund av en driver som kräver mer an den andra...

Andra länken besvarar min fråga perfekt.

Permalänk
Antielefant
Skrivet av Drömmaren:

Kan ju säga att i t.ex. bad company 2 så används bara 70-75% av mitt GTX 470 och då går min PhenomII i 3.9 ghz. Vet inte om det är normalt eller om jag måste ändra nått?

BC2 är ett extremt CPU-krävande spel då det är en uselt gjord konsolportering, och också NVidia's svagaste spel hittills.

Visa signatur

i7 8770k @ 5.2 | MSI Z370 KRAIT | 32 GB DDR4-3200 | AX850W
EVGA GTX 980 Ti Classified SLI | Acer XB270HU G-Sync

Permalänk
Skrivet av Zcenicx:

BC2 är ett extremt CPU-krävande spel då det är en uselt gjord konsolportering, och också NVidia's svagaste spel hittills.

Okej, så egentligen ska inte min cpu flaska gpun?

Visa signatur

Asrock P67 Extreme6 | Intel 2600k @ 4.5Ghz) | Noctua NH-D14 | Corsair 8GB DDR3 1600Mhz
ASUS GTX 770 DCII OC @ 1260/7900 | Intel X25-M G2 80GB| ~3.2TB HDD
Antec 1200 | Corsair HX 620 80+
ASUS PB278Q

Permalänk
Hjälpsam

Eftersom drivrutinerna exekveras av CPU:n är frågan ganska intressant.
Ett sätt att mäta vore att slå på V-sync, sätta olika grafik-inställningar så att spelsekvenserna gick konstant i 60fps och mäta CPU-belastningen.
På så sätt skulle man se vilka grafikkort som kräver mest av CPU:n, man kan också undersäka om AA, AF eller skuggor kostar mycket CPU-kraft.
Eftersom grafikkort oftast testas med starkast möjliga CPU märks inte denna skillnad, men frågan kan vara väldigt intressant för de som har en svagare CPU.
Med nuvarande testförfarande av grafikkort, lönar det sig oftast att flytta ut beräkningar från GPU:n till CPU:n, eftersom GPU:n oftast är den begränsande faktorn.

edit Här är ett klart exempel på att man ibland väljer att flytta ut grafikberäkningar från GPU:n till CPU:n.
Intel graphics drivers employ questionable 3DMark Vantage optimizations - The Tech Report - Page 1

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

På så sätt skulle man se vilka grafikkort som kräver mest av CPU:n, man kan också undersäka om AA, AF eller skuggor kostar mycket CPU-kraft.

Eh, AA och AF görs ju av enbart GPU:n. Skuggor är möjligen renderade av CPU:n ibland (tänker mest på vissa gamla spel).

Det skulle faktiskt vara intressant med ett test för att se hur mycket CPU-tid som drivrutinerna kräver, men hur testar man det?

Visa signatur

AMD Ryzen 5 3600 | 32GiB DDR4-3466 | MSI B450-A Pro Max AGESA 1.0.0.6 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | WD10EADS 1TB | WD10EAVS 1TB | Samsung 850 EVO 500GB | Scythe Kamariki 4 450W

Permalänk
Hjälpsam
Skrivet av m3tr0:

Eh, AA och AF görs ju av enbart GPU:n. Skuggor är möjligen renderade av CPU:n ibland (tänker mest på vissa gamla spel).

Det skulle faktiskt vara intressant med ett test för att se hur mycket CPU-tid som drivrutinerna kräver, men hur testar man det?

Eh det kanske dom gör, jag är bevisligen ingen expert.
Man bör kunna logga grafikprocessernas CPU-användning, problemet blir då att ta reda på vilka det är (inte så svårt) och hitta ett program som låter en logga processer (låter inte heller så besvärligt).

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Avstängd

Program för att Logga sin GPU användning är ju T.ex GPU-Z, går ju att logga när det är minimerat så bara att slå på det och sedan köra spel osv...

Permalänk
Medlem

Med ATI Tray Tools kan man se t ex GPU-användning och CPU-användning samtidigt man kör spelet.

Förresten, nån som vet om nåt mer program som kan göra så?

Visa signatur

AMD Ryzen 5 3600 | 32GiB DDR4-3466 | MSI B450-A Pro Max AGESA 1.0.0.6 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | WD10EADS 1TB | WD10EAVS 1TB | Samsung 850 EVO 500GB | Scythe Kamariki 4 450W

Permalänk
Hjälpsam

Processexplorer låter en visa en graf över en viss process aktivitet.
Såg att det finns med ett program i Windows, tillfällighets och prestandaövervakaren som fixar det bättre.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Antielefant

Jag kan säga på en gång att med WDDM spelar drivrutinen minimal roll i processorbelastning. Rakt av är skillnaden mellan vilken belastning ett Radeon eller ett Geforce ger processorn per FPS så liten att den är negligerbar.

Det som drar kräm är för-renderingen per frame och antalet frames, och för den delen är 1) upplösning, 2) texturnivå, 3) post-processing (AA, AF, AO etc) och 4) drivrutinen totalt ointressanta så länge båda korten ska matas med samma innehåll i samma frame.

Det enda som spelar roll för processorn är antalet hooks, matriser, vektorer och inputs, och de ska vara exakt identiska.

Visa signatur

i7 8770k @ 5.2 | MSI Z370 KRAIT | 32 GB DDR4-3200 | AX850W
EVGA GTX 980 Ti Classified SLI | Acer XB270HU G-Sync

Permalänk
Hjälpsam

Vi som trodde att vi hade något intressant på spåren, vilken glädjedödare.
Har du läst den här länken förresten.
Intel graphics drivers employ questionable 3DMark Vantage optimizations - The Tech Report - Page 1
Tänk vilket liv det skulle bli i fuskdebatten, om Nvidia elller AMD hade gjort samma sak.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk

Tänkte bara tillägga det att när jag kör min cpu i 250x16 istället för 200x20 så används 100% av mitt grafikkort i bad company 2 istället för runt 75%.

Visa signatur

Asrock P67 Extreme6 | Intel 2600k @ 4.5Ghz) | Noctua NH-D14 | Corsair 8GB DDR3 1600Mhz
ASUS GTX 770 DCII OC @ 1260/7900 | Intel X25-M G2 80GB| ~3.2TB HDD
Antec 1200 | Corsair HX 620 80+
ASUS PB278Q