Dual Channel ökar prestanda i spel (När CPU är bottleneck)

Trädvy Permalänk
Medlem
Plats
Lund
Registrerad
Dec 2009

Dual Channel ökar prestanda i spel (När CPU är bottleneck)

TLDR
Dual channel ger runt 25% mer FPS i benchmarks för Rise of the Tomb Raider och Division 2 vid låga grafikinställningar
/TLDR

Jag har rätt länge trott att Dual-Channel hade minimal betydelse efter att ha läst test som dessa:

https://www.gamersnexus.net/guides/1349-ram-how-dual-channel-...
https://techguided.com/single-channel-vs-dual-channel-vs-quad...

Efter att ha sett denna videon började jag dock tveka och ville testa själv. Mina resultat var snarlika där dual-channel gjorde stor skillnad när jag hade låga grafikinställningar, helt enkelt när CPU är bottleneck.

Testrigg:
i5 4670k @ 3.4 ghz
8 GB Ram @ 1333Mhz
GTX 970

Testresultat:

Rise of the tomb raider benchmark- Single Channel

  • Low settings (Single Channel) --- 114.43 FPS

  • Low settings (Dual Channel) --- 143.43 FPS

  • Ultra settings (Single Channel)--- 38.25 FPS

  • Ultra settings (Dual Channel) --- 38.89 FPS

The Division 2 benchmark - Single Channel

  • Low settings (Single Channel) --- 93 FPS

  • Low settings (Dual Channel) --- 116 FPS

  • Ultra Settings (Single Channel) --- 47 FPS

  • Ultra Settings (Dual Channel) --- 49 FPS

Sammanfattning:
Rise of the Tomb Raider: 25.3% högre FPS med Dual Channel
The Division 2: 24.7% högre FPS med Dual Channel

Jag var ganska förvånad över att det skulle vara så stor skillnad, när jag googlat tidigare har konsensus oftast varit att det inte har betydelse. Utan att veta särskilt mycket om hur processorer och minne fungerar gissar jag på att extra bandbredd leder till mindre dödtid och låter processorn jobba effektivare.

Vad är erfarenhet från er andra på forumet? Har ni sett liknande resultat? Nån som vet varför det är på detta sättet?

Trädvy Permalänk
Brons i quiz
Registrerad
Jan 2012

Vilken upplösning?

Citera om du vill ha svar!
8600K 4,1 GHz @ 1,03V Ghost S1
Instagram

Trädvy Permalänk
Medlem
Plats
Östersund
Registrerad
Jan 2010

Skillnaden i mer normala fall, vilket är det man oftast undrar över, är alltså 1.7% och 4.2%.

Om man skapar ett scenario, som t.ex att köra ett spel på låga inställningar i eventuellt lägre upplösningar som sätter högre press på vissa komponenter, så är det klart att man hittar skillnader.
Precis som många CPU tester kör spel i 720p för att se hur stor skillnaden är. Men så fort man vrider på 1080p ultra, eller 1440p/4k så är skillnaden helt plötsligt minimal.
T.ex: https://www.sweclockers.com/test/26445-intel-core-i9-9900k-i7...

Maximus X Hero - 8700k @5.1GHz - H115i - 32GB LPX@3466MHz - MSI 980Ti Gaming - EVGA SuperNova 750 G2 - Asus vg248qe - FD R5

Trädvy Permalänk
Medlem
Plats
Luleå
Registrerad
Nov 2008

Jag märkte stor skillnad på min förra dator (ddr3) mellan single/dual channel i BF1.
Antar att skillnaden varierar beroende på vilka spel,minnen,cpu,grafikkort, etc.
Om man letar efter tester på nätet så kan ett test visa att det är knappt någon skillnad, medans ett annat visar stor skillnad.

https://www.sweclockers.com/forum/trad/1452908-fps-bf1-1070

Define R5 | Asus X470-F | AMD Ryzen 5 2600 @4.1 | Noctua NH-D14 | EVGA GTX 1070 SC @2050/4354 | G.Skill Flare X 16GB @3400 CL14 | Seasonic Focus Plus Gold 650w | SanDisk Ultra II 240GB | 860 Evo 500GB | Seagate 1TB | Asus VG248 |

Trädvy Permalänk
Medlem
Plats
Aspergerland
Registrerad
Maj 2007

Det är som om funktionen fanns där utav en anledning! 😱

[e2160 1,8Ghz@3,33Ghz] ~ [Radeon HD5850@900/1200] ~ [4gb KingMax@1,11Ghz] ~ [LG W2363D] ~ [Denon AH-D1100] ~ [Naos 5000]
Överklocka: AMD Radeon HD3650
D A T O R B Y G G A R S K O L A N
Citera för svar

Trädvy Permalänk
Medlem
Registrerad
Jul 2011
Skrivet av Elghinnarisa:

Skillnaden i mer normala fall, vilket är det man oftast undrar över, är alltså 1.7% och 4.2%.

Om man skapar ett scenario, som t.ex att köra ett spel på låga inställningar i eventuellt lägre upplösningar som sätter högre press på vissa komponenter, så är det klart att man hittar skillnader.
Precis som många CPU tester kör spel i 720p för att se hur stor skillnaden är. Men så fort man vrider på 1080p ultra, eller 1440p/4k så är skillnaden helt plötsligt minimal.
T.ex: https://www.sweclockers.com/test/26445-intel-core-i9-9900k-i7...

720p medium BF1
9900k - 224
2700x - 171
Skillnad = 23%

1080p ultra BF1
9900k - 182
2700x - 138
Skillnad = 24%

I just det testet är det lika stor skillnad i 1080p med höga inställningar och 720p med låga.

Skickades från m.sweclockers.com

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Trädvy Permalänk
Medlem
Plats
Trondheim, Norge
Registrerad
Feb 2005

@ClintBeastwood:

Exakt. I det spelet är vilken cpu som helst flaskhals även i 4k. I 64 multiplayer alltså.

Ryzen 1700--GTX 1080--Go XLR--Shure SM7B

9900K@5.2--2X8GB G.Skill Ripjaws 3600 @ 4000 16-16-16-34--Inno3D RTX 2080 Ti AIO--Rog Strix Z390-F--Noctua NH-D15

-----------Twitch-------------

Trädvy Permalänk
Medlem
Registrerad
Jun 2012
Skrivet av Devien:

Vad är erfarenhet från er andra på forumet? Har ni sett liknande resultat? Nån som vet varför det är på detta sättet?

Kul att du tog dig tid att mäta. Tidigare var det hugget som stucket med single vs dual channel, men det verkar ha blivit allt viktigare med tiden. Kanske för att northbridge flyttats in till processorn, men det är bara spekulation. Tror bara att det är en gammal sanningen som hängt med, speciellt så eftersom det i många fall verkligen är liten skillnad. Men idag skulle jag säga att det är dumt att köra single channel, för även om inte spel i 1080p/ultra visar någon skillnad så kan program som WinZip tjäna väldigt mycket på dual channel.