Ang Ryzen's spelprestanda (matchar 7700K idag, presterar bättre i morgondagen)

Permalänk
Medlem
Skrivet av DST:

Fast det behöver inte vara cpun som är orsaken till den låga prestandan, det nya heta spåret är att nvidia korten helt enkelt inte presterar fullt ut på Ryzen.

Sen ang simspel, jag har kört med 6700/3770k och du kan i dem spelen göra att det blir stutterfest om du belastar spelen med fler bilar, det händer inte med äldre 8kärniga Xeon sandybride cpu.
Forza e inte sim

Jag har själv testat, i mitt fall var det så här:
Med tanke på att Core 0 är belastad till 100% i båda fallen, FPS är låst till 60 och grafikkortet i inget av fallen var över 60% usage var det just den enkeltrådiga prestandan som var begränsande faktor, det är väl ingen hemlighet att en 7700K har 20-30% bättre enkeltrådig prestanda? Ryzen pendlade mellan att harva kring 50-54, med drops ner till 30 och peakar på 59-60. 7700K ligger stensäkert på 60, någon gång flimrade 59 förbi. Med min förra CPU, 4690K, låg jag mellan 50-60 relativt konstant. Samma grafikkort alla tre gånger, och ändring av grafikinställningar påverkade inte ett jota.

Och nej, Forza är ingen realistisk simulator, men det använder sig likväl av samma modell som en, dvs. ganska så tunga fysikuträkningar för hur bilen skall bete sig, och förmodligen är det det som ligger på Core0 och tuggar.

Är spelet dåligt optimerat, har Ryzen mer samlad prestanda om man räknar samlad prestanda över alla cores? Svar ja.

Kan andra spel med denna typ av fysikmotorer ha varit förutseende och optimerat för fler trådar? Svar ja.

Faktum kvarstår, den absoluta majoriteten av spel är optimerade för att köras i få trådar på högpresterande kärnor, och ingen vet när, eller om det ens sker inom rimlig tid, spelen kommer optimeras för flera lågpresterande kärnor. Det känns rimligt att det måste ske snart, då det känns som att tillverkarna börjar få svårt att komma ner i transistortäthet, och klockfrekvenserna ligger så pass högt redan, men någon fast tidsplan ligger inte direkt...

Permalänk
Medlem
Skrivet av sAAb:

Här kommer en komplettering till min tidigare tabulering av värden från techpowerup.com då deras webbsida verkade svår att tolka.

Här har jag valt ut de spel som visade en korrelation på på minst 0,95 på log-log-värden mot minneshastigheterna, alla vid 1080p och CL14. Minneshastigheten 3200 finns även i CL16 och CL18 vilket syns i tabellen nedan; men dessa ingick så klart inte ikorrelationsberäkningen.

Det tjocka röda strecket visar det geometriska medelvärdet för dessa serier.
http://i66.tinypic.com/4ihhg6.png
Här är tabellen med procentuell förbättring.

MHz

2133

2400

2666

2933

3200

Korr

3200CL16

3200CL18

Anno 2205

100

101,98

103,6

104,86

106,31

0,999

105,59

104,14

Battlefield 1

100

102,4

102,57

104,89

106,05

0,978

105,89

105,47

Civilization VI

100

105,31

106,61

110,1

112,56

0,987

111,27

110,36

Dishonored 2

100

104,56

104,94

107,09

108,73

0,966

107,97

108,23

Fallout 4

100

106,64

110,14

112,41

117,31

0,988

114,51

113,11

Far Cry

100

105,47

106,33

111,68

114,6

0,983

113,5

111,68

Hitman

100

103,99

105,86

109,05

112,92

0,993

111,58

110,39

Total Wa

100

107,22

108,12

112,09

113,72

0,965

110,29

111,55

Watch Dogs 2

100

101,13

101,25

101,63

102,13

0,962

102,01

101,75

Geometric

100

104,28

105,46

108,14

110,38

0,98

109,11

108,46

Jag kunde inte låta bli att extrapolera trendlinjerna till 4000 MHz för att se vart man kanske hamnar om fem veckor. AMD har ju sagt att det skall bli enklare att öka förbi 3200 MHz på minnena.

EDIT:

De spel som inte platsade i diagrammet är

MHz

2133

2400

2666

2933

3200

3200 CL16

3200 CL18

Correl

Deus Ex

100.00%

101.65%

101.65%

101.77%

101.01%

101.52%

101.01%

0.511

Doom

100.00%

99.37%

99.53%

100.00%

100.00%

12.45%

100.63%

0.280

Resident Evil 7

100.00%

100.13%

100.13%

100.20%

99.93%

100.13%

99.93%

-0.044

Tomb Raider

100.00%

101.13%

101.60%

103.77%

102.64%

104.43%

104.43%

0.884

Sniper Elite

100.00%

99.56%

99.73%

100.35%

99.65%

100.18%

100.18%

0.041

Styx

100.00%

100.79%

100.50%

101.14%

100.57%

100.93%

100.36%

0.601

Shadow Warrior 2

100.00%

98.78%

98.78%

99.01%

98.78%

98.71%

98.63%

-0.694

The Witcher 3

100.00%

100.31%

100.21%

100.00%

100.31%

100.82%

99.69%

0.322

Ser man på råvärdena så är det uppenbart att dessa flaskade väldigt hårt och att de kräver ett bättre grafikkort än Nvidia Geforce GTX 1080 för att man skall kunna använda Ryzen och snabba minnen fullt ut.

Frågan är om Ryzen någonsin kommer att funka med 4000 minnen då det är problem att nå +3000 för gemene man/kvinna

Tråkigt att AMD valt en så låg standard hastighet på minnena då Cpun tappar så mycket prestanda. Mer rimligt vore en rekommendation på 2933Mhz minnen

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

Frågan är om Ryzen någonsin kommer att funka med 4000 minnen då det är problem att nå +3000 för gemene man/kvinna

Tråkigt att AMD valt en så låg standard hastighet på minnena då Cpun tappar så mycket prestanda. Mer rimligt vore en rekommendation på 2933Mhz minnen

Dom pratar om att dom ska släppa agesa "stavning?!" i vår nu som ska öka hastigheten mycket.
Sen verkar det som att Ryzen ogillar ram minnen som har olika timings exempelvis 16-17-17 kan gå dåligt medans 16-16-16
eller 17-17-17 funkar bra.

Permalänk
Avstängd
Skrivet av sesese:

Frågan är om Ryzen någonsin kommer att funka med 4000 minnen då det är problem att nå +3000 för gemene man/kvinna

Tråkigt att AMD valt en så låg standard hastighet på minnena då Cpun tappar så mycket prestanda. Mer rimligt vore en rekommendation på 2933Mhz minnen

industri standard är 2400mhz.
3600mhz finns det redan folk som kör på därute.
när väl allt justerats med moderkort och revisoner av bios då först kan en slutsats dras gällande minne och hastigheter

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Medlem
Skrivet av sesese:

Frågan är om Ryzen någonsin kommer att funka med 4000 minnen då det är problem att nå +3000 för gemene man/kvinna

Tråkigt att AMD valt en så låg standard hastighet på minnena då Cpun tappar så mycket prestanda. Mer rimligt vore en rekommendation på 2933Mhz minnen

Skrivet av Flopper:

industri standard är 2400mhz.
3600mhz finns det redan folk som kör på därute.
när väl allt justerats med moderkort och revisoner av bios då först kan en slutsats dras gällande minne och hastigheter

Jo, när patcharna släppts, då får vi se var vi hamnar. Innan dess så är det glada spekulationer som gäller!

Här har vi än mer mätvärden, nu från hardware.fr (http://www.hardware.fr/articles/958-2/latence-bande-passante....) som testat minnen igen. De visar bl.a. latenser i förhållande till klockning.

Om nu AMD lyckats, som sades i veckan, sänka latensen med 6 nanosekunder så är det ju trevligt. Frågan är (i ljuset av det här diagrammet från hardware.fr) vid vilken minnesfrekvens och timing det är. 6 av 103,4 är mindre än 6 av 75,9.

Jag fumlade lite innan och lade en uppdatering till ett tidigare inlägg i den här tråden, i en annan tråd av misstag.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem
Skrivet av Frankoz:

https://www.youtube.com/watch?v=0tfTZjugDeg&feature=push-u-su...

Det är Nvidias dåliga drivrutiner som håller Ryzen tillbaka!

En av många frukter som jag skördar med tiden och mer kommer, men folk säger att Ryzen i sig är sååå efter Kaby Lake i spel utan att förstå varför, och när man argumenterar emot så står man fortfarande kvar i sin teori och åsikt vid att "jaha men alla recensenter får dessa värden så att så är det". Ryzen är ruskigt bra på spel, men behöver lite mer tid för att optimera drivrutiner och släppa patchar till spel.

Kanske inga nyheter för vissa men en bra summering och kanske inte alla som läst:

http://www.pcworld.com/article/3186443/computers/amd-preps-fo...

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av sesese:

Frågan är om Ryzen någonsin kommer att funka med 4000 minnen då det är problem att nå +3000 för gemene man/kvinna

Tråkigt att AMD valt en så låg standard hastighet på minnena då Cpun tappar så mycket prestanda. Mer rimligt vore en rekommendation på 2933Mhz minnen

Det får vi se när 3500MT dividern släpps med senare BIOS. Då behövs inte lika hög BLCK för att nå högre hastigheter. Mycket beror på vad den integrerade minneskontrollern klarar, och det varierar, även på Intel. Man kommer inte behöva lika hög BLCK med en högre divider. DDR2667 har AMD angett som högsta standard och det är ändå en bit över JEDECS standardiserade DDR2400.

Skrivet av Fatty:

Dom pratar om att dom ska släppa agesa "stavning?!" i vår nu som ska öka hastigheten mycket.
Sen verkar det som att Ryzen ogillar ram minnen som har olika timings exempelvis 16-17-17 kan gå dåligt medans 16-16-16
eller 17-17-17 funkar bra.

Inga problem att köra Ryzen med t.ex 14-13-13.

Skrivet av sAAb:

Jo, när patcharna släppts, då får vi se var vi hamnar. Innan dess så är det glada spekulationer som gäller!

Här har vi än mer mätvärden, nu från hardware.fr (http://www.hardware.fr/articles/958-2/latence-bande-passante....) som testat minnen igen. De visar bl.a. latenser i förhållande till klockning.

http://i64.tinypic.com/2hyewet.png

Om nu AMD lyckats, som sades i veckan, sänka latensen med 6 nanosekunder så är det ju trevligt. Frågan är (i ljuset av det här diagrammet från hardware.fr) vid vilken minnesfrekvens och timing det är. 6 av 103,4 är mindre än 6 av 75,9.

Jag fumlade lite innan och lade en uppdatering till ett tidigare inlägg i den här tråden, i en annan tråd av misstag.

Med dividern så minskar behovet av BLCK och vi kommer få se på 6x ns på många system Har själv ingen BLCK då jag gjorde mig av med Taichi korten men ska nog testa ett Crosshair Hero ev i veckan.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem

En rejäl genomgång, varför det det är som det är och vad som måste ske för AMD om det ska ha någon chans.

Väldigt intressant och teknisk.

Visa signatur

HTPC Hemmabio Vinyl
CPU Intel 9900k@4.9GHz - Corsair Hydro H150i PRO RGB 360mm MB Gigabyte Z390 Aorus Master RAM Corsair Vengance LPX 16GB 3200Mhz GFX ASUS GTX 1080 Ti FE 11GB PSU Seasonic PRIME Ultra 1000W Gold SSD Corsair Force MP500 240GB Chassi NZXT H440
Gaming/Workstation
CPU Intel i9-7900X @4500 NZXT Kraken X62 MB Asus Prime X299-A GFX AMD Radeon VII RAM Corsair Vengeance RGB 4x8GB 3000MHz PSU EVGA SuperNOVA 750 G1 SSD Samsung 960 EVO M.2 SSD 500GB Chassi Phanteks Enthoo EVOLV ATX

Permalänk
Medlem

3660 med tight timings. Ger en bra skjuts i prestandan det. Men jag har nog mer tro på høgre frekvens kontra tightare timings. Men frekvens kanske ger diminishing returns efter vart och timings blir viktigare. Vi får se.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av IcedEarth:

https://www.youtube.com/watch?v=nIoZB-cnjc0

En rejäl genomgång, varför det det är som det är och vad som måste ske för AMD om det ska ha någon chans.

Väldigt intressant och teknisk.

Rekomenderar den för alla att se, jag tror Ryzen kommer bli bättre och bättre i deras eget eco system med windows som pushar för win10 och dx12

Riktigt bra genomgång varför resultaten är som de är atm. Tack för videon

Visa signatur

ok

Permalänk
Hjälpsam
Skrivet av IcedEarth:

https://www.youtube.com/watch?v=nIoZB-cnjc0

En rejäl genomgång, varför det det är som det är och vad som måste ske för AMD om det ska ha någon chans.

Väldigt intressant och teknisk.

Kan inte nog rekommenderas!
edit Här kommer en annan åsikt.
https://forum.beyond3d.com/threads/nvidia-pascal-reviews-1080...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av sAAb:

Det är inget fel på testet av Techpowerup.com. Det visar att Ryzen utan problem får ett Nvidia GeForce GTX 1080 att flaska rejält redan i 1080p och att den gpu:n börjar bli omodern. Det förklarar också varför Nvidia sänker priset på dem så att de blir av med dem. Det betyder naturligtvis att även 980Ti, 1070, RX480 och annat inte räcker till för att få Ryzen att lyfta, samtidigt som vi har Nvidias drivrutiner som inte fungerar som de skall, vilket visades häromdagen av AdoreTV.

Naturligtvis hade det varit roligare att se en kraftfullare kombination som RX 480 Crossfire eller ett GeForce GTX 1080 Ti, för det krävs det för att snabbare minnen skall visa vad de går för; här gör de inte det.

Här följer de råvärden som Techpowerup.com har använt. Klicka på Visa innehåll för att se dem.

MHz

2133

2400

2666

2933

3200

3200 CL16

3200 CL18

VeraCrypt

11100

11500

11500

11400

11800

11700

11700

SuperPi (/h)

6.59

6.66

6.77

6.81

6.81

6.80

6.81

wPrime (/h)

34.90

34.86

34.93

34.88

34.83

34.92

34.90

LAME Encoding (/h)

155

155

155

155

155

155

155

H.264 Encoding (/h)

85.96

87.27

87.46

87.98

88.95

88.39

87.76

H.265 Encoding (/h)

32.25

32.65

32.66

32.53

32.98

32.71

32.75

Photoshop CS6 (/h)

5578.37

5734.86

5767.84

5794.40

5806.26

5761.84

5869.50

Word (/h)

5755.49

5762.30

5894.97

5821.57

5831.85

5704.51

5898.64

Excel (/h)

5522.49

5621.40

5682.18

5751.90

5675.01

5575.43

5771.17

PowerPoint (/h)

1252.11

1269.60

1272.88

1275.96

1275.99

1276.22

1275.92

7-Zip Compress

32130

33301

33711

34202

34686

33956

34164

7-Zip Decompress

45802

46549

46787

46445

46686

46822

46515

WinRAR Compress (/h)

83.779

88.300

90.955

91.837

95.567

93.555

93.726

Avast 14GB (/h)

36.011

36.141

36.375

36.946

37.010

37.641

36.496

MySQL

134179

135571

138629

141304

139272

142719

139382

Blender (/h)

11.929

12.046

12.068

12.092

12.122

12.150

12.108

Cinebench R15 Multi

1609.85

1614.86

1622.13

1632.39

1652.41

1635.59

1633.45

Cinebench R15 Single

161.78

162.18

162.55

164.15

164.37

164.24

162.32

Euler3D (/h)

45.33

46.39

47.16

47.79

49.24

48.34

47.92

Google Octane

36656

36621

37496

37501

38248

39009

38093

Mozilla Kraken (/h)

4933.53

4823.15

4603.58

4936.92

5105.66

4996.53

4854.37

WebXprt

477

484

488

492

490

488

488

Anno 2205 1080p

55.5

56.6

57.5

58.2

59.0

58.6

57.8

Anno 2205 1440p

42.6

42.5

43.3

43.4

45.9

43.4

43.4

Anno 2205 4k

39.0

40.4

40.4

40.4

40.8

40.8

40.2

Battlefield 1 1080p

120.6

123.5

123.7

126.5

127.9

127.7

127.2

Battlefield 1 1440p

99.0

99.5

99.5

99.6

100.0

99.9

99.8

Battlefield 1 4k

51.8

51.5

51.7

51.9

51.9

52.0

51.9

Civilization VI 1080p

77.2

81.3

82.3

85.0

86.9

85.9

85.2

Civilization VI 1440p

76.8

80.6

81.6

83.3

84.9

84.1

83.4

Civilization VI 4k

70.7

72.3

72.4

72.9

73.5

73.0

73.0

Deus Ex 1080p

78.9

80.2

80.2

80.3

79.7

80.1

79.7

Deus Ex 1440p

53.5

54.3

54.3

54.5

54.1

54.3

54.2

Deus Ex 4k

28.7

28.8

28.8

28.8

28.5

28.7

28.6

Dishonored 2 1080p

79.0

82.6

82.9

84.6

85.9

85.3

85.5

Dishonored 2 1440p

70.2

72.1

72.4

73.1

73.6

73.4

73.5

Dishonored 2 4k

42.7

43.0

43.0

43.2

43.2

43.2

43.1

Doom 1080p

126.9

126.1

126.3

126.9

126.9

15.8

127.7

Doom 1440p

89.9

90.5

90.4

90.6

91.1

90.9

90.2

Doom 4k

50.8

50.9

50.9

51.2

51.1

51.1

51.3

Fallout 4 1080p

57.2

61.0

63.0

64.3

67.1

65.5

64.7

Fallout 4 1440p

57.4

61.2

61.9

64.4

66.6

65.4

63.8

Fallout 4 4k

52.8

53.8

53.9

54.1

54.0

54.1

53.9

Far Cry 1080p

82.2

86.7

87.4

91.8

94.2

93.3

91.8

Far Cry 1440p

74.3

75.0

75.0

75.5

75.1

75.6

75.4

Far Cry 4k

41.6

41.7

41.6

41.7

41.2

41.8

41.5

Hitman 1080p

75.1

78.1

79.5

81.9

84.8

83.8

82.9

Hitman 1440p

76.4

79.7

79.8

82.9

84.9

83.9

83.5

Hitman 4k

55.6

55.5

55.5

55.2

55.4

55.5

55.3

Resident Evil 7 1080p

153.3

153.5

153.5

153.6

153.2

153.5

153.2

Resident Evil 7 1440p

99.3

98.8

98.7

98.9

98.4

99.0

98.5

Resident Evil 7 4k

48.6

48.6

48.6

48.5

48.4

48.6

48.6

Tomb Raider 1080p

106.2

107.4

107.9

110.2

109.0

110.9

110.9

Tomb Raider 1440p

78.4

79.3

79.1

79.9

78.7

78.1

78.1

Tomb Raider 4k

39.2

39.1

39.1

39.1

38.9

39.1

39.1

Sniper Elite 1080p

112.7

112.2

112.4

113.1

112.3

112.9

112.9

Sniper Elite 1440p

82.1

82.2

82.0

81.9

81.4

82.1

81.7

Sniper Elite 4k

46.8

47.0

46.7

46.9

46.7

46.9

46.6

Styx 1080p

140.0

141.1

140.7

141.6

140.8

141.3

140.5

Styx 1440p

89.3

89.2

89.2

89.5

89.2

89.1

88.8

Styx 4k

40.6

40.6

40.6

40.7

40.5

40.6

40.5

Shadow Warrior 2 1080p

131.4

129.8

129.8

130.1

129.8

129.7

129.6

Shadow Warrior 2 1440p

96.5

97.5

97.4

97.1

97.0

96.3

96.9

Shadow Warrior 2 4k

52.5

52.7

52.6

52.7

52.3

52.5

52.3

Total War Warhammer 1080p

55.4

59.4

59.9

62.1

63.0

61.1

61.8

Total War Warhammer 1440p

55.2

56.8

57.0

57.2

57.3

57.2

57.2

Total War Warhammer 4k

30.0

29.9

29.9

29.9

30.0

30.0

30.0

Watch Dogs 2 1080p

79.8

80.7

80.8

81.1

81.5

81.4

81.2

Watch Dogs 2 1440p

58.1

58.2

58.4

58.5

58.5

58.5

58.5

Watch Dogs 2 4k

32.6

32.6

32.6

32.7

32.7

32.8

32.7

The Witcher 3 1080p

97.5

97.8

97.7

97.5

97.8

98.3

97.2

The Witcher 3 1440p

74.1

74.4

74.0

73.9

74.4

74.1

74.1

The Witcher 3 4k

44.0

44.2

44.2

44.2

44.0

44.1

44.1

MHz

2133

2400

2666

2933

3200

3200 CL16

3200 CL18

Geometric, all

137.89

139.85

140.41

141.57

142.40

137.98

141.53

Geometric, all %

100.00%

101.42%

101.83%

102.67%

103.27%

100.07%

102.64%

Geometric, cpu

750

759

764

770

777

773

771

Geometric, cpu %

100.00%

101.28%

101.97%

102.74%

103.62%

103.17%

102.92%

Geometric, games 1080p

91

93

94

95

96

85

96

Geometric, games 1440p

73

74

74

75

75

75

75

Geometric, games 4k

44

44

44

44

44

44

44

Geometric, games 1080p %

100.00%

102.35%

102.98%

104.61%

105.55%

93.00%

104.68%

Geometric, games 1440p %

100.00%

101.58%

101.82%

102.66%

103.35%

102.75%

102.41%

Geometric, games 4k %

100.00%

100.53%

100.51%

100.70%

100.52%

100.79%

100.50%

Dold text

Här är en tabell som sammanfattar värdena från Techpowerup.com.

Geometric, games 1080p %

100.00%

102.35%

102.98%

104.61%

105.55%

93.00%

104.68%

Geometric, games 1440p %

100.00%

101.58%

101.82%

102.66%

103.35%

102.75%

102.41%

Geometric, games 4k %

100.00%

100.53%

100.51%

100.70%

100.52%

100.79%

100.50%

Jämför man med tidigare minnestester, Mindblank/Zintoatree/Phoronix här och HardwareCanucks här, så ligger spelen i ungefär samma härad, men något lägre. Kanske är det gpu:n som är största orsaken.

Skrivet av sAAb:

Här kommer en komplettering till min tidigare tabulering av värden från techpowerup.com då deras webbsida verkade svår att tolka.

Här har jag valt ut de spel som visade en korrelation på på minst 0,95 på log-log-värden mot minneshastigheterna, alla vid 1080p och CL14. Minneshastigheten 3200 finns även i CL16 och CL18 vilket syns i tabellen nedan; men dessa ingick så klart inte ikorrelationsberäkningen.

Det tjocka röda strecket visar det geometriska medelvärdet för dessa serier.
http://i66.tinypic.com/4ihhg6.png
Här är tabellen med procentuell förbättring.

MHz

2133

2400

2666

2933

3200

Korr

3200CL16

3200CL18

Anno 2205

100

101,98

103,6

104,86

106,31

0,999

105,59

104,14

Battlefield 1

100

102,4

102,57

104,89

106,05

0,978

105,89

105,47

Civilization VI

100

105,31

106,61

110,1

112,56

0,987

111,27

110,36

Dishonored 2

100

104,56

104,94

107,09

108,73

0,966

107,97

108,23

Fallout 4

100

106,64

110,14

112,41

117,31

0,988

114,51

113,11

Far Cry

100

105,47

106,33

111,68

114,6

0,983

113,5

111,68

Hitman

100

103,99

105,86

109,05

112,92

0,993

111,58

110,39

Total Wa

100

107,22

108,12

112,09

113,72

0,965

110,29

111,55

Watch Dogs 2

100

101,13

101,25

101,63

102,13

0,962

102,01

101,75

Geometric

100

104,28

105,46

108,14

110,38

0,98

109,11

108,46

Jag kunde inte låta bli att extrapolera trendlinjerna till 4000 MHz för att se vart man kanske hamnar om fem veckor. AMD har ju sagt att det skall bli enklare att öka förbi 3200 MHz på minnena.

EDIT:

De spel som inte platsade i diagrammet är

MHz

2133

2400

2666

2933

3200

3200 CL16

3200 CL18

Correl

Deus Ex

100.00%

101.65%

101.65%

101.77%

101.01%

101.52%

101.01%

0.511

Doom

100.00%

99.37%

99.53%

100.00%

100.00%

12.45%

100.63%

0.280

Resident Evil 7

100.00%

100.13%

100.13%

100.20%

99.93%

100.13%

99.93%

-0.044

Tomb Raider

100.00%

101.13%

101.60%

103.77%

102.64%

104.43%

104.43%

0.884

Sniper Elite

100.00%

99.56%

99.73%

100.35%

99.65%

100.18%

100.18%

0.041

Styx

100.00%

100.79%

100.50%

101.14%

100.57%

100.93%

100.36%

0.601

Shadow Warrior 2

100.00%

98.78%

98.78%

99.01%

98.78%

98.71%

98.63%

-0.694

The Witcher 3

100.00%

100.31%

100.21%

100.00%

100.31%

100.82%

99.69%

Ser man på råvärdena så är det uppenbart att dessa flaskade väldigt hårt och att de kräver ett bättre grafikkort än Nvidia Geforce GTX 1080 för att man skall kunna använda Ryzen och snabba minnen fullt ut.

Tycker vi passar på att ge @sAAb en elogé för det arbete han gjort ovan och i många fler inlägg på forumet. Titta på alla data så inser ni att det är mycket tid lagt på detta. Grymt!

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem

Det stora problemet är väl att siffror är ... just siffror. Vilket är väldigt bra i vissa sammanhang och i andra något som helt enkelt ljuger en rakt upp i ansiktet. Som en enkel beskrivning, ta exempelvis skillnaden mellan en HDD och en SSD. Prestandan för att kopiera några större filer ger väldigt stor markant skillnad på hur snabbt linjen som visar förloppet rör sig, vilket innebär att något som kan utföras inom några sekunder känns snabbt.

Problemet här är just det omkringliggande som antingen är oberoende eller påverkas på ett sådant sätt att det inte blir relevant för händelsen. Ta exempelvis tiden det tar att dra några ikoner från ett fönster till ett annat, det påverkas inte, eller åtminstone på ett sätt som inte är beroende av om du har en SSD eller HDD för kopieringen. Att dra ikonen och tiden det tar för ditt OS att rita om och flytta ikonerna kommer att ta precis lika lång tid oavsett vilka diskar du då detta samt din muspekare har en viss tröghet, just för att du ska hinna se vad som pågår och det är just här du ser skillnaden.

Med andra ord, så länge man har filer som är mindre än vad värdet MB/sek är kommer tillräckligt små filer att vara färdiga före systemet har hunnit utföra händelsen på skärmen vilket gör att alla filer under en viss storlek "tar lika lång tid" och alla andra mätbara värden kommer att uppnå den brytpunkt som helt enkelt gör skillnaden på ett digitalt och ett analogt värde. Som exempel, avståndet mellan två schackrutor, oavsett förstoring, kräver fler pixlar, avståndet (gränsen) däremot mellan vitt och svart är den samma.

Detta är självklart applicerbart på allt som finns i siffror, så MB/sek, FPS, GHz, upplösning, DPI osv. blir lika drabbat oavsett. Det som antagligen skulle vara bäst mätbart mot människor är antalet förändringar per sekund. En viss form av aktivitet behöver vi, samtidigt får den inte vara för snabb och även på vilket sätt det påverkar och att det finns en viss spann av möjlighet då alla är olika men någonstans mellan 0,1 - 3 sekunders väntetid är nog det som är optimalt för oss, utan för detta så blir det antingen för snabbt eller för stillastående.

Det som jag uppfattar som mest tråkigt med dessa diskussioner är just att man stirrar sig blind på siffror och glömmer innebörden av det man vill mäta och / eller uppnå.

Så för att vara lite tråkig, sluta stirra på siffror och känn efter den mer upplevda visionen, det är tyvärr flaskhalsarna och rödljusen - inte det som flyter på som kommer störa dig.

Visa signatur

Server: Fractal design Define 7 XL | AMD Ryzen 7 5800X 8/16 | ASUS ROG CROSSHAIR VIII DARK HERO | 64GB Corsair @ 3000MHz | ASUS Radeon RX 460 2GB | Samsung 960 PRO 512 GB M.2 | 2x 2TB Samsung 850 PRO SSD | 6x Seagate Ironwolf Pro 10TB
WS: Phantex Entoo Elite | AMD Ryzen Threadripper 1950X 16/32 | ASUS Zenith extreme | 128GB G.Skill @ 2400MHz | ASUS Radeon HD7970 | 3x 2TB Samsung 960PRO M.2 | 6x Seagate Ironwolf Pro 10 TB
NEC PA301W 30" @ 2560x1600 | Linux Mint 21.3 Cinnamon

Permalänk
Medlem
Skrivet av DST:

Mm ser det, var en nyhet för mig nu måste jag säga.
Alltid varit för mig att AMD dragit mer cpu kraft än Nvidia iaf fram till 7970 å möjligtvis 290x om jag minns det rätt.
Var ju alltid tjat att det var mer microstutter på AMD jämfört med Nvidia å jag tyckte att det var bla just att amd drog mer cpu kraft än Nvidia.

https://youtu.be/nIoZB-cnjc0
Antar du sett denna redan. Men såg den nyss själv. Där förklarar han Varför Nvidia drar mer cpu.
Så det är sant att dom drar mer cpu.

Permalänk
Medlem
Skrivet av OldComputer:

Det stora problemet är väl att siffror är ... just siffror. Vilket är väldigt bra i vissa sammanhang och i andra något som helt enkelt ljuger en rakt upp i ansiktet. Som en enkel beskrivning, ta exempelvis skillnaden mellan en HDD och en SSD. Prestandan för att kopiera några större filer ger väldigt stor markant skillnad på hur snabbt linjen som visar förloppet rör sig, vilket innebär att något som kan utföras inom några sekunder känns snabbt.

Problemet här är just det omkringliggande som antingen är oberoende eller påverkas på ett sådant sätt att det inte blir relevant för händelsen. Ta exempelvis tiden det tar att dra några ikoner från ett fönster till ett annat, det påverkas inte, eller åtminstone på ett sätt som inte är beroende av om du har en SSD eller HDD för kopieringen. Att dra ikonen och tiden det tar för ditt OS att rita om och flytta ikonerna kommer att ta precis lika lång tid oavsett vilka diskar du då detta samt din muspekare har en viss tröghet, just för att du ska hinna se vad som pågår och det är just här du ser skillnaden.

Med andra ord, så länge man har filer som är mindre än vad värdet MB/sek är kommer tillräckligt små filer att vara färdiga före systemet har hunnit utföra händelsen på skärmen vilket gör att alla filer under en viss storlek "tar lika lång tid" och alla andra mätbara värden kommer att uppnå den brytpunkt som helt enkelt gör skillnaden på ett digitalt och ett analogt värde. Som exempel, avståndet mellan två schackrutor, oavsett förstoring, kräver fler pixlar, avståndet (gränsen) däremot mellan vitt och svart är den samma.

Detta är självklart applicerbart på allt som finns i siffror, så MB/sek, FPS, GHz, upplösning, DPI osv. blir lika drabbat oavsett. Det som antagligen skulle vara bäst mätbart mot människor är antalet förändringar per sekund. En viss form av aktivitet behöver vi, samtidigt får den inte vara för snabb och även på vilket sätt det påverkar och att det finns en viss spann av möjlighet då alla är olika men någonstans mellan 0,1 - 3 sekunders väntetid är nog det som är optimalt för oss, utan för detta så blir det antingen för snabbt eller för stillastående.

Det som jag uppfattar som mest tråkigt med dessa diskussioner är just att man stirrar sig blind på siffror och glömmer innebörden av det man vill mäta och / eller uppnå.

Så för att vara lite tråkig, sluta stirra på siffror och känn efter den mer upplevda visionen, det är tyvärr flaskhalsarna och rödljusen - inte det som flyter på som kommer störa dig.

Det jag misstänker att du är ute efter är en bedömning av rimlighet.

Det där var tydligt i artikeln av techpowerup.com om Ryzens minneshastigheter.

Varför ha ett test med Word och Excel där benchmarken ligger på mellan 0,61 och 0,66 sekunder...

Bortkastad arbetstid i dagsläget då problemet är för litet för vilken modern processor som helst, om syftet är att få fram vilket minne som är bäst.

Däremot är Anandtechs "monster pdf" relevant.

http://www.anandtech.com/show/11170/the-amd-zen-and-ryzen-7-r...

Citat:

First up is a self-penned test using a monstrous PDF we once received in advance of attending an event. While the PDF was only a single page, it had so many high-quality layers embedded it was taking north of 15 seconds to open and to gain control on the mid-range notebook I was using at the time. This put it as a great candidate for our 'let's open an obnoxious PDF' test. Here we use Adobe Reader DC, and disable all the update functionality within. The benchmark sets the screen to 1080p, opens the PDF to in fit-to-screen mode, and measures the time from sending the command to open the PDF until it is fully displayed and the user can take control of the software again. The test is repeated ten times, and the average time taken. Results are in milliseconds.

Men, även det skulle kanske vara för litet om det är skillnaden på olika minnen man är ute efter. Det jag misstänker att du är ute efter är en bedömning av rimlighet.

Fast det här perspektivet har relevans även i en tråd som handlar om spel, faktiskt. Grundtanken lär då vara att en cpu eller ett minne som förbättrar från 113 fps till 127 fps dvs. ökar 12 % faktiskt är 12 % snabbare även i andra sammanhang, kanske även när det gäller 0,1 - 3 sekunders väntetid.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem

@Fatty:

jo men ändå inte..

förr var det iaf amd/ati som drog mer å jag minns det som igår, e svårt för vissa att justera sig till nutiden när man lever i dådiden ibland

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk
Datavetare
Skrivet av IcedEarth:

https://www.youtube.com/watch?v=nIoZB-cnjc0

En rejäl genomgång, varför det det är som det är och vad som måste ske för AMD om det ska ha någon chans.

Väldigt intressant och teknisk.

Riktigt bra video, med andra ord:

Nvidias drivers kan automatiskt dra nytta av flera CPU-kärnor i DX11 en möjlighet som saknas i AMDs DX11 drivers, att sprida ut last över CPU-kärnor kostar dock CPU-cykler. Så korrekta sättet att beskriva AMDs vs Nvidias GPU-drivers är att Nvidias har mer overhead men är mer effektiva om man har tillräckligt mycket CPU-kraft över. Så i DX11 är det absolut en fördel med Nvidia kort om man har många CPU-kärnor.

I DX12 är schemaläggningen av trådar helt upp till applikationen så ingen av den automatiska spridningen till CPU-kärnor som drivers görs i DX11 kan utföras av drivers här (detta är något Nvidia själva pekar ut här). Så om ett DX12 spel är väldigt bra på att sprida ut lasten över CPU-kärnor är det nackdel Nvidia om CPUn är flaskhals då deras drivers har högre overhead.

Ännu viktigare, i det jag länkade ovan pekar Nvidia specifikt ut detta:

"Don’t rely on the driver to parallelize any Direct3D12 works in driver threads"

Så om ett DX12 spel i någon läge begränsas av att en enskild CPU-tråd är flaskhals så kommer det bli ett värre problem ju lägre prestanda per kärna CPUn har. DX12 verkar vara kul att hantera för spelprogrammerarna, ännu en detalj i raden av detaljer som flyttats från drivers i DX11 till applikationen i DX12

Och för att förstå varför det kan få relativt stor effekt på Ryzen kontra Kaby Lake i vissa lägen måste man titta på prestanda per CPU-kärna, det specifikt för skalära heltal då det är vad spel främst beror av. Tyvärr är det inte så många CPU-benchmarks som testar skalära heltal (de tenderar att testa skalära flyttal, där är IPC hos Ryzen lysande, den matchar Broadwell).

För skalära heltal finns det nu rätt många olika fall som är rätt samstämmiga: IPC för skalära heltal är runt 40 % högre i Skylake/Kaby Lake jämfört med Ryzen. Heltalsdelen är en svag länk, prestandamässigt är R7-1700X väldigt nära en i7-2600K med åtta kärnor.

Några exempel som visar på denna skillnad. Kompilering, skalar helt perfekt med CPU-kärnor och för att i7-7700K och R7-1700 ska prestera i stort sett identiskt (vilket är fallet i praktiken) så måste IPC vara ~40 % högre.

Dold text

Enkeltrådade fall som jobbar med skalära heltal, t.ex. WebXPRT och Google Octane, pekar också på att heltals IPC är på Sandy Bridge nivå vilket betyder att Skylake ligger ~40 % högre.

Dold text

Även Hardware Unboxed videon, som postats tidigare i denna tråd, har ett fall som visar samma sak (det oavsett om man använder Nvidia eller AMD GPU)

Dold text

Rent praktiskt betyder detta: om CPU är flaskhals kan R7-1700 aldrig prestera bättre än i7-7700K i spel, kompilering är så mycket "best-case" det kan bli för Ryzen (här är till och med cache-designen en fördel för Ryzen, två CCX med icke-inkluderande L3 är en perfekt match när man kör en enkeltrådad kompilatorinstans per CPU-tråd).

R7-1800X skulle rent teoretiskt kunna bli snabbare, men det kräver att spelet kan utnyttja 8C/16T i det närmaste perfekt. Tittar man på Amdahls lag krävs det att värdet på p (hur stor andel av programmet som kan skalas till alla CPU-kärnor) måste överstiga 85 % om CPUer är klockade lika och det måste överstiga 92 % om de kör på sina normala frekvenser.

Bortsett från Ashes of the Singularity är inget spel i närheten av dessa p-värden. I just AoS är ju i7-6900K 25 % snabbare än i7-7700K i CPU-testet, vilket är inte är i närheten av resultatet i något annat spel.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Vad jag sett så verkar Nvidia drivers vara en bov också när det gäller begränsning av prestanda i ryzen.

i princip alla reviewers testade ryzen med Nvida kort och då var det ~20-30% skillnad mellan 1800x och 7700k i rise of the tomb raider.

Testade man med crossfire RX480 så försvann gapet.

Man kan direkt se något inte riktigt fungerar korrekt när varken cpun eller grafikkortet flaskar. Sett detta i flertalet titlar när ryzen körs.

7700k vinner ofta marginellt men kikar man på siffrorna så ligger GPU på 99% medans på ryzen så är GPUN bara 90% trotts att cpun ligger under 50-60% på alla cores.

Prestandan kommer bara ökad med nya mjukvaruoptimeringar både från AMD och andra.

Visa signatur

| CPU: Intel i7 7700k | RAM: Crucial DDR4 OC @2400mhz 16GB (2x8GB) | GPU: EVGA GeForce RTX 2080 XC GAMING| Mobo: MSI H110I Pro | SSD: Crucial BX200 240GB 2.5" SSD | SSD2: Samsung 850 EVO 500GB 2.5" SSD | Nätagg: be quiet! SFX L Power 600W | Kylare: NZXT Kraken X62 | Chassi: Fractal Design Nano S | OS: Windows 10 Pro

Permalänk
Medlem
Skrivet av sAAb:

Det jag misstänker att du är ute efter är en bedömning av rimlighet.

Det där var tydligt i artikeln av techpowerup.com om Ryzens minneshastigheter.

Varför ha ett test med Word och Excel där benchmarken ligger på mellan 0,61 och 0,66 sekunder...

https://tpucdn.com/reviews/AMD/Ryzen_Memory_Analysis/images/word.png

Bortkastad arbetstid i dagsläget då problemet är för litet för vilken modern processor som helst, om syftet är att få fram vilket minne som är bäst.

Däremot är Anandtechs "monster pdf" relevant.

http://www.anandtech.com/show/11170/the-amd-zen-and-ryzen-7-r...

http://images.anandtech.com/graphs/graph11170/85864.png

Men, även det skulle kanske vara för litet om det är skillnaden på olika minnen man är ute efter. Det jag misstänker att du är ute efter är en bedömning av rimlighet.

Fast det här perspektivet har relevans även i en tråd som handlar om spel, faktiskt. Grundtanken lär då vara att en cpu eller ett minne som förbättrar från 113 fps till 127 fps dvs. ökar 12 % faktiskt är 12 % snabbare även i andra sammanhang, kanske även när det gäller 0,1 - 3 sekunders väntetid.

Exakt, sedan tycker jag din tid där för PDF var väldigt lång tid, då det mesta jag öppnar går fortare än 1 sek, även på en trött HDD. Eller så har man testat extremt stora PDF:er eller så är Linux och dess filsystem så mycket snabbare än Windows och NTFS.

Whatever, I dag är datorerna så snabba att det i princip bara är grafiken och dess FPS alternativt diskars MB/sek kvar att mäta för att få mätbara siffror, vilket gör att man helt enkelt inte kan se resultatet då det är för små skillnader.

Just här är siffrorna jättebra, för du ser att du får rimliga värden och sover lite bättre på natten när du får 50+ FPS, ser temperaturen och diskarnas sekventiella MB/sek och du kan direkt se om något är uppenbart fel som när en CPU, GPU eller SSD inte presterar som den ska. Men för att få värdena relevanta till det dom faktiskt gör så är det annat man behöver ändra och här är inte längre dessa värden den primära flaskhalsen utan det är snarare du själv och den väntetid som program har just för att man måste vänta på dig. Revolutionen från HDD till SSD och från AHCI till NVMe är det bästa som hänt på hårddiskmarknaden, däremot behöver vi se den på andra ställen.

Så länge en mobil i dag i princip klarar bättre av att utföra vissa saker än vad datorer före år 2000 klarar av så kommer dessa siffror just bara att vara siffror som bekräftar att en komponent klarar av dess specifika värden och presterar vad dom lovar. I dag blir inte en dator snabbare för att man ökar maxvärdet för en enskild komponent utan för att man ökar det lägsta möjliga värdet för en slö komponent.

Bilar blir inte generellt snabbare för att alla skaffar en Ferrari, utan för att man tar bort rödljusen och köerna och just dessa brukar väl vara det stora problemet i datorers gränssnitt vad jag vet.

Visa signatur

Server: Fractal design Define 7 XL | AMD Ryzen 7 5800X 8/16 | ASUS ROG CROSSHAIR VIII DARK HERO | 64GB Corsair @ 3000MHz | ASUS Radeon RX 460 2GB | Samsung 960 PRO 512 GB M.2 | 2x 2TB Samsung 850 PRO SSD | 6x Seagate Ironwolf Pro 10TB
WS: Phantex Entoo Elite | AMD Ryzen Threadripper 1950X 16/32 | ASUS Zenith extreme | 128GB G.Skill @ 2400MHz | ASUS Radeon HD7970 | 3x 2TB Samsung 960PRO M.2 | 6x Seagate Ironwolf Pro 10 TB
NEC PA301W 30" @ 2560x1600 | Linux Mint 21.3 Cinnamon

Permalänk
Medlem
Skrivet av OldComputer:

Exakt, sedan tycker jag din tid där för PDF var väldigt lång tid, då det mesta jag öppnar går fortare än 1 sek, även på en trött HDD. Eller så har man testat extremt stora PDF:er eller så är Linux och dess filsystem så mycket snabbare än Windows och NTFS.

Whatever, I dag är datorerna så snabba att det i princip bara är grafiken och dess FPS alternativt diskars MB/sek kvar att mäta för att få mätbara siffror, vilket gör att man helt enkelt inte kan se resultatet då det är för små skillnader.

Just här är siffrorna jättebra, för du ser att du får rimliga värden och sover lite bättre på natten när du får 50+ FPS, ser temperaturen och diskarnas sekventiella MB/sek och du kan direkt se om något är uppenbart fel som när en CPU, GPU eller SSD inte presterar som den ska. Men för att få värdena relevanta till det dom faktiskt gör så är det annat man behöver ändra och här är inte längre dessa värden den primära flaskhalsen utan det är snarare du själv och den väntetid som program har just för att man måste vänta på dig. Revolutionen från HDD till SSD och från AHCI till NVMe är det bästa som hänt på hårddiskmarknaden, däremot behöver vi se den på andra ställen.

Så länge en mobil i dag i princip klarar bättre av att utföra vissa saker än vad datorer före år 2000 klarar av så kommer dessa siffror just bara att vara siffror som bekräftar att en komponent klarar av dess specifika värden och presterar vad dom lovar. I dag blir inte en dator snabbare för att man ökar maxvärdet för en enskild komponent utan för att man ökar det lägsta möjliga värdet för en slö komponent.

Bilar blir inte generellt snabbare för att alla skaffar en Ferrari, utan för att man tar bort rödljusen och köerna och just dessa brukar väl vara det stora problemet i datorers gränssnitt vad jag vet.

Jag förstår nog inte vad du menar egentligen. Det var rejält sämre förr. Allt.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem
Skrivet av DST:

@Fatty:

jo men ändå inte..

förr var det iaf amd/ati som drog mer å jag minns det som igår, e svårt för vissa att justera sig till nutiden när man lever i dådiden ibland

Det är svårt att lära en gammal hund att sitta ;).
Folk pratar fortfarande om att AMD kort blir super varma.
Även under Nvidia Fermi korten sa alla att amd blir
Super varma och kräver mycket ström. Medans
Nvidia drog mer det var bara för man är van vid att amd drog mer tidigare.
Eller att AMD har dåliga drivers och Nvidia funkar bättre. Senaste tiden har Fan
Nvidia haft riktigt dåliga drivers jämförelse med AMD x).

Men den där videon var väldigt intressant.

Permalänk
Medlem
Skrivet av Yoshman:

Riktigt bra video, med andra ord:

Nvidias drivers kan automatiskt dra nytta av flera CPU-kärnor i DX11 en möjlighet som saknas i AMDs DX11 drivers, att sprida ut last över CPU-kärnor kostar dock CPU-cykler. Så korrekta sättet att beskriva AMDs vs Nvidias GPU-drivers är att Nvidias har mer overhead men är mer effektiva om man har tillräckligt mycket CPU-kraft över. Så i DX11 är det absolut en fördel med Nvidia kort om man har många CPU-kärnor.

I DX12 är schemaläggningen av trådar helt upp till applikationen så ingen av den automatiska spridningen till CPU-kärnor som drivers görs i DX11 kan utföras av drivers här (detta är något Nvidia själva pekar ut här). Så om ett DX12 spel är väldigt bra på att sprida ut lasten över CPU-kärnor är det nackdel Nvidia om CPUn är flaskhals då deras drivers har högre overhead.

Ännu viktigare, i det jag länkade ovan pekar Nvidia specifikt ut detta:

"Don’t rely on the driver to parallelize any Direct3D12 works in driver threads"

Så om ett DX12 spel i någon läge begränsas av att en enskild CPU-tråd är flaskhals så kommer det bli ett värre problem ju lägre prestanda per kärna CPUn har. DX12 verkar vara kul att hantera för spelprogrammerarna, ännu en detalj i raden av detaljer som flyttats från drivers i DX11 till applikationen i DX12

Och för att förstå varför det kan få relativt stor effekt på Ryzen kontra Kaby Lake i vissa lägen måste man titta på prestanda per CPU-kärna, det specifikt för skalära heltal då det är vad spel främst beror av. Tyvärr är det inte så många CPU-benchmarks som testar skalära heltal (de tenderar att testa skalära flyttal, där är IPC hos Ryzen lysande, den matchar Broadwell).

För skalära heltal finns det nu rätt många olika fall som är rätt samstämmiga: IPC för skalära heltal är runt 40 % högre i Skylake/Kaby Lake jämfört med Ryzen. Heltalsdelen är en svag länk, prestandamässigt är R7-1700X väldigt nära en i7-2600K med åtta kärnor.

Några exempel som visar på denna skillnad. Kompilering, skalar helt perfekt med CPU-kärnor och för att i7-7700K och R7-1700 ska prestera i stort sett identiskt (vilket är fallet i praktiken) så måste IPC vara ~40 % högre.

Enkeltrådade fall som jobbar med skalära heltal, t.ex. WebXPRT och Google Octane, pekar också på att heltals IPC är på Sandy Bridge nivå vilket betyder att Skylake ligger ~40 % högre.

Även Hardware Unboxed videon, som postats tidigare i denna tråd, har ett fall som visar samma sak (det oavsett om man använder Nvidia eller AMD GPU)

Rent praktiskt betyder detta: om CPU är flaskhals kan R7-1700 aldrig prestera bättre än i7-7700K i spel, kompilering är så mycket "best-case" det kan bli för Ryzen (här är till och med cache-designen en fördel för Ryzen, två CCX med icke-inkluderande L3 är en perfekt match när man kör en enkeltrådad kompilatorinstans per CPU-tråd).

R7-1800X skulle rent teoretiskt kunna bli snabbare, men det kräver att spelet kan utnyttja 8C/16T i det närmaste perfekt. Tittar man på Amdahls lag krävs det att värdet på p (hur stor andel av programmet som kan skalas till alla CPU-kärnor) måste överstiga 85 % om CPUer är klockade lika och det måste överstiga 92 % om de kör på sina normala frekvenser.

Bortsett från Ashes of the Singularity är inget spel i närheten av dessa p-värden. I just AoS är ju i7-6900K 25 % snabbare än i7-7700K i CPU-testet, vilket är inte är i närheten av resultatet i något annat spel.

Fast nu presterar Ryzen med en AMD gpu setup högre fps än ett titan xp och vi pratar inte lite högre fps i dx12. Flaskhalsen i ROTR med ett titan xp är inte cpu i sig utan den overhead som skapas av mjukvaru schedulern som nvidia använder sig av, speciellt i dx12. Här verkar deras implementation av mjukvaru schedulern ställa till mycket stora problem på Ryzen med långt sämre prestanda som resultat. På Titan XP setupen så ligger cpu belastning i många spel långt över den belastning som ges av motsvarande AMD gpu setup och på just ryzen cpu så är denna overhead förvärrad jämfört med en intel cpu. Om detta är något som nVidia kan åtgärda återstår att se men dom bör kunna om inte annat förminska prestandapåverkan som deras scheduler orsakar.

Detta har i sig ingenting med skalära heltal eller annat att göra utan det är uteslutande en bugg i nVidias drivare/ mjukvaru scheduler.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Datavetare
Skrivet av tellus82:

Fast nu presterar Ryzen med en AMD gpu setup högre fps än ett titan xp och vi pratar inte lite högre fps i dx12. Flaskhalsen i ROTR med ett titan xp är inte cpu i sig utan den overhead som skapas av mjukvaru schedulern som nvidia använder sig av, speciellt i dx12. Här verkar deras implementation av mjukvaru schedulern ställa till mycket stora problem på Ryzen med långt sämre prestanda som resultat. På Titan XP setupen så ligger cpu belastning i många spel långt över den belastning som ges av motsvarande AMD gpu setup och på just ryzen cpu så är denna overhead förvärrad jämfört med en intel cpu. Om detta är något som nVidia kan åtgärda återstår att se men dom bör kunna om inte annat förminska prestandapåverkan som deras scheduler orsakar.

Detta har i sig ingenting med skalära heltal eller annat att göra utan det är uteslutande en bugg i nVidias drivare/ mjukvaru scheduler.

Då läste du inte alls vad Nvidia skriver i sin "DX12 Do's And Don'ts"

"
Don’t rely on the driver to parallelize any Direct3D12 works in driver threads

  • On DX11 the driver does farm off asynchronous tasks to driver worker threads where possible – this doesn’t happen anymore under DX12

  • While the total cost of work submission in DX12 has been reduced, the amount of work measured on the application’s thread may be larger due to the loss of driver threading. The more efficiently one can use parallel hardware cores of the CPU to submit work in parallel, the more benefit in terms of draw call submission performance can be expected.

"
Jag säger absolut inte emot att overhead är högre i Nvidias drivers, allt pekar tvärt om på att så är fallet. Det jag pekar på är att det finns ingen "Nvidia scheduler" i DX12, är precis det man skriver ovan. I DX12 är det helt upp till applikationen att sprida lasten på ett lämpligt sätt över CPU-kärnor, drivern kan överhuvudtaget inte göra något här (vilket den kan i DX11).

Det absolut enklaste förklaringen till varför prestandadelta mellan Ryzen och Kaby Lake är större i DX12 med Nvidia GPUer är just att RoTR begränsas i någon läge av mängden arbete som kan utföras på en specifikt tråd. Drivern har inga möjligheter alls att lösa detta problem i DX12. Så länge som skillnaden i prestanda mellan Kaby Lake och Ryzen är ~40 % eller mindre behöver det inte vara en bug, den absolut enklaste förklaringen är i stället skillnaden i prestanda per CPU-tråd och FPS begränsas av att någon CPU-tråd nått sin kapacitet (det kan också förklara varför SMT ibland kan ge negativ boost).

Hardware unbox test med Far Cry Primal visar ju också att i ett läge där 4 eller färre CPU-kärnor används och man är helt CPU-bunden så presterar ju i7-7700K ungefär så mycket bättre som är förväntat sett till dess högre IPC. Det gäller oavsett om man använder AMD eller Nvidia GPU.

Den lägre enkeltrådprestandan kommer absolut synas mest just i fallet Nvidia + DX12, finns i nuläget inget som pekar på att det är en bug i Nvidias drivers utan är en effekt av att Nvidias GPUer gör vissa saker i programvara som AMDs GPUer gör i maskinvara. Är absolut möjligt att lindra problemet på system med många kärnor, men det är något som måste göras i varje applikation då DX12 inte möjliggör den typ av automatiskt multitrådning som Nvidia har i DX11.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Då läste du inte alls vad Nvidia skriver i sin "DX12 Do's And Don'ts"

"
Don’t rely on the driver to parallelize any Direct3D12 works in driver threads

  • On DX11 the driver does farm off asynchronous tasks to driver worker threads where possible – this doesn’t happen anymore under DX12

  • While the total cost of work submission in DX12 has been reduced, the amount of work measured on the application’s thread may be larger due to the loss of driver threading. The more efficiently one can use parallel hardware cores of the CPU to submit work in parallel, the more benefit in terms of draw call submission performance can be expected.

"
Jag säger absolut inte emot att overhead är högre i Nvidias drivers, allt pekar tvärt om på att så är fallet. Det jag pekar på är att det finns ingen "Nvidia scheduler" i DX12, är precis det man skriver ovan. I DX12 är det helt upp till applikationen att sprida lasten på ett lämpligt sätt över CPU-kärnor, drivern kan överhuvudtaget inte göra något här (vilket den kan i DX11).

Det absolut enklaste förklaringen till varför prestandadelta mellan Ryzen och Kaby Lake är större i DX12 med Nvidia GPUer är just att RoTR begränsas i någon läge av mängden arbete som kan utföras på en specifikt tråd. Drivern har inga möjligheter alls att lösa detta problem i DX12. Så länge som skillnaden i prestanda mellan Kaby Lake och Ryzen är ~40 % eller mindre behöver det inte vara en bug, den absolut enklaste förklaringen är i stället skillnaden i prestanda per CPU-tråd och FPS begränsas av att någon CPU-tråd nått sin kapacitet (det kan också förklara varför SMT ibland kan ge negativ boost).

Hardware unbox test med Far Cry Primal visar ju också att i ett läge där 4 eller färre CPU-kärnor används och man är helt CPU-bunden så presterar ju i7-7700K ungefär så mycket bättre som är förväntat sett till dess högre IPC. Det gäller oavsett om man använder AMD eller Nvidia GPU.

Den lägre enkeltrådprestandan kommer absolut synas mest just i fallet Nvidia + DX12, finns i nuläget inget som pekar på att det är en bug i Nvidias drivers utan är en effekt av att Nvidias GPUer gör vissa saker i programvara som AMDs GPUer gör i maskinvara. Är absolut möjligt att lindra problemet på system med många kärnor, men det är något som måste göras i varje applikation då DX12 inte möjliggör den typ av automatiskt multitrådning som Nvidia har i DX11.

Fast nu har du nog blandat ihop cpu och gpu scheduler, det jag pratar om är nVidias implementation av mjukvaru scheduler för gpu arbetet i sig, inte hur schedulerns jobb sedan sprids ut (vilket är symptom på problemet). Schedulern kan inte bara "tas bort" i dx12, gpu'n måste ha denna server tråd igång för att överhuvudtaget kunna rendera/jobba alls. På AMD kort så sköts detta i hårdvara, på nVidias senare GPUer sköts det i mjukvara. Hur lasten sedan sprids för schedulern till gpu'n sköts helt och hållet av Nvidias drivare/mjukvara. Här kommer sedan problemet i dx12 där overhead ökar dramatiskt på ryzen med nvidia gpu. Varför detta sker är än så länge bara spekulation men problemet finns där likväl.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Datavetare
Skrivet av tellus82:

Fast nu har du nog blandat ihop cpu och gpu scheduler, det jag pratar om är nVidias implementation av mjukvaru scheduler för gpu arbetet i sig, inte hur schedulerns jobb sedan sprids ut. Schedulern kan inte bara "tas bort" i dx12, gpu'n måste ha denna server tråd igång för att överhuvudtaget kunna rendera/jobba alls. På AMD kort så sköts detta i hårdvara, på nVidias senare GPUer sköts det i mjukvara. Hur lasten sedan sprids för schedulern till gpu'n sköts helt och hållet av Nvidias drivare/mjukvara.

Nej, har inte blandat ihop något där. Det finns ingen GPU-driver specifik scheduler what so ever i DX12, är precis det Nvidia säger på den sidan.

I DX12 kommer Nvidias driver aldrig skapa nya trådar och den flyttar aldrig anrop mellan existerande trådar, så är helt upp till applikationen att sprida lasten väl. DX12 har dock lägre overhead och finns fler möjligheter att sprida last över trådar, men det måste ske explicit!

I DX11 har drivern egna "worker-threads", även om spelet är enkeltrådat kommer GPU-jobbet fördelas över flera CPU-trådar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Kan det vara så att Ryzen tillsammans med AMDs nya generation GPU som kommer snart kommer uppvisa betydligt bättre siffror än idag? Eller är det fortfarande upp de som gör spelen att de belastar fler kärnor? Om jag nu förstått skillnaden mellan DX11 och DX12 korrekt...

Visa signatur

AMD Ryzen 7 1800X - NZXT Kraken X52 - Asus Crosshair VI Extreme - G.Skill Flare CL14 3200 MHz - Crucial SSD x 2 - MSI GTX970 - Fractal Design Define R5

Permalänk
Medlem
Skrivet av Yoshman:

Nej, har inte blandat ihop något där. Det finns ingen GPU-driver specifik scheduler what so ever i DX12, är precis det Nvidia säger på den sidan.

I DX12 kommer Nvidias driver aldrig skapa nya trådar och den flyttar aldrig anrop mellan existerande trådar, så är helt upp till applikationen att sprida lasten väl.

I DX11 har drivern egna "worker-threads", även om spelet är enkeltrådat kommer GPU-jobbet fördelas över flera CPU-trådar.

Ehh, jo nVidias senare gpu'er är helt och hållet beroende av mjukvaru scheduler då dom överhuvudtaget inte har detta i hårdvaran. Du misstolkar bara det som står. GPU schedulerns jobb kan sedan spridas ut i sin tur på cpu'n vilket sker i dx11 och detta står nVidia för, i dx12 är det en kombination av nVidia och utvecklarna som får mer dirrekt tillgång till hur gpu-mjukvaruschedulern fungerar och sköts. Dock har nVidia fortfarande full tillgång och möjlighet att patcha schedulern för Ryzen. Det är detta som behövs.

På en AMD GPU så sköts allt scheduler jobb för gpu'n i hårdvaran hos just gpu'n, här har man i dx11 inte implementerat något i mjukvaran som sprider ut cpu arbetet när det kommer til just gpu-scheduler jobbet. Men i dx12 så får utvecklaren tillgång till hårdvaran mer direkt och kan på så vis påverka hur hårdvaruschedulern sköts.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Datavetare
Skrivet av tellus82:

Ehh, jo nVidias senare gpu'er är helt och hållet beroende av mjukvaru scheduler då dom överhuvudtaget inte har detta i hårdvaran. Du misstolkar bara det som står.

Se sidan 6 i denna presentation.

Kontrollfråga: Har du någonsin programmerat för DX11 och DX12? D.v.s. förstår du vad man refererar till när man pratar om "software scheduler" i detta kontext?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Se sidan 6 i denna presentation.

Kontrollfråga: Har du någonsin programmerat för DX11 och DX12? D.v.s. förstår du vad man refererar till när man pratar om "software scheduler" i detta kontext?

Motfråga, förstår du vad som menas med gpu scheduler för gpu arbete? Det har precis 0 att göra med en cpu scheduler och hur arbete sprids på cpu egentligen, det är nVidias fullösning som gör att dom kan sprida ut draw calls och liknande över fler cpu kärnor. Det är i sig separat från gpu-schedulern egentligen.

Det är en context switching scheduler som tillåter att GPUns kärnor kan jobba med olika saker så som CUDA, opencl, osv osv samtidigt som den jobbar med 3d rendering i valfri api.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Datavetare
Skrivet av tellus82:

Motfråga, förstår du vad som menas med gpu scheduler för gpu arbete? Det har precis 0 att göra med en cpu scheduler och hur arbete sprids på cpu egentligen, det är nVidias fullösning som gör att dom kan sprida ut draw calls och liknande över fler cpu kärnor. Det är i sig separat från gpu-schedulern egentligen.

Och i DX11 kan de automatiskt sprida ut detta jobb över flera CPU-kärnor, d.v.s. de har en programvarubaserad schemaläggare i DX11. I DX11 är applikationen något som producerar jobb och postar detta till en eller flera CPU-trådar som ägs av drivern, d.v.s. GPU-jobbet som utförs av CPU utförs på en annan OS-tråd(ar) än den som kör spelmotorn.

I DX12 utförs allt CPU-relaterat GPU-jobb direkt i anropstråden, d.v.s om applikationen är enkeltrådad kommer även allt GPU-relaterat arbete som CPUn utför köras i samma tråd. Så finns ingen "scheduler" här.

När väl jobbet är processat av CPU och postat till GPUn skiljer det sig överhuvudtaget inte mellan DX11 och DX12 på Nvidia GPUerna. Så den scheduler som finns på GPU (som hanterar shader-program) är överhuvudtaget inte relevant för diskussionen, den schedulern är helt implementerad i GPUn.

Skrivet av tellus82:

Det är en context switching scheduler som tillåter att GPUns kärnor kan jobba med olika saker så som CUDA, opencl, osv osv samtidigt som den jobbar med 3d rendering i valfri api.

Det är inte alls vad han pratar om i videon, vilket förklarar varför din bild av detta blir rätt förvirrad.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer