Permalänk
Hjälpsam
Skrivet av Broken-arrow:

Ett spel krävde mer än 8Gb ram jag hade (win och det jag har i bakgrunden äter 4GB ram ca), bara krascha efter ett tag igång och hade ju två 4+4 stickor och så dyrt var det inte med två 4+4 stickor till (tänkte 8+8, men win 7 kan inte läsa in den mängden ram samt rätt onödigt).

Så för mig krävs det runt 10GB ram för vissa spel

Är ganska säker på att om 10 GB används av Windows och program, så används resterande 6 GB som diskcache (Cachelagrat), så jag tror att allt ditt minne används.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem
Skrivet av sAAb:

"Om antal CPU-kärnor ökar från 4 till 8 vinner man ~16 %" vilket är i samma magnitud som "Om frekvensen går från ~3,5 GHz till 4,5 GHz vinner ~21 %"!

Dött lopp, då antalet observationer är lågt.

Får man locka med http://socserv.socsci.mcmaster.ca/jfox/Courses/Oxford-2005/R-...

"Nonparametric-Regression Resources in R"

Med icke-parametriska metoder når man djupare än med all flummigt skräp som bygger på medelvärden och standardavvikelser. Vill du att sanningen skall vara robust?! Kör enbart icke-parametriskt. ;D

Upp till bevis!😁

@yoshman
Jag var också inne på att göra L3/eDRAM till dummies, vilket med FX-processorerna och haswell/broadwell skulle kunna ge en uppfattning om dess betydelse.

En intressant frågeställning är Hur antalet kärnor skulle påverka resultatet för 5 resp. 10 år sedan. Det skulle ge en fingervisning om hur utvecklingen mot multitrådat går.

Permalänk
Inaktiv

Amdahl's law nämns och det allra viktigaste man behöver kunna från denna är följande:
Amdahl's law only applies to cases where the problem size is fixed. In practice, as more computing resources become available, they tend to get used on larger problems (larger datasets), and the time spent in the parallelizable part often grows much faster than the inherently serial work. https://en.wikipedia.org/wiki/Amdahl's_law

Så jag ger inte så mycket för dessa tester som idag är testade på mjukvara optimerade för en helt annan hårdvara och detta har typ varit i alla tider ändå sin Pentium Pro.
Dock helt klart kommer Rysen få det tufft för de som enbart spelar på datorn, men tiden får utvisa hur tufft.

Och som någon frågade hur klarade man sig för 5-10 år sedan, jo man anpassade sina lösningar efter den hårdvara som man hade tillgång till. Kunder kunde säga att de ville vissa saker och man förklarade bara vad hårdvaran för att driva detta kostade och lösningen blev enklare emot vad de är idag.
Detsamma gäller spel, den större spelutvecklaren som hade optimerat sitt spel för en 8 core för något år sedan skulle jag nästan per automatik kalla för dum, såvida det ej var ett spel för svindyra simulatorer som finns för jaktplan, formel 1 bilar etc.

Permalänk
Medlem

Magkänslan med bas och turbofrekvenserna säger mig att RyZen inte är någon jätteklockare. Kommer man upp i 4.5GHz ska man vara glad. Hoppas jag har fel...

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Avstängd
Skrivet av Herr Kantarell:

Magkänslan med bas och turbofrekvenserna säger mig att RyZen inte är någon jätteklockare. Kommer man upp i 4.5GHz ska man vara glad. Hoppas jag har fel...

Behöver inte överklocka som en gud om bas prestandan är mer än nog

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Entusiast
Skrivet av Herr Kantarell:

Magkänslan med bas och turbofrekvenserna säger mig att RyZen inte är någon jätteklockare. Kommer man upp i 4.5GHz ska man vara glad. Hoppas jag har fel...

Svårt att säga.
"1800X" verkar ju köras i 3.6GHz/4.0GHz vilket är mer än Intel 6900K's 3.2/3.7GHz.

Men ja det ser ju lite oroande ut för varianterna med färre kärnor.
Dock så är ju inte basfrekvenser särskilt representativa för hur mycket en processor kan klocka, ta Sandy Bridge som ett exempel med Intel Core i5 2500K som i stock körs i 3.3/3.7GHz men oftast kan nå 5.0GHz med rätt kylning trots det

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Medlem

Pcper la just upp en bra video om Zens arkitektur.

https://www.youtube.com/watch?v=plXoBXFodHI&t

Visa signatur

[1700X] [B350 mITX] [32GB DDR4@3000MHz CL15] [Vega 56] [Nano S] [D15S] [Win 10 Pro]

Permalänk
Medlem
Skrivet av Sisyfos:

Svårt att säga.
"1800X" verkar ju köras i 3.6GHz/4.0GHz vilket är mer än Intel 6900K's 3.2/3.7GHz.

Men ja det ser ju lite oroande ut för varianterna med färre kärnor.
Dock så är ju inte basfrekvenser särskilt representativa för hur mycket en processor kan klocka, ta Sandy Bridge som ett exempel med Intel Core i5 2500K som i stock körs i 3.3/3.7GHz men oftast kan nå 5.0GHz med rätt kylning trots det

Jo det är sant att den ändå är snabbare än 6900K

Min 2600K går ju i 4.7GHz svalt och gick att skrämma upp i 5.2GHz på luft. Men efterföljande arkitekturer klockade inget vidare förrän nu. Om AMD och Ryzen vet vi nästan ingenting.

Får avvakta och se vilken modell det blir. Tycker 1700 är rätt imponerande med sina 65W.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av Sisyfos:

Svårt att säga.
"1800X" verkar ju köras i 3.6GHz/4.0GHz vilket är mer än Intel 6900K's 3.2/3.7GHz.

Men ja det ser ju lite oroande ut för varianterna med färre kärnor.
Dock så är ju inte basfrekvenser särskilt representativa för hur mycket en processor kan klocka, ta Sandy Bridge som ett exempel med Intel Core i5 2500K som i stock körs i 3.3/3.7GHz men oftast kan nå 5.0GHz med rätt kylning trots det

Ryktet säger att Ryzen går att köra i 5Ghz med luftkylning. Dock osäkert om det gäller alla 8 kärnor.

Visa signatur

| CPU: Intel i7 7700k | RAM: Crucial DDR4 OC @2400mhz 16GB (2x8GB) | GPU: EVGA GeForce RTX 2080 XC GAMING| Mobo: MSI H110I Pro | SSD: Crucial BX200 240GB 2.5" SSD | SSD2: Samsung 850 EVO 500GB 2.5" SSD | Nätagg: be quiet! SFX L Power 600W | Kylare: NZXT Kraken X62 | Chassi: Fractal Design Nano S | OS: Windows 10 Pro

Permalänk
Entusiast
Skrivet av Implor:

Ryktet säger att Ryzen går att köra i 5Ghz med luftkylning. Dock osäkert om det gäller alla 8 kärnor.

Det är inte bara osäkert, det är bekräftat att det var med endast en kärna aktiverad: http://wccftech.com/ryzen-overclocks-cpchardware-5ghz-on-air-...

Men visst finns det hopp.

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Medlem

@Sisyfos: Jepp. Med tanke på officiell boost lär vara 4Ghz för 1800x så känns inte 4.5-4.7 på alla kärnor vara utom räckhåll. Iallafall om man får ett bra chip.

Frågan är lite hur XFR fungerar. Säger bara >4.0Ghz beroende på kylning och jag hade varit intresserad av att veta hur aggressiv den är. Kanske drar upp den 10% direkt bara man har en bra luftkylare.

Visa signatur

| CPU: Intel i7 7700k | RAM: Crucial DDR4 OC @2400mhz 16GB (2x8GB) | GPU: EVGA GeForce RTX 2080 XC GAMING| Mobo: MSI H110I Pro | SSD: Crucial BX200 240GB 2.5" SSD | SSD2: Samsung 850 EVO 500GB 2.5" SSD | Nätagg: be quiet! SFX L Power 600W | Kylare: NZXT Kraken X62 | Chassi: Fractal Design Nano S | OS: Windows 10 Pro

Permalänk
Medlem
Skrivet av Implor:

@Uzanar: Jepp. Med tanke på officiell boost lär vara 4Ghz för 1800x så känns inte 4.5-4.7 på alla kärnor vara utom räckhåll. Iallafall om man får ett bra chip.

Frågan är lite hur XFR fungerar. Säger bara >4.0Ghz beroende på kylning och jag hade varit intresserad av att veta hur aggressiv den är. Kanske drar upp den 10% direkt bara man har en bra luftkylare.

Det enda jag egentligen vet om XFR är att den stegvis ökar med 25 MHz, sen antar jag även att det går hyfsat snabbt att stega upp. Men det är ingenting jag egentligen vet något om.

Permalänk
Medlem
Skrivet av Gruarn:

Jag har två separata funderingar, en för metod och en för data:
Metod:

  • p-värden är intressanta, rapportera gärna dessa. Om vi kommer fram till att en extra kärna i snitt ger 11 FPS i ett DX11(?)-spel kan det vara bra att kunna säga något om hur säkert resultatet är. Är datan entydig eller är går det i grund och botten inte säga säkert.

  • Jag har svårt att avgöra om det är förväntat tecken på arkitekturdummies. Framför allt Skylake verkar ha bytt tecken jämfört med min analys

  • Givet hur stor fördel en ordentligt tilltagen cache kan ge (t.ex. Broadwells eDRAM), är det verkligen rimligt att utelämna den som en del av arkitekturen? Och speciellt med Vishera/Richland får vi ju väldigt tydliga svar på vad som händer med L3

Här är samma två modeller som i mitt tidigare inlägg, med p-värden och sida vid sida tack vare att jag just lärt mig en massa om bbcode av @sAAb (jag trodde jag skulle kunna redigera mitt gamla inlägg, men det gick visst inte längre, så jag upprepar dem här).

I tredje modellen längst till höger testar jag en annan modifikation. Tittar man på fördelningen av FPS så finns en tydlig outlier, A6-7400K med 55FPS. Den är också en outlier i modellen, den får ett modellerat värde på över 100 medan dess verkliga är 55. Regressionsmodeller är känsliga mot sådana outliers, och utan den får vi ganska annorlunda värden.

Original

L2 ej med

Outlier struken

Coefficient (B)

p

Coefficient (B)

p

Coefficient (B)

p

(Intercept)

-21.48

0.35

10.93

0.667

54.24

<.001

GHz

14.88

<.001

17.73

<.001

15.74

<.001

BDCores

-0.44

0.905

11.02

<.001

4.69

0.008

Threads

-1.02

0.466

-2.55

0.113

-2.92

0.001

L2

14.22

<.001

L3

0.37

0.714

-0.67

0.561

1.5

0.025

S_ (baseline = Bulldozer)

Broadwell

139.28

<.001

80.68

<.001

57.47

<.001

Steamroller

49.32

<.001

22.18

0.125

17.53

0.024

Haswell

135.49

<.001

81.51

<.001

54.63

<.001

Ivy Bridge

140.63

<.001

87.24

<.001

61.7

<.001

Kaby Lake

134.05

<.001

78.69

<.001

53.43

<.001

Piledriver

44.95

<.001

25.71

0.068

14.89

0.049

Sandy Bridge

139.23

<.001

86.12

<.001

60.38

<.001

Skylake

135.82

<.001

82.75

<.001

56.06

<.001

Observations

54

54

53

R2 / adj. R2

.884 / .847

.834 / .786

.934 / .914

FPS (Alien Resurrection) ~ GHz + BDCores + Threads + L2 + L3 + Series VS modellen utan L2 VS modellen utan L2 samt utan A6-7400K (dvs 1 processor borttagen)

Nu är Bulldozer referenskategori, så det bör vara mer jämförbart med din tidigare beräkning. Det som också skiljer, som jag glömde skriva, är att variabeln litografi inte är med - jag vet inte vad det är eller hur det ska beräknas. Men det är nog den som gör att de olika arkitekturerna inte jämför likadant mot varandra, i din modell som i min vänstraste ovan. Det som dock är intressant är att nyttan av flera cores (fortfarande räknat som 1BD-modul = 2 cores) halveras då vi tar bort en processor längst ner i spannet som knappast någon som läser detta forum skulle överväga att köra spel på. Jag skulle säga att modell 3 är mycket mer relevant att tolka än modell 2, då den inte påverkas lika mycket av något enskilt värde. (Det visas också av att den har mer normalfördelade residualer, för den tekniskt intresserade). Effekten av antal cores är i den närmare 5 FPS/kärna än 10.

Ett separat problem med L3-storlek är att värdet är 0 för alla Bulldozer med efterföljare. Så ska man räkna på cachestorlek så behöver man nog räkna Bulldozers L2 som L3, och evt dividera med kärnor. Ett annat sätt vore att normalisera chachestorleken genom att dividera varje Intel-processors cache med genomsnittet för alla Intel, och likadant med AMD (här kan vi välja största cachen eller summan L2+L3). Då får vi ett mått på hur prestanda skalar med cachestorlek som inte bär med sig IPC-skillnader mellan AMD och Intel. Jag har dålig koll på eDRAM men jag ser att @Yoshman undersöker det.

Skrivet av Gruarn:

Data:
Givet att grafikkortet cappar vid 177-178 FPS, är det inte rimligt att dela in materialet i 2 olika körningar, för att få data på vad som påverkar mest när det vi är CPU-begränsade, relativt när vi är GPU-begränsade?

Absolut - detta är en mycket viktig poäng. Hälften av processorerna i datasetet har en FPS i spelet mellan 177 och 180. Dessa är sannolikt GPU-bundna och vi skulle nog bara hitta brus, så det är inte direkt meningsfullt att undersöka dem. Några proppar i toppen ligger kring 182, men det känns som att skillnaden mellan 179 och 182FPS är helt en funktion av någon feature som har med minnesaccess att göra (eDRAM?), snarare än antal cores eller klock. Så det är definitivt värt att titta på enbart den lägre halvan, de proppar som ligger under 177 fps (jag visar R-output direkt likt @Yoshman, sista kolumnen är p-värdet för den som är intresserad, "Estimate" är det vi jämför.):

lm(formula = FPS ~ GHz + Threads + S_, data = cpubound) Residuals: Min 1Q Median 3Q Max -7.6580 -3.7526 -0.2471 1.2206 12.5490 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 16.316 14.029 1.163 0.258507 GHz 23.402 2.567 9.118 1.46e-08 *** Threads 4.567 1.046 4.368 0.000298 *** S_Steamroller 17.440 7.393 2.359 0.028614 * S_Haswell 50.506 8.389 6.020 6.93e-06 *** S_Piledriver 16.265 7.037 2.311 0.031592 * S_Sandy Bridge 43.170 8.234 5.243 3.94e-05 *** S_Skylake 53.583 7.244 7.397 3.83e-07 *** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 5.811 on 20 degrees of freedom Multiple R-squared: 0.9289, Adjusted R-squared: 0.904 F-statistic: 37.3 on 7 and 20 DF, p-value: 3.989e-10

Jag räknar här på hårdvarutrådar enbart, baserat på att dessa övervägande 4-kärniga proppar nog fort blir mättade på trådar. HT representeras inte alls då endast en processor saknar det (Pentium Gxxx). L3 närmade sig multikollinearitet och bidrog inte heller med förklaringsvärde. Siffrorna är som synes inte helt olika föregående modell - troligen för de processorer som utelämnats diskriminerar dåligt då de de är GPU-bundna. Men detta är som du säger självfallet mer relevanta data att titta på om vi vill veta något alls om CPUers förmåga i spel.

Skrivet av sAAb:

Man bör tänka på att hårdvarutrådar kanske mer följer ett log2-samband än ett linjärt.

EDIT: Glöm log2, tänkte fel.

Skrivet av Yoshman:
  • antal kärnor, visade sig att logaritmen av antal kärnor fungerar betydligt bättre. Det är också helt logiskt då formen på denna kurva är bunden uppåt av Amdahls lag, spel lär knappast ha en p värde i Amdahls som överstiger 0,9 (mellan 0,5-0,8 är nog realistiskt)

[...]

  • Om antal CPU-kärnor ökar från 4 till 8 vinner man ~16 %

Log2 är nog inte alls dumt, jag tror dock att just för spelfrågan kan det vara ännu mer informativt att titta på hoppet 2-4 cores vs 4-flera, för ett spel där det gör någon form av skillnad. Alltså en dummy för hur mycket 4 cores gör över 2, och en för hur mycket 6-10 gör över 2. Just eftersom det är den gränsen som folks köpbeslut tenderar kretsa kring. Jag var på väg att göra det men just i denna datamängden är det meningslöst, då alla CPUer med mer än 4 cores ligger i taket på FPS.

Visa signatur

Här hade jag en historik sen 1990-talet, men den blev tillslut för lång. Aktiva maskiner 2022-framåt:
Work/Play/Everythingstation: AMD Epyc 7443p, Pop OS host, Win10 + Linux guests (KVM/Qemu)
Work/Play nr 2: AMD Phenom II 1090t, Debian + Win 10 (dual boot)
Server x3: Epyc 7252 (TrueNAS Core), Atom 2550 (FreeBSD, backup), Opteron 6140 (Ubuntu, off prem backup)
Retrohörna under uppbyggnad: Dual Pentium Pro 200MHz, Pentium P54C 90MHz, Gravis Ultrasound MAX

Permalänk
Medlem

Kom just på en intressant aspekt.

Är det rätt att Sweclockers testar med XFR aktiverat?

Om XFR sker automatiskt så är det något en icke överklockare också kommer dra nytta av.
Så det är i princip en fancy CPU boost funktion men blir kanske lite skevt när det är kylningsberoende (iofs så är alla OC tester det)

Eller måste Sweclockers ha tre olika staplar?

Exempel:

1800X (Stock, no XFR)
1800X (XFR)
1800X (Manual OC)

vad tror ni?

Visa signatur

| CPU: Intel i7 7700k | RAM: Crucial DDR4 OC @2400mhz 16GB (2x8GB) | GPU: EVGA GeForce RTX 2080 XC GAMING| Mobo: MSI H110I Pro | SSD: Crucial BX200 240GB 2.5" SSD | SSD2: Samsung 850 EVO 500GB 2.5" SSD | Nätagg: be quiet! SFX L Power 600W | Kylare: NZXT Kraken X62 | Chassi: Fractal Design Nano S | OS: Windows 10 Pro

Permalänk
Datavetare
Skrivet av sAAb:

"Om antal CPU-kärnor ökar från 4 till 8 vinner man ~16 %" vilket är i samma magnitud som "Om frekvensen går från ~3,5 GHz till 4,5 GHz vinner ~21 %"!

Dött lopp, då antalet observationer är lågt.

Får man locka med http://socserv.socsci.mcmaster.ca/jfox/Courses/Oxford-2005/R-...

"Nonparametric-Regression Resources in R"

Med icke-parametriska metoder når man djupare än med all flummigt skräp som bygger på medelvärden och standardavvikelser. Vill du att sanningen skall vara robust?! Kör enbart icke-parametriskt. ;D

Kraven om man gör linjärregression är:

Det ska vara linjära samband mellan storheterna. Tror vi kan vara rätt överens om att det är rätt linjär respons på frekvens.

Just detta krav gör att man inte kan använda kärnor direkt, det fungerar bara för saker som skalar perfekt med CPU-kärnor vilket inte är fallet för spel. Amdahls lag sätter en övre gräns för skalningen, tyvärr är "p" värdet rätt svårt att veta men en logaritmering av antal kärnor ger i alla fall en betydligt rakare linje när det plottas mot FPS.

Så här ser jag inte alls hur icke-linjär regression skulle hjälpa då det är ett linjärt beroende mellan FPS och frekvens samt FPS och logaritmen av antal CPU-kärnor (stämmer rätt bra om amdahls "p" värde inte är nära 0 eller 1).

Övriga parametrar är dummys, så finns bara två nivåer. Är som sagt riktigt rudis på statistik, men ser inte hur en icke-linjär regression skulle hjälpa då. Rent linjäralgebraiskt betyder "linearitet" här att det alltid är samma boost av att lägga till eDRAM, samma boost av att lägga till SMT, etc. Det antagandet lär vara en rätt bra abstraktion av verkligheten.

Nästa krav är att värdena ska vara normalfördelade. Det är absolut en viss osäkerhet både i FPS och CPU-frekvens, har använt max turbo när alla kärnor är aktiva och den verkliga frekvensen kommer i praktiken pendla både över och under detta värde (fast inom ett väldigt smalt område).

Kan man inte se antal kärnor som ett värde med mätfel noll? I det läge kvittar det ju om det är normalfördelat eller ej då det alltid blir samma värde.

Nästa är att det inte ska finnas multikollinearitet mellan de oberoende variablerna. I de jag valt finns inget sådant, eventuella effekter av L3$, minnesbandbredd etc är inte modellerade specifikt utan de blir del av antal CPU-kärnor och eventuell eDRAM.

Sista antagandet är att de ska vara ungefär samma nivå på variansen hos de oberoende variablerna. Det stämmer inte, men å andra sidan är det rätt litet absolut fel i alla oberoende variabler här.

Förstår inte din kommentar om "dött lopp", det var ju ett räkneexempel. 4,5 GHz är ju 33 % högre än 3,5 GHz men ger en respons på 21 %. 8 kärnor är 100 % fler än 4 kärnor (i logaritmiskt skala skiljer det 50 %) och ger 16 %. Skulle säga att responsen är rätt olika mellan dessa, eller tänker jag fel här?

Ett sätt att testa sin modell är ju att titta på värdet av "R-square", än mer på "adjusted R-square" och kanske mest på "predicted R-square". Dessa är 95 %, 94 % samt 90 % vilket pekar på att modellen beskriver data väldigt väl och de två sista visar att det inte är en effekt av att modellen har allt för många oberoende variabler. Eller det också en tankevurpa?

Alla frågor ovan är verkligen riktigt och ärliga funderingar, är som sagt rejält grön på detta.

Det är absolut ett problem att det är väl få mätvärden, var därför jag tog in flera spel (fler mätvärden per CPU-modell) och tog bort CPU-modeller (mindre risk för överbestämd modell p.g.a. allt för många oberoende variabler).

Om vi nu antar att Ryzen får en IPC motsvarande Haswell/Broadwell är ju de mest intressanta datapunkterna hur steget från Haswell/Broadwell, steget mellan 4,6 och 8 kärnor samt effekt SMT påverkar spel (eDRAM är mest för att i7-5775C inte ska bli en sådan outlier). Men finns självklart massor med osäkerhet ändå, både i modellen och hur bra approximation Haswell/Broadwell IPC är för Zen (tror själv fortfarande Ryzen kommer ligga närmare Ivy vid heltalstunga laster, andra är redan säkra på att det blir Skylake IPC).

Skrivet av Gruarn:

Upp till bevis!😁

@yoshman
Jag var också inne på att göra L3/eDRAM till dummies, vilket med FX-processorerna och haswell/broadwell skulle kunna ge en uppfattning om dess betydelse.

En intressant frågeställning är Hur antalet kärnor skulle påverka resultatet för 5 resp. 10 år sedan. Det skulle ge en fingervisning om hur utvecklingen mot multitrådat går.

Är bara de senaste åren som spelmotorerna börjat använda work-stealing schedulers som grundläggande metod för att sprida last, en metod som teoretisk kan skala till hur många CPU-trådar som helst givet tillräckligt med "work". Tidigare var det väldigt mycket ad-hoc tekniker som sällan skalade förbi två-tre CPU-kärnor och i princip aldrig förbi fyra.

Blir inte problemet med en L3-dummy att den blir allt för svår att skilja från antal CPU-kärnor? Är ett linjärt samband mellan total L3$-storlek och antal kärnor sedan Nehalem. Vidare verkar ju RAM-hastighet spela en hel del roll för spel om man är CPU-bunden, det är ju också lite lurigt att ta hänsyn till.

eDRAM har väldigt hög latens, så är nog mer en booster av genomsnittlig RAM-bandbredd än något annat. Det är hela poängen med eDRAM, ge långt högre bandbredd till iGPU. Är garanterat den höga latensen som gör att nästan inga "vanliga" applikationer ser någon vinst av eDRAM (finns vissa program som har en svag negativ effekt från eDRAM då latens mot RAM ökar när man har eDRAM).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av Oegat:

Log2 är nog inte alls dumt, jag tror dock att just för spelfrågan kan det vara ännu mer informativt att titta på hoppet 2-4 cores vs 4-flera, för ett spel där det gör någon form av skillnad. Alltså en dummy för hur mycket 4 cores gör över 2, och en för hur mycket 6-10 gör över 2. Just eftersom det är den gränsen som folks köpbeslut tenderar kretsa kring. Jag var på väg att göra det men just i denna datamängden är det meningslöst, då alla CPUer med mer än 4 cores ligger i taket på FPS.

Den verkliga formeln här är ju

S(c,p) = 1 / (1 - p + p / c)

Där p är andelen av programmet som kan köras parallellt (antagandet är att de är oändligt parallellt, vilket gör formeln till en övre gräns) medan c är antal CPU-kärnor. S är då maximal "speed-up" man kan få över ett system med en CPU-kärna.

Inom ett rimligt intervall är log(c) en bra approximation. Responsen blir då 100 % om man går från två kärnor till fyra (log(4)/log(2) = 2), fyra till åtta blir 50 % (log(8)/log(4) = 1.5). Detta matchar ungefär ett p värde på 0.88 vilket kanske är lite optimistiskt idag...

Det stora problemet, förutom att vi har få mätpunkter, är just det sista du skriver här: GPU är en flaskhals även vid de lägsta upplösningarna och den totalt dominerade flaskhalsen vid normala upplösningar. Så dessa modeller vi tar fram blir i praktiken ändå rätt meningslösa. Men ett kul sätt att slå ihjäl tid

Skrivet av Implor:

Kom just på en intressant aspekt.

Är det rätt att Sweclockers testar med XFR aktiverat?

Om XFR sker automatiskt så är det något en icke överklockare också kommer dra nytta av.
Så det är i princip en fancy CPU boost funktion men blir kanske lite skevt när det är kylningsberoende (iofs så är alla OC tester det)

Eller måste Sweclockers ha tre olika staplar?

Exempel:

1800X (Stock, no XFR)
1800X (XFR)
1800X (Manual OC)

vad tror ni?

SweClockers testade, precis som de flesta andra, Broadwell-E med Turbo boost 3.0 avslaget. Tror inte SweClockers skrev varför men andra skrev att det blev större varians i resultaten med det påslaget. Tror det bara var TomsHardware som hade TB3.0 på, det gör en hyfsad skillnad i testerna som är enkeltrådade.

Möjligen kan XFR ge samma varians.

Personligen vill jag se testerna gjorda med TB3.0 påslaget och XFR påslaget, varför skulle man inte köra så om man har möjligheten?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Implor:

Kom just på en intressant aspekt.

Är det rätt att Sweclockers testar med XFR aktiverat?

Om XFR sker automatiskt så är det något en icke överklockare också kommer dra nytta av.
Så det är i princip en fancy CPU boost funktion men blir kanske lite skevt när det är kylningsberoende (iofs så är alla OC tester det)

Eller måste Sweclockers ha tre olika staplar?

Exempel:

1800X (Stock, no XFR)
1800X (XFR)
1800X (Manual OC)

vad tror ni?

De borde enligt mig testa CPUn som det levereras. Alltså om XFR finns så ska det vara igång. Det innebär dock att skillnaden mellan XFR och överklock kanske inte är så stor som tidigare, vilket förmodas vara poängen.

Det vore dock trevligt att se stock i något test, framförallt om alla Ryzen jämförs mot varandra, eller när just featuren XFR testas.

Visa signatur

[1700X] [B350 mITX] [32GB DDR4@3000MHz CL15] [Vega 56] [Nano S] [D15S] [Win 10 Pro]

Permalänk
Datavetare
Skrivet av anon159643:

Amdahl's law nämns och det allra viktigaste man behöver kunna från denna är följande:
Amdahl's law only applies to cases where the problem size is fixed. In practice, as more computing resources become available, they tend to get used on larger problems (larger datasets), and the time spent in the parallelizable part often grows much faster than the inherently serial work. https://en.wikipedia.org/wiki/Amdahl's_law

Så jag ger inte så mycket för dessa tester som idag är testade på mjukvara optimerade för en helt annan hårdvara och detta har typ varit i alla tider ändå sin Pentium Pro.
Dock helt klart kommer Rysen få det tufft för de som enbart spelar på datorn, men tiden får utvisa hur tufft.

Och som någon frågade hur klarade man sig för 5-10 år sedan, jo man anpassade sina lösningar efter den hårdvara som man hade tillgång till. Kunder kunde säga att de ville vissa saker och man förklarade bara vad hårdvaran för att driva detta kostade och lösningen blev enklare emot vad de är idag.
Detsamma gäller spel, den större spelutvecklaren som hade optimerat sitt spel för en 8 core för något år sedan skulle jag nästan per automatik kalla för dum, såvida det ej var ett spel för svindyra simulatorer som finns för jaktplan, formel 1 bilar etc.

På en server håller jag med, där är oftare Gustafsons lag mer relevant. Nyckelfaktor är att du som operatör är i kontroll av storleken på problemet som ska hanteras.

På skrivbordet och specifik för spel: Gustafsons lag är irrelevant då du som användare har noll kontroll över storleken på "working-set", det dikteras helt av den applikation du kör vilket gör Amdahls lag till det din skalning dikteras av.

Gustafsons lag: så här stor måste den parallella delen av din uppgift vara för att nå en viss speed-up på ett system med C kärnor (man antar att den parallella delen skalar med storlek på problemet medan den seriella delen är konstant)

Amdahls lag: givet ett visst problem, det här är den högsta speed-up du kan få från ett system med C kärnor.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av Yoshman:

På en server håller jag med, där är oftare Gustafsons lag mer relevant. Nyckelfaktor är att du som operatör är i kontroll av storleken på problemet som ska hanteras.

På skrivbordet och specifik för spel: Gustafsons lag är irrelevant då du som användare har noll kontroll över storleken på "working-set", det dikteras helt av den applikation du kör vilket gör Amdahls lag till det din skalning dikteras av.

Gustafsons lag: så här stor måste den parallella delen av din uppgift vara för att nå en viss speed-up på ett system med C kärnor (man antar att den parallella delen skalar med storlek på problemet medan den seriella delen är konstant)

Amdahls lag: givet ett visst problem, det här är den högsta speed-up du kan få från ett system med C kärnor.

Det jag syftar på är att vi utvecklare anpassar mjukvaran efter vad kunderna har för hårdvara.
Om det går bra för AMD med deras 8 core och den kommer bli populär, så kommer speltillverkare ha datakraft över i kärnor som de kan utnyttja. Detta kan påverka hur de väljer att utforma sitt spel med olika saker som AI, fysiska beräkningar och detaljer som folk egentligen skulle tycka kvittade. Detta syns mest tydligt i konsoler, där de verkligen kan utgå ifrån en viss hårdvara finns. Liksom att gör ett spel som är optimerat för både 2,4,6 och kärnor är bäddat för skit för alla lösningar.

Så mitt påstående är att om det nu går bra för 8 core AMD och det gör det såklart inte i spel enbart för att de är 8 core, så lär vi se en utveckling där spel utvecklas emot denna hårdvara.

Att däremot ta ett spel idag med fixade detaljer och fundera på hur skulle man bäst sprida ut belastningen på 8 kärnor är fel sätt att spå framtiden på.

Att Bulldozer failade, ja den hade bl.a. för låg singelcore prestanda, ytterst få köpte den.

*edit*
Med att göra en lösning för flera olika cpus, ja en lösning för 8 core får ju trådas en hel del och en hel del overhead kan tillkomma, så att lösningen sett till antalet instruktioner som måste exekveras för att den ska snurra är riktigt högt. Att sedan köra samma lösning på en 2 core blir som sagt skit.

*edit2*
Eller kortare sagt, många lösningar uppdelade på 8 kärnor blir extremt ineffektiva, men när man har 8 kärnor kan prestandan ändå bli bra. Att sedan köra en sådan ineffektiv lösning på en 1 eller 2 core processor blir ej vidare optimerat.

Permalänk
Medlem
Skrivet av Elgot:

Vilka? Det låter högt.

Jag som sagt ligger på 4,3 GB använt ram med Windows och antal program igång.

Var uppe i 7,5Gb och sen kracha spelet (hann köra 10min innan det slog i taket). Kunde öka virtuella minnet som tillfällig lösning. Var evolv, inte det mest buggfria spel. Men nu har man så det räcker ett tag i alla fall , kan ju inte få för mycket ram:p

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Oegat:

Här är samma två modeller som i mitt tidigare inlägg, med p-värden och sida vid sida tack vare att jag just lärt mig en massa om bbcode av @sAAb (jag trodde jag skulle kunna redigera mitt gamla inlägg, men det gick visst inte längre, så jag upprepar dem här).

I tredje modellen längst till höger testar jag en annan modifikation. Tittar man på fördelningen av FPS så finns en tydlig outlier, A6-7400K med 55FPS. Den är också en outlier i modellen, den får ett modellerat värde på över 100 medan dess verkliga är 55. Regressionsmodeller är känsliga mot sådana outliers, och utan den får vi ganska annorlunda värden.

Original

L2 ej med

Outlier struken

Coefficient (B)

p

Coefficient (B)

p

Coefficient (B)

p

(Intercept)

-21.48

0.35

10.93

0.667

54.24

<.001

GHz

14.88

<.001

17.73

<.001

15.74

<.001

BDCores

-0.44

0.905

11.02

<.001

4.69

0.008

Threads

-1.02

0.466

-2.55

0.113

-2.92

0.001

L2

14.22

<.001

L3

0.37

0.714

-0.67

0.561

1.5

0.025

S_ (baseline = Bulldozer)

Broadwell

139.28

<.001

80.68

<.001

57.47

<.001

Steamroller

49.32

<.001

22.18

0.125

17.53

0.024

Haswell

135.49

<.001

81.51

<.001

54.63

<.001

Ivy Bridge

140.63

<.001

87.24

<.001

61.7

<.001

Kaby Lake

134.05

<.001

78.69

<.001

53.43

<.001

Piledriver

44.95

<.001

25.71

0.068

14.89

0.049

Sandy Bridge

139.23

<.001

86.12

<.001

60.38

<.001

Skylake

135.82

<.001

82.75

<.001

56.06

<.001

Observations

54

54

53

R2 / adj. R2

.884 / .847

.834 / .786

.934 / .914

FPS (Alien Resurrection) ~ GHz + BDCores + Threads + L2 + L3 + Series VS modellen utan L2 VS modellen utan L2 samt utan A6-7400K (dvs 1 processor borttagen)

Nu är Bulldozer referenskategori, så det bör vara mer jämförbart med din tidigare beräkning. Det som också skiljer, som jag glömde skriva, är att variabeln litografi inte är med - jag vet inte vad det är eller hur det ska beräknas. Men det är nog den som gör att de olika arkitekturerna inte jämför likadant mot varandra, i din modell som i min vänstraste ovan. Det som dock är intressant är att nyttan av flera cores (fortfarande räknat som 1BD-modul = 2 cores) halveras då vi tar bort en processor längst ner i spannet som knappast någon som läser detta forum skulle överväga att köra spel på. Jag skulle säga att modell 3 är mycket mer relevant att tolka än modell 2, då den inte påverkas lika mycket av något enskilt värde. (Det visas också av att den har mer normalfördelade residualer, för den tekniskt intresserade). Effekten av antal cores är i den närmare 5 FPS/kärna än 10.

Ett separat problem med L3-storlek är att värdet är 0 för alla Bulldozer med efterföljare. Så ska man räkna på cachestorlek så behöver man nog räkna Bulldozers L2 som L3, och evt dividera med kärnor. Ett annat sätt vore att normalisera chachestorleken genom att dividera varje Intel-processors cache med genomsnittet för alla Intel, och likadant med AMD (här kan vi välja största cachen eller summan L2+L3). Då får vi ett mått på hur prestanda skalar med cachestorlek som inte bär med sig IPC-skillnader mellan AMD och Intel. Jag har dålig koll på eDRAM men jag ser att @Yoshman undersöker det.

Absolut - detta är en mycket viktig poäng. Hälften av processorerna i datasetet har en FPS i spelet mellan 177 och 180. Dessa är sannolikt GPU-bundna och vi skulle nog bara hitta brus, så det är inte direkt meningsfullt att undersöka dem. Några proppar i toppen ligger kring 182, men det känns som att skillnaden mellan 179 och 182FPS är helt en funktion av någon feature som har med minnesaccess att göra (eDRAM?), snarare än antal cores eller klock. Så det är definitivt värt att titta på enbart den lägre halvan, de proppar som ligger under 177 fps (jag visar R-output direkt likt @Yoshman, sista kolumnen är p-värdet för den som är intresserad, "Estimate" är det vi jämför.):

lm(formula = FPS ~ GHz + Threads + S_, data = cpubound) Residuals: Min 1Q Median 3Q Max -7.6580 -3.7526 -0.2471 1.2206 12.5490 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 16.316 14.029 1.163 0.258507 GHz 23.402 2.567 9.118 1.46e-08 *** Threads 4.567 1.046 4.368 0.000298 *** S_Steamroller 17.440 7.393 2.359 0.028614 * S_Haswell 50.506 8.389 6.020 6.93e-06 *** S_Piledriver 16.265 7.037 2.311 0.031592 * S_Sandy Bridge 43.170 8.234 5.243 3.94e-05 *** S_Skylake 53.583 7.244 7.397 3.83e-07 *** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 5.811 on 20 degrees of freedom Multiple R-squared: 0.9289, Adjusted R-squared: 0.904 F-statistic: 37.3 on 7 and 20 DF, p-value: 3.989e-10

Jag räknar här på hårdvarutrådar enbart, baserat på att dessa övervägande 4-kärniga proppar nog fort blir mättade på trådar. HT representeras inte alls då endast en processor saknar det (Pentium Gxxx). L3 närmade sig multikollinearitet och bidrog inte heller med förklaringsvärde. Siffrorna är som synes inte helt olika föregående modell - troligen för de processorer som utelämnats diskriminerar dåligt då de de är GPU-bundna. Men detta är som du säger självfallet mer relevanta data att titta på om vi vill veta något alls om CPUers förmåga i spel.

Log2 är nog inte alls dumt, jag tror dock att just för spelfrågan kan det vara ännu mer informativt att titta på hoppet 2-4 cores vs 4-flera, för ett spel där det gör någon form av skillnad. Alltså en dummy för hur mycket 4 cores gör över 2, och en för hur mycket 6-10 gör över 2. Just eftersom det är den gränsen som folks köpbeslut tenderar kretsa kring. Jag var på väg att göra det men just i denna datamängden är det meningslöst, då alla CPUer med mer än 4 cores ligger i taket på FPS.

"Regressionsmodeller är känsliga mot sådana outliers, och utan den får vi ganska annorlunda värden."

Därför är de femtielva varianterna av robust regression i (gratis) R (eller svindyra moduler i SPSS eller S á 30 000 Kr eller något i den stilen) ett överlägset verktyg i många sammanhang. Robusta metoder ger tusan i "outliers". Medelvärdet är sjukt känsligt. Medianen är så robust att man kan ha upp till 49,99 % felaktiga data utan påverkas.

Traditionell regression är lika känsligt som medelvärdet; två diagram från http://fedc.wiwi.hu-berlin.de/xplore/tutorials/xaghtmlnode11....

[EDIT 2017-05-12 Hänvisning till archive.org

https://web.archive.org/web/20100316070901/http://fedc.wiwi.h...

END EDIT]

Först, minsta kvadratmetoden.

Kör man en av de icke-parametriska metoderna så blir det mer rimligt.

Hur tydligt kan det bli?!

Problemet är att om man har tröskelvärden ... så kan dessa ignoreras. Men, är man medveten om det så går det "säkert att fixa".

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem
Skrivet av Sisyfos:

Mig veterligen finns det inget spel som du inte kan köra med 8GB RAM om du bara startar upp Windows och startar spelet i fråga.
Windows tar absolut inte 4GB RAM i bakgrunden , snarare runt 2GB om du verkligen inte har någonting annat uppe.

Men ja, om man gillar att ha mycket på i bakgrunden så försvinner 8GB RAM ganska snabbt, det är därför jag själv har 16GB
Hur mycket som Windows faktiskt allokerat skiljer sig dock från vad som faktiskt behövs.

Fick öka virtuellt minne, så fungerade spelet. Men är ju uppe i 8/9GB max i ett spel, så ja man kan inte få för mycket ram:) 16GB kommer troligen i framtiden inte räcka alla gånger.

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Yoshman:

Angående statistiken, kan inte så mycket om det men efter att läst på om regressionsanalys inser jag att det i grunden bygger på minsta kvadratanpassning av linjära ekvationssystem (något jag däremot begriper mig på).

Kunde därför inte hålla mig från att slänga mig in i diskussionen kring kärnor, frekvens, etc för spelprestanda.

Nä, vem kan hålla sig? Precis, att lösa ut koefficienterna (det vi är intresserade av här) är exakt och bara det du beskriver, resten av regressionsanalys är statistiskt lull-lull som mest intresserar oss samhällsvetare

Citat:

Testade att räkna på Haswell/Broadwell och Skylake/Kaby-Lake (samma mikroarkitektur på dessa par så meningslöst att separera dem) över alla spel utom Civ 5 (resultatet där är avvikande) i SweClockers test av 7600K/7700K.

Modellerar här de olika spelen som en parallellförskjutning av FPS (beroende parameter) mot mina oberoende parametrar. Det jag ville få en känsla för är effekten från
[...]

Call: lm(formula = FPS ~ Frequency + log(Cores) + eDRAM + Skylake + HT + BF1 + TWW + FO4, data = cpus) Residuals: Min 1Q Median 3Q Max -21.5523 -5.7320 -0.4611 7.1173 17.3971 Coefficients:

Ser tolkbart ut av din diskussion att döma, och residualerna ser fina ut, men jag förstår inte riktigt hur du bygger modellen. Förekommer varje CPU flera gånger i datamängden, med en rad för varje CPU och spel? Dvs spelen är kovariat för att ta bort inomindividvariansen? Jag kan se hur det skulle kunna fungera, men känns inte helt kosher från hur statistik lärs ut i samhällsvetenskaperna, som jag är van vid. Men för den skull behöver det inte vara fel.

Citat:

Och för att lite mellan tummen och pekfinger presentera detta på en form som betyder något vettig för folk så får man dessa efter av att variera dessa saker runt medelvärdet

  • Om antal CPU-kärnor ökar från 4 till 8 vinner man ~16 %

  • SMT ger en boost på ~15 %

Snackar vi log2(cores) här, dvs steget från 2 kärnor till 4 gör lika stor skillnad enligt modellen? I så fall läser jag det som att för denna workload så är att lägga en andra tråd på en redan belastad kärna bara en %-enhet sämre än att starta en ny kärna, dvs nästan försumbart.

Visa signatur

Här hade jag en historik sen 1990-talet, men den blev tillslut för lång. Aktiva maskiner 2022-framåt:
Work/Play/Everythingstation: AMD Epyc 7443p, Pop OS host, Win10 + Linux guests (KVM/Qemu)
Work/Play nr 2: AMD Phenom II 1090t, Debian + Win 10 (dual boot)
Server x3: Epyc 7252 (TrueNAS Core), Atom 2550 (FreeBSD, backup), Opteron 6140 (Ubuntu, off prem backup)
Retrohörna under uppbyggnad: Dual Pentium Pro 200MHz, Pentium P54C 90MHz, Gravis Ultrasound MAX

Permalänk
Medlem
Skrivet av Oegat:

Jag skulle säga att modell 3 är mycket mer relevant att tolka än modell 2, då den inte påverkas lika mycket av något enskilt värde. (Det visas också av att den har mer normalfördelade residualer, för den tekniskt intresserade).

Skrivet av Yoshman:

Kraven om man gör linjärregression är: Det ska vara linjära samband mellan storheterna. Tror vi kan vara rätt överens om att det är rätt linjär respons på frekvens. Just detta krav gör att man inte kan använda kärnor direkt, det fungerar bara för saker som skalar perfekt med CPU-kärnor vilket inte är fallet för spel. [...]

Nästa krav är att värdena ska vara normalfördelade. Det är absolut en viss osäkerhet både i FPS och CPU-frekvens, har använt max turbo när alla kärnor är aktiva och den verkliga frekvensen kommer i praktiken pendla både över och under detta värde (fast inom ett väldigt smalt område). [...]

Förstår inte din kommentar om "dött lopp", det var ju ett räkneexempel. 4,5 GHz är ju 33 % högre än 3,5 GHz men ger en respons på 21 %. 8 kärnor är 100 % fler än 4 kärnor (i logaritmiskt skala skiljer det 50 %) och ger 16 %. Skulle säga att responsen är rätt olika mellan dessa, eller tänker jag fel här? [...]

Det är absolut ett problem att det är väl få mätvärden, var därför jag tog in flera spel (fler mätvärden per CPU-modell) och tog bort CPU-modeller (mindre risk för överbestämd modell p.g.a. allt för många oberoende variabler).

Kraven på normalfördeling gäller de parametriska metoderna. De parametriska metoderna fungerar bra i några fall; i verkligheten sannolikt färre än en tredjedel av alla publicerade analyser... Ok, mindre än hälften. Ofta beror det på att man inte gjort en styrke-test innan studien; en power analysis. Fråga Astra Zeneca som förlorade tio miljarder på tre dagar när det kom ut att de hade "fumlat lite", fyra år tidigare; det obehagliga är att signifikansvärden faktiskt saknar relevans, statistisk validitet om man inte har rätt power, styrka på sin studie.

Icke-parametriska har sämre power, men, de kräver inte normalfördelning och fungerar mycket bättre på i princip alla dataset med färre än ett dussin observationer och har man fler än ett, två dussin så är de icke-parametriska i princip jämbördiga med parametriska metoder, men utan kravet på normalfördeling. Fint va!

Min kommentar om Yoshmans värden var väl mest att med parametriska metoder på data med hög varians är det svårt att vara säker.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Avstängd
Skrivet av Herr Kantarell:

Magkänslan med bas och turbofrekvenserna säger mig att RyZen inte är någon jätteklockare. Kommer man upp i 4.5GHz ska man vara glad. Hoppas jag har fel...

Enligt läckor kör de på 0,9-1,0 volt stock, tror de kommer att klocka fin fint vid 1,2-1,3 om de inte har för mycket strömläckage

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem

Ser inte något problem med att testa ryzen cpuer med xfr funktionen på när man har testat nvidias kort med gpu boost i princip alla reviews/tester.. visst kan det vara lite vilseledande när cpun/gpun går ut över sina specs och presterar bättre än vad den skulle som låst till sin frekvens.

Sedan så vill jag tillägga om att jag står fast vid att lägsta fps samt frame drops kommer att vara väldigt små/mindre fluktuationer med ryzen cpuer.

Mer balanserat än enbart fokus på att pumpa ut så mkt fps som möjligt. Behöver nog inte ens ta upp andra saker då amd alltid har varit duktiga med cpu intensiva uppgifter(inte spel nu). Tror ryzen blir bra men priserna lär vara i förhållande till prestanda dvs förvänta er ej några uber priser:)

Permalänk
Medlem
Skrivet av sAAb:

...
Byt ut samtliga { och } mot [ och ] och klista in i dina meddelanden här igen (med förhandsgranska) så vips blir det en fin tabell i Sweclockers Forum!
...
Har man en större tabell kan man lätt stoppa in {/td}{td} osv i i rätt kolumn och fylla på rätt ställen.

Jag såg även din tråd om GPU Passthrough + Xen som jag inte anammat på länge. Jag körde virtuellt Windows 8.1 med min Q6600 + GTX 260 under ett tag, men utan hårdvarustöd i grafikkorten. Ouch kan man tycka, men hade fps som var runt 30. Men, inser nu att Ryzen och Vega tillsammans kan bli optimala i ditt scenario, mycket tack vare 8C/16T.

Tack för BBcode-skolan! Hittade också ett onlineprogram som genererar tabeller utifrån .csv mm: http://theenemy.dk/table/

Ok, var väl vt-d som saknades på q6600. Min Xen-rigg kör numera KVM och vfio, med det blir GPU-dedikering mycket smidigt. Men 16 kärnor (Opteron Magny-cours x2) var overkill 2012 och är delvis idag, jag kommer aldrig till scenarier där jag nyttjar alla trådar. Jag var lite tidig med min prediktion att revolutionen mot trådbredd snarare än mer singeltrådprestanda skulle komma. Processorerna kom från Ebay, planen var att byta mina 6134 på 2.3GHz/tråd när Bulldozer kom, men när den inte riktigt uppfyllde förväntningarna så iddes jag inte. Det blev ett par beggade 6140 (också pre-BD, 45nm) på 2.6GHz/tråd senare, de kör jag på nu, med 32Gb ram. Sett till mina workloads hittils har 16 hårvarutrådar inte varit ett signifikant lyft över 8, även med en spelrigg körandes på halva burken. Men jag tror att det kan ändras framöver när 6+kärniga processorer blir billigare på desktop, och mjukvaruvärlden anpassar sig. Dessutom finns väl ett fysiskt GHz-tak någonstans. Så Ryzen är väldigt lockande då man ju inte vill gå ner i antal hårdvarutrådar vid en uppgradering

Men den stora begränsningen jag har nu är såklart singeltrådprestanda, då 2.6GHz generation 2009 inte räcker särskilt långt. Jag har dock klarat mig rätt bra rätt länge ändå, och 5 års livslängd är helt ok för en arbetsstation. Punktgissningen nu är väl att nästa steg blir en 1700X, om inte 1800X får fler PCI-e, men det är ett fönster på några veckor som det ännu kan ändras (vill gärna hinna se någon verifiera att IOMMU fungerar, tex).

Sen har jag en del att säga om antaganden och parametrisk vs icke-parametrisk statistik, men jag tar det senare

Visa signatur

Här hade jag en historik sen 1990-talet, men den blev tillslut för lång. Aktiva maskiner 2022-framåt:
Work/Play/Everythingstation: AMD Epyc 7443p, Pop OS host, Win10 + Linux guests (KVM/Qemu)
Work/Play nr 2: AMD Phenom II 1090t, Debian + Win 10 (dual boot)
Server x3: Epyc 7252 (TrueNAS Core), Atom 2550 (FreeBSD, backup), Opteron 6140 (Ubuntu, off prem backup)
Retrohörna under uppbyggnad: Dual Pentium Pro 200MHz, Pentium P54C 90MHz, Gravis Ultrasound MAX

Permalänk
Datavetare
Skrivet av Oegat:

Nä, vem kan hålla sig? Precis, att lösa ut koefficienterna (det vi är intresserade av här) är exakt och bara det du beskriver, resten av regressionsanalys är statistiskt lull-lull som mest intresserar oss samhällsvetare

Ser tolkbart ut av din diskussion att döma, och residualerna ser fina ut, men jag förstår inte riktigt hur du bygger modellen. Förekommer varje CPU flera gånger i datamängden, med en rad för varje CPU och spel? Dvs spelen är kovariat för att ta bort inomindividvariansen? Jag kan se hur det skulle kunna fungera, men känns inte helt kosher från hur statistik lärs ut i samhällsvetenskaperna, som jag är van vid. Men för den skull behöver det inte vara fel.

Du får tänka på att jag ser detta från perspektivet av vad mina antaganden betyder ur ett linjäralgebra-perspektiv, kan mycket väl göra vurpor i statistikdomänen.

Min modell ser ju ut så här

FPS = a * FREQ + b * log(CORES) + f1 * HAS_EDRAM + f2 * IS_SKYLAKE + f3 * HAS_SMT + g1 * IS_BF1 + g2 * IS_TOTAL_WAR_WARHAMMER + g3 * IS_FALLOUT_4

a är responsen mot frekvens och frekvens är en variabel som har flera värden, b är respons mot antal kärnor (logaritmen av antal kärnor).

Övriga ser jag så här: de är egenskaper som endera är falsk (bidraget noll) eller sant. För fN är responsen hur mycket det påverkar FPS i genomsnitt.

För gN ser jag det i stället så här: jag antar att responsen från övriga relativt sett är ungefär densamma oavsett speltitel. Till skillnad från fN där alla N kan vara sann/falsk för en viss mätpunkt kan bara exakt en eller noll (för Witcher 3) av gN vara sann.

Värdet på gN blir då rent matematiskt antal FPS som detta spel i genomsnitt ligger över (värdet positivt) eller under (värdet negativt) Witcher 3 (d.v.s. parallellförskjutning av den linje som beskrivs av övriga variabler). Vinsten är då att jag får fyra mätpunkter för varje CPU-modell (en per speltitel) i stället för en enda -> förhoppningsvis en mer stabil modell.

Mätvärden kommer från 1280x720 testerna här.

Har med 7700K, 6700K, 6900K, 6950X, 5775C, 4790K, 7600K och 6600K.

Skrivet av Oegat:

Snackar vi log2(cores) här, dvs steget från 2 kärnor till 4 gör lika stor skillnad enligt modellen? I så fall läser jag det som att för denna workload så är att lägga en andra tråd på en redan belastad kärna bara en %-enhet sämre än att starta en ny kärna, dvs nästan försumbart.

Steget från två till fyra kärnor är i min modell större än steget från fyra till åtta, detta då log(4)/log(2) = 2,0 medan log(8)/log(4) = 1,5. D.v.s. steget från två till fyra är 2,0 / 1,5 ger 33 % högre boost än steget från fyra till åtta. Det är också vad som är fallet i praktiken (d.v.s. det är avtagande effekt av att dubbla antal kärnor ju fler man går från). Det stämmer också med vad Amdahls lag säger.

Ett stor problem är dock att jag inte har några mätpunkter alls med tvåkärninga CPUer, så den kanske inte blir jättebra på att förutsäga resultat där.

Och Amdahls lag är verkligen en "riktig" lag i detta fall, det är omöjligt för ett program att skala bättre än vad denna lag förutspår. Problemet i verkligheten är att man nästan aldrig vet p, d.v.s. andel av programmet som kan köras parallellt.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Nya benchmarks

Visa signatur

Ryzen 7800X3D
32GB DDR5
RX 7900XT

Permalänk
Medlem