Varför Ryzen 7 när i7 7700K är bättre? (gaming)

Permalänk
Datavetare
Skrivet av tellus82:

Fel nummer ett du gör är att jämföra 3200Mt standard timings vilket kan skilja så mycket som 20% åt fel håll mot 3466vll, Ryzen är oerhört timing känslig och då menar jag inte CL/RCD/RP/RAS utan subtimings, dessa subtimings orsakar inte i närheten likadan prestandapåverkan på Intel processorer men på Ryzen gör det de. Kör man auto subtimings på agesa 1.0.0.6a/b så sätts dom oerhört slappt. Detta har vid detta laget testats till döds och det är ganska utrönt att Ryzen tjänar på minnesfrekvens & därigenom höjd IF frekvens men den tjänar ännu mer på bra timings. Att då jämföra techpowerups resultat blir extremt missvisande, speciellt då techpowerup kör rätt underliga inställningar i sina spel benchmarks.

Fel 2 är att techpowerup kör 720p med low på ingame settings, detta gör i nästan vartenda testat spel att man ger en fördel åt processorer med färre kärnor då komplexiteten för varje renderad frame minskar med gigantiska mängder och det enda som händer är att man får ett artificiellt värde som absolut inte motsvarar spelprestanda på high/ultra eller någon annan prestanda heller. Tyvärr förenklas också saker som fysik alternativt stängs av helt på Low/very low vilket gör att FPU belastning sjunker och åter igen ger en väldigt sned bild av faktisk spelprestanda.

https://i.imgur.com/Jp0YLqL.png
Här ser du exakt vad som händer med cpu belastning per renderad frame vid olika ingame inställningar i spel på en 4c/8t intel cpu, i testet ligger fps på konstant 80, detta för att kunna se cpu belastning frånkopplat varierande fps, mellan low & ultra skiljer det upp till 2c/4t i belastning i de värsta partierna, alltså en halv cpu.
Detta är likadant i en klar majoritet av moderna spel för att kunna köra dom alls på enklare hårdvara. Problemet är att när man då benchar i 720p low så blir det enormt missvisande, ska man bencha i 720p så ska man köra på high/ultra/högst möjliga inställningar. Saker som MSAA kan man av naturliga skäl skippa. Men att köra på low/very low gör man bara inte om man vill visa en rättvis bild över faktiskt spelprestanda och det behövs dessutom inte med 1080/1080ti, enda spelet jag vet om som är för tungt i 720p så det orsakar gpu flaskning är Ghost recon wildlands och det beror mer på pissdålig optimering

Ja vi kan väl ta battlefield 1 med Vega 64 där vi kan finna följande resultat mellan 7740x & 1800x (dessutom 1800x med taskiga subtimings)

Taget från senaste videon från Hardware unboxed
FPS--------------------Min/Med-----------------------------Min/Med
1800x & 1080ti ---- 114/128 | 1800x & vega64 ---- 125/140
7740x & 1080ti ---- 128/148 | 7740x & vega64 ---- 128/146
Uppenbarligen finns prestanda att tillgå med Ryzen så varför så lågt resultat med 1080ti?

Eller som i Civ6
FPS-------------------Min/Med--------------------------Min/Med
1800x & 1080ti ---- 65/84 | 1800x & vega64 ---- 93/112
7740x & 1080ti ---- 68/85 | 7740x & vega64 ---- 68/87
Åter igen så finns prestanda att tillgå med Ryzen men inte med ett 1080ti, konstigt eller?

Redan tagit upp detta, 720p med low på ingame inställningar är ett sämre skämt och du vet detta lika väl som alla andra, det är ett ypperligt knep när man vill tilta prestanda åt cpu med färre kärnor/ge dom andra typer av belastningar än vad som sker vid höga inställningar, igen, du vet detta. Förresten är inte DOOM gpu bundet, det är FPS limiterat till 200. Resident Evil kan likagärna vara begränsat av PCI-E bussen som GPU, du vet helt enkelt inte så låt bli att ens gissa.

Really, du vill dra den gamla dängan igen? Nej spel är inte enbart skalära heltal, Fysikmotorer som exempel använder inte skalära heltal i moderna spel utan det är nästan uteslutande flyttal, fast du kanske bara har glömt det? Sen används flyttalsintensiva beräkningar även för en hel del annat i spel. Att kategoriskt säga att alla spel kör enbart skalära heltal eller insinuera detta är för mig mer än ohederligt.

Skylake får boost av minnen, kan du däremot säga att det skiljer 30% i FPS mellan 2666 & 3466 på en Skylake baserad cpu? Jag kan visa på det med Ryzen så som här

https://i.imgur.com/AgZpfMl.png
2666=2666Mt med standard auto timings, 3333H=3333Mt med XMP timings, 3333L=3333MT med manuella timings, 3466LL=3466Mt med i stort samma låga timings som 3333L. Skillnaden mellan 3333H och 3333L är enbart timings, ser det ut som att bättre timings/subtimings inte förbättrar prestanda på Ryzen?
Det är inspelat med koll på frametime varpå 0.1% low räknats ut, high är 1% av snabbaste frametime.

Vad det gäller minnesprestanda har jag hela tiden pratat om spel, denna tråd handlar dessutom om spel, att då komma dragandes med påverkan av minnesprestanda i annat än spel känns lite märkligt. De senaste 10 åren har det väl varit relativt välkänt att spelprestanda har påverkats av minnesprestanda (bandbredd och latens) medans andra program inte alls tjänar lika mycket (varierar kraftigt). Att du personligen inte ser en fördel med bättre minnen förstår jag men det finns definitivt andra som gör det.

Påverkan från RAM med samma CPU

Vet inte varför du går på så mycket om detta. Har nu skrivit + specifikt påpekat att jag inte på något sätt säger emot dig här. Om CPUn är konstant så påverkar absolut minneshastigheten och timings spelprestanda.

Hur mycket den påverkar finns det olika bud kring. Extremfallet här är ju i7-5775C, även om eDRAM har väldigt hög latens och relativt lång bandbredd för att vara en cache så är latens och bandbredd på en nivå minst motsvarande de absolut snabbaste DDR4 modulerna som existerar. 5775C var i många fall snabbare i spel än 6700K med "normalklockat RAM", trots att den senare är något högre klockad och har lite högre IPC.

PcPerspective har kikat specifikt på timings och spelprestanda för Skylake. Så länge man verkligen är CPU-bunden är det helt klart skillnad. Tankevurpan jag gissar vissa gjorde kring i7-7700K vs resten när det kommer till påverkar i spel är att de missade att i7-7700K är den CPU som oftast kommer vara GPU-bunden -> oftare ett läge där CPU-prestanda inte kan påverka då flaskhalsen är något annat.

Skylake vs Zen och RAM

Säger inte att du har fel kring subtimings. Men tillåt mig att vara väldigt skeptiskt kring ditt påstående "dessa subtimings orsakar inte i närheten likadan prestandapåverkan på Intel processorer men på Ryzen gör det de". Har du verkligen torrt på fötterna här?

Det var samma tongångar kring påverkan från minneshastighet och där visade det sig snarare att det omvända var sant. SweClockers såg större boost på i5-7600K jämfört med R5-1600X, även om ett t-test gissningsvis pekar på att skillnaden knappast är signifikant på någon rimligt konfidensnivå.

Tittar man på detta från ett teoretiskt perspektiv borde eventuell vinst från RAM-timings påverka Intels S-serie i större utsträckning än det påverkar X-serien och Ryzen.

Orsak? I en minnessystem har man ett relativt konstant tillskott av latens från själva CPU-kretsen, som är främst är en funktion av cache-design. Med samma RAM-timings och RAM-hastighet ligger S-serien ~20 ns lägre i latens jämfört med X-serien/Ryzen, d.v.s. eventuell förbättring i timings ger relativt sett ett större utslag för S-serien än för de andra två.

Är inte riktigt det här jag tror du får på Ryzen, eller hur?

Hmm, går inte att länka direkt till bilder. Nedan ska gå till post #647
https://www.techpowerup.com/forums/threads/share-your-aida-64...

33 ns latens på i5-6500 med DDR4-4000 och riktigt låga timings

Åter igen: säger inte att du har fel, säger att givet historien väntar jag med att hävda något här innan det finns mer data...

Fysisk är inte heltal

Sir, yes sir!

Fast tror inte riktigt det skulle ändra något i den riktning du är ute efter... Det är 2017, fysikmotorer, likt typ allt annat förutom Cinebench har klivit in i 2000-talet och använder vektoriserade flyttal. Det mesta går att beskriva som matriser, så fort du kan beskriva något som en matris finns massor med handoptimerad SIMD-kod som totalt massakrerar en naiv implementation med "vanliga" flyttal i standard C++.

Den källkritiskt lagde kan alltid git-clone:a t.ex. Bullet Physics och verifiera själv att det främst är SSE-optimerat. I praktiken använder man SSE-delmängden av AVX när man kör på 64-bitars x86, d.v.s. VEX-kodade instruktioner, är något mer effektivt jämfört med "klassisk" SSE.

Grejen är att i det läget är inte i7-7700K 50 % snabbare per CPU-kärna jämfört med R5-1600, det är väsentligt mer. Är helt övertygad om att fysisk inte ens är i närheten att vara en primär flaskhals i väldigt nära 100 % av alla spel (undantag finns alltid, sett till forum känns det som vissa bara bryr sig om undantagen...).

TechPowerUp

Vad jag specifikt skrev var att 1920x1080 resultaten var med "ultra" inställningar. Hittar faktiskt inget kring vilka inställningar man använt i 1280x720 så lät bli att hävda något. Jämför man TechPowerUp med SweClockers (som specifikt skriver att 1280x720 är "medium") ser det dock ut som TechPowerUp använt betydligt högre kvalitetsnivå än "medium".

Witcher 3

Fallout 4

SweC vs TechPowerUp i 720p, notera hur långt mycket högre FPS SweC har i t.ex. Witcher3 och Warhammer, båda använder sig av GTX1080

Peka gärna var du hittar information om att det skulle vara "medium".

Oavsett inställning missar du huvudpoängen: 720p må vara en usel proxy för framtida spelprestanda (ingen kan säga hur framtida spelmotorer är designade), men det är en väldigt bra indikator på hur mycket dagens spel skulle kunna se i boost om de körs på framtida betydligt snabbare GPUer med dagens CPUer.

D.v.s. 720p är det bästa vi kan tillgå för att visualisera skillnad i dagens CPUers kapacitet att driva spel. 1920x1080 "ultra" resultatet visar med brutal tydlighet hur extremt GPU-bunden man är i praktiken, är rätt liten skillnad mellan t.ex. i3-7100 och i7-7700K och där är det rätt enkelt att räkna ut skillnad i CPU-kapacitet.

DDR4 3200 vs 3466VLL

Finns då överhuvudtaget inget i MindBlanks resultat som ens är i närhet att påvisa någon 20 % skillnad mellan dessa två konfigurationer. Mellan 3600 och 3466VLL är det ~5 % skillnad i både genomsnitt och 1 % low.

Känns det rimligt att man ens teoretiskt skulle kunna få 20 % boost? Bandbredden ökar 8 % och för att den latens CPU "ser" ska minska 20 % lär latensen på RAM minska rätt mycket mer än 20 % (det är minst 20 ns "statiskt" latens hos Zen, det förutsatt att den är noll hos S-serien vilket i sig är totalt orimligt så det är >20 ns "statis" latens).

Det specifikt när TechPowerUp testat med: 2x 8 GB G.SKILL Flare X DDR4 DDR4-3200 14-14-14-34, d.v.s. hyfsat låg latens. MindBlank körde med 3600 CL16 (8,89 ns) mot 3200 CL14 (8,75 ns), så det är lägre latens hos TechPowerUp.

Vidare, min huvudinvändning mot hela inlägget som länkade denna video var: tittar man faktiskt på resultaten så säger ju de exakt tvärtemot vad som texten i posten indikerar. D.v.s. i7-7700K är i genomsnitt snabbare (vare sig man använder aritmetiskt medel eller median). Dock är den fördelen inte på något sätt statistiskt signifikant, så går egentligen inte att säga vilken CPU som är snabbare givet data i videon.

Går uppenbarligen inte att länka direkt till bilder i TechPowerUps forum
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Yoshman: Skulle infiniyt-fabric kunna göra att Ryzen har mer prestanda från hög klock/låga timings på RAM?

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Datavetare
Skrivet av sweisdapro:

@Yoshman: Skulle infiniyt-fabric kunna göra att Ryzen har mer prestanda från hög klock/låga timings på RAM?

I teorin (och av allt att döma gäller det även i praktiken) så minskar latensen hos Infinity Fabric ju högre frekvens RAM snurrar på.

Lägre timings hos RAM kan rimligen inte alls påverka latensen som Infinity Fabric lägger på.

Fast första egenskapen är inte unikt till Infinity Fabric. Alla CPUer måste ju ha en minneskontroller, det är den som driver minnesklockan så ju högre frekvens minnen snurrar i ju lägre blir latensen som minneskontroller lägger på.

Det är helt analogt med att DDR4-3200 CL16 har högre latens jämfört med DDR4-3600 CL16, det är samma antal cykler men tiden för varje cykel minskar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Påverkan från RAM med samma CPU

Vet inte varför du går på så mycket om detta. Har nu skrivit + specifikt påpekat att jag inte på något sätt säger emot dig här. Om CPUn är konstant så påverkar absolut minneshastigheten och timings spelprestanda.

Hur mycket den påverkar finns det olika bud kring. Extremfallet här är ju i7-5775C, även om eDRAM har väldigt hög latens och relativt lång bandbredd för att vara en cache så är latens och bandbredd på en nivå minst motsvarande de absolut snabbaste DDR4 modulerna som existerar. 5775C var i många fall snabbare i spel än 6700K med "normalklockat RAM", trots att den senare är något högre klockad och har lite högre IPC.

PcPerspective har kikat specifikt på timings och spelprestanda för Skylake. Så länge man verkligen är CPU-bunden är det helt klart skillnad. Tankevurpan jag gissar vissa gjorde kring i7-7700K vs resten när det kommer till påverkar i spel är att de missade att i7-7700K är den CPU som oftast kommer vara GPU-bunden -> oftare ett läge där CPU-prestanda inte kan påverka då flaskhalsen är något annat.

Om du läste vad jag faktiskt skrev hade du förstått vad subtimings handlar om på ryzen, med agesa 1.0.0.6 infördes extremt slappa subtimings, vi pratar skillnad i magnituder. Detta sänker FPS i spel som en gråsten, om man då sätter tajtare timings tjänar man väldigt mycke fps, vissa spel upp till 20% skillnad mellan auto timings och snabbast möjliga.

Skrivet av Yoshman:

Skylake vs Zen och RAM

Säger inte att du har fel kring subtimings. Men tillåt mig att vara väldigt skeptiskt kring ditt påstående "dessa subtimings orsakar inte i närheten likadan prestandapåverkan på Intel processorer men på Ryzen gör det de". Har du verkligen torrt på fötterna här?

Det var samma tongångar kring påverkan från minneshastighet och där visade det sig snarare att det omvända var sant. SweClockers såg större boost på i5-7600K jämfört med R5-1600X, även om ett t-test gissningsvis pekar på att skillnaden knappast är signifikant på någon rimligt konfidensnivå.

Tittar man på detta från ett teoretiskt perspektiv borde eventuell vinst från RAM-timings påverka Intels S-serie i större utsträckning än det påverkar X-serien och Ryzen.

Orsak? I en minnessystem har man ett relativt konstant tillskott av latens från själva CPU-kretsen, som är främst är en funktion av cache-design. Med samma RAM-timings och RAM-hastighet ligger S-serien ~20 ns lägre i latens jämfört med X-serien/Ryzen, d.v.s. eventuell förbättring i timings ger relativt sett ett större utslag för S-serien än för de andra två.

Är inte riktigt det här jag tror du får på Ryzen, eller hur?

Hmm, går inte att länka direkt till bilder. Nedan ska gå till post #647
https://www.techpowerup.com/forums/threads/share-your-aida-64...

33 ns latens på i5-6500 med DDR4-4000 och riktigt låga timings

Åter igen: säger inte att du har fel, säger att givet historien väntar jag med att hävda något här innan det finns mer data...

Som jag sagt innan, subtimings är viktigt på Ryzen pga hur jävla slappt dom sätts till att börja med, Intel har inte alls lika slappa subtimings vid full auto eller XMP, därför har inte Intel något att sänka och därför heller ingenting att tjäna på affären/ inte alls lika mycket. Inte så invecklat eller hur? När man då benchar med tajta subtimings på Ryzen så kommer man få väldigt mycket mer fps.
Swecs test av minnespåverkan har ett par ganska rejäla brister men eftersom du verkar uppvisa total avsaknad av förståelse för subtimings vet jag inte om det är någon större ide att ens ta upp dom...

Skrivet av Yoshman:

Fysisk är inte heltal

Sir, yes sir!

Fast tror inte riktigt det skulle ändra något i den riktning du är ute efter... Det är 2017, fysikmotorer, likt typ allt annat förutom Cinebench har klivit in i 2000-talet och använder vektoriserade flyttal. Det mesta går att beskriva som matriser, så fort du kan beskriva något som en matris finns massor med handoptimerad SIMD-kod som totalt massakrerar en naiv implementation med "vanliga" flyttal i standard C++.

Den källkritiskt lagde kan alltid git-clone:a t.ex. Bullet Physics och verifiera själv att det främst är SSE-optimerat. I praktiken använder man SSE-delmängden av AVX när man kör på 64-bitars x86, d.v.s. VEX-kodade instruktioner, är något mer effektivt jämfört med "klassisk" SSE.

Grejen är att i det läget är inte i7-7700K 50 % snabbare per CPU-kärna jämfört med R5-1600, det är väsentligt mer. Är helt övertygad om att fysisk inte ens är i närheten att vara en primär flaskhals i väldigt nära 100 % av alla spel (undantag finns alltid, sett till forum känns det som vissa bara bryr sig om undantagen...).

Intressant att du verkar veta exakt vilken typ av beräkningar som används av fysikmotorer helt plötsligt och att det definitivt inte används i nästan varenda modernt spel, driver du med mig?

Skrivet av Yoshman:

TechPowerUp

Vad jag specifikt skrev var att 1920x1080 resultaten var med "ultra" inställningar. Hittar faktiskt inget kring vilka inställningar man använt i 1280x720 så lät bli att hävda något. Jämför man TechPowerUp med SweClockers (som specifikt skriver att 1280x720 är "medium") ser det dock ut som TechPowerUp använt betydligt högre kvalitetsnivå än "medium".

Peka gärna var du hittar information om att det skulle vara "medium".

Oavsett inställning missar du huvudpoängen: 720p må vara en usel proxy för framtida spelprestanda (ingen kan säga hur framtida spelmotorer är designade), men det är en väldigt bra indikator på hur mycket dagens spel skulle kunna se i boost om de körs på framtida betydligt snabbare GPUer med dagens CPUer.

D.v.s. 720p är det bästa vi kan tillgå för att visualisera skillnad i dagens CPUers kapacitet att driva spel. 1920x1080 "ultra" resultatet visar med brutal tydlighet hur extremt GPU-bunden man är i praktiken, är rätt liten skillnad mellan t.ex. i3-7100 och i7-7700K och där är det rätt enkelt att räkna ut skillnad i CPU-kapacitet.

Du kan inte jämföra Witcher 3 från olika ställen av en mycket enkel anledning, witcher 3 har inget benchmark verktyg så allt är manuellt inspelat med manuellt input på helt olika ställen i spelen. Det kan skilja rent bisarra nivåer av fps mellan olika test på dessa sätt
Det gäller även Fallout 4 förresten...

Skrivet av Yoshman:

DDR4 3200 vs 3466VLL

Finns då överhuvudtaget inget i MindBlanks resultat som ens är i närhet att påvisa någon 20 % skillnad mellan dessa två konfigurationer. Mellan 3600 och 3466VLL är det ~5 % skillnad i både genomsnitt och 1 % low.

Känns det rimligt att man ens teoretiskt skulle kunna få 20 % boost? Bandbredden ökar 8 % och för att den latens CPU "ser" ska minska 20 % lär latensen på RAM minska rätt mycket mer än 20 % (det är minst 20 ns "statiskt" latens hos Zen, det förutsatt att den är noll hos S-serien vilket i sig är totalt orimligt så det är >20 ns "statis" latens).

720p ultra utan AA med 0% gpu flaskhals
Jag sa väl upp till 20% åt fel håll va och dessutom mellan 3200 & 3466vll? Om du tittar på .1% low på 3333H och 3333L så skiljer det mer än 20%, detta med endast timings som skillnad mellan de två Om vi ska prata mer generellt så ligger 3333H ~11,5% under 3333L, detta är alltså XMP profil vs manuella subtimings. Sen har vi 79% bättre 0,1% min FPS på 3466ll än 2666 auto timings, nej minne på ryzen gör ingeting, sheezus..
Att du sedan försöker påtala liten skillnad med timings genom att jämföra 3600 med 3466 blir helt enkelt hål i huvudet, du vet att minnesfrekvens i sig ökar prestanda och du vet att IF frekvens ökar prestanda, som då bägge äter upp förtjänst av timings vid 3466.

Skrivet av Yoshman:

Det specifikt när TechPowerUp testat med: 2x 8 GB G.SKILL Flare X DDR4 DDR4-3200 14-14-14-34, d.v.s. hyfsat låg latens. MindBlank körde med 3600 CL16 (8,89 ns) mot 3200 CL14 (8,75 ns), så det är lägre latens hos TechPowerUp.

Huvudtimings är inte samma som subtimings, försök inte ens blanda ihop detta för du vet bättre...

Skrivet av Yoshman:

Vidare, min huvudinvändning mot hela inlägget som länkade denna video var: tittar man faktiskt på resultaten så säger ju de exakt tvärtemot vad som texten i posten indikerar. D.v.s. i7-7700K är i genomsnitt snabbare (vare sig man använder aritmetiskt medel eller median). Dock är den fördelen inte på något sätt statistiskt signifikant, så går egentligen inte att säga vilken CPU som är snabbare givet data i videon.

Sa jag något annat än att processorerna presterade mycket lika varandra?

Skrivet av Yoshman:

I teorin (och av allt att döma gäller det även i praktiken) så minskar latensen hos Infinity Fabric ju högre frekvens RAM snurrar på.

Lägre timings hos RAM kan rimligen inte alls påverka latensen som Infinity Fabric lägger på.

Fast första egenskapen är inte unikt till Infinity Fabric. Alla CPUer måste ju ha en minneskontroller, det är den som driver minnesklockan så ju högre frekvens minnen snurrar i ju lägre blir latensen som minneskontroller lägger på.

Det är helt analogt med att DDR4-3200 CL16 har högre latens jämfört med DDR4-3600 CL16, det är samma antal cykler men tiden för varje cykel minskar.

Detta är extremt fult av dig Yoshman, du vet att IF påverkar mer än bara minne, det påverkar latensen mellan CCX klustren och även l3 cache bandbredd/latens. Detta är du fullt medveten om, det sker däremot inte på Intel då dom inte har ccx kluster till att börja med. Måste du i varenda inlägg visa din bias?

Sen är det ganska talande att du över huvud taget inte tar i uppgifterna från hardwareunboxed med vega64

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Bildexpert 📺

En stilla påminnelse om att hålla sig till en saklig diskussion i annars väldigt intressant tråd. Några inlägg raderade.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Kan inte länka men sök på t.ex twixxeldragon på twitch så ser du vilka fps han får. Jag är inte i närheten.

Skickades från m.sweclockers.com

Jag kommer nog inte besvära mig med någon sökning. Utan vidare info om vilka övriga komponenter och konfigurationer som används i respektive system så är ditt påstående helt befängt och att använda "men han då" som ett argument är på väl låg nivå.

Har du siffror och stöd för det du säger, presentera det och för tråden vidare. Det är för mycket antaganden och "objektiva" analyser som pågår här ändå.

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk
Medlem
Skrivet av sweisdapro:

@Yoshman: Skulle infiniyt-fabric kunna göra att Ryzen har mer prestanda från hög klock/låga timings på RAM?

Utifrån vad jag kunnat läsa mig till så kör kommunikationen i Infinity Fabric i samma hastighet som minnena. Därav gör snabbare minnen rätt stor skillnad. Tester jag sett där de jämför tex 2666MHz med 3200MHz ram resulterade i större prestandavinster än vad jag hade gissat på. Så till min 1950X bygge jag håller på att plocka ihop så är jag ute efter 32GB ram med Samsung's B-Die i 3200MHz eller högre och timings runt CL14. Svesnka återförsäljare är inte världsbäst på att lista denna information dock så det blir lite detektivarbete att försöka ta reda på vilka moduler som sitter på olika minnen.

p.s.

Här är exempel på en som testat 3d mark API OVERHEAD TEST 2.0 med sin rigg med en Ryzen 7 1700 @ 4GHz och endast ställt minnena i olika hastigheter. Det gör rätt stor skillnad.

2666: https://www.3dmark.com/3dm/21128455
3198: https://www.3dmark.com/3dm/21128358
3464: https://www.3dmark.com/3dm/21129135

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem

@inquam: Är rätt säker på att G.SKills 3200MHz CL14 minnen är samsung B-die, kan kolla mitt 16Gb kit när jag kommer hem
Dessa är B-die enligt Denna

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av sweisdapro:

@inquam: Är rätt säker på att G.SKills 3200MHz CL14 minnen är samsung B-die, kan kolla mitt 16Gb kit när jag kommer hem

Hittat dessa två kit och utifrån en del listor får jag fram att dessa kit egentligen har andra artikelnummer som ha B-die... men känns lite halvsäkert

https://www.komplett.se/product/916431/datorutrustning/pc-kom...

Denna verkar jag mest osäker på

https://www.komplett.se/product/916432/datorutrustning/pc-kom...

B-Die, 3600MHz och Dual rank eller något hade nog varit jackpott

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem

@inquam: letade runt lite snabbt
Dessa är B-die enligt Denna

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Skrivet av X-TroNiC:

Det är bara att vänja sig, här på sweclockers forum vill många att man ska stödköpa AMD's produkter fast de är rent av sämre för det endamålet snittanvändaren ska använda datorn till.

Väldigt simpelt sätt att försöka bagatelisera de som förespråkar "andra sidan", för det stämmer lika mycket för de som förespråkar Intel, men dom har bara andra, lika värdelösa argument. Och de samma gäller AMD vs. Nvidia.

99% av alla här säger att "sitt" val är bäst, och menar att dom på andra sidan är, ja i stort sett dumma som inte fattar, och att dom ljuger. Man överderiver de små fördelar ens eget val har, och förminskar fördelerna med andra sidan.

Visa signatur

WS1: | Gigabyte X670 G AX | Ryzen 9 7950x3D | 32GB G.Skill Trident Z5 NeoRGB | Sapphire RX 7800XT Pure | Corsair RM650i | Lian-Li O11 | EK Nucleus CR360 | WS2: | Asus RoG Strix X470-F | Ryzen 7 5600x | 16gb G.skill Trident Z Neo 3600mhz | Asus RoG Strix 3070 | Lian-Li Lancool 205 | ESX Srvr1 | MSI B450-A Pro Max | Ryzen 7 3700x | 64GB Corsair Vengence | Jonsbo UMX4 | Srvr2 MacMini | ClearOS

Permalänk
Datavetare
Skrivet av tellus82:

Om du läste vad jag faktiskt skrev hade du förstått vad subtimings handlar om på ryzen, med agesa 1.0.0.6 infördes extremt slappa subtimings, vi pratar skillnad i magnituder. Detta sänker FPS i spel som en gråsten, om man då sätter tajtare timings tjänar man väldigt mycke fps, vissa spel upp till 20% skillnad mellan auto timings och snabbast möjliga.

Som jag sagt innan, subtimings är viktigt på Ryzen pga hur jävla slappt dom sätts till att börja med, Intel har inte alls lika slappa subtimings vid full auto eller XMP, därför har inte Intel något att sänka och därför heller ingenting att tjäna på affären/ inte alls lika mycket. Inte så invecklat eller hur? När man då benchar med tajta subtimings på Ryzen så kommer man få väldigt mycket mer fps.
Swecs test av minnespåverkan har ett par ganska rejäla brister men eftersom du verkar uppvisa total avsaknad av förståelse för subtimings vet jag inte om det är någon större ide att ens ta upp dom...
Intressant att du verkar veta exakt vilken typ av beräkningar som används av fysikmotorer helt plötsligt och att det definitivt inte används i nästan varenda modernt spel, driver du med mig?

Du kan inte jämföra Witcher 3 från olika ställen av en mycket enkel anledning, witcher 3 har inget benchmark verktyg så allt är manuellt inspelat med manuellt input på helt olika ställen i spelen. Det kan skilja rent bisarra nivåer av fps mellan olika test på dessa sätt
Det gäller även Fallout 4 förresten...

https://i.imgur.com/iZkUgY7.png
720p ultra utan AA med 0% gpu flaskhals
Jag sa väl upp till 20% åt fel håll va och dessutom mellan 3200 & 3466vll? Om du tittar på .1% low på 3333H och 3333L så skiljer det mer än 20%, detta med endast timings som skillnad mellan de två Om vi ska prata mer generellt så ligger 3333H ~11,5% under 3333L, detta är alltså XMP profil vs manuella subtimings. Sen har vi 79% bättre 0,1% min FPS på 3466ll än 2666 auto timings, nej minne på ryzen gör ingeting, sheezus..
Att du sedan försöker påtala liten skillnad med timings genom att jämföra 3600 med 3466 blir helt enkelt hål i huvudet, du vet att minnesfrekvens i sig ökar prestanda och du vet att IF frekvens ökar prestanda, som då bägge äter upp förtjänst av timings vid 3466.

Huvudtimings är inte samma som subtimings, försök inte ens blanda ihop detta för du vet bättre...

Sa jag något annat än att processorerna presterade mycket lika varandra?

Detta är extremt fult av dig Yoshman, du vet att IF påverkar mer än bara minne, det påverkar latensen mellan CCX klustren och även l3 cache bandbredd/latens. Detta är du fullt medveten om, det sker däremot inte på Intel då dom inte har ccx kluster till att börja med. Måste du i varenda inlägg visa din bias?

Sen är det ganska talande att du över huvud taget inte tar i uppgifterna från hardwareunboxed med vega64

Svordomar

Trovärdigheten i det man skriver är omvänt proportionellt mot antal mot antal svordomar som behövs för att framföra sitt budskap

1280x720

Sitter du inte rätt mycket och skäller under helt fel träd här? Det var du inte jag som försökte påskina att TechPowerUp körde "medium" i 1280x720. Jag undvek uttala mig just för att informationen saknades.

Pekade sedan på att SweClockers skriver specifikt att man kör "medium", de får väsentligt högre FPS (gäller förövrigt även Warhammer som har en inbyggd benchmark). Vidare är det betydligt mer samstämmiga resultat i 1920x1080 där båda kör "ultra".

D.v.s. du hävdade något du verkar ha haft absolut noll stöd för.

Subtimings

Du verkar sitta på en guldgruva med kunskap och potentiell latent prestanda här. Åter igen, jag säger inte emot dig då jag inte har någon data att backa det med. Om det du skriver ens är nära att stämma så lär andra reproducera resultatet givet magnituden på vinsten du hävdar finns. Jag intar en vänta-och-se på denna.

Det som luktar lite här är att oavsett vilken timing du refererar till så kommer DDR4 aldrig kunna matcha eDRAM i latens. Vinsten i7-5755C ser är helt klart mätbar men den är inte större än att en i7-6700K kommer kliva förbi om man utrustar den med riktigt snabbt RAM med låg latens.

Latens för skrivning är i de flesta fall mer eller mindre irrelevant då det finns en rad sätt att "gömma" latens vid skrivningar (samma sak gäller faktiskt diskar, optimera skrivhastighet/latens är ett "lätt" problem medan optimera läshastighet/latens är ett fundamental "svårt" problem).

Så i slutändan är det bara en enda egenskap som spelar roll för minnesoperationer: "load-to-use" latens (finns en stor anledning varför det är enda latens man listar i cache-design). D.v.s. tiden det tar från att CPU begär data från en viss cell till dessa att data ligger i ett CPU-register. Det är den latens AIDA64 och många andra försöker mäta.

Nomenklatur timings

Efter som du redan verkar lagt ned så mycket tid, kan du inte göra en kort summering av vad alla de olika subtimings-parametrarna betyder. Är ärligt intresserad och gissar att det även gäller andra. Har bra koll på vad siffrorna för DDR4 represterar, men kan inte påstå att jag greppar vad t.ex. "Trfc_SM" gör.

Fysikmotorer

Du är medveten om att det inte är raketforskning att reda ut vilken klass av instruktioner som en viss applikation använder? När sedan källkoden till flera av de vanligare fysikramverken finns tillgänglig är det rent trivialt att verifiera en sådan sak som om SIMD används eller ej.

Åter igen, det vad du som drog in fysikberäkningar i det hela, försökte hålla sådant utanför då det dels komplicerar frågan, dels flyttar fördelen åt "fel håll" (efter som de flesta är överens om att allt som gynnar Intels CPUer är "fel") och dels varierar mängden fysik som används rätt ordentligt. Realistiska bilspel har t.ex. väsentligt mer av den varan jämfört med typiska first-person-shooters eller RTS.

Sedan låter det lite skumt att nivån fysikmotorn jobbar på är relaterad till grafiknivån. Självklart finns vissa partikeleffekter som kan hänga ihop med grafiknivå, men rimligen görs den typen av beräkningar som shaders idag (framförallt givet hur CPU/GPU-balansen ser ut på dagens spelkonsoler och då resultatet ändå måste in i GPU för att renderas).

Det finns absolut en koppling mellan CPU-last och grafiknivå, men den handlar främst om att det är väldigt CPU-intensivt att sammanställa all information som ska skickas till GPU och den informationen är ju självklart beroende av grafiknivå (men i princip helt frikopplad från upplösning).

Men anta att TechPowerUp nu kör "medium" och anta vidare att nivån på fysik är hårt kopplat till grafikinställning (det är då ovanpå den last GPUn lägger på CPU). Givet Gustafsons lag borde skalbarheten med CPU-kärnor minska i 1280x720, fast vi ser ju att gapet mellan i3 och i7 är väsentligt större i 1280x720 än i 1920x1080 (vare sig man tittar på genomsnittlig eller lägsta FPS).

Infinity Fabric latens

I en diskussion kring core-to-RAM latens är saker som CCX-to-CCX latens rätt irrelevant. Ja, är fullt medveten om att CCX-to-CCX latens minskar med ökad RAM frekvens, men även där gäller att RAM-timings (utöver frekvensen) påverkar inte CCX-to-CCX latens.

Andra irrelevanta fakta (för det som faktiskt diskuteras) kring detta är att ring-bussen i S-serien ligger på en egen klockdomän, vill man riktigt pilla på latens kan man testa att dra upp den frekvensen då den har inverkan på core-to-RAM latens (och andra saker som L3$ bandbredd/latens).

Low 1 %

Glömde fråga detta i sista, vad du gör är alltså detta: tar alla scener, sorterar dem efter fallande FPS-värde och plockar ut scen 0.9*N som "1 % low" där N är totala antalet scener?

Vet att bl.a. Gamer Nexus gjorde fel på detta tidigare, de räknade ut ett geometrisk medelvärde på den procent scener med lägsta FPS. Det är fel. Gör man på rätt sätt får man den stora fördelen att enstaka avvikande värden har noll påverkan på 1 % low.

MindBlanks siffror

Exakt den här typen av diskussionen föregick även på 1800-talet. Till slut (1908) var det någon som lessnade tillräckligt mycket för att lura ut ett sätt att objektivt kunna uttala sig huruvida en uppsättning mätvärden faktiskt kan stödja en viss tes eller ej med någon rimlig säkerhet.

Vad jag i huvudsak hävdar här är: givet antalet mätvärden, deras inbördes spridning och magnituden på resp. mätvärdet så går det inte att dra en slutsats kring vilken av CPUer som presterar bättre. Det behövs mer data för detta.

Och i kategorin "märka ord", du har helt rätt i att Doom har en FPS cap på 200 FPS och Resident Evil 7 kan vara begränsad av både det enda och det andra. Men det enda som är relevant för diskussionen är: ingen av dessa är i det aktuella mätutfallet begränsade av CPU, något som manifesterar sig extremt tydligt i närmaste identisk prestanda oavsett CPU-modell (och det är rätt många med rejält varierande kapacitet som testades).

När målet är att avgöra CPUs inverkan på något är det en grundförutsättning att just CPU är den primära flaskhalsen. Om den primära flaskhalsen är något annat, vare sig det är att man är GPU-bunden, FPS-cappad eller något annat, blir konsekvensen att man inte kan göra en utsaga om relativ CPU-prestanda. Det är alltså helt fel att, som flera gånger gjorts här, dra slutsatsen att CPU A är "ikapp" CPU B för det är ingen skillnad.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av pekkasteele:

Väldigt simpelt sätt att försöka bagatelisera de som förespråkar "andra sidan", för det stämmer lika mycket för de som förespråkar Intel, men dom har bara andra, lika värdelösa argument. Och de samma gäller AMD vs. Nvidia.

99% av alla här säger att "sitt" val är bäst, och menar att dom på andra sidan är, ja i stort sett dumma som inte fattar, och att dom ljuger. Man överderiver de små fördelar ens eget val har, och förminskar fördelerna med andra sidan.

Och vilken "sida" tillhör man om man har flera ARM CPUer än x86, två AMD (varav en Ryzen) och fyra Intel? Det exkluderar allt jag har tillgång till på jobbet.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Yoshman:

Och vilken "sida" tillhör man om man har flera ARM CPUer än x86, två AMD (varav en Ryzen) och fyra Intel? Det exkluderar allt jag har tillgång till på jobbet.

Den 1% som inte har någon sida, som jag

Visa signatur

WS1: | Gigabyte X670 G AX | Ryzen 9 7950x3D | 32GB G.Skill Trident Z5 NeoRGB | Sapphire RX 7800XT Pure | Corsair RM650i | Lian-Li O11 | EK Nucleus CR360 | WS2: | Asus RoG Strix X470-F | Ryzen 7 5600x | 16gb G.skill Trident Z Neo 3600mhz | Asus RoG Strix 3070 | Lian-Li Lancool 205 | ESX Srvr1 | MSI B450-A Pro Max | Ryzen 7 3700x | 64GB Corsair Vengence | Jonsbo UMX4 | Srvr2 MacMini | ClearOS

Permalänk
Medlem

Vem behöver en i7, eller motsvarande för spel? När nya i3:an kommer i full tillgänglighet så har den höga frekvenser och hela fyra kärnor. Mer kärnor än så behöver inte en gamer

.

Visa signatur

AMD Thunderbird 1.33 GHz (133 MHz Bus), Epox 8K7A, 1 x 256MB Corsair PC2100 DDR SDRAM, 20.5GB 7200 RPM Western Digital EIDE, Visiontek GeForce 3

Permalänk
Medlem
Skrivet av Yoshman:

Svordomar

Trovärdigheten i det man skriver är omvänt proportionellt mot antal mot antal svordomar som behövs för att framföra sitt budskap

Oförskämdheten i inlägg står i direkt proportion till den man svarar, du är uppenbarligen inte direkt bättre på detta eller tycker du det?

Skrivet av Yoshman:

1280x720

Sitter du inte rätt mycket och skäller under helt fel träd här? Det var du inte jag som försökte påskina att TechPowerUp körde "medium" i 1280x720. Jag undvek uttala mig just för att informationen saknades.

Pekade sedan på att SweClockers skriver specifikt att man kör "medium", de får väsentligt högre FPS (gäller förövrigt även Warhammer som har en inbyggd benchmark). Vidare är det betydligt mer samstämmiga resultat i 1920x1080 där båda kör "ultra".

D.v.s. du hävdade något du verkar ha haft absolut noll stöd för.

Kasta inte sten i glashus, hela tiden hittar du på saker som helt enkelt inte stämmer med verkligheten, som att länka resultat mellan sajter på manuellt inspelade spelrundor, det i sig är så långt ifrån fakta man kan komma men det är jag som är boven, OK...

Skrivet av Yoshman:

Subtimings

Du verkar sitta på en guldgruva med kunskap och potentiell latent prestanda här. Åter igen, jag säger inte emot dig då jag inte har någon data att backa det med. Om det du skriver ens är nära att stämma så lär andra reproducera resultatet givet magnituden på vinsten du hävdar finns. Jag intar en vänta-och-se på denna.

Det som luktar lite här är att oavsett vilken timing du refererar till så kommer DDR4 aldrig kunna matcha eDRAM i latens. Vinsten i7-5755C ser är helt klart mätbar men den är inte större än att en i7-6700K kommer kliva förbi om man utrustar den med riktigt snabbt RAM med låg latens.

Latens för skrivning är i de flesta fall mer eller mindre irrelevant då det finns en rad sätt att "gömma" latens vid skrivningar (samma sak gäller faktiskt diskar, optimera skrivhastighet/latens är ett "lätt" problem medan optimera läshastighet/latens är ett fundamental "svårt" problem).

Så i slutändan är det bara en enda egenskap som spelar roll för minnesoperationer: "load-to-use" latens (finns en stor anledning varför det är enda latens man listar i cache-design). D.v.s. tiden det tar från att CPU begär data från en viss cell till dessa att data ligger i ett CPU-register. Det är den latens AIDA64 och många andra försöker mäta.

Du förstår helt enkelt inte hur subtimings kan påverka spelprestanda och jag kan i sak förstå det när du verkar bry dig mest i komileringsprestanda. Till skillnad från dig har jag dock data att basera mina uttalanden på, jag gissar inte på att andra ljuger och hittar på data när jag själv har fel...

Tester vid rent CPU limiterade förhållanden

Tester vid blandat CPU och GPU limiterade förhållanden

2560x1080 med DNA extreme mod samt 14 andra moddar, grafisk kvalite långt över originalet med manuellt inspelad runda i en stad

3413x1440 med blanding av high och ultra inställningar, också helt manuellt inspelat
Syntetiska speltester

Mer speltester för att se hur timings/frekvens/subtimings påverkar prestanda
Skrivet av Yoshman:

Nomenklatur timings

Efter som du redan verkar lagt ned så mycket tid, kan du inte göra en kort summering av vad alla de olika subtimings-parametrarna betyder. Är ärligt intresserad och gissar att det även gäller andra. Har bra koll på vad siffrorna för DDR4 represterar, men kan inte påstå att jag greppar vad t.ex. "Trfc_SM" gör.

För det finns inte en uppsjö av information att hitta om detta...

Citat:

Advanced Memory Timings

tRRD Timing: (Act to Act Delay) Row to Row Delay or RAS to RAS Delay. The amount of cycles that it takes to activate the next bank of memory. It is the opposite of tRAS. The lower the timing, the better the performance, but it can cause instability.
tWTR Timing: (Rank Write To Read Delay) Write to Read Delay. The amount of cycles required between a valid write command and the next read command. Lower is better performance, but can cause instability.
tWR Timing: (Write To Precharge Delay)Write Recovery Time. The amount of cycles that are required after a valid write operation and precharge. This is to insure that data is written properly.
tRFC Timing: (Refresh To Act Delay) Row Refresh Cycle Timing. This determines the amount of cycles to refresh a row on a memory bank. If this is set too short it can cause corruption of data and if it is too high, it will cause a loss in performance, but increased stability.
tRTP Timing: (Read To Precharge Delay) Number of clocks that are inserted between a read command to a row pre-charge command to the same rank.

Below Values are not in ALL BIOS's (See Below link for a FULL List of Values)

tRTW/tRWT Timing: Read to Write Delay. When a write command is received, this is the amount of cycles for the command to be executed.
tRC Timing: Row Cycle Time. The minimum time in cycles it takes a row to complete a full cycle. This can be determined by; tRC = tRAS + tRP. If this is set too short it can cause corruption of data and if it is to high, it will cause a loss in performance, but increase stability.
tREF Timing: The amount of time it takes before a charge is refreshed so it does not lose its charge and corrupt. Measured in micro-seconds (µsec).
tWCL Timing: Write CAS number. Write to whatever bank is open to be written too. Operates at a rate of 1T, but can be set to others. It does not seem to work with other settings than 1T on DDR. DDR2 is different though.
Command Rate: Also called CPC (Command Per Clock). The amount of time in cycles when the chip select is executed and the commands can be issued. The lower (1T) the faster the performance, but 2T is used to maintain system stability. On Intel based machines, 1T is always used where the number of banks per channel are limited to 4.
Static tREAD Value: (tRD) This setting is most commonly known as Performance Level or tRD this is the most effective chipset performance register available to adjustment. As FSB and memory speed are scaled/increased, tRD and Northbridge voltage will have to be increased to accommodate the additional data throughput. The idea when tweaking your system for the BEST performance is to run the tightest (Lowest) tRD possible at any given FSB or memory speed. See Below Link for more reading on this

Skrivet av Yoshman:

Fysikmotorer

Du är medveten om att det inte är raketforskning att reda ut vilken klass av instruktioner som en viss applikation använder? När sedan källkoden till flera av de vanligare fysikramverken finns tillgänglig är det rent trivialt att verifiera en sådan som om SIMD används eller ej.

Åter igen, det vad du som drog in fysikberäkningar i det hela, försökte hålla sådant utanför då det dels komplicerar frågan, dels flyttar fördelen åt "fel håll" (efter som de flesta är överens om att allt som gynnar Intels CPUer är "fel") och dels varierar mängden fysik som används rätt ordentligt. Realistiska bilspel har t.ex. väsentligt mer av den varan jämfört med typiska first-person-shooters eller RTS.

Sedan låter det lite skumt att nivån fysikmotorn jobbar på är relaterad till grafiknivån. Självklart finns vissa partikeleffekter som kan hänga ihop med grafiknivå, men rimligen görs den typen av beräkningar som shaders idag (framförallt givet hur CPU/GPU-balansen ser ut på dagens spelkonsoler och då resultatet ändå måste in i GPU för att renderas).

Det finns absolut en koppling mellan CPU-last och grafiknivå, men den handlar främst om att det är väldigt CPU-intensivt att sammanställa all information som ska skickas till GPU och den informationen är ju självklart beroende av grafiknivå (men i princip helt frikopplad från upplösning).

Men anta att TechPowerUp nu kör "medium" och anta vidare att nivån på fysik är hårt kopplat till grafikinställning (det är då ovanpå den last GPUn lägger på CPU). Givet Gustafsons lag borde skalbarheten med CPU-kärnor minska i 1280x720, fast vi ser ju att gapet mellan i3 och i7 är väsentligt större i 1280x720 än i 1920x1080 (vare sig man tittar på genomsnittlig eller lägsta FPS).

Att du inte förstår att ingame inställningar kan påverka mängden fysik i spel förklarar en hel del av dina uttalanden. Var det jag som i varenda inlägg slog folk i skallen med "spel är skalära heltal"? Nej det var du som gjorde det, om och om och om igen trots att det inte har någon förankring i verkligheten, dom enda spel som möjligtvis skulle kunna påstås vara mestadels skalära heltal är titta tryck spel i 2d...
Att hela tiden försöka förenkla saker till att hela tiden gynna Intel processorer är på gränsen till lite sjukligt, att helt enkelt erkänna att dagens moderna spel innehåller en uppsjö av beräkningar och tekniker som i sin tur gynnar olika arkitekturer på olika sätt vore betydligt mer ärligt.
Du nämner bilspel, ja men ta då Forza Horizon 3, det använder sig av AES dekryptering vid asset streaming, ska du försöka påstå att Intel är 50% bättre på normal AES också?

Skrivet av Yoshman:

Infinity Fabric latens

I en diskussion kring core-to-RAM latens är saker som CCX-to-CCX latens rätt irrelevant. Ja, är fullt medveten om att CCX-to-CCX latens minskar med ökad RAM frekvens, men även där gäller att RAM-timings (utöver frekvensen) påverkar inte CCX-to-CCX latens.

Andra irrelevanta fakta (för det som faktiskt diskuteras) kring detta är att ring-bussen i S-serien ligger på en egen klockdomän, vill man riktigt pilla på latens kan man testa att dra upp den frekvensen då den har inverkan på core-to-RAM latens (och andra saker som L3$ bandbredd/latens).

Men snälla människa, nu försöker du blanda frågor om latens och frekvens för att du är fullt medveten om att minnesfrekvens direkt påverkar IF frekvens och detta i sin tur direkt påverkar CCX latens, något som absolut inte sker med Intel när man ökar minnesfrekvens. Det var du själv som jämförde 3600 med 3466vll och försökte påvisa att latens inte gjorde så mycket samtidigt som du ignorerade faktumet att det var olika frekvenser. Klart som fan att ökad minnesfrekvens & IF frekvens kommer påverka resultatet

Skrivet av Yoshman:

Low 1 %

Glömde fråga detta i sista, vad du gör är alltså detta: tar alla scener, sorterar dem efter fallande FPS-värde och plockar ut scen 0.9*N som "1 % low" där N är totala antalet scener?

Vet att bl.a. Gamer Nexus gjorde fel på detta tidigare, de räknade ut ett geometrisk medelvärde på den procent scener med lägsta FPS. Det är fel. Gör man på rätt sätt får man den stora fördelen att enstaka avvikande värden har noll påverkan på 1 % low.

MindBlanks siffror

Exakt den här typen av diskussionen föregick även på 1800-talet. Till slut (1908) var det någon som lessnade tillräckligt mycket för att lura ut ett sätt att objektivt kunna uttala sig huruvida en uppsättning mätvärden faktiskt kan stödja en viss tes eller ej med någon rimlig säkerhet.

Vad jag i huvudsak hävdar här är: givet antalet mätvärden, deras inbördes spridning och magnituden på resp. mätvärdet så går det inte att dra en slutsats kring vilken av CPUer som presterar bättre. Det behövs mer data för detta.

Och i kategorin "märka ord", du har helt rätt i att Doom har en FPS cap på 200 FPS och Resident Evil 7 kan vara begränsad av både det enda och det andra. Men det enda som är relevant för diskussionen är: ingen av dessa är i det aktuella mätutfallet begränsade av CPU, något som manifesterar sig extremt tydligt i närmaste identisk prestanda oavsett CPU-modell (och det är rätt många med rejält varierande kapacitet som testades).

Igen, har jag sagt något annat än att processorerna presterade väldigt lika varandra i testet? Eller tycker du bara om att fylla ut texten lite? När du ändå gör det varför tar du fortfarande inte i de siffrorna från HW unboxed med vega64 som visades tidigare?

Skrivet av Yoshman:

Och vilken "sida" tillhör man om man har flera ARM CPUer än x86, två AMD (varav en Ryzen) och fyra Intel? Det exkluderar allt jag har tillgång till på jobbet.

Kände du dig träffad?

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Datavetare
Skrivet av tellus82:

Oförskämdheten i inlägg står i direkt proportion till den man svarar, du är uppenbarligen inte direkt bättre på detta eller tycker du det?

Kasta inte sten i glashus, hela tiden hittar du på saker som helt enkelt inte stämmer med verkligheten, som att länka resultat mellan sajter på manuellt inspelade spelrundor, det i sig är så långt ifrån fakta man kan komma men det är jag som är boven, OK...

Du förstår helt enkelt inte hur subtimings kan påverka spelprestanda och jag kan i sak förstå det när du verkar bry dig mest i komileringsprestanda. Till skillnad från dig har jag dock data att basera mina uttalanden på, jag gissar inte på att andra ljuger och hittar på data när jag själv har fel...

Tester vid rent CPU limiterade förhållanden
https://i.imgur.com/v3oIoiO.png
https://i.imgur.com/mFrSEiy.png
https://i.imgur.com/HquXZJd.png
https://i.imgur.com/riTbxGm.png
https://i.imgur.com/maOeqfC.png
https://i.imgur.com/3eZHJ0R.png
https://i.imgur.com/5VEkjbp.png
https://i.imgur.com/oIxhBRv.png
https://i.imgur.com/Lqy5uZ4.png
https://i.imgur.com/NwEiEyF.png
Tester vid blandat CPU och GPU limiterade förhållanden
https://i.imgur.com/BtAGLkW.png
2560x1080 med DNA extreme mod samt 14 andra moddar, grafisk kvalite långt över originalet med manuellt inspelad runda i en stad
https://i.imgur.com/Tfpgwnr.png
3413x1440 med blanding av high och ultra inställningar, också helt manuellt inspelat
Syntetiska speltester
https://i.imgur.com/zY4L9nd.png
https://i.imgur.com/sfCA850.png
https://i.imgur.com/U5vgDan.png
https://i.imgur.com/8E3QeO0.png
https://i.imgur.com/u2wlrOl.png

Mer speltester för att se hur timings/frekvens/subtimings påverkar prestanda

För det finns inte en uppsjö av information att hitta om detta...
Att du inte förstår att ingame inställningar kan påverka mängden fysik i spel förklarar en hel del av dina uttalanden. Var det jag som i varenda inlägg slog folk i skallen med "spel är skalära heltal"? Nej det var du som gjorde det, om och om och om igen trots att det inte har någon förankring i verkligheten, dom enda spel som möjligtvis skulle kunna påstås vara mestadels skalära heltal är titta tryck spel i 2d...
Att hela tiden försöka förenkla saker till att hela tiden gynna Intel processorer är på gränsen till lite sjukligt, att helt enkelt erkänna att dagens moderna spel innehåller en uppsjö av beräkningar och tekniker som i sin tur gynnar olika arkitekturer på olika sätt vore betydligt mer ärligt.
Du nämner bilspel, ja men ta då Forza Horizon 3, det använder sig av AES dekryptering vid asset streaming, ska du försöka påstå att Intel är 50% bättre på normal AES också?

Men snälla människa, nu försöker du blanda frågor om latens och frekvens för att du är fullt medveten om att minnesfrekvens direkt påverkar IF frekvens och detta i sin tur direkt påverkar CCX latens, något som absolut inte sker med Intel när man ökar minnesfrekvens. Det var du själv som jämförde 3600 med 3466vll och försökte påvisa att latens inte gjorde så mycket samtidigt som du ignorerade faktumet att det var olika frekvenser. Klart som fan att ökad minnesfrekvens & IF frekvens kommer påverka resultatet
Igen, har jag sagt något annat än att processorerna presterade väldigt lika varandra i testet? Eller tycker du bara om att fylla ut texten lite? När du ändå gör det varför tar du fortfarande inte i de siffrorna från HW unboxed med vega64 som visades tidigare?

Kände du dig träffad?

Träffad

Angående om träffad, inte direkt. Har blivit anklagad både för att vara Intel och Nvidia fanboy, vilket är lite intressant med tanke på att jag endast hade ATi/AMD GPUer mellan GeForce256 och GTX970 samt endast AMD CPUer för stationära från att P4 lanserades till att Sandy Bridge lanserade. Numera köper jag normalt minst en av varje, pengar är inte ett problem på den nivån

Har t.ex. noll egentlig användning min Ryzen utöver att jag tycker det är kul att ha en, som bonus kan jag även själv verifiera saker folk hävdar kring prestanda (och det är rätt mycket som hävdas kanske inte riktigt stämmer).

Infinity Fabric (igen)

Och jag har gång på gång understryk precis det: latens i IF beror endast på RAM-frekvens, RAM-timings är irrelevant för IF latens. Så denna post är helt korrekt och att dra in minnes-timings vore helt off-topic. Så förklara gärna vad du går helt i spinn här för.

Dina mätningar

Tittat på siffrorna nu. Givet variansen du har i lägsta och högsta FPS ser det väldigt mycket ut som du inte använder dig av 1 % och 99 % percentilen, en 1 % percentil på RoTR:Syria < 20 FPS skulle vara totalt ospelbart, då ca 2 scener per sekund skulle hålla < 20 FPS.

Om det stämmer är bara genomsnittligt FPS som går att använda till något vettigt.

Baserat på de mätningar du gjort, vad där finns det egentligen som avviker från det "normal"? Du kör med 2666 CL16, 3333 CL16 samt 3333 CL14.

Delar man upp det i effekt från minnesfrekvens och effekt från latens (verklig latens i förlupen tid, d.v.s. med hänsyn tagen till frekvensens påverkan på latens) ser man precis det andra resultat visar: båda har en påverkan, effekten är något större från högre frekvens (men de är helt klart i samma härad, klart mindre än en heltalsfaktor i skillnad).

Tog fram detta genom att anta att uppmätt genomsnittlig FPS är linjärt beroende mot minnesfrekvensen och mot inversen på latens mätt i förlupen tid (lägre latens ger ju högre prestanda, vill ha ett linjärt beroende vilket man får genom att ta inversen).

Enligt det du skriver här så är det ju AGESA 1.0.0.6B där problemet med "slappa timings" dök upp, vilket i så fall gör den punkten helt irrelevant för de resultat som refererats hos t.ex. SweClockers och TechPowerUp.

TechPowerUp har ju CL, rRCD, rRP och rRAS som är rätt nära det du kallar 3333L.

Och givet hur RAM fungerar i praktiken, dessa värden står listade i fallande påverkan. CL värdet påverkar varje läsning/skrivning om 8 bytes. De två nästkommande påverkar bara de fall man korsar en 1 kB barriär.

rRAS har knappt en påverkan på hastighet, om man håller sig inom rimliga gränser (för lågt värde kommer leda till att minnescellerna börjar tappa sitt innehåll).

Och givet du skriver i inlägget ovan: den stora grejen med automatiska inställningar är ju främst att CL-värdet blir 16 i stället för 14 som du manuellt ändrar till. Förutsatt att övriga subtimings inte har totalt vansinniga värden är de i sammanhanget rätt liten påverkan.

TechPowerUp

Så din ståndpunkt här har nu hamnat på att deras värden är helt oanvändbara? Har så här långt dock inte sett någon konkret i dina invändningar, att lite svepande hävda att de resultaten inte går att använda är i min värld inte ett gångbart "bevis".

Ge två konkreta exempel på varför TechPowerUp siffrorna är helt oanvändbara, för du hävdar "Kasta inte sten i glashus, hela tiden hittar du på saker som helt enkelt inte stämmer med verkligheten, som att länka resultat mellan sajter på manuellt inspelade spelrundor, det i sig är så långt ifrån fakta man kan komma". Givet att det är "så långt från fakta man kan komma" borde det finnas massor med grova fel där.

Skalära heltal

Vill inte vara ohyfsad på något sätt, men vilken del av: "om det är så att fysik också är en relevant faktor så blir ju fördelen för Intel ännu större" är så pass obegriplig svenska att du flera gånger verkar läst det påstående på ett sätt som verkar ge den motsatt betydelse? Jag tar ju Ryzen-lägrets ståndpunkt här: SSE/AVX är irrelevant.

Tar vi Havok så hade det ramverket AVX optimeringar redan 2011, lär inte blivit färre under åren Intel ägde Havok. AVX är inte precis Ryzens starkaste punkt, Skylake har >100% högre IPC för AVX (IPC, ovanpå det tillkommer skillnad i frekvens).

Och även om det är ett tag sedan jag själv utvecklade PC-spel har jag fortfarande lite kontakter kvar (och finns även här möjlighet att få tag i källkoden till hyfsat aktuella spelmotorer, då kan man enkelt verifiera mitt på stående själv).

Så förutom att det inte är speciellt avancerat att gräva ut vilka instruktioner en viss binär använder har jag hyfsat hum kring vad en typisk spelmotor gör. Den är totalt dominerad av logik, logik blir uteslutande x86-instruktioner som jobbar med "skalära heltal".

Det som gör att kompilering och spel har många beröringspunkter är att båda innehåller en stor andel villkorad körning ("if-satser") samt en hel del "pointer-chasing". För spelprogrammerare var PS4/XBO därför en välkommen lansering, Jaguar må vara en simpel CPU men den är ändå en out-of-order design, det till skillnad till tidigare konsol-CPUer.

De gamla konsol-CPU-designerna krävde en hel del handpåläggning för att prestera väl just p.g.a. saker som villkorad körning och "pointer-chasing". Saker som med en out-of-order CPU helt kan lämnas till kompilator+CPUs dynamiska beteende.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Problemet med @Yoshman är inte att han fel i sig, men helheten gör tyvärr att man tappar livslusten efter man läst en tredjedel av hans inlägg. Varenda inlägg som är över en sida är ett enda stort "Men DU DÅ!"

7700k i 5 ghz med snabba och optimerade minnen är bättre än en Ryzen 1600 vid 4.0 med snabba och optimerade minnen. I enkeltrådade applikationer. Med ett fåtal procent. Kanske.

PROBLEMET och det dom hör till diskussionen i fråga är att en Ryzen med snabba minnen är billigare och du får flera kärnor/trådar vilket de flesta tycker är allmänt bra.

Du slipper Delidda din CPU och/eller köra den i 90*C utan garanti, utan du kan tuffa på lugnt i 40-60 grader.

https://www.3dmark.com/compare/aot/222967/aot/231718

Trots att man kan motbevisa dig med siffror som Tellus82, Ratatosk mfl gjort i X antal trådar tidigare, så som många andra gjort förr. Så har du alltid rätt.

// Jag är inte arg, jag är bitter.

ps: innan ryzen var ute på marknaden så skulle varenda kotte köpa i7 7700k och 2400cl16 ram. "ram har ingen betydelse i spel" osv hördes från många håll. Konstigt kan man tycka.

Permalänk
Medlem
Skrivet av Yoshman:

Träffad

Angående om träffad, inte direkt. Har blivit anklagad både för att vara Intel och Nvidia fanboy, vilket är lite intressant med tanke på att jag endast hade ATi/AMD GPUer mellan GeForce256 och GTX970 samt endast AMD CPUer för stationära från att P4 lanserades till att Sandy Bridge lanserade. Numera köper jag normalt minst en av varje, pengar är inte ett problem på den nivån

Har t.ex. noll egentlig användning min Ryzen utöver att jag tycker det är kul att ha en, som bonus kan jag även själv verifiera saker folk hävdar kring prestanda (och det är rätt mycket som hävdas kanske inte riktigt stämmer).

Infinity Fabric (igen)

Och jag har gång på gång understryk precis det: latens i IF beror endast på RAM-frekvens, RAM-timings är irrelevant för IF latens. Så denna post är helt korrekt och att dra in minnes-timings vore helt off-topic. Så förklara gärna vad du går helt i spinn här för.

Dina mätningar

Tittat på siffrorna nu. Givet variansen du har i lägsta och högsta FPS ser det väldigt mycket ut som du inte använder dig av 1 % och 99 % percentilen, en 1 % percentil på RoTR:Syria < 20 FPS skulle vara totalt ospelbart, då ca 2 scener per sekund skulle hålla < 20 FPS.

Om det stämmer är bara genomsnittligt FPS som går att använda till något vettigt.

Baserat på de mätningar du gjort, vad där finns det egentligen som avviker från det "normal"? Du kör med 2666 CL16, 3333 CL16 samt 3333 CL14.

Delar man upp det i effekt från minnesfrekvens och effekt från latens (verklig latens i förlupen tid, d.v.s. med hänsyn tagen till frekvensens påverkan på latens) ser man precis det andra resultat visar: båda har en påverkan, effekten är något större från högre frekvens (men de är helt klart i samma härad, klart mindre än en heltalsfaktor i skillnad).

Tog fram detta genom att anta att uppmätt genomsnittlig FPS är linjärt beroende mot minnesfrekvensen och mot inversen på latens mätt i förlupen tid (lägre latens ger ju högre prestanda, vill ha ett linjärt beroende vilket man får genom att ta inversen).

Enligt det du skriver här så är det ju AGESA 1.0.0.6B där problemet med "slappa timings" dök upp, vilket i så fall gör den punkten helt irrelevant för de resultat som refererats hos t.ex. SweClockers och TechPowerUp.

TechPowerUp har ju CL, rRCD, rRP och rRAS som är rätt nära det du kallar 3333L.

Och givet hur RAM fungerar i praktiken, dessa värden står listade i fallande påverkan. CL värdet påverkar varje läsning/skrivning om 8 bytes. De två nästkommande påverkar bara de fall man korsar en 1 kB barriär.

rRAS har knappt en påverkan på hastighet, om man håller sig inom rimliga gränser (för lågt värde kommer leda till att minnescellerna börjar tappa sitt innehåll).

Och givet du skriver i inlägget ovan: den stora grejen med automatiska inställningar är ju främst att CL-värdet blir 16 i stället för 14 som du manuellt ändrar till. Förutsatt att övriga subtimings inte har totalt vansinniga värden är de i sammanhanget rätt liten påverkan.

TechPowerUp

Så din ståndpunkt här har nu hamnat på att deras värden är helt oanvändbara? Har så här långt dock inte sett någon konkret i dina invändningar, att lite svepande hävda att de resultaten inte går att använda är i min värld inte ett gångbart "bevis".

Ge två konkreta exempel på varför TechPowerUp siffrorna är helt oanvändbara, för du hävdar "Kasta inte sten i glashus, hela tiden hittar du på saker som helt enkelt inte stämmer med verkligheten, som att länka resultat mellan sajter på manuellt inspelade spelrundor, det i sig är så långt ifrån fakta man kan komma". Givet att det är "så långt från fakta man kan komma" borde det finnas massor med grova fel där.

Skalära heltal

Vill inte vara ohyfsad på något sätt, men vilken del av: "om det är så att fysik också är en relevant faktor så blir ju fördelen för Intel ännu större" är så pass obegriplig svenska att du flera gånger verkar läst det påstående på ett sätt som verkar ge den motsatt betydelse? Jag tar ju Ryzen-lägrets ståndpunkt här: SSE/AVX är irrelevant.

Tar vi Havok så hade det ramverket AVX optimeringar redan 2011, lär inte blivit färre under åren Intel ägde Havok. AVX är inte precis Ryzens starkaste punkt, Skylake har >100% högre IPC för AVX (IPC, ovanpå det tillkommer skillnad i frekvens).

Och även om det är ett tag sedan jag själv utvecklade PC-spel har jag fortfarande lite kontakter kvar (och finns även här möjlighet att få tag i källkoden till hyfsat aktuella spelmotorer, då kan man enkelt verifiera mitt på stående själv).

Så förutom att det inte är speciellt avancerat att gräva ut vilka instruktioner en viss binär använder har jag hyfsat hum kring vad en typisk spelmotor gör. Den är totalt dominerad av logik, logik blir uteslutande x86-instruktioner som jobbar med "skalära heltal".

Det som gör att kompilering och spel har många beröringspunkter är att båda innehåller en stor andel villkorad körning ("if-satser") samt en hel del "pointer-chasing". För spelprogrammerare var PS4/XBO därför en välkommen lansering, Jaguar må vara en simpel CPU men den är ändå en out-of-order design, det till skillnad till tidigare konsol-CPUer.

De gamla konsol-CPU-designerna krävde en hel del handpåläggning för att prestera väl just p.g.a. saker som villkorad körning och "pointer-chasing". Saker som med en out-of-order CPU helt kan lämnas till kompilator+CPUs dynamiska beteende.

Haha, jag orkar inte ens längre Yoshman, du börjar babla om primärtimings igen trots att jag oavbrutet bankat in att det handlar om subtimings, hur svårt ska det vara att förstå skillnaden? Handlar det om någon slags oförmåga att begripa eller är det ren ovilja? Ändra subtimings själv och ut och bencha med din ryzen burk, det är inte svårare än så. Slår det slint i skallen eller vad är det frågan om? Prova att sätta tRDRDSCL & tWRWRSCL till 6 vilket är ett helt normalt värde för XMP profil, sätt det sedan till 2 och se vad som händer med FPS, denna inställning allena gör mer än primärtimings i fråga om FPS och tror du inte på detta är det bara & prova, inte svårare än så, kul va?

Buildzoid går igenom några subtimings så som tFAW och dess inverkan, även han säger med bara ett fåtal ändrade subtimings ser han 10% skilnad utan problem. Men det är klart, det är säkert hittepå.....
Här har du en bra genomgång av timings på Ryzen

Nej jag hävdar inte att techpowerups värden är oanvändbara, man ska bara förstå hur dom får fram dom och du kan fortfarande inte jämföra värden mellan olika testsajter i spel där man inte kör scriptade benchmarks, det funkar inte, inte på något plan, oavsett hur mycket du vill det. manuellt spelade och inspelade testrundor kan aldrig jämföras om dom inte utförs på exakt samma sätt. Sen ska man förstå vad som händer med spel när man ändrar ingame inställningar, 720p low är en ren dödssynd och det är även medium om jag ska vara helt ärlig, du påverkar saker som antal draw calls, geometri, texturhantering, asset streaming, fysik, draw distance osv osv. Alla dessa saker har enorm inverkan på cpu belastning och jag hoppas innerligt att du förstår det annars är nog hoppet ute...

Varför jag går i spinn, erm, det var du som försökte påvisa att timings inte alls gjorde så stor skillnad genom att jämföra 3600 med 3466vll, du förstår säkert mycket väl varför detta blir extremt missvisande i fråga om latensens påverkan i spelprestanda med frekvens & IF frekvens skillnad, eller vill du inte begripa det?

Sen har du grovt missuppfattat vad 0.1% low är, det är inte varje sekund det handlar om utan av totalt renderade frames, om du vill ha 0.1% frame variance så är det en annan femma och har i sig inte med FPS att göra men även det är inte varje sekund utan bara de största skillnaderna mellan olika frametimes under ett test, FPS som värde är i sig alltid ett genomsnitt för angiven tidsenhet, det är därför frametime kan plocka fram saker som göms av FPS som värde, att man sedan översätter frametime värdena till FPS värden för att folk lättare ska förstå är kanske inte helt konstigt.

Du bör dock veta att jag har kört varje testrunda 3 gånger med frametime inspelning och sedan använt medelvärde för alla tre rundor för varje värde, maximal variation mellan testrundor för samma inställning har legat <+-1% för alla värden, alltså rätt svårt att hävda någon enorm slags variation.

Jag undrar varför du vill leta fel i mitt testande, vad kan det bero på? Har du något behov av att hitta något fel? Har jag visat något du inte tycker om?

Som jag skrivit tidigare på mer än ett ställe så är 2666 på helt automatiska timings, 3333H är XMP profil med auto timings, 3333L är manuella timings/subtimings (med mer än en halvering av de flesta subtimings), 3466LL är i stort som 3333L vad det gäller timings.
Och nej TechPowerup kör primärtimings som är nära, subtimings däremot är milsvid skillnad. Kör man XMP profil ,vilket alla test ställen gör så kommer subtimings vara apdåliga, det är inte svårare än så. Sätter man manuella subtimings kan man tjäna runda slängar 10% prestanda i spel vid samma frekvens om man har b-die minnen.
Vad det gäller AGESA versioner så började slappa timings införas redan på 1.0.0.4, för att sedan ökas än mer på 1.0.0.6.

#17041465
Är korrekt, förutom att du medvetet utelämnar inverkan av minnesfrekvens på CCX latens trots att frågan var om både frekvens och latens, sen försöker du insinuera att Intel cpu reagerar likadant vid höjning av minnesfrekvens och du vet mycket väl att du lämnat ute CCX latens & L3 cache bandbredd från svaret. Är ditt svar fortfarande korrekt, nja inte direkt va?

Men gud va bra, du kan verifiera ditt uttalande om att spel är skalära heltal, då tycker jag att du ska göra det.

PS, du vill fortfarande inte ta i siffrorna från HW unboxed med Vega64? Vad beror detta på?

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Datavetare
Skrivet av tellus82:

Haha, jag orkar inte ens längre Yoshman, du börjar babla om primärtimings igen trots att jag oavbrutet bankat in att det handlar om subtimings, hur svårt ska det vara att förstå skillnaden? Handlar det om någon slags oförmåga att begripa eller är det ren ovilja? Ändra subtimings själv och ut och bencha med din ryzen burk, det är inte svårare än så. Slår det slint i skallen eller vad är det frågan om? Prova att sätta tRDRDSCL & tWRWRSCL till 6 vilket är ett helt normalt värde för XMP profil, sätt det sedan till 2 och se vad som händer med FPS, denna inställning allena gör mer än primärtimings i fråga om FPS och tror du inte på detta är det bara & prova, inte svårare än så, kul va?
https://youtu.be/W2KhRPVGQYc

Buildzoid går igenom några subtimings så som tFAW och dess inverkan, även han säger med bara ett fåtal ändrade subtimings ser han 10% skilnad utan problem. Men det är klart, det är säkert hittepå.....
Här har du en bra genomgång av timings på Ryzen

Nej jag hävdar inte att techpowerups värden är oanvändbara, man ska bara förstå hur dom får fram dom och du kan fortfarande inte jämföra värden mellan olika testsajter i spel där man inte kör scriptade benchmarks, det funkar inte, inte på något plan, oavsett hur mycket du vill det. manuellt spelade och inspelade testrundor kan aldrig jämföras om dom inte utförs på exakt samma sätt. Sen ska man förstå vad som händer med spel när man ändrar ingame inställningar, 720p low är en ren dödssynd och det är även medium om jag ska vara helt ärlig, du påverkar saker som antal draw calls, geometri, texturhantering, asset streaming, fysik, draw distance osv osv. Alla dessa saker har enorm inverkan på cpu belastning och jag hoppas innerligt att du förstår det annars är nog hoppet ute...

Varför jag går i spinn, erm, det var du som försökte påvisa att timings inte alls gjorde så stor skillnad genom att jämföra 3600 med 3466vll, du förstår säkert mycket väl varför detta blir extremt missvisande i fråga om latensens påverkan i spelprestanda med frekvens & IF frekvens skillnad, eller vill du inte begripa det?

Sen har du grovt missuppfattat vad 0.1% low är, det är inte varje sekund det handlar om utan av totalt renderade frames, om du vill ha 0.1% frame variance så är det en annan femma och har i sig inte med FPS att göra men även det är inte varje sekund utan bara de största skillnaderna mellan olika frametimes under ett test, FPS som värde är i sig alltid ett genomsnitt för angiven tidsenhet, det är därför frametime kan plocka fram saker som göms av FPS som värde, att man sedan översätter frametime värdena till FPS värden för att folk lättare ska förstå är kanske inte helt konstigt.

Du bör dock veta att jag har kört varje testrunda 3 gånger med frametime inspelning och sedan använt medelvärde för alla tre rundor för varje värde, maximal variation mellan testrundor för samma inställning har legat <+-1% för alla värden, alltså rätt svårt att hävda någon enorm slags variation.

Jag undrar varför du vill leta fel i mitt testande, vad kan det bero på? Har du något behov av att hitta något fel? Har jag visat något du inte tycker om?

Som jag skrivit tidigare på mer än ett ställe så är 2666 på helt automatiska timings, 3333H är XMP profil med auto timings, 3333L är manuella timings/subtimings (med mer än en halvering av de flesta subtimings), 3466LL är i stort som 3333L vad det gäller timings.
Och nej TechPowerup kör primärtimings som är nära, subtimings däremot är milsvid skillnad. Kör man XMP profil ,vilket alla test ställen gör så kommer subtimings vara apdåliga, det är inte svårare än så. Sätter man manuella subtimings kan man tjäna runda slängar 10% prestanda i spel vid samma frekvens om man har b-die minnen.
Vad det gäller AGESA versioner så började slappa timings införas redan på 1.0.0.4, för att sedan ökas än mer på 1.0.0.6.

#17041465
Är korrekt, förutom att du medvetet utelämnar inverkan av minnesfrekvens på CCX latens trots att frågan var om både frekvens och latens, sen försöker du insinuera att Intel cpu reagerar likadant vid höjning av minnesfrekvens och du vet mycket väl att du lämnat ute CCX latens & L3 cache bandbredd från svaret. Är ditt svar fortfarande korrekt, nja inte direkt va?

Men gud va bra, du kan verifiera ditt uttalande om att spel är skalära heltal, då tycker jag att du ska göra det.

PS, du vill fortfarande inte ta i siffrorna från HW unboxed med Vega64? Vad beror detta på?

Dina siffror

Var du som slängde dem i ansiktet på mig, så åter igen: fundera vilket träd du bör sitta och skälla under.

Har överhuvudtaget inget emot dig, tvärtom gillar jag när folk lägger tid på att utreda något. Vad jag, i all välmening, försöker påpeka är att dina lägsta FPS verkar vara just lägsta FPS under hela testsekvensen. Det är ett värde alla seriösa teknikwebbplatser konstaterat resulterar i data som inte är speciellt användbart då det är allt för beroende av en enskild avvikelse under hela sekvensen.

Och pratar inte om "1 % frame variance", pratar specifikt om "1 % low" som rent konkret är 1 % percentilen. D.v.s. det är den FPS som 1 % av alla renderade scener understiger, eller omvänt 99 % av alla renderade scener har en FPS lika med eller högre än detta.

Denna siffra är bra då det är en form av median, så helt okänslig för enstaka avvikande siffror.

Detta är hur t.ex. SweClockers, TechPowerUp och TechReport mäter sina "lägsta FPS".

I ditt specifika fall med RoTR:Syria är genomsnittlig FPS ~120, det betyder att spelet i genomsnitt renderar 120 scener per sekund. Om du faktiskt fått att 1 % low till 20 FPS betyder det att, i genonsnitt, kommer man att få en scen som har en framtime motsvarande 20 FPS två gånger per sekund (i genomsnitt 120 scener per sekund, 1 % av dessa skulle vara 20 FPS eller lägre om du faktiskt mätt "1 % low".

Att jag lägger tid på att ens förklara detta är specifikt i förhoppning att du kan lugna ner dig lite, inse att sättet du räknat ut "low" kanske inte är helt optimalt (och det är inte hur andra beräknar "1 % low"). Har du kvar rådata går det att fixa fram dessa siffror.

TechPowerUp 720p

Tycker egentligen det är rätt irrelevant om de kör "medium" eller ej, faktum är att på det stora hela får SweClockers (som kör 720p i "medium") och TechPowerUp väldigt samstämmiga resultat vad det gäller CPU-effekt. Dock har SweClockers betydligt färre resultat så osäkerheten blir ju större.

Håller med om att en jämförelse mellan en enskild titel mellan två olika uppsättning mätdata har väl stor osäkerhet, men i princip alla titlar där både SweC och TechPowerUp uppvisar högre FPS i 720p hos SweC, det med rätt stor marginal. Taget över alla titlar där det finns ett överlapp kan man med väldigt god backning från data hävda att: TechPowerUp kör högre inställningar än "medium" i 720p.

Hävda saker utan data

Inget i dina data styrker på något sätt att effekten du ser är isolerad eller på något sätt mer påtaglig för Ryzen jämfört med Skylake. De enda data jag känner till här är SweClockers snabbtest och tester Digital Foundry gjort, dessa visar väldigt snarlik skalning med minnesfrekvens. Ignorerar man helt statistisk signifikans vinner Skylake något mer (men rätt säker att den skillnaden inte är signifikant givet mängden datapunkter och magnituden på skillnaden).

I de data du tagit fram och nu slängt på mig hävdar du t.ex. detta

"Vad kan man då lära sig av detta? I de testade spelen så visar sig minnesfrekvens och latens ha en stor inverkan, så stor att den kan nära nog motsvara 600MHz på processor genom enbart manuellt tweakade timings vid samma minnesfrekvens."

Fast det är ett påstående som den data du har faktiskt inte styrker. Till att börja med har du inte testat fallet "samma RAM-timings och variera frekvens mellan 3,4 GHz och 4,0 GHz". Går inte heller att använda "stock clock" för detta då frekvensen där varierar en hel del beroende på hur många kärnor som används.

Om du anser att jag hävdat något som inte är tillräckligt styrkt, peka konkret på de fallen så ska jag försöka fixa det.

HW unboxed med Vega64

Varför har jag inte svara på denna? Främst för att jag inte hade data från den artikeln på ett format där det är möjligt att göra en objektiv bedömning kring sådant som: visar ens detta att det finns en skillnad i prestanda? Att jag inte har det är en kombination att tid är en bristvara och att mitt intresse för Vega64 är väldigt lågt.

Vidare sammanfattar ju Steve resultat i slutet av videon: det är i princip noll skillnad i prestanda mellan R5-1600 @ 4,0 GHz och i7-7700K @ 4,9 GHz i 2560x1440. Vilket inte borde förvåna någon, CPUn är överhuvudtaget inte flaskhals här.

I 1920x1080 är ju sammanfattningen: i7-7700K är snabbare, men det är väldigt liten skillnad. Många titlar uppvisar ju klara tendenser att flaskhalsen inte är CPU, så åter igen ett helt väntat resultat.

Men då du återkommit till detta i alla fall tre gånger, har tittat lite mer på dessa. Till skillnad från MindBlanks mätningar har Steve gjort tillräckligt med mätningar för att man med stor statistisk säkerhet kan konstatera att i7-7700K är snabbare i 1920x1080, det vare sig man använder GTX1080 eller Vega64.

Med 95 % konfidensintervall säger dessa siffror

  • Vega64 - 7700K är 9,5 % snabbare, ±5 % i genomsnittlig FPS

  • Vega64 - 7700K är 9,3 % snabbare, ±5 % i lägsta FPS

  • GTX1080 - 7700K är 8,0 % snabbare, ±6 % i genomsnittlig FPS

  • GTX1080 - 7700K är 11,4 % snabbare, ±7 % i lägsta FPS

I inget av fallen är 0 % skillnad med i konfidensintervallet, så dessa data pekar på att i7-7700K verkligen är snabbare.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Dina siffror

Var du som slängde dem i ansiktet på mig, så åter igen: fundera vilket träd du bör sitta och skälla under.

Har överhuvudtaget inget emot dig, tvärtom gillar jag när folk lägger tid på att utreda något. Vad jag, i all välmening, försöker påpeka är att dina lägsta FPS verkar vara just lägsta FPS under hela testsekvensen. Det är ett värde alla seriösa teknikwebbplatser konstaterat resulterar i data som inte är speciellt användbart då det är allt för beroende av en enskild avvikelse under hela sekvensen.

Och pratar inte om "1 % frame variance", pratar specifikt om "1 % low" som rent konkret är 1 % percentilen. D.v.s. det är den FPS som 1 % av alla renderade scener understiger, eller omvänt 99 % av alla renderade scener har en FPS lika med eller högre än detta.

Denna siffra är bra då det är en form av median, så helt okänslig för enstaka avvikande siffror.

Detta är hur t.ex. SweClockers, TechPowerUp och TechReport mäter sina "lägsta FPS".

I ditt specifika fall med RoTR:Syria är genomsnittlig FPS ~120, det betyder att spelet i genomsnitt renderar 120 scener per sekund. Om du faktiskt fått att 1 % low till 20 FPS betyder det att, i genonsnitt, kommer man att få en scen som har en framtime motsvarande 20 FPS två gånger per sekund (i genomsnitt 120 scener per sekund, 1 % av dessa skulle vara 20 FPS eller lägre om du faktiskt mätt "1 % low".

Att jag lägger tid på att ens förklara detta är specifikt i förhoppning att du kan lugna ner dig lite, inse att sättet du räknat ut "low" kanske inte är helt optimalt (och det är inte hur andra beräknar "1 % low"). Har du kvar rådata går det att fixa fram dessa siffror.

Så att jag backar upp det jag säger med riktig data är att kasta det i ansiktet på dig? Hur tänker du nu egentligen?
Ja du skulle kunna ha rätt om det inte vore för att 0,1% av 10 till 30 tusen frames inte är enskilda händelser, det är din uppfattning för du vill ha det så, varför vill du ha det så? Om testet man gör bara är ett tusen frames så kan man börja prata enskild händelse och det är detta som techsajster pratar om då man ofta kör väldigt korta testrundor, detta för att spara tid då multipla vändor i multipla spel tar tid och tid är pengar, nackdelen blir då att du får mycket små delar av spel testade och dessutom får du ett mycket litet data underlag som i sig är ännu mera osäkert, därför kan man i det läget inte använda 0.1% low baserat på all tillgänglig frametime data.
Fast du kanske vet bättre åter igen och jag är på riktigt nyfiken varför du är så idog att försöka hitta fel i datan?

Skrivet av Yoshman:

TechPowerUp 720p

Tycker egentligen det är rätt irrelevant om de kör "medium" eller ej, faktum är att på det stora hela får SweClockers (som kör 720p i "medium") och TechPowerUp väldigt samstämmiga resultat vad det gäller CPU-effekt. Dock har SweClockers betydligt färre resultat så osäkerheten blir ju större.

Håller med om att en jämförelse mellan en enskild titel mellan två olika uppsättning mätdata har väl stor osäkerhet, men i princip alla titlar där både SweC och TechPowerUp uppvisar högre FPS i 720p hos SweC, det med rätt stor marginal. Taget över alla titlar där det finns ett överlapp kan man med väldigt god backning från data hävda att: TechPowerUp kör högre inställningar än "medium" i 720p.

Jaha, så det är irrelevant, tänk va konstigt att bägge ställena får samstämmiga resultat när bägge ställena kör låga ingame inställningar? Eller gör dom det, hur kan du komma fram till det? Hur i hela tänkte du nu egentligen? Säg mig hur kan du ha mage att påstå att data är jämförbar när du inte vet hur det är inspelat eller vart i spelen det är inspelat och vilka inställningar som används,antalet variabler som du inte har den blekaste om är ganska stort att du sedan inte har den blekaste om hur spel reagerar så som framecaps i spelmotorer och liknande gör kanske inte saken bättre.
Men du är helt plötsligt den faktor som kan avgöra om data ser bra ut? ehh...

Skrivet av Yoshman:

Hävda saker utan data

Inget i dina data styrker på något sätt att effekten du ser är isolerad eller på något sätt mer påtaglig för Ryzen jämfört med Skylake. De enda data jag känner till här är SweClockers snabbtest och tester Digital Foundry gjort, dessa visar väldigt snarlik skalning med minnesfrekvens. Ignorerar man helt statistisk signifikans vinner Skylake något mer (men rätt säker att den skillnaden inte är signifikant givet mängden datapunkter).

I de data du tagit fram och nu slängt på mig hävdar du t.ex. detta

"Vad kan man då lära sig av detta? I de testade spelen så visar sig minnesfrekvens och latens ha en stor inverkan, så stor att den kan nära nog motsvara 600MHz på processor genom enbart manuellt tweakade timings vid samma minnesfrekvens."

Fast det är ett påstående som den data du har faktiskt inte styrker. Till att börja med har du inte testat fallet "samma RAM-timings och variera frekvens mellan 3,4 GHz och 4,0 GHz". Går inte heller att använda "stock clock" för detta då frekvensen där varierar en hel del beroende på hur många kärnor som används.

Om du anser att jag hävdat något som inte är tillräckligt styrkt, peka konkret på de fallen så ska jag försöka fixa det.

Nej jag har inte slängt data på dig, att min data visar saker som går tvärt emot vad du vill betyder inte att jag slängt sagda data på dig...
Hur är det med läsförståelsen, 3.4GHz 3333L och 4.0GHz 3333H är samma minnesfrekvens med olika latenser och olika cpu frekvenser. Dessa ligger i snitt extremt nära varandra i FPS, eller du kanske inte tycker det? Allvarligt talat Yoshman, din desperation att hitta något fel i det jag säger börjar närma sig bisarra nivåer. Jag skriver att vid samma minnesfrekvens kan enbart justerade latenser motsvara nära nog 600MHz cpu frekvens, vad är fel i detta tycker du?

Sen vore det kanske bra om du visste hur många kärnor som belastas i alla spel jag testat innan du påstår att cpu stock frekvens varierat, åter igen ett uttalande du inte har det minsta underlag för då alla spel jag kör använder runt 6-8 trådar ett av dom använder 4 men tack vare nvidia drivarns trådoptimering i dx11 så används fler ändå, säg mig, hur ligger frekvensen då på en 1800x? jo blåstabil på 3.7GHz, hur vet jag detta? jo därför att alla inspelade frametimes innehåller även cpu belastning och cpu frekvens, gpu frekvens och spänningar för de bägge.
Ska du försöka påvisa något annat du inte har den blekaste om när du ändå håller på?

Skrivet av Yoshman:

HW unboxed med Vega64

Varför har jag inte svara på denna? Främst för att jag inte hade data från den artikeln på ett format där det är möjligt att göra en objektiv bedömning kring sådant som: visa ens detta att det finns en skillnad i prestanda? Att jag inte har det är en kombination att tid är en bristvara och att mitt intresse för Vega64 är väldigt lågt.

Vidare sammanfattar ju Steve resultat i slutet av videon: det är i princip noll skillnad i prestanda mellan R5-1600 @ 4,0 GHz och i7-7700K @ 4,9 GHz i 2560x1440. Vilket inte borde förvåna någon, CPUn är överhuvudtaget inte flaskhals här.

I 1920x1080 är ju sammanfattningen: i7-7700K är snabbare, men det är väldigt liten skillnad. Många titlar uppvisar ju klara tendenser att flaskhalsen inte är CPU, så åter igen ett helt väntat resultat.

Men då du återkommit till detta i alla fall tre gånger, har tittat lite mer på dessa. Till skillnad från MindBlanks mätningar har Steve gjort tillräckligt med mätningar för att man med stor statistisk säkerhet kan konstatera att i7-7700K är snabbare i 1920x1080, det vare sig man använder GTX1080 eller Vega64.

Med 95 % konfidensintervall säger dessa siffror

  • Vega64 - 7700K är 9,5 % snabbare, ±5 % i genomsnittlig FPS

  • Vega64 - 7700K är 9,3 % snabbare, ±5 % i lägsta FPS

  • GTX1080 - 7700K är 8,0 % snabbare, ±6 % i genomsnittlig FPS

  • GTX1080 - 7700K är 11,4 % snabbare, ±7 % i lägsta FPS

I inget i fallen är 0 % skillnad med i konfidensintervallet, så dessa data pekar på att i7-7700K verkligen är snabbare.

Grattis, du lyckades ta upp siffrorna från steve utan att ta upp siffrorna, förklara varför siffrorna ser ut som dom gör i BF1 och Civ6 som jag redan bett dig att göra... Sen att du dessutom drar in 1440p resultat är ännu mer förbryllande då jag visade siffror från 1080p test, hur tänkte du här egentligen?
Du försöker ganska tappert vifta bort dessa siffror med "Främst för att jag inte hade data från den artikeln på ett format där det är möjligt att göra en objektiv bedömning"
Men du har möjlighet att göra objektiv bedömning av mina data trots att du inte har den blekaste och visar om och om igen att du inte har den blekaste?

Jag anser att du beter dig mycket ohederligt gång på gång.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem

En förfrågan till er som sitter på en 7700k eller annan cpu som finns i testet (tänk bara på klockat vs oklockat) och med snabba minnen, skulle ni kunna köra civ6 med samma inställningar som Swec gjort i sina tester? Det vill säga följande

Vid samma test på min burk vid stock frekvenser (vilket i civ6 är orubblig 3.7GHz) får jag 117,4 genomsnitts fps och 89,15 i 99th percentile.
Detta är 34,94% och 29.2% högre än respektive resultat som swec fick på sin 1800x i senaste testerna tillgängliga här
Detta resultat är framtaget med 3466 låg latens, det vore mycket roligt att höra ifrån en 7700k ägare som kunde testa vid ungefär samma minnesfrekvenser, timings som är använda är som följer.

Testet ger er värde i millisekunder men det är bara att räkna om till FPS för att kunna jämföra.

Anledningen till att jag frågar är att jag är nyfiken på hur processorer reagerar på minnesförändringar och detta test är snabbt och enkelt med hyffsat stabila resultat och enkelt att återskapa för den hugade. En intressant punkt är väl att Swec kör i det länkade testet med 2666 15-16-16-36 för Zen vilket är bättre primärtimings än jag använt i mina tester för 2666. Trots detta så är skillnaderna ännu större än det genomsnitt jag pekat på hitintills.
Hur som så är väl detta ett ganska vettigt sätt att ta reda på hur det ligger till med minnesprestanda i spel oavsett Intel eller AMD CPU.

Edit:
Idag har Swec släppt ett nytt test precis nu & det ger 1800x mycket högre fps än tidigare tester, skillnaden är då mellan 117,4/89,15 och 107/85. Detta är alltså 9,7%/4,88% skillnad nu, frågan är om Swec kör samma subtimings som tidigare eller har något ändrats här? Civ6 har nämligen mig veterligen inte ändrats mellan TR testet och nu men Swec rapporterar mycket högre fps för AMD än tidigare och det vore då lite intressant att veta vad som ändrats.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Datavetare
Skrivet av tellus82:

Så att jag backar upp det jag säger med riktig data är att kasta det i ansiktet på dig? Hur tänker du nu egentligen?
Ja du skulle kunna ha rätt om det inte vore för att 0,1% av 10 till 30 tusen frames inte är enskilda händelser, det är din uppfattning för du vill ha det så, varför vill du ha det så? Om testet man gör bara är ett tusen frames så kan man börja prata enskild händelse och det är detta som techsajster pratar om då man ofta kör väldigt korta testrundor, detta för att spara tid då multipla vändor i multipla spel tar tid och tid är pengar, nackdelen blir då att du får mycket små delar av spel testade och dessutom får du ett mycket litet data underlag som i sig är ännu mera osäkert, därför kan man i det läget inte använda 0.1% low baserat på all tillgänglig frametime data.
Fast du kanske vet bättre åter igen och jag är på riktigt nyfiken varför du är så idog att försöka hitta fel i datan?

Säger inte att det är fel på data, säger att vad du nu presenterar som "Min" är överhuvudtaget inte jämförbart med vad de flesta andra listar som "lägsta FPS". Det är inte "fel" att lista den scen med kortast reps. längst frametime, är ofta man listar dessa värden för en mätserie för att visa spännvidden hos insamlad data. Däremot är vare sig högsta eller lägsta FPS speciellt användbart om man vill dra slutsatser om t.ex. CPU-inverkan på spelet.

Om man samlar in tiotusen scener totalt är det en enda som dikterar lägsta FPS. Finns en lång rad faktorer, utanför spelets och OSets kontroll som kan påverka den enda scenen. Om det bara är en enda scen som påverkas kommer det värdet inte alls återspegla upplevelsen.

Därför kör man med 1 (eller 0,1) percentiler, P1. Har man samlat in totalt tiotusen scener blir då 1 percentilen de 10000*0,01 = 100 scener med högst "frame-time" (motsvarar lägst FPS).

Har man då en genomsnittlig FPS på 100 betyder det att, i genomsnitt, två scener per sekund kommer hamna inom 1 % low. Ett långt värde här händer tillräckligt ofta för att det ska få en påverkan på upplevelsen.

0,1 % low är lite mer tveksamt, även vid 100 FPS är det något man ser en gång per fem sekunder. Kan spela roll, men kräver att sekvensen totalt sett innehåller så pass många scener att enstaka avvikande värden inte påverkar.

Skrivet av tellus82:

Jaha, så det är irrelevant, tänk va konstigt att bägge ställena får samstämmiga resultat när bägge ställena kör låga ingame inställningar? Eller gör dom det, hur kan du komma fram till det? Hur i hela tänkte du nu egentligen? Säg mig hur kan du ha mage att påstå att data är jämförbar när du inte vet hur det är inspelat eller vart i spelen det är inspelat och vilka inställningar som används,antalet variabler som du inte har den blekaste om är ganska stort att du sedan inte har den blekaste om hur spel reagerar så som framecaps i spelmotorer och liknande gör kanske inte saken bättre.
Men du är helt plötsligt den faktor som kan avgöra om data ser bra ut? ehh...

Samstämmiga betyder att de visar på samma ungefärlig relativ skillnad mellan Ryzen 5 1600X och i7-7700K. Däremot betyder inte samstämmig att det är samma absolutbelopp på FPS-värdet.

Tvärtom är det så att SweC ligger ganska mycket högre i genomsnittlig FPS när man jämför samma titel mellan dem, förslå gärna annan rimlig förklaring till det än att TechPowerUp kör väsentligt högre inställningar.

Så i korthet: samstämmiga resultat när det kommer till relativ prestanda mellan CPUer, klar skillnad i absolut resultat när det kommer till att jämföra samma CPU mellan SweC resp. TechPowerUp.

Kan inte förenkla det mer än så, endera är det nu glasklart eller så är det hopplöst att förklara. Håller tummarna för det första

Skrivet av tellus82:

Nej jag har inte slängt data på dig, att min data visar saker som går tvärt emot vad du vill betyder inte att jag slängt sagda data på dig...
Hur är det med läsförståelsen, 3.4GHz 3333L och 4.0GHz 3333H är samma minnesfrekvens med olika latenser och olika cpu frekvenser. Dessa ligger i snitt extremt nära varandra i FPS, eller du kanske inte tycker det? Allvarligt talat Yoshman, din desperation att hitta något fel i det jag säger börjar närma sig bisarra nivåer. Jag skriver att vid samma minnesfrekvens kan enbart justerade latenser motsvara nära nog 600MHz cpu frekvens, vad är fel i detta tycker du?

https://i.imgur.com/2JIKwct.png

Sen vore det kanske bra om du visste hur många kärnor som belastas i alla spel jag testat innan du påstår att cpu stock frekvens varierat, åter igen ett uttalande du inte har det minsta underlag för då alla spel jag kör använder runt 6-8 trådar ett av dom använder 4 men tack vare nvidia drivarns trådoptimering i dx11 så används fler ändå, säg mig, hur ligger frekvensen då på en 1800x? jo blåstabil på 3.7GHz, hur vet jag detta? jo därför att alla inspelade frametimes innehåller även cpu belastning och cpu frekvens, gpu frekvens och spänningar för de bägge.
Ska du försöka påvisa något annat du inte har den blekaste om när du ändå håller på?

Du har rätt, är min läsförståelse som brister här (även om det beror på tidsbrist borde jag då istället avstått helt att skriva något). Läste 3,4 GHz resultatet som hög latens, men det är ju låglatens fallet. För göra en pudel och ta på struten <:

Vill då även passa på att understryka att min invändning aldrig har varit att det finns en positiv påverkan från RAM frekvens och latens, hur stor den och hur pass många applikationer det faktiskt spelar någon roll i låter jag däremot vara osagt.

Däremot har finns inga belägg för att effekten från RAM skulle vara mindre på Skylake, eller har du (eller någon annan) mätt det och jag även lyckats missa den delen. Resultaten SweC och Digital Foundry pekar snarare åt motsatt riktning, men tvivlar som sagt på att skillnaden är statistiskt signifikant?

Skrivet av tellus82:

Grattis, du lyckades ta upp siffrorna från steve utan att ta upp siffrorna, förklara varför siffrorna ser ut som dom gör i BF1 och Civ6 som jag redan bett dig att göra... Sen att du dessutom drar in 1440p resultat är ännu mer förbryllande då jag visade siffror från 1080p test, hur tänkte du här egentligen?
Du försöker ganska tappert vifta bort dessa siffror med "Främst för att jag inte hade data från den artikeln på ett format där det är möjligt att göra en objektiv bedömning"
Men du har möjlighet att göra objektiv bedömning av mina data trots att du inte har den blekaste och visar om och om igen att du inte har den blekaste?

Jag anser att du beter dig mycket ohederligt gång på gång.

Fast hur många gånger nämner Steve själv att "han kan inte förklara dessa siffror"? Han har också helt rätt, givet de konfigurationer han har här och givet antal titlar som uppvisar detta går inte att dra några slutsatser om hur allmängiltiga resultaten är och än mindre vad de beror av.

Dessa resultat är avvikande värden, ingen kan dra några vettiga slutsatser från enstaka avvikande värden.

Några uppenbara saker han borde testa är

  • sluta köra med överklockade CPUer, en möjlig förklaring är throttling ()

  • testa med färre/fler kärnor för både AMD och Intel, det för att se om problemet är relaterat till antalet kärnor

Om "ohederligt" är att undvika hävda saker som faktiskt inte går att bevisa, så är jag ohederligt med stolthet.

Vad som faktiskt går att visa med dessa siffror (med hög sannolikhet) är att i7-7700K är generellt snabbare i 1920x1080 samt att det inte finns någon signifikant skillnad i 2560x1440.

Började på något annat innan inlägget blev klart, så glömde skriva färdigt en del...
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer