AMD Ryzen 9 5950X och Ryzen 9 5900X "Vermeer"

Permalänk
Datavetare
Skrivet av CybranM:

Jag kan ha missat det men testade ni CPUerna med 3600mhz minnen? Andra reviewers har visat betydligt större prestandaskillnad mellan 10900k och 5950X/5900X vilket vissa har gissat beror på vilket RAM man använder.

Fast stämmer det? Flera har nämnt att Gamers Nexus ser större fördel för Ryzen 5000 jämfört mot SweClockers, så skapade ett "prestandaindex" för alla GN tester precis som för SweClockers. Tycker GN och SweClocker visar samma bild totalt sett, trots att man kör olika speltitlar. Är tvärtom så att Intel klarar sig något bättre i GN-testet, fast som Steve presenterar det hela får man ett annat intryck.

Ryzen 5000 har en fördel i genomsnittlig FPS, fast över alla titlar som testas är den faktiskt lite mindre hos GN (då Intel gör väldigt bra i från sig i Red Dead Redemption 2 och Assassin's Creed)

Avg/Min är procent skillnad från referens, som i båda fallen är 3600 5900X

Gamers Nexus (1080p medium/high) CPU Avg Min 7 10900K_OC 1 10 8 10900K -2 6 2 5800X_OC 3 2 1 5900X 0 0 3 5800X 0 -1 4 5600X -2 -6 9 10600K -12 -6 5 3900X -16 -14 6 3600 -23 -25 SweClockers (720p medium) CPU Avg Min 2 5900X 0 0 8 10900K -6 0 9 10850K -6 0 1 5950X -1 -1 10 10600K -13 -10 5 3800X -23 -20 3 3950X -26 -23 4 3900X -25 -24 11 7700K -26 -26 6 3600 -29 -27 7 1800X -42 -40

Gamers Nexus testar även 0,1 % low. De siffrorna är lite vinglig ibland, de skiljer lite väl mycket mellan CPU-modeller där en skillnad inte borde finnas. Ändå värt att notera om man ställer 10900K (stock) mot 5900X (stock) är det 9 % fördel Intel. 10900K_OC mot 5800X_OC ger 10 % fördel för Intel.

Har en hypotes kring detta. Det är verkligen en gissning, men det skulle förklara varför TechPowerUp har spelresultat där Intel faktiskt är något snabbare även i genomsnittlig FPS, de kör med 2080Ti som är ett PCIe 3 kort och i princip alla andra kör 3080/3090 som stödjer PCIe 4. Du hade väl lite att göra @JonasT så en sak att ta med i 5800X testet.

PCIe3 vs PCIe4. Det man lär ha klart för sig att sett över flera titlar är skillnaden faktiskt rätt liten mellan Ryzen 5000 och Comet Lake, i specifika titlar kan den i.o.f.s. sticka iväg. PCIe påverkar rätt lite, det har handlat om någon enstaka procentenhet, men det räcker i just detta fall som förklaringen!

De tester som gjorts mellan PCIe-versionens påverkan för spelprestanda har primärt gjorts med inställningar som folk faktiskt använder, inte 720p/1080p "medium" som Swec/GN använder i CPU-tester för att framkalla CPU-flaskhals.

Tvärtemot vad man kanske förväntar sig påverkar snabbare PCIe som mest i dessa låga upplösningar, inte i 4k. Kör man i 4k kommer en långt större del av allt data som hanteras komma från VRAM, vore helt omöjligt att dra texturer över PCIe. När FPS går i taket ökar däremot trafiken över PCIe kraftigt, det då antalet "draw calls" per tidsenhet ökar.

Så för SweClockers att testa: passa på att kör 5800X både i PCIe3 och PCIe4 läge och se om det påverkar spelprestanda någonstans.
Om detta skulle visa sig stämma, vilket jag inte själv är helt övertygad om (är en gissning i detta läge som råkar passa all data jag sett) pekar det faktiskt på att Intel fortfarande har kvar en liten fördel i spelprestanda i rent CPU-bundna fall (gäller i.o.f.s. bara i9 och överklockade modeller).

Kanske lämpligare att använda 5900X som referens...
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Ozzed:

Beror nog på. 5900X och 5950X har bättre VF-kurva än övriga och kan då dra på med högre frekvens för relativt fåtrådade laster (läs spel) innan de slår i strömbudget. 5800X har visserligen också 105W-DTP och borde då ha en PPT på 142W i stock (om det är som på ZEn2), men har å andra sidan sämre VF-kurva än 5900X och 5950X, så det går åt mer spänning för att nå högre frekvens, med konsekvensen att den slår i PPT tidigare, och då borde den inte vara bättre än 5900X och 5950X, vilket jag tycker hans grafer även bekräftar.

Det han menar tror jag är att modellerna under 5800X är "vettigast" att köpa om man "bara spelar" då man annars betalar en jävla massa extra för kärnor man inte kommer utnyttja. 5800X däremot är varken "vettigast" för spel, då den har fler kärnor än man behöver, och inte heller "vettigast" för produktivitet, då 5900X och 5950X spöar den rätt duktigt, så den är positionerad väldigt konstigt.

Men pratar man "bäst för spel oavsett pris" så är 5900X och 5950X bättre än 5800X över hela brödet, vad jag kan se. Så om pengar inte är med i ekvationen så finns ingen anledning att titta åt 5800X.

Sen gäller ju bara detta om man kör stock, och inte har PBO påslaget, men tror nog de flesta som köper Zen3 kommer köra med PBO då det känns fel att behöva bli cappad av en rätt snål strömbudget ju. Finns rätt bra med prestanda som man bara "lämnar på bordet".

Skrivet av Elektron:

50% mer kärnor för 1100kr, du får nog igen de mesta av de pengarna den dagen du väljer att sälja processorn i framtiden.

Puh, jag som trodde jag äntligen bestämt mig Däremot borde det väl vara så att AIO nästan är ett krav för en 5900X?

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem
Skrivet av Mocka:

Puh, jag som trodde jag äntligen bestämt mig Däremot borde det väl vara så att AIO nästan är ett krav för en 5900X?

En rejäl luftkylare funkar fint men kommer kräva lite pillande med fläktkurva manuellt, det slipper man lite med AIO då de brukar gå på vattentemp istället för en vilt svingande core temp, då slipper man jojo fläkt på ett enkelt sätt, den större massan i en AIO medger också lite högre spikig boost frekvens rent generellt men de största luftkylarna brukar klara det rätt bra också. Vad som i slutändan blir bäst är kanske mer en fråga om budget & vilket chassie man kör i och vad man vill ha, en luftkylare är ett säkrare val om man vill ha just total pålitlighet men en 360 aio med bra fläktar orkar normalt med högre effekter än de bästa luftkylarna. Kör man en stock cpu däremot så blir skillnaden minimal i slutändan.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av Mocka:

Puh, jag som trodde jag äntligen bestämt mig Däremot borde det väl vara så att AIO nästan är ett krav för en 5900X?

Inte mer än för 3900/3950X. De har samma TDP och liknande eller lägre strömförbrukning, så ska du köra stock så duger nog luft fint. Men ska du köra PBO eller klocka manuellt så skulle jag nog säga att äventyret blir roligare med AIO, ja

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk

Ja ni kanske borde gått med det röda laget när ni byggde eran alltid så blåa testrig denna gång. Känns sjukt gammalmodigt att ni valt en 14+++++++ dinosaurie ist för en innovativ ny cpu som redan slog intel i princip allt förutom några få procent i spel (vilket dom inte gör längre) redan innan den här lanseringen.

Visa signatur

Färdiga projekt The legacy of king Khufu.
https://www.sweclockers.com/galleri/2346-the-legacy-of-king-k...
Noctua ramkylare i aluminium: https://youtu.be/JmzCWlq3FKA
Chassie kylning: https://youtu.be/muxjWN7avwA

Permalänk
Redaktion
Praktikant ✨
Skrivet av Tapperswe:

Ja ni kanske borde gått med det röda laget när ni byggde eran alltid så blåa testrig denna gång. Känns sjukt gammalmodigt att ni valt en 14+++++++ dinosaurie ist för en innovativ ny cpu som redan slog intel i princip allt förutom några få procent i spel (vilket dom inte gör längre) redan innan den här lanseringen.

Varför skulle vi bygga GPU-riggarna kring en processorplattform som ger sämre spelprestanda?

Permalänk
Medlem
Skrivet av Yoshman:

Fast stämmer det? Flera har nämnt att Gamers Nexus ser större fördel för Ryzen 5000 jämfört mot SweClockers, så skapade ett "prestandaindex" för alla GN tester precis som för SweClockers. Tycker GN och SweClocker visar samma bild totalt sett, trots att man kör olika speltitlar. Är tvärtom så att Intel klarar sig något bättre i GN-testet, fast som Steve presenterar det hela får man ett annat intryck.

Ryzen 5000 har en fördel i genomsnittlig FPS, fast över alla titlar som testas är den faktiskt lite mindre hos GN (då Intel gör väldigt bra i från sig i Red Dead Redemption 2 och Assassin's Creed)

Avg/Min är procent skillnad från referens, som i båda fallen är 3600 5900X

Gamers Nexus (1080p medium/high) CPU Avg Min 7 10900K_OC 1 10 8 10900K -2 6 2 5800X_OC 3 2 1 5900X 0 0 3 5800X 0 -1 4 5600X -2 -6 9 10600K -12 -6 5 3900X -16 -14 6 3600 -23 -25 SweClockers (720p medium) CPU Avg Min 2 5900X 0 0 8 10900K -6 0 9 10850K -6 0 1 5950X -1 -1 10 10600K -13 -10 5 3800X -23 -20 3 3950X -26 -23 4 3900X -25 -24 11 7700K -26 -26 6 3600 -29 -27 7 1800X -42 -40

Gamers Nexus testar även 0,1 % low. De siffrorna är lite vinglig ibland, de skiljer lite väl mycket mellan CPU-modeller där en skillnad inte borde finnas. Ändå värt att notera om man ställer 10900K (stock) mot 5900X (stock) är det 9 % fördel Intel. 10900K_OC mot 5800X_OC ger 10 % fördel för Intel.

Har en hypotes kring detta. Det är verkligen en gissning, men det skulle förklara varför TechPowerUp har spelresultat där Intel faktiskt är något snabbare även i genomsnittlig FPS, de kör med 2080Ti som är ett PCIe 3 kort och i princip alla andra kör 3080/3090 som stödjer PCIe 4. Du hade väl lite att göra @JonasT så en sak att ta med i 5800X testet.

PCIe3 vs PCIe4. Det man lär ha klart för sig att sett över flera titlar är skillnaden faktiskt rätt liten mellan Ryzen 5000 och Comet Lake, i specifika titlar kan den i.o.f.s. sticka iväg. PCIe påverkar rätt lite, det har handlat om någon enstaka procentenhet, men det räcker i just detta fall som förklaringen!

De tester som gjorts mellan PCIe-versionens påverkan för spelprestanda har primärt gjorts med inställningar som folk faktiskt använder, inte 720p/1080p "medium" som Swec/GN använder i CPU-tester för att framkalla CPU-flaskhals.

Tvärtemot vad man kanske förväntar sig påverkar snabbare PCIe som mest i dessa låga upplösningar, inte i 4k. Kör man i 4k kommer en långt större del av allt data som hanteras komma från VRAM, vore helt omöjligt att dra texturer över PCIe. När FPS går i taket ökar däremot trafiken över PCIe kraftigt, det då antalet "draw calls" per tidsenhet ökar.

Så för SweClockers att testa: passa på att kör 5800X både i PCIe3 och PCIe4 läge och se om det påverkar spelprestanda någonstans.
Om detta skulle visa sig stämma, vilket jag inte själv är helt övertygad om (är en gissning i detta läge som råkar passa all data jag sett) pekar det faktiskt på att Intel fortfarande har kvar en liten fördel i spelprestanda i rent CPU-bundna fall (gäller i.o.f.s. bara i9 och överklockade modeller).

Jag gillar verkligen dina index Yoshman!

Visa signatur

hellre mer fps på skärmen än pengar på banken

Permalänk
Medlem
Skrivet av JDM:

Chipset-teorin är väldigt intressant, ska kolla GN video om detta.

Det kan då finnas en eller två olika orsaker till detta, delar min uppfattning nedan.

Utgå från att du har grafikkort X, grafikkort X kan pumpa ut 1000 fps oavsett upplösning så vi bör se extremt liten skillnad när vi höjer upplösning. ( en väldigt liten skillnad kommer det vara då CPU får jobba aningen hårdare när upplösning höjs ) denna utgångspunkten har vi haft sedan en bra bit tillbaka.

Men.. eftersom vi ser att zen verkar lida onormalt mycket av att höja upplösningen ( detta har dolts innan av vad jag har sett, antagligen för att zen2 helt enkelt var sämre i 720p jämfört med intel, "tappet" kunde därför inte observeras ) jämfört med intel så utgick jag från att orsaken bakom detta är Zen's höga latenser. Min teori var den ( helt baserat på graferna i sweclockers tester och att vi tidigare vet att lägre latenser leder till bättre prestanda ) att höga latenser bidrar till ett större prestandatapp när upplösningen höjs än vad vi tidigare utgått från då intel ej lider av detta särskilt mycket.

Uppskattar ditt svar, ska gräva vidare i detta!

Skrivet av Yoshman:

Tvärtemot vad man kanske förväntar sig påverkar snabbare PCIe som mest i dessa låga upplösningar, inte i 4k. Kör man i 4k kommer en långt större del av allt data som hanteras komma från VRAM, vore helt omöjligt att dra texturer över PCIe. När FPS går i taket ökar däremot trafiken över PCIe kraftigt, det då antalet "draw calls" per tidsenhet ökar.

Så för SweClockers att testa: passa på att kör 5800X både i PCIe3 och PCIe4 läge och se om det påverkar spelprestanda någonstans.
Om detta skulle visa sig stämma, vilket jag inte själv är helt övertygad om (är en gissning i detta läge som råkar passa all data jag sett) pekar det faktiskt på att Intel fortfarande har kvar en liten fördel i spelprestanda i rent CPU-bundna fall (gäller i.o.f.s. bara i9 och överklockade modeller).

Techspot / Hardware Unboxed har test för 3950x och pcie3/4 scaling i olika upplösningar.
https://www.techspot.com/review/2104-pcie4-vs-pcie3-gpu-perfo...

Techpowerup visar också att när upplösningen höjs minskar effekten av pcie
https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti...

Man kan ju anta att sänks upplösning/inställningar ytterligare så borde inflytandet från pcie spela ännu större roll. Med samtidigt ökande draw calls och kommunikation över pcie så borde latensen hos cpu också vara viktig? Man har tidigare sett att i sådana scenarion har Intel haft ett kraftigt övertag generellt. De största förbättringarna man ser nu hos Vermeer är just vid sådana scenarion, höga frame rates och låg upplösning där prestandaökningen är långt över den generella ökningen i IPC från Matisse till Vermeer. Det borde bara kunna tillskrivas en kraftigt förbättrad latens då resten av systemet i det här fallet är normaliserat, inklusive pcie. Detta förklarar dock inte vad som sker då upplösningen höjs och man till synes övergår till mer VRAM-baserad kommunikation och AMD verkar lida av någon slags overhead som funnits med i bilden länge som sagt var.

Hur som helst så har Vermeer nu ett övertag gällande "inter-core" latens inom samma CCD (15-19ns) mot Comet Lake (16.5 - 23ns).
https://www.anandtech.com/show/16214/amd-zen-3-ryzen-deep-div...

Iom bättre latens och den betydligt högre IPCn hos Vermeer så tycker man att totalt sett så borde AMD enkelt ta hem prestandatronen för spel, vilket inte alltid sker. Det verkar helt enkelt vara svårt att testa ren spelprestanda då det är flera olika faktorer som påverkar och det dessutom är så beroende på spel. Att testa Vermeer på pcie3 är ju helt klart ett steg mot normalisering men samtidigt är ju detta en del av fördelarna som AMD-plattformen erbjuder just nu. Saker och ting kommer bli ännu mindre normaliserat då SAM kickar in med 6800xt osv.

Edit.
Guru3d har tester på 2080ti 720p
https://www.guru3d.com/articles_pages/amd_ryzen_9_5900x_and_5...

Shadow of the Tomb Raider och Far Cry 5 är här till AMDs favör, så det kan ju ha varit strul med AGESA för TPU och deras test.

Lade till information ang test med 2080ti och 720p
Visa signatur

Ryzen 5800x, B450m Mortar Max | 32GB Crucial Ballistix Black DDR4 3200MHz | MSI Radeon RX 6700XT Gaming X | Kingston KC2500 M.2 2TB | Corsair RM650X V2 650W | Phanteks Eclipse P400 | LG 32UD59

Permalänk
Datavetare
Skrivet av ronz:

Jag gillar verkligen dina index Yoshman!

Tror mycket information drunknar i all data som presenteras. Mitt initiala intryck både från SweC och GN staplar var samma som de flesta andra: Intel är totalt överkörda.

Dubbelkollade siffrorna jag tog från SweC flera gånger, för de "index" man fick ut stämde rätt dåligt med den känsla som "eye-balling" graferna gav.

En orsak är självklart att alla sorterar graferna efter genomsnittlig FPS, Intel är efter i detta med undantag för TPU (som körde med 2080Ti). Sedan tror jag den känslan förstärks då varje graf nu startar med en trave Ryzen 5000 CPUer, dock är skillnaden mellan 3600X till 3950X rätt minimal i de flesta speltitlar så prestandan hos de saker halvvägs ned i grafen är ofta rätt nära toppen.

Är väsentligt större spridning i lägsta FPS, detta fall är CPU-bundet i högre upplösningar/inställningar än genomsnittlig FPS. Bara kolla på 1440 resultaten hos SweC, i genomsnitt börjar skillnaderna bli rätt små medan de fortfarande är ~25 % mellan t.ex. 3600 och 5900X/10900K.

Skrivet av dazelou:

Techspot / Hardware Unboxed har test för 3950x och pcie3/4 scaling i olika upplösningar.
https://www.techspot.com/review/2104-pcie4-vs-pcie3-gpu-perfo...

Techpowerup visar också att när upplösningen höjs minskar effekten av pcie
https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti...

Man kan ju anta att sänks upplösning/inställningar ytterligare så borde inflytandet från pcie spela ännu större roll. Med samtidigt ökande draw calls och kommunikation över pcie så borde latensen hos cpu också vara viktig? Man har tidigare sett att i sådana scenarion har Intel haft ett kraftigt övertag generellt. De största förbättringarna man ser nu hos Vermeer är just vid sådana scenarion, höga frame rates och låg upplösning där prestandaökningen är långt över den generella ökningen i IPC från Matisse till Vermeer. Det borde bara kunna tillskrivas en kraftigt förbättrad latens då resten av systemet i det här fallet är normaliserat, inklusive pcie. Detta förklarar dock inte vad som sker då upplösningen höjs och man till synes övergår till mer VRAM-baserad kommunikation och AMD verkar lida av någon slags overhead som funnits med i bilden länge som sagt var.

Hur som helst så har Vermeer nu ett övertag gällande "inter-core" latens inom samma CCD (15-19ns) mot Comet Lake (16.5 - 23ns).
https://www.anandtech.com/show/16214/amd-zen-3-ryzen-deep-div...

Iom bättre latens och den betydligt högre IPCn hos Vermeer så tycker man att totalt sett så borde AMD enkelt ta hem prestandatronen för spel, vilket inte alltid sker. Det verkar helt enkelt vara svårt att testa ren spelprestanda då det är flera olika faktorer som påverkar och det dessutom är så beroende på spel. Att testa Vermeer på pcie3 är ju helt klart ett steg mot normalisering men samtidigt är ju detta en del av fördelarna som AMD-plattformen erbjuder just. Saker och ting kommer bli ännu mindre normaliserat då SAM kickar in med 6800xt osv.

Självklart ska Ryzen 3000/5000 primärt testas med PCIe 4 i alla lägen där det är möjligt.

Enda poängen med att ställa PCIe3 mot PCIe4 på Ryzen 5000 är att försöka svara på frågan: vilken flaskhals är den primära i att förklara skillnaden mellan Ryzen 5000 och Comet Lake i spel?

Om den är PCIe samtidigt som Intel faktisk verkar ha ett litet övertag i lägsta FPS säger det i alla fall en sak: Rocket Lake S kommer ta tillbaka spelkronan (fast frågan är om det blir så mycket annat än den...).

Tror hela den spekulationen om CCX latens påverkan på just spel är ett sidospår. Såg rätt mycket ut som det var en bra förklaring när man ställde 3100 (två CCX med 2 kärnor i varje) och 3300X (en CCX med 4 kärnor) mot varandra. Ja, även vid samma frekvens är 3300X > 3100.

Man måste alltid beakta alla skillnader när man gör en sådan jämförelse. Båda har totalt 16 MB L3$ och vi vet att spel älskar mycket cache. Det man missar här är att 3100 inte har 16 MB L3$, den har 2 st 8 MB L3$ så varje kärna har där tillgång till hälften så mycket cache som 3300X!!! Jag tror det är >90 % av förklaringen medan CCX latens förklarar resten.

För om det är CCX latens: varför är inte 5800X snabbare än 5900X? Den skillnad man ser verkar sammanfall med den skillnad bl.a. GN uppmätte i CPU-frekvens i spel. Många moderna spelmotorer är lite väl ivriga att använda alla CPU-trådar som finns, det är en allt mindre optimal strategi nu när CPUerna börjar bli allt med TDP-begränsade även på desktop samtidigt som de är allt bättre på att utnyttja hela sin budget även när en delmängd av kärnorna jobbar.

Just skillnad i L3$ mellan Ryzen 3000 och Ryzen 5000 visar en annan sak: CPUar är ofta nästan helt opåverkade av bandbredd i L3$.

Var själv väldigt förvånad att AMD kunde få till 8 kärnor per CCX. Detta då kärnorna är ihopkopplade med L3$ via en cross-bar switch i Zen. Den stora fördelen med en x-bar är att latens och bandbredd är konstant mellan alla punkter i switchen, jämför det med Intels ringbuss där latensen ökar linjärt med antal punkter och bandbredden ökar ~roten ur antal L3$ punkter (är en sådan per CPU-kärna).

Så varför kör inte alla x-bar? Därför att antalet transistorer växer exponentiellt med antalet punkter i switchen. En ökning från 4 till 8 kärnor skulle alltså öka transistorbudget med ~16x. Det kändes inte rimligt och är inte heller det AMD gjorde. I Zen3 verkar x-bar:en fortfarande vara fysiskt sett en 4x4 där man multiplexar två saker per punkt.

Anandtech noterade att bandbredden mot L3$ är halverad räknad per CPU-kärna när alla kärnor jobbar i Zen3. Om det vore en flaskhals borde vi snarare se en fördel hos de modeller med 6 kärnor per CCX, möjligen balanseras den skillnaden i 5800X och 5900X i att den senare i.o.f.s. har högre latens mellan kärnor i olika CCX men samtidigt dubbelt så hög total L3$ bandbredd (då det är två CCX mot en).

Men om det var förklaringen borde det slå lite olika i vissa applikationer, något som jag inte riktigt sett mellan t.ex. 3600X/3800X och 5900X/5950X. Det man kan hitta är att all-core prestanda i applikationer som är kända som RAM/cache-tunga är de som visar minst fördel för Zen3. AnandTech hade ju till och med något sådant fall där Zen2 presterar lite bättre än Zen3 (Zen2 har ungefär dubbla L3$ bandbredden över Zen3 räknat per kärna, samma per CCX).

Den latens som spelar roll i spel och andra applikationer där flera CPU-trådar samarbetar på en större uppgift (till skillnad till de fall där varje kärna jobbar på ett separat problem, typ Cinebench) är kostnaden för att synkronisera jobb mellan kärnor. Den har väldigt lite att göra med saker som RAM-latens och är bara indirekt påverkad av saker som cache-latens. Åter igen referens till AnandTech, de noterade just att x86-instruktioner med "lock" prefix är väsentligt snabbare i Zen3 jämfört med Zen2. Likaså är detta snabbare hos "vanliga" Skylake jämfört med Skylake SP (HEDT och Xeon).

I båda fallen är den med lägre "lock"-prefix latens den som presterar bättre i spel. Skylake och Skylake SP är ju faktiskt exakt samma mikroarkitektur bortsett från just minneshierarkidesignen! Skylake är rätt mycket snabbare i spel iso-frekvens ställd mot Skylake SP.

Ovan är fortfarande en gissning och precis som 3100 vs 3300X är en annan fördel i just spel för Zen3 att varje kärna faktiskt "ser" dubbelt så mycket cache jämfört med Zen2, det trots att det är samma mängd totala cache.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

* fel tråd

Permalänk
Medlem
Skrivet av Tapperswe:

Ja ni kanske borde gått med det röda laget när ni byggde eran alltid så blåa testrig denna gång. Känns sjukt gammalmodigt att ni valt en 14+++++++ dinosaurie ist för en innovativ ny cpu som redan slog intel i princip allt förutom några få procent i spel (vilket dom inte gör längre) redan innan den här lanseringen.

Skrivet av JonasT:

Varför skulle vi bygga GPU-riggarna kring en processorplattform som ger sämre spelprestanda?

Benchmark riggen ska väl också vara så representativ som möjligt för vad den genomsnittlige läsaren använder, vilket definitivt inte var AMD när de byggde den.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk

Hade varit intressant att se hur prestandan påverkas av undervoltning. Såvitt jag vet så vann man generellt otroligt mycket i prestanda/watt vid undervoltning av 3000-serien (inkl. min egen 3600). Saknade detta i denna artikel, men det kanske ni skulle kunna göra en kortare artikel om?

Visa signatur

Gigabyte B450 I AORUS PRO WIFI | AMD Ryzen 5 3600 | EK-AIO Basic 240 | Gigabyte GeForce GTX 1070 G1 Gaming | Corsair 2x8GB DDR4 3200Mhz CL16 Vengeance | Samsung 970 EVO PLUS NVMe 500GB | Samsung 860 QVO 1TB | Corsair SF600 600W 80+ Platinum | Louqe Ghost S1 Limestone + Ghost S1 MK3 - TopHat L Limestone | AOC AGON 24" LED FreeSync AG241QX |

Permalänk
Medlem
Skrivet av Shiprat:

Benchmark riggen ska väl också vara så representativ som möjligt för vad den genomsnittlige läsaren använder, vilket definitivt inte var AMD när de byggde den.

Tillgång till Pcie 4 vore väl isf en mer legit anledning till byte än om det är amd eller intel.

Permalänk
Medlem
Skrivet av Elektron:

Tillgång till Pcie 4 vore väl isf en mer legit anledning än om det är amd eller intel.

PCIE4 finns ju dock bara med AMD vilket vid tillfället hade betytt att fått kompromissa med spelprestanda, och hittills har det inte funnits några vinster i med pcie4 som kompenserat för den sämre overall prestanda zen2 hade i spel.

För saker specifikt relaterat till pcie4 så kan de ju bencha med vad som passar bäst vid tillfället.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Shiprat:

PCIE4 finns ju dock bara med AMD vilket vid tillfället hade betytt att fått kompromissa med spelprestanda, och hittills har det inte funnits några vinster i med pcie4 som kompenserat för den sämre overall prestanda zen2 hade i spel.

För saker specifikt relaterat till pcie4 så kan de ju bencha med vad som passar bäst vid tillfället.

Nej givitvis i den mån det är möjligt att minimera alla möjliga eventuella flaskhalsar för grafikkorten i grafikkorttestet. Just nu är det väl lite generationsskifte för visst skulle väl Intel även de köra på pcie 4 nästa generation?

Permalänk
Medlem

Rocket lake ska erbjuda PCIE4 Q1 2021, det verkar dock inte som att alla z490-kort får stöd för PCIE4 utan spridda modeller.

EDIT: Ser ut som att Asus ROG Maximus XII Hero som Swec använder kommer få stöd för PCIE4 med rocket lake.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Shiprat:

Benchmark riggen ska väl också vara så representativ som möjligt för vad den genomsnittlige läsaren använder, vilket definitivt inte var AMD när de byggde den.

Genomsnittet använder 10900k menar du ? nja. Det ska vara så kraftfull som möjligt för att ge så maximalt många frames som möjligt ur GPU:s, det är GPU testriggen inget "sommar bygge".

Visa signatur

Meshilicious, Amd 7950X3D, Asus X670E-I ,96 GB DDR5 6000,RTX4090 FE, Crucial 4TB Pcie5 m.2 / Corsiar Pcie4 4TB, Samsung 57" G9

Permalänk
Medlem
Skrivet av Palme_570:

Genomsnittet använder 10900k menar du ? nja. Det ska vara så kraftfull som möjligt för att ge så maximalt många frames som möjligt ur GPU:s, det är GPU testriggen inget "sommar bygge".

Nope, jag menar att genomsnittet använder intel och Zen2 halkade i mer realistiska test (alltså inte 720p eller 1080p low) oftast aningen efter i FPS jämfört med intels senaste typ tre generationer och de tre generationerna motsvarar garanterat mer av genomsnittet än Zen2. Se nedan från recensionen av 3900x.

Därmed tycker jag att det var ett vettigt beslut. Hade de byggt om den idag hade det kanske varit annorlunda, men så är inte fallet.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Yoshman:

För om det är CCX latens: varför är inte 5800X snabbare än 5900X? Den skillnad man ser verkar sammanfall med den skillnad bl.a. GN uppmätte i CPU-frekvens i spel. Många moderna spelmotorer är lite väl ivriga att använda alla CPU-trådar som finns, det är en allt mindre optimal strategi nu när CPUerna börjar bli allt med TDP-begränsade även på desktop samtidigt som de är allt bättre på att utnyttja hela sin budget även när en delmängd av kärnorna jobbar.

Jag tror att det är latens som var orsaken i 3000-serien, skillnaden mot 5000-serien är att det finns gott som spel som synkront använder 4-6 cores, men väldigt få som använder >6. Om ett spel använder 6 cores synkront för rendering och 2 för asynkront övrigt arbete så kommer man inte få några latensproblem på en 5900x tex. jämfört med en 5800x (och en 5900x kommer ändå nå högre fps än en 5600x, trots att båda är 6 eller 6+6 cores tex).
En 3300x kommer däremot totalt krossa en 3200x i det mer normala scenariot med 4 synkront arbetande cores.

Hittar man ett specifikt spel eller benchmark som konsekvent vill utnyttja 8 cores synkront borde man kunna få samma effekt.

Permalänk
Datavetare
Skrivet av JBE:

Jag tror att det är latens som var orsaken i 3000-serien, skillnaden mot 5000-serien är att det finns gott som spel som synkront använder 4-6 cores, men väldigt få som använder >6. Om ett spel använder 6 cores synkront för rendering och 2 för asynkront övrigt arbete så kommer man inte få några latensproblem på en 5900x tex. jämfört med en 5800x (och en 5900x kommer ändå nå högre fps än en 5600x, trots att båda är 6 eller 6+6 cores tex).
En 3300x kommer däremot totalt krossa en 3200x i det mer normala scenariot med 4 synkront arbetande cores.

Hittar man ett specifikt spel eller benchmark som konsekvent vill utnyttja 8 cores synkront borde man kunna få samma effekt.

Är inte helt på det klara med hur Windows hantera CCX, men om det du beskriver ovan vore ett reellt problem är det svårt att riktigt förklara varför Zen alltid fungerat så väl under Linux.

Linux bryr sig inte om CCX i sig. Däremot organiserar Linux schemaläggare system efter deras minneshierarki. Trådar från samma process prioriteras att köra på samma NUMA-zon (finns bara en i konsumentprodukter) för att sedan prioritera att sprida saker över tillgängliga cache-slices.

Kör man igång något som lastar exakt 4 CPU-trådar till 100 % kommer en köras på Core L#0-L#2, en på L#3-L#5, en på L#6-L#8 samt en på L#9-L#11.

Har markerat CCX#0 och CCX#2, CCX#1 och CCX#3 är omarkerade

Machine (39GB total) Package L#0 NUMANode L#0 (P#0 39GB) L3 L#0 (16MB) L2 L#0 (512KB) + L1d L#0 (32KB) + L1i L#0 (32KB) + Core L#0 PU L#0 (P#0) PU L#1 (P#12) L2 L#1 (512KB) + L1d L#1 (32KB) + L1i L#1 (32KB) + Core L#1 PU L#2 (P#1) PU L#3 (P#13) L2 L#2 (512KB) + L1d L#2 (32KB) + L1i L#2 (32KB) + Core L#2 PU L#4 (P#2) PU L#5 (P#14) L3 L#1 (16MB) L2 L#3 (512KB) + L1d L#3 (32KB) + L1i L#3 (32KB) + Core L#3 PU L#6 (P#3) PU L#7 (P#15) L2 L#4 (512KB) + L1d L#4 (32KB) + L1i L#4 (32KB) + Core L#4 PU L#8 (P#4) PU L#9 (P#16) L2 L#5 (512KB) + L1d L#5 (32KB) + L1i L#5 (32KB) + Core L#5 PU L#10 (P#5) PU L#11 (P#17) L3 L#2 (16MB) L2 L#6 (512KB) + L1d L#6 (32KB) + L1i L#6 (32KB) + Core L#6 PU L#12 (P#6) PU L#13 (P#18) L2 L#7 (512KB) + L1d L#7 (32KB) + L1i L#7 (32KB) + Core L#7 PU L#14 (P#7) PU L#15 (P#19) L2 L#8 (512KB) + L1d L#8 (32KB) + L1i L#8 (32KB) + Core L#8 PU L#16 (P#8) PU L#17 (P#20) L3 L#3 (16MB) L2 L#9 (512KB) + L1d L#9 (32KB) + L1i L#9 (32KB) + Core L#9 PU L#18 (P#9) PU L#19 (P#21) L2 L#10 (512KB) + L1d L#10 (32KB) + L1i L#10 (32KB) + Core L#10 PU L#20 (P#10) PU L#21 (P#22) L2 L#11 (512KB) + L1d L#11 (32KB) + L1i L#11 (32KB) + Core L#11 PU L#22 (P#11) PU L#23 (P#23)

Indentering visar hur saker grupperas på min 3900X

Då L3$ och CCX sitter ihop i Zen blir den implicita effekten att Linux prioriterar att sprida saker över olika CCX, detta optimerar då mängd cache som används. Problemet för Zen är att det också maximerar latensen mellan kärnor i fall där man inte använder alla CPU-trådar. Av att döma hur Zen presterar på Linux vs Windows (som jag tror helt ignorerar CCX/L3$ topologin) verkar latens mellan CCX vara ett långt mindre problem än man förleds tro från forumdiskussioner.

Edit: och tyvärr är spelmotorer inte så smarta så de fattar när de borde sluta använda fler kärnor. Helt rätt att få spel kan effektivt använda mer än 6-8 CPU-trådar.

Alla spelmotorer som skalar förbi 2-3 CPU-trådar använder ett rätt liknande grundkoncept. Om man inte hårt begränsar mängden CPU-trådar som används kommer det konceptet leda till att man använder alla/de flesta CPU-trådar klart under 100 %, vilket nästan alltid är mindre effektivt än att använda så få CPU-trådar som möjligt utan att slå i taket. Det är framförallt mindre effektivt på den senaste generationen CPUer (och bärbara x86, men vem spelar på dem?) då CPU-frekvensen kan hållas högre om man lastar få kärnor hårt än om man lastar alla kärnor delvis.

GN nämner att 5800X i praktiken är den CPU som håller högst genomsnittlig frekvens i spel om man kör "stock". 5900X/5950X slår hårdare i TDP-taket medan 5600X begränsas av 65W TDP mot de andras 105W TDP. Skillnaden i frekvens är rätt liten, men så är även skillnaden i prestanda mellan dessa modeller. 5800X har mest W per kärna att spendera, undrar om det är mer komplicerat än så.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd

Vad gäller latens så gjorde jag AIDA64 minneslatens test och har fått dessa resultat
3600: 70.1ns
5600x: 63ns

En förbättring, men fortfarande inte i toppen på den punkten, så här kan AMD fixa till mer.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem
Skrivet av Yoshman:

Då L3$ och CCX sitter ihop i Zen blir den implicita effekten att Linux prioriterar att sprida saker över olika CCX, detta optimerar då mängd cache som används. Problemet för Zen är att det också maximerar latensen mellan kärnor i fall där man inte använder alla CPU-trådar. Av att döma hur Zen presterar på Linux vs Windows (som jag tror helt ignorerar CCX/L3$ topologin) verkar latens mellan CCX vara ett långt mindre problem än man förleds tro från forumdiskussioner.

Men vad testar man sedan för synkront arbete? Nästan alla benchmarks kör ju asynkrona laster där latens (dvs core-to-core-latency) helt utesluts. Spel är svåra att jämföra prestanda linux-windows?
Kanske unigines benchmarks? vill minnas de fanns för linux sist jag körde det på desktop.

Permalänk
Datavetare
Skrivet av JBE:

Men vad testar man sedan för synkront arbete? Nästan alla benchmarks kör ju asynkrona laster där latens (dvs core-to-core-latency) helt utesluts. Spel är svåra att jämföra prestanda linux-windows?
Kanske unigines benchmarks? vill minnas de fanns för linux sist jag körde det på desktop.

Geekbench 5 testar, till skillnad från Cinebench, Geekbench 4, SPEC, Blender, kompilering, m.fl. laster där multicore fallet betyder att flera kärnor jobbar på samma problem, något som kräver explicit synkronisering.

Ändå visar GB5 rätt mycket samma sak som allt annat: Zen3 har ett betydligt större övertag i ST över Zen2 jämfört med i MT. Om det vore ett latensproblem borde GB5 sticka ut i bemärkelsen att Zen3 borde dra ifrån ifrån Zen2 mer än i de fall där kärnorna jobbar oberoende (de s.k. embarrassingly parallel fallen, de flesta av de körs bättre på GPU men finns undantag som t.ex. kompilering som trots att det är embarrassingly parallel inte alls passar för GPGPU).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Geekbench 5 testar, till skillnad från Cinebench, Geekbench 4, SPEC, Blender, kompilering, m.fl. laster där multicore fallet betyder att flera kärnor jobbar på samma problem, något som kräver explicit synkronisering.

Ändå visar GB5 rätt mycket samma sak som allt annat: Zen3 har ett betydligt större övertag i ST över Zen2 jämfört med i MT. Om det vore ett latensproblem borde GB5 sticka ut i bemärkelsen att Zen3 borde dra ifrån ifrån Zen2 mer än i de fall där kärnorna jobbar oberoende (de s.k. embarrassingly parallel fallen, de flesta av de körs bättre på GPU men finns undantag som t.ex. kompilering som trots att det är embarrassingly parallel inte alls passar för GPGPU).

Hmm, jag skall nog läsa på bättre om vilka deltest som kör synkront i geekbench5, jag har mest sett på singlecore-int där.
Unigine superposition verkar för övrigt provocera fram problemen i ryzen3000 - 1080p medium där blir ett cpu/plattformstest där gpu aldrig når 100% util. https://www.sweclockers.com/forum/trad/1473300-unigine-superp...
Blir intressant att se hur 5000-serien fungerar där.

Permalänk
Datavetare
Skrivet av JBE:

Hmm, jag skall nog läsa på bättre om vilka deltest som kör synkront i geekbench5, jag har mest sett på singlecore-int där.
Unigine superposition verkar för övrigt provocera fram problemen i ryzen3000 - 1080p medium där blir ett cpu/plattformstest där gpu aldrig når 100% util. https://www.sweclockers.com/forum/trad/1473300-unigine-superp...
Blir intressant att se hur 5000-serien fungerar där.

Ett snabbtest på att det är så får man genom att ta kvoten mellan MT resultat och ST resultatet. För en 5900X är den kvoten ~13,1x i Cinebench 20, vilket till att börja med är en högre "speed-up" än antal kärnor p.g.a. SMT samt lite nedtonat p.g.a. ST frekvens på ~5,0 GHz medan MT frekvensen ligger ~4,2 GHz.

Finns typ "inget" fall som skalar så här bra i praktiken utanför ett par nischer, vi som jobbar med kompilerande programspråk som kostar massor med CPU-kraft ("modern" C++, Rust, väldigt stora C-projekt) är exempel på en nisch där det ändå finns.

Kvoten i GB5 är ~7,8x. Så GB5 testar fall som skalar riktigt bra med CPU-kärnor, men uppenbart att det inte är någon perfekt skalning.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av tellus82:

En rejäl luftkylare funkar fint men kommer kräva lite pillande med fläktkurva manuellt, det slipper man lite med AIO då de brukar gå på vattentemp istället för en vilt svingande core temp, då slipper man jojo fläkt på ett enkelt sätt, den större massan i en AIO medger också lite högre spikig boost frekvens rent generellt men de största luftkylarna brukar klara det rätt bra också. Vad som i slutändan blir bäst är kanske mer en fråga om budget & vilket chassie man kör i och vad man vill ha, en luftkylare är ett säkrare val om man vill ha just total pålitlighet men en 360 aio med bra fläktar orkar normalt med högre effekter än de bästa luftkylarna. Kör man en stock cpu däremot så blir skillnaden minimal i slutändan.

Har en Dark Rock 4 Pro, vet inte om det är någon fantastisk kylare direkt men har samtidigt inget att jämföra med (förutom min gamla Corsair H110i Platinum som faktiskt var sämre än den jag har nu). Fördelen är väl att den är tyst.

Min tanke var en Lian-Li Galahad 360 då de är vita och kostar inte skjortan. Arctic Liquit Freezer II 360 verkar ju bäst på pappret men är tyvärr ingen skönhet direkt.

Skrivet av Ozzed:

Inte mer än för 3900/3950X. De har samma TDP och liknande eller lägre strömförbrukning, så ska du köra stock så duger nog luft fint. Men ska du köra PBO eller klocka manuellt så skulle jag nog säga att äventyret blir roligare med AIO, ja

Har ju en 3800X nu så vet inte om 3900X är varmare eller ej Antar det? Jag hade nog velat klocka manuellt om det är så att multicore går ner mycket i frekvens. Har för mig GNs video visade att 5900X kom ner till runt 4,3GHz men att 5800X höll sig högre?

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem
Skrivet av Mocka:

Har en Dark Rock 4 Pro, vet inte om det är någon fantastisk kylare direkt men har samtidigt inget att jämföra med (förutom min gamla Corsair H110i Platinum som faktiskt var sämre än den jag har nu). Fördelen är väl att den är tyst.

Min tanke var en Lian-Li Galahad 360 då de är vita och kostar inte skjortan. Arctic Liquit Freezer II 360 verkar ju bäst på pappret men är tyvärr ingen skönhet direkt.

Har ju en 3800X nu så vet inte om 3900X är varmare eller ej Antar det? Jag hade nog velat klocka manuellt om det är så att multicore går ner mycket i frekvens. Har för mig GNs video visade att 5900X kom ner till runt 4,3GHz men att 5800X höll sig högre?

Det är för litet urval än så länge för att kunna utröna. I det här fallet kan det lika gärna ha att göra med kiselkvalitet på det individuella exemplaret. För att se generella trender så får vi nog vänta ett tag.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Yoshman:

Finns typ "inget" fall som skalar så här bra i praktiken utanför ett par nischer, vi som jobbar med kompilerande programspråk som kostar massor med CPU-kraft ("modern" C++, Rust, väldigt stora C-projekt) är exempel på en nisch där det ändå finns.

(Jag arbetar som arkitekt/systemkonsult med generellt stora servers/system etc. Många typer av servers, tex webservers för massiva mängder användare har ju i nära 100% paralellisering och skalning, inte bara över kärnor på en server utan över multi-socket cpu och lastbalansering över flera servers.
Både frontends, appservers och databaser skalar väldigt bra när man får massiv paralell last, det är ju ingen slump att server-marknaden generellt består av cpuer med "många" kärnor.
Men ja, detta är ju ingen "nisch" utan mainstream för servermarknaden och det mesta man trycker in i ett datacenter.
Jag förstår att du syftar till desktop.)

Vad gäller latenser (eller andra faktorer) för ryzen borde man kunna testa detta utan alltför mycket jobb.
Ta en 5900x eller 5950x, disabla cores så att man kan testa:
5800x vs 5900X med 4+4 aktiva cores (och kanske jämföra detta mot 5800x vs 3700x/3800x/intel).
5x00x 4 aktiva cores vs 2+2, se om det ger samma resultat som 3300x vs 3200, etc.
mfl liknande scenarion, som borde kunna gå till botten med detta.
Tydligast effekt borde man då få i 2+2 vs 4 cores, och en avtagande effekt upp till 8.

Permalänk
Datavetare
Skrivet av JBE:

(Jag arbetar som arkitekt/systemkonsult med generellt stora servers/system etc. Många typer av servers, tex webservers för massiva mängder användare har ju i nära 100% paralellisering och skalning, inte bara över kärnor på en server utan över multi-socket cpu och lastbalansering över flera servers.
Både frontends, appservers och databaser skalar väldigt bra när man får massiv paralell last, det är ju ingen slump att server-marknaden generellt består av cpuer med "många" kärnor.
Men ja, detta är ju ingen "nisch" utan mainstream för servermarknaden och det mesta man trycker in i ett datacenter.
Jag förstår att du syftar till desktop.)

Vad gäller latenser (eller andra faktorer) för ryzen borde man kunna testa detta utan alltför mycket jobb.
Ta en 5900x eller 5950x, disabla cores så att man kan testa:
5800x vs 5900X med 4+4 aktiva cores (och kanske jämföra detta mot 5800x vs 3700x/3800x/intel).
5x00x 4 aktiva cores vs 2+2, se om det ger samma resultat som 3300x vs 3200, etc.
mfl liknande scenarion, som borde kunna gå till botten med detta.
Tydligast effekt borde man då få i 2+2 vs 4 cores, och en avtagande effekt upp till 8.

Visst menade jag primärt desktop, men är definitivt allt mer relevant på serversidan när man går mot "molnet" då det finns gränser även i applikationer som i praktiken är "kör N st enkeltrådade fall parallellt". Även att bygga stora projekt som har viss skalning till kanske 50-100 kärnor börjar se rätt ordentliga skalningsproblem p.g.a. att man trots allt har serialiseringspunkter i OS-kärnor, främst mot HW där saker i viss mån behöver synkroniseras.

Tar man t.ex. Cinebench finns egentligen ingen praktisk övre gräns. Även sådana fall finns i "verkligheten", vi har ju hela HPC-delen. Men det om något är riktiga nischer och då är man väldigt ofta inne på just det som allt mer går mot GPGPU.

Insåg att jag i alla fall kan köra ett snabbt lackmustest på min 3900X runt CCX och explicit synkronisering. Moderna spel har någon form av task-hanteringssystem där man sprider last över kärnor med någon form av work-stealing mekanism.

Rayon använder en liknande grundläggande mekanism.

use std::env; const THRESH: u32 = 20; fn fib(n: u32) -> u32 { if n < 2 { n } else { fib(n-1) + fib(n-2) } } fn pfib(n: u32) -> u32 { if n < THRESH { return fib(n); } let mut n1 = 0; let mut n2 = 0; rayon::join(|| n1 = pfib(n-1), || n2 = pfib(n-2)); n1 + n2 } fn main() { let args: Vec<String> = env::args().collect(); let n = if args.len() <= 1 { 40 } else { args[1].parse::<u32>().unwrap() }; println!("fib({}) = {}", n, pfib(n)); }

Rayon använder fork/join+work-stealing för att sprida saker över kärnor, detta är en idiotisk (rekursiv) implementation för att ränka ut fibonacci där jobbet sprids över flera kärnor

Testade två fall, båda med 3 CPU-trådar. I första fallet används en CPU-tråd i samma CCX och i det andra används en tråd i tre separata CCX.

Alla kärnor i samma CCX kjonsson@ryzen:~/programming/rust/fib$ time taskset -c 0,1,2 ./target/release/fib 45 fib(45) = 1134903170 real 0m1.568s user 0m4.695s sys 0m0.004s Sprida över 3 CCX kjonsson@ryzen:~/programming/rust/fib$ time taskset -c 0,3,6 ./target/release/fib 45 fib(45) = 1134903170 real 0m1.591s user 0m4.766s sys 0m0.000s

Detta fall lär få plats i L1$/L2$, så finns ingen fördel/nackdel från att det senare fallet (där 3 CCX används) har tillgång till 3x så mycket L3$.

Det är en liten fördel att köra inom samma CCX, men det är verkligen en liten fördel. Så fort man skalar upp detta problem kommer större effektiv L3$ bli viktigare än den lite lägre synkroniseringslatensen.

Edit: alla kanske inte använder Linux... Man ser att tre kärnor faktiskt använder på att tiden för "user" är större än "real". "real" är tiden det faktiskt tog att köra, "user+sys" är CPU-tiden det tog och räknas per CPU-tråd. Så om man kör 100 % på två kärnor i en sekund, allt hände i applikationen (och inte i OS-kärnan) så blir "real" 1,0s och "user" 1+1=2s. "sys" är tiden man spenderar i OS-kärnan.

4.766/1.591=3,0 så 3 kärnor användes fullt ut (då jag tvingade programmet att köra på 3 specifika CPU-trådar).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Någon som vet om Far Cry 6 ingår i cpu köpet även i Sverige?