AMD Ryzen 9 5950X och Ryzen 9 5900X "Vermeer"

Permalänk
Medlem

Prisvärdheten har åkt rakt ut genom fönstret, men nu är det en jämn spelplan och samma höga priser och prestanda för båda lagen.

Mer intresserad av varför Zen3 presterar sämre med en GPU flaskhals (högre upplösning) och hur den där minnesteknologin presterar ihop med AMDs kommande grafikkort.

Permalänk
Medlem
Skrivet av loka04:

Mycket bra AMD Intel behöver lite eld i baken!
Men fortfarande efter lite räkning så är Intel bättre i spel över 1080p. (Vem spelar i 1080p nu för tiden??? )
Eftersom jag inte har nått liv så räknade jag ut fps efter Sweclockers "Speltest: Tolv spel från SweClockers GPU-svit".
Och fick fram detta(Verkar som 5900x är nån fps vassare i 1440p än 5950x och i 4k är det lika):
1440p
10900k sammanlagd fps=2185 medel fps=182.1
5900x sammanlagd fps=2118 medel fps=176.5

2160p
10900k sammanlagd=1275 medel fps=106.3
5900x sammanlagd=1267 medel fps=105.6

Nästa generation kanske det blir Amd istället om dom går ifrån i spel

Edit: känns bra att man inte köpt grisen i säcken och fortfarande sitter på bästa spel cpun i min upplösning

Skrivet av JDM:

720p har alltid varit en bra måttstock för CPU-prestanda så vad händer i 1440p och varför är intel bättre där? någon som har en teori?

Normalt sett brukar inte upplösning vara ett problem för en CPU dock har jag för mig att processorn måste behandla mer information från grafikkortet ju högre upplösningen är, kan det vara så att Ryzens höga latens i och med chiplet-designen stryper här?

Skrivet av venomze:

Vrf säger alla Rip inte? Låg ju över i prestanda i hög res och i9 10900k är ju betydligt mkt billigare än 5900 så jag ser att det fortfarande är en win gör Intel 😅

Ni behöver läsa på vad flaskhalsar innebär. Tester över 720p stöter vi på situationer där GPUn blir flaskhals, det är ju det vi ser tydligt. Vet inte vad ni dillar om.

Ju högre upplösning ju mer tydligt blir det. Dvs dessa resultat är inte speciellt representativa för CPU prestanda längre eftersom GPUn inte hänger med de bättre CPUerna längre. Det är ju därför de har med tester i 720p. Så vi kan se hur det ser ut när grafikkortet är snabbare än processorn helt enkelt.

Hade man haft en kraftfullare GPU hade siffrorna i 1080 och högre sett ut som i 720p. Exakt 1:1 skalar det nog inte men lite förenklat. Men nu finns ingen så kraftfull GPU. Så se 720p som indikation hur mycket "headroom" det finns kvar för framtida GPUer att klösa ikapp innan man borde fundera på att byta CPU.

Det man ska se testerna i högre upplösning som är alltså en indikation på om det är lönt att uppgradera CPUn. 720P visar vad ens CPU kan orka med. Når man inte dessa siffror i sin upplösning man lirar i, då är det GPUn som ska bytas, inte CPUn.

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 9070 XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Medlem

Varför har detta test försvunnit från förstasidan? @jonast @undac etc.

För mig ligger detta överst nu:
Asus ROG Strix Radeon RX 6800 XT...

Om jag scrollar (gör man det på en telefon?) neråt så kommer inget heller..

Visa signatur

HTPC

Permalänk
Medlem
Skrivet av arowe17:

Varför har detta test försvunnit från förstasidan? @jonast @undac etc.

För mig ligger detta överst nu:
Asus ROG Strix Radeon RX 6800 XT...

Om jag scrollar (gör man det på en telefon?) neråt så kommer inget heller..

Måste vara en bugg.

Nu dök den upp igen!

Permalänk
Chassi-Jesus 📦
Skrivet av arowe17:

Varför har detta test försvunnit från förstasidan? @jonast @undac etc.

För mig ligger detta överst nu:
Asus ROG Strix Radeon RX 6800 XT...

Om jag scrollar (gör man det på en telefon?) neråt så kommer inget heller..

Skrivet av Nastycrew:

Måste vara en bugg

Det var en felaktigt konfigurerad tidspublicering som sänkte artikeln från framsidan. Nu tillbaka!

Permalänk

Jättetrevlig recension detta och superbt utfört arbete.

Hade dock velat se Cache och minneslatenstestet med AIDA64. Lika så så hade jag velat se CPU-Z benchmark. Är nog rätt så vanliga testprogram för gemene man.

Permalänk
Medlem

Inväntar recension av 5800X. Verkar enligt mig den mest intressanta prollen.

Visa signatur

AMD 9800X3D ▪ MSI B850 Tomahawk Max ▪ Corsair 32GB 6000MT/s CL28 ▪ Palit 4070 Ti ▪ 1TB SSD 970 Evo+ ▪ Dark Power 13 1000W ▪ FD Define North XL ▪ Aorus AD27QD + LG 27GL850

Permalänk
Hjälpsam

@JonasT

Citat:

Ryzen-processorernas strömbudget är dock inte satt i sten utan kan modifieras av användaren. Via funktionen Precision Boost Overdrive (PBO) kan man istället överlåta effekt- och strömbegränsningarna till att dikteras av moderkortet.

Var PBO avslaget som standard? Verkar inte vara något jag vill ha påslaget.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Chassi-Jesus 📦
Skrivet av Ratatosk:

@JonasT
Var PBO avslaget som standard? Verkar inte vara något jag vill ha påslaget.

Japp, det krävde manuell aktivering via BIOS.

Permalänk
Hjälpsam
Skrivet av _Merc_:

tycker fortfarande de är meningslösa.

Gillar heller inte tester i 720p.
Om jag vill ha högre fps sänker jag inställningarna, inte fasiken sänker jag upplösningen till 720p!
Men många efterfrågar uppenbarligen tester i 720p, så jag förstår varför redaktionen testar.

Problemet med 720p, som jag ser det, är att många köper CPU av fel skäl.
- Titta den här CPU:n är bättre i spel!
- Men det testet är ju i 720p, i 1080p är de nästan lika.
- Du är så himla dum! i 1080p är det ju ju grafikkortet som håller ner fps, inte CPU:n.
- Nej, just det, den andra duger alltså lika bra i 1080p.
- Jag köper ändå den som är bättre i 720p, den är ju bättre i spel!
- Tung suck.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Zemlan:

Ni behöver läsa på vad flaskhalsar innebär. Tester över 720p stöter vi på situationer där GPUn blir flaskhals, det är ju det vi ser tydligt. Vet inte vad ni dillar om.

Ju högre upplösning ju mer tydligt blir det. Dvs dessa resultat är inte speciellt representativa för CPU prestanda längre eftersom GPUn inte hänger med de bättre CPUerna längre. Det är ju därför de har med tester i 720p. Så vi kan se hur det ser ut när grafikkortet är snabbare än processorn helt enkelt.

Hade man haft en kraftfullare GPU hade siffrorna i 1080 och högre sett ut som i 720p. Exakt 1:1 skalar det nog inte men lite förenklat. Men nu finns ingen så kraftfull GPU. Så se 720p som indikation hur mycket "headroom" det finns kvar för framtida GPUer att klösa ikapp innan man borde fundera på att byta CPU.

Det man ska se testerna i högre upplösning som är alltså en indikation på om det är lönt att uppgradera CPUn. 720P visar vad ens CPU kan orka med. Når man inte dessa siffror i sin upplösning man lirar i, då är det GPUn som ska bytas, inte CPUn.

Du kan ju börja läsa mitt inlägg istället, börja med det och återkom igen, tack!

Permalänk
Datavetare
Skrivet av teejee:

Anandtech visar ca 19% ökning av IPC vid SPEC-tester:
https://www.anandtech.com/show/16214/amd-zen-3-ryzen-deep-div...

Svarande inte igår då Anandtech var så lastad att jag inte orkade läsa artikel, har gjort det nu och faktum är att inte heller SPEC-testerna visar på 19 % ökning då Anandtech gjort ett misstag i hur de beräknade dessa 19 %.

Dels har vi det @Radolov nämner här, AMD säger att det är ett geometrisk medelvärde över ett antal applikationer. Dels säger specifikationen för SPEC att totalpoängen ska genereras med just geometrisk medelvärde, något som också nämns på Wiki-sidan för SPEC.

"An overall score is based on a geometric mean."

Anandtech råkar använda aritmetisk medelvärde, då får man 19 %. Med geometrisk medelvärde blir resultatet i stället 16 %, vilket i.o.f.s. är det närmaste AMDs påstådda 19 % jag sett så här långt (och SPEC är en viktig benchmark för servers).

Historiskt har GB4 och SPEC uppvisat väldigt snarlik relativ prestanda. Har inte gjort den jämförelsen mellan SPEC och GB5, i just fallet Zen3 är GB5 och SPEC en bit ifrån varandra då SweClockers iso-frekvensmätning lägger IPC-ökningen på ~12 % (11 % för heltal och 13 % för flyttal om jag kommer ihåg rätt). Skulle säga att det är en fjäder i hatten för GB5, den är närmare att visa vad testerna i övriga applikationer visade än SPEC (som i.o.f.s. är en server-benchmark)

Anandtech nämner vidare att de inte kunde reproducera AMDs påstådda perf/W ökning. Den kan i praktiken mätas genom att jämföra all-core prestanda, vi ser ju i SweClockers effektmätning att både 3950X och 5950X slår hårt i sin effektgräns -> prestandaskillnaden är direkt proportionell mot perf/W ökningen. Både AnandTech och SweC fick perf/W ökningar rätt långt från de påstådda värdena.

Dessa påståenden kunde ha blivit en PR-blunder för AMD, nu tror jag få kommer bry sig p.g.a. att oavsett vad AMD hävdade om ökningen från Zen2 så kvarstår faktum att Zen3 är just nu den bästa x86-design som existerar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Lite besviken över denna tråd där en överväldigande majoritet av inläggen inte handlar om recensionen. Varför inte bara starta en separat tråd för er som försökt köpa ny processor?

Skrivet av Yoshman:

... Men finns ändå lite saker AMD skulle behöva förklara, t.ex. 19% IPC ökning...

Det var även min största reflektion. Inte ett enda av produktivitetstesterna var nära 19% ökning i IPC.

En annan fundering är varför SweC i testet med olika minneshastigheter valt att använda just de två spel där Zen3 verkar ha problem gentemot Intel-processorerna? Kan resultatet alls räknas som representativt när dessa spel i övrigt genererar en så atypiskt prestanda?

Permalänk
Chassi-Jesus 📦
Skrivet av anon201296:

Är det ett medvetet val att inte visa överklockat resultat jämfört med Intel eller kommer vi få se detta senare? Är mest intresserad av hur de står sig i spel.

Mvh.

Nu har jag kompletterat diagrammen på OC-sidan med 10900K. Behövs troligtvis en forcerad refresh (på grund av webbläsarcache) för att se de nya resultaten, så dra en CTRL+F5.

Permalänk
Medlem
Skrivet av Ratatosk:

Gillar heller inte tester i 720p.
Om jag vill ha högre fps sänker jag inställningarna, inte fasiken sänker jag upplösningen till 720p!
Men många efterfrågar uppenbarligen tester i 720p, så jag förstår varför redaktionen testar.

Problemet med 720p, som jag ser det, är att många köper CPU av fel skäl.
- Titta den här CPU:n är bättre i spel!
- Men det testet är ju i 720p, i 1080p är de nästan lika.
- Du är så himla dum! i 1080p är det ju ju grafikkortet som håller ner fps, inte CPU:n.
- Nej, just det, den andra duger alltså lika bra i 1080p.
- Jag köper ändå den som är bättre i 720p, den är ju bättre i spel!
- Tung suck.

Men om du byter grafikkort i framtiden så är ju prestandan bättre i den cpu som presterar bättre i 720p? Oavsett om du kör 1080p eller 4k eller 8k. Kan väl inte va så svårt att förstå?

Permalänk
Medlem
Skrivet av anon242437:

Jag vet att det är lite fel ställe (eller väldigt rätt) men jävlar vad folk är kåta på att köpa den nyaste hårdvaran varje gång det kommer något. Samma när Nvidia släppte sina kort så blev ju folk helt skogstokiga. Man kan ju tro att det rör sig om botemedel mot cancer, inte något nöjesrelaterat. Jag fattar att många väntat på grejerna men vad för några veckor hit eller dit?

När den nya hårdvaran finns att köpa, och man vill ha den, men inser att mam inte har den, så är det som ett svart hål inuti ens innersta väsen, inte som en död sjärna, utan mer som bara... tomhet. Det hålet växer för varje timme, varje minut, som man inte har det man vill ha. Sen kommer ursäkterna. Man intalar sig själv att "ah! Det jag har är bra nog. Jah kan vänta.... Jag kan.... vän...ta" Men man inser ganska snart at det där är en stor lögn. När det nya finns ute saknar det gamla helt värde. Man är omodern, tråkig, tekniskt utdaterad... Det finns ingen mening med att låtsas. Det enda som kan avhjälpa är att köpa det nya så fort det går. Så det är klart folk hänger på låset när det finns nya grejer som är bättre än det man redam har. Ingen kan väl seriöst gå och köpa datorhårdvara och tänka "Det här ska jag använda tills det går sönder", utan den enda rätta tankesättet är ju "Jag är glad att ha det här nu, då det är bäst för mina ändåmål för stunden, men i samma sekund som något bättre finns att tillgå så kommer svärtan och ångesten tillbaka sålänge jag ine har det i min ägo!"

Ovan är naturligtvis skrivet med hyperbol och en gnutta humor, men lite så är det för mig och säkerligen många andra. Om hårdvara och tweaking är ens största intresse så vill man ha det nya.

Jag vill t. ex ha en 5900X NU, men är supernöjd med Crosshair VII som jag har och vill gärna att VRM ska få svettas. Plus att alla vet att "flest generationer cpu i samma moderkort" ger bonuspoäng när man skal dömas för sina synder efter döden Så det är frusterande att jag måste vänta till januari innan det kan bli något. PCI-E 4.0 skulle i mitt fall inte ge så mycket så X570 känns faktiskt inte så lockande. Plus att vissa som haft moderkorten ett tag nu börjar rapportera problem med damm i chipset-fläkten, så X470 känns lagom att behålla. Så jag får vänta, och leva med konsekvenserna.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Datavetare

Oavsett Anandtechs misstag med aritmetisk vs geometriskt medelvärde, läs den recensionen för den är med råge den bästa jag sett så här långt om man vill ha detaljerna kring Zen3!

Tror Anandtech har grävt fram ett par av orsakerna till varför x86 inte hänger med ARM64. En sak AMD inte ändrat i Zen3 är decode-width, den stannar vid 4. AMD tittade på att gå till 5, men man bedömde att p.g.a. hur x86 ISA fungerar är breddning så komplicerat skulle det antagligen minska perf/W.

För att ställa i relation till Apple, A12-A13 (och av allt att döma även A14, men ingen vet än) har de en decode-width på 7, d.v.s. Det är möjligt då ARM64 är brutalt mycket enklare att avkoda jämfört med x86.

Väldigt svårt att göra en äpplen-mot-äpplen mellan olika CPU-designer, i Intels Core delar heltalsdelen och flyttalsdelen på exekveringsportar medan de är separata på i princip alla andra designer (Zen, Firestorm, Cortex A76/X1 och även senaste generationerna Atom). Men det ger ändå en vink om var som händer och hur det påverkar prestanda.

CPU

decode-width (instr)

dispatch-width (µop)

issue-width (INT/FP/MEM) (µop)

Zen3

4

6

4/6/6

Zen2

4

6

4/4/3

Skylake

4

6

4/3*/4

Sunny/Willow Cove

5

6

4/3*/6

Firestorm

>=7

? (minst 7, lär vara mer)

>=6/>=3/?

Cortex A78

4

6

6/2/5

Cortex X1

5

8

6/4/5

* Core delar INT och FP portar, så den kan "issue" INT eller FP varje cykel.

Zen3 ökar alltså INT+MEM issue-width (vilket brukar räknas som "heltalsdelen") med 43 % och flyttalsdelen med 50 %, vilket ger en IPC-ökning på någonstans mellan 10 och 20 %. Jämför det med Cortex A78 och X1, den senare har ~25 % högre heltals-IPC med en 25 % ökning i decode-width och 33 % ökning i dispatch-width (sedan har man ökat en rad andra saker som L0$, out-of-order fönster etc, så är en överförenklad jämförelse).

Samma gäller Intel. Intel har valt att gå till 5 issue-width och majoriteten av transistorerna ligger på saker som ökat out-of-order fönster (något som AMD inte ökat speciellt mycket i Zen3 och något som Cortex A78 är långt efter Firestorm i) samt L1$ och L2$.

Men är som att AMD och Intel jobbar i kvicksand, man ökar kapaciteten långt mer än faktisk prestanda går upp. Är inte någon perfekt skalning för ARM64 gänget heller, men de ser långt bättre utdelning trots att man är lika eller till och med passerat AMD/Intel i bredd. Cortex A78 har något högre heltals-IPC än Zen3, ändå tar den ~1/3 av kretsytan mot Zen2 (har något sett die-size på Zen3?) om båda använder TSMC 7 nm.

Kommer smärta en nördskäl att se hur lång tid det kommer att ta för Windows-världen att komma ur x86-träsket. För det kommer ta tid, så vill man köra Windows är Ryzen 5000 det bästa man kan välja ur prestandahänseende.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

När kommer recensionerna för 5600x upp?

Permalänk
Medlem

Undrar bara vad jag ska göra med min 3900X om jag skall köpa en. Men ska nog inte köpa en nu ändå så. Inte bara för att de är svåra att få tag på :).

Högre FPS, men framför allt högre min fps verkar det som. Det är värt en hel del för mig!

Visa signatur

Hur många datorer är för många?

Permalänk
Hjälpsam
Skrivet av jOnÄTÄn:

2c4t extra och en plattform med PCIE 4 får man om man väljer en 5900x med ett 500 chipset moderkort. Och sen får vi se hur stort prestandalyft AMDs grafikkort får ihop med 5000 serien, även det kan ge AMD plattformen en fördel för de som inte måste köpa Nvidia grafik.

Det håller jag med dig om i alla fall om man inte har något att använda de 2-6 extra kärnorna till. Jag har själv en 3600x i min speldator och känner inget behov av att uppgradera till 5000 serien.

Har egentligen inte heller något behov, gör det mest för att det är kul, går från en 3600 till en 5900x.
Frågan är om jag skall ersätta min gamla 1700 med min 3600?
Får tänka på saken.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam
Skrivet av Dimetikon:

Men om du byter grafikkort i framtiden så är ju prestandan bättre i den cpu som presterar bättre i 720p? Oavsett om du kör 1080p eller 4k eller 8k. Kan väl inte va så svårt att förstå?

Är den?
Vi vet inte hur framtiden blir.
Den som presterar sämre, har kanske fler kärnor och spelen blivit bättre på att nyttja många, min gamla R7 1700 duger fortfarande.

Skulle det visa sig vara ett problem, kan man fortfarande byta CPU, det kostar mycket mindre än ett grafikkort.
Ta exemplet med min 1700, finns goda chanser att knipa en från 3000 serien, till ett bra pris, kanske begagnat eller kanske till Black Friday.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Avstängd
Skrivet av Ratatosk:

Gillar heller inte tester i 720p.
Om jag vill ha högre fps sänker jag inställningarna, inte fasiken sänker jag upplösningen till 720p!
Men många efterfrågar uppenbarligen tester i 720p, så jag förstår varför redaktionen testar.

Problemet med 720p, som jag ser det, är att många köper CPU av fel skäl.
- Titta den här CPU:n är bättre i spel!
- Men det testet är ju i 720p, i 1080p är de nästan lika.
- Du är så himla dum! i 1080p är det ju ju grafikkortet som håller ner fps, inte CPU:n.
- Nej, just det, den andra duger alltså lika bra i 1080p.
- Jag köper ändå den som är bättre i 720p, den är ju bättre i spel!
- Tung suck.

Fast man måste skilja på vad det är man testar. I GPU-tester så är 720P i stort sett meningslöst. Testar man däremot CPU så fyller 720P-tester sin funktion.

Permalänk
Medlem
Skrivet av JDM:

Du kan ju börja läsa mitt inlägg istället, börja med det och återkom igen, tack!

Trist attityd. Kom med något mer konkret så jag vet om jag kanske gjort en tankevurpa eller dylikt istället?

Teorin var ju i varje fall att GPUn är flaskhals helt enkelt. Därför jag tog upp det i mitt svar.

Däremot är det iofs udda att vi ser olika beteenden mellan Intel och AMD när GPUn är flaskhals, det håller jag med om. Men det är ju det som är orsaken i varje fall. Ta bort den flaskhalsen så ser vi ju helt plötsligt vad som händer i 720P.

Kan vara helt ute och cykla här dock, är ingen självutnämnd expert direkt, så någon mer än gärna rätta mig isf

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 9070 XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Hjälpsam
Skrivet av kelthar:

Undrar bara vad jag ska göra med min 3900X om jag skall köpa en. Men ska nog inte köpa en nu ändå så. Inte bara för att de är svåra att få tag på :).

Högre FPS, men framför allt högre min fps verkar det som. Det är värt en hel del för mig!

Runt 2:a December bör man kunna få en.
#18706692
Men håller med, din 3900x bör duga länge än.
När den pensioneras, kan den bli en fin uppgradering, för någon som sitter med en X370 eller B350 bräda.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

Är den?
Vi vet inte hur framtiden blir.
Den som presterar sämre, har kanske fler kärnor och spelen blivit bättre på att nyttja många, min gamla R7 1700 duger fortfarande.

Skulle det visa sig vara ett problem, kan man fortfarande byta CPU, det kostar mycket mindre än ett grafikkort.
Ta exemplet med min 1700, finns goda chanser att knipa en från 3000 serien, till ett bra pris.

Tar ju inte bort relevansen av test i 720p dock

Permalänk
Datavetare
Skrivet av Ratatosk:

Är den?
Vi vet inte hur framtiden blir.
Den som presterar sämre, har kanske fler kärnor och spelen blivit bättre på att nyttja många, min gamla R7 1700 duger fortfarande.

Skulle det visa sig vara ett problem, kan man fortfarande byta CPU, det kostar mycket mindre än ett grafikkort.
Ta exemplet med min 1700, finns goda chanser att knipa en från 3000 serien, till ett bra pris, kanske begagnat eller kanske till Black Friday.

Spelar det någon roll hur man flyttar flaskhalsen från GPU till CPU? Poängen är att man vill bilda sig en uppfattning om vad som kommer hända i framtiden. Av någon anledning tog den video som AdoredTV gjorde för ett par år sedan rejäl skruv, det ingen verkade intresserad av att titta på var att ena uppsättningen värden (de nya med snabbare GPU i högre upplösning) som användes där spretade något enorm och AdoredTV valde de som råka passa agendan.

Här är siffror från SweClockers, 720p resultat från Ryzen 3000 testerna ställda mot 1440p testerna från Ryzen 5000 med 1800X som referens. Självklart inte 100 % matching, men skulle säga att det är långt mer träffsäkert än alla tips i köptrådarna om "spelen kommer optimeras bättre Zen (gick t.ex. 1800X om 7700K som många var helt övertygade skulle ske? Det verkar gått åt andra hållet)...".

720p från Ryzen 3000 testerna

CPU Avg Min 2 9700K 31 42 1 9900K 30 36 6 3900K 21 29 3 9600K 19 25 7 3700X 21 25 8 3600 15 12 4 7700K 10 11 9 2700K 9 4 10 1800X 0 0 5 4790K -16 -21

1440p från Ryzen 5000 testerna

8 10900K 34 48 1 5950X 33 47 2 5900X 33 47 9 10850K 33 47 10 10600K 30 40 3 3950X 21 32 4 3900X 22 29 5 3800X 20 25 11 7700K 22 23 6 3600 16 18 7 1800X 0 0

Notera framförallt hur väl lägsta FPS stämmer överens, lite vingligare med genomsnittlig FPS.

Är snarare så att 4k testerna är total slöseri med tid i ett CPU-test. De ska självklart vara med i ett GPU-test.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

bedrövligt att SweC tillåter scalpers här på marknaden.

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/ASUS PRIME Radeon RX 9070 OC 16GB/Corsair SF750 Platinum/Kingston Fury Beast 2x16GB 3600MHz CL18/

Permalänk
Skrivet av anon242437:

Jag vet att det är lite fel ställe (eller väldigt rätt) men jävlar vad folk är kåta på att köpa den nyaste hårdvaran varje gång det kommer något. Samma när Nvidia släppte sina kort så blev ju folk helt skogstokiga. Man kan ju tro att det rör sig om botemedel mot cancer, inte något nöjesrelaterat. Jag fattar att många väntat på grejerna men vad för några veckor hit eller dit?

För min egen del sitter jag med ett GTX 970 och har väntat sedan AMD annonserade sina nya grafikkort på att uppgradera. När jag såg att AMD också lanserar feta CPU:er i år bestämde jag mig för att köpa en helt ny burk. Jag uppgraderar något kanske var 3:e till var 5:e år. Tycker att min hårdvara höll ganska länge den här omgången men nu är jag nere på 35-50 FPS i de flesta spel och måste sänka alla inställningar. Så jag skulle säga att jag är "kåt" på nya hårdvaran därför att jag väntat på den länge och upplever ett stort behov av att uppgradera.

Permalänk
Medlem
Skrivet av AMD73:

Vad gör det för skillnad om man använder 4 stickor vs 2 stickor i spel?

Svaret på den frågan kan bli lite invecklat men för enkelhetens skull så får du anta att kittet med 2st stickor är 2st single rank och kittet med 4 är 4st single rank, anta sedan att de har identisk frekvens & timings (primär och subtimings). Då kommer kittet med 4st moduler prestera bättre då minneskontrollern har dubbla antalet ranks att addressera, det betyder lite grovt förenklat att medans ena ranken är upptagen med något annat så kan vissa enkla saker göras på den rank som är ledig. Det handlar inte om en extra minneskanal som kan fyllas med data samtidigt som andra ranken fylls utan mer om att enklare minnesoperationer kan utföras på en rank samtidigt som det jobbas på en annan, i verkligheten ger detta bättre bandbredd men endast om frekvens och timings hålls exakt lika mellan kitten. Skillnaden här blir dock troligt att 2st single rank blir halva minnesmängden mot 4st single rank och minnesmängd kan ha en inte omärkbar inverkan i spel, detta förutsatt att det handlar om samma minneschip med samma densitet mellan kitten.

Skulle du jämföra samma minnesmängd med 2 eller 4 stickor så hamnar du rätt troligen i en situation där du jämför 4st single rank mot 2st dual rank, i det läget blir det tekniskt ingen direkt skillnad då bägge presenteras för minneskontrollern som dual rank, så om det fortsatt handlar om samma frekvens och latens så blir det i denna sits ingen skillnad alls.

Kliver man sedan upp på triple eller quad rank så brukar det rent generellt ramla över i allt tyngre jobb för minneskontrollern med sänkta max frekvenser som resultat och i slutändan lägre prestanda. För tidiga Zen (1) så var Single Rank att kraftigt föredra då dual rank sänkte maximal frekvens ordentligt, med senare minneskontrollers i Zen+ och speciellt Zen2 så funkar dual rank avsevärt bättre med minimal inverkan på maximal frekvens (även om den fortsatt finns där)

Edit: Här kan du se faktisk inverkan i just spel, det är långt ifrån någon massiv inverkan men förvånansvärt (i mitt tycke) stor ändå sett till att man försöker dra nytta av 128bit bred adress på minneskit via en 64bit bred minneskanal så det spontana tanken vore att det skulle ge mer negativ effekt än positiv men så är inte fallet.

https://www.guru3d.com/articles-pages/amd-ryzen-ram-scaling-e...
Det är olika minnesmängd men då man testar 2x8, 4x8, 2x16 och 4x16 framkommer mönstret tydligt att dual rank setupen i vart fall presterar bättre än single rank, minnesmängd till trots, minnesmängden har en inverkan om ännu mindre än inverkan från antalet ranks, enligt detta test.

Visa signatur

| nVidia RTX3090FE | R9 5800X3D | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 12TB nvme, 2TB sata SSD | RM1000x | Creative X4 | Antec C8 | Alienware aw3821dw | >Antec C8 Custom Loop< |

Permalänk
Medlem
Skrivet av Ratatosk:

Gillar heller inte tester i 720p.
Om jag vill ha högre fps sänker jag inställningarna, inte fasiken sänker jag upplösningen till 720p!
Men många efterfrågar uppenbarligen tester i 720p, så jag förstår varför redaktionen testar.

Problemet med 720p, som jag ser det, är att många köper CPU av fel skäl.
- Titta den här CPU:n är bättre i spel!
- Men det testet är ju i 720p, i 1080p är de nästan lika.
- Du är så himla dum! i 1080p är det ju ju grafikkortet som håller ner fps, inte CPU:n.
- Nej, just det, den andra duger alltså lika bra i 1080p.
- Jag köper ändå den som är bättre i 720p, den är ju bättre i spel!
- Tung suck.

Ingen idé att köpa något vassare än 1600x då typ, för det är ingen skillnad i 4k.

Man väljer väl ändå en snabbare cpu för att den ska hänga med längre?

Visa signatur

"When I get sad, I stop being sad and be awsome instead, true story."