Test: Ryzen 9 3900X och Core i9-9900K i överklockat läge

Permalänk
Medlem
Skrivet av sKRUVARN:

Skulle själv valt en Ryzen idag, men den här diskussion börjar fan bli larvig.

Jag är all-in för AMDs comeback, men håller med, 9700K/9900K är bättre för hardcore gamern. Inte mycket att diskutera. Personligen är Ryzen definitivt tillräckligt bra för mig

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Alltid lika skoj att småläsa lite på dessa AMD vs Intel trådar
Speciellt intressant när folk sitter och utgår ifrån sina egna behov och drar slutsatser vilken processor som är bäst för alla andra i hela värden oavsett ekonomi, behov osv.

Sen diskussioner som vilken processor som är bäst av 9900K och 3900X för en hemanvändare som surfar och tittar på Youtube är ju bara så man dör av skratt . I min värld så är ingen av dessa cpu:er är till för dessa användare.

/En AMD fanboy som kör Intel

Permalänk
Avstängd
Skrivet av the squonk:

Jag är all-in för AMDs comeback, men håller med, 9700K/9900K är bättre för hardcore gamern. Inte mycket att diskutera. Personligen är Ryzen definitivt tillräckligt bra för mig

Vore kul att se ett test i spel som gillar rå prestanda och snabbt minne.
Fallout 4, Skyrim, Elder Scrolls Online mm.

I fallout 4 så smiskar ju en 4790K valfri Ryzen 2xxx.

Permalänk
Inaktiv

Och sen börjar man se i Ryzen 3000 trådan att med nyare bios så har man allt sämre prestanda så ska bli kul om de gör nya tester när bios mm är i sin ordning.

Permalänk
Medlem

720p medium är väl inte så vanligt att man kör i men jag vill nämna att 1080p low är bland de vanligaste inställningarna och det man i regel rekommenderar för alla multiplayer spel där man spelar mot andra spelare just för att få ner latenser så mycket som möjligt.
Och då ser siffrorna into så olika ut från vad de gör vid 720p medium.

De siffror som jag tycker är intressantast är just 1080p low och 1440p high.
Den ena är full fokus på latenser den andra är fokus på bildkvalitet men utan att använda onödigt kostsamma inställningar som ultra och 4k.

Visa signatur

Ghost S1 || Asrock Phantom Gaming Z390 || 9900KF || Corsair 32GB@3400MHz CL16/1.45volt || Intel 660p 1gb || Corsair sf600 || RTX 4070 Inno3d 2x|| Asus PG279QM

Macbook pro 14 M1

Permalänk
Inaktiv
Skrivet av sKRUVARN:

Precis samma tugg som vi hört vid bägge tidigare Ryzen lanseringar.

Och hur ser det ut idag?

Ja vi kan ju kolla på senaste Digital foundry testet:

Assasins Creed Odyssey: 1% 5% 9700K 58.1 62.8 2700X 41.9 52 Battlefield 5: 1% 5% 9700K 76.9 95.1 2700X 55.8 74.7 Farcry 5: 1% 5% 9700K 76.9 95.4 2700X 70.1 74.6 Crysis 3: 1% 5% 9700K 72.7 86 2700X 59.1 74.3 Metro Exodus: 1% 5% 9700K 81.7 90.1 2700X 59.4 66.3 Kingdom Come Deliverance: 1% 5% 9700K 36.2 41.1 2700X 23.7 27.3 Witcher 3: 1% 5% 9700K 78.7 105.4 2700X 36.4 69.4

Vill du gissa upplösningen för dessa siffror? Samtliga är från 1440p! Och det är inte några fjuttiga skillnader, utan siffrorna är rätt nära det rätt stora prestandaövertaget intel faktiskt hade över Zen+ i dessa laster. Vi visste hur "teoretiskt" mycket snabbare Intel var, men ändå är det en massa folk som försöker sopa det under mattan som obetydligt. Skulle själv valt en Ryzen idag, för skillnaderna ovan är rejält minskade, men den här diskussion om att prestandaskillnader helt plötsligt är irrelevanta börjar bli rejält tröttsam.

Hm ja i farcry och bf5 var det ju enorma skillnader där ja. Om de siffrorna stämmer så var det ju delvis en riktigt stor skillnad på 2700x och 9700k. Vart har du saxat de resultaten från? Kom de fram till vad problemet var varför amd presterade så dåligt?

Nåja i testet som gällde nu var dock siffrona en helt annan visa och trots att man körde 1280x720 så var skillnaden minimal. Förutom i de cpu tunga programmen där intel fullkomligt krossades.

Vill tillägga att jag googlade lite och 3700x och 9700k verkar snarlika i spel. 2700x verkar dra ner performance i vissa spel och upplösningar. Kanske throttlar eller är det någon design error man fixat med 3 serien mån tro?

Skickades från m.sweclockers.com

Permalänk
Avstängd
Skrivet av anon56869:

Hm ja i farcry och bf5 var det ju enorma skillnader där ja. Om de siffrorna stämmer så var det ju delvis en riktigt stor skillnad på 2700x och 9700k. Vart har du saxat de resultaten från? Kom de fram till vad problemet var varför amd presterade så dåligt?

Nåja i testet som gällde nu var dock siffrona en helt annan visa och trots att man körde 1280x720 så var skillnaden minimal. Förutom i de cpu tunga programmen där intel fullkomligt krossades.

Vill tillägga att jag googlade lite och 3700x och 9700k verkar snarlika i spel. 2700x verkar dra ner performance i vissa spel och upplösningar. Kanske throttlar eller är det någon design error man fixat med 3 serien mån tro?

Skickades från m.sweclockers.com

Skillnaden minimal? Vad har du kikat på?

Skillnaden är rätt stor i applikationer som inte nyttjar fler än 8 trådar.
Det är ju få spel som ens använder fler än 4 trådar, och få som ens nyttjar 4 fullt ut.

0.01% och 1% percentile så ligger AMD rätt risigt till. I vissa spel så får ju 3700x/3900x rätt grova framedrops (min fps)
I DigitalFoundrys video så får ju AMD en massa stutter i Witcher 3.

Ang argument om mikrokod och säkerhet så har ju AMD också: Ryzenfall, Fallout mfl.

Värd att kika på:

Permalänk
Medlem
Skrivet av sweisdapro:

Allmän annan multitasking, om vi nu ska bortse streaming som annars blir paradgren för 3900X.
Ett par YouTube-videos, något excelldokument, något spel som uppdateras i bakgrunden samtidigt som man lirar något spel med en polare på discord.

Tycker att något sådant test hade varit roligt att se med lite olika processorer

Skickades från m.sweclockers.com

Är det allmän multitasking? Hahaha. T.om min 1600 klarar sånt utan att hicka alltför mycket och hade inga direkt problem tidigare med 4 kärnor. Det folk alltid sa när gen1. och gen.2 med sina 8 kärnor vs 7700k och 8700k var att den hade fler kärnor, så man kunde göra sånt. Är 8/16 helt plötsligt för lite nu? Vad hände med framtidssäkringen för dom som köpte en 1800/1700 för att kunna ha youtube uppe medan dom spelade och pratade med en vän på discord? Hyckleriet är ett faktum

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Är det allmän multitasking? Hahaha. T.om min 1600 klarar sånt utan att hicka alltför mycket och hade inga direkt problem tidigare med 4 kärnor. Det folk alltid sa när gen1. och gen.2 med sina 8 kärnor vs 7700k och 8700k var att den hade fler kärnor, så man kunde göra sånt. Är 8/16 helt plötsligt för lite nu? Vad hände med framtidssäkringen för dom som köpte en 1800/1700 för att kunna ha youtube uppe medan dom spelade och pratade med en vän på discord? Hyckleriet är ett faktum

Nej, det är inte det jag menar, min 1700 hanterar multitasking superbt.
Men faktumet är att en 3900X har mer headroom för just multitasking när spel/program har fått sin dos av kärnor/trådar.
Det var därför jag hade tyckt att tester på hur mycket man kan belasta varje processor med "hemmaprogram" innan prestandan blir lidande hade varit intressant att se

Skickades från m.sweclockers.com

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av sweisdapro:

Nej, det är inte det jag menar, min 1700 hanterar multitasking superbt.
Men faktumet är att en 3900X har mer headroom för just multitasking när spel/program har fått sin dos av kärnor/trådar.
Det var därför jag hade tyckt att tester på hur mycket man kan belasta varje processor med "hemmaprogram" innan prestandan blir lidande hade varit intressant att se

Skickades från m.sweclockers.com

Min poäng var mer att varken en 9900k eller en 3900x skulle märka av att ha en sån load som du drog upp. Jag råder dig att gå in i köpråd där folk säger att den kommer "åldras bättre" och det räcker att kolla denna tråden + Sweclockers recension av 3900 och 3700. Ingen utav oss kan säga att dittan eller dattan är det bästa köpet, men ändå uttalar sig folk som att mer kärnor är framtiden samtidigt som dom klagar på 720p tester. Jag tycker att denna releasen är nice (men med alla moderkortsproblem kunde den vänta), det är skitkul att se att AMD faktiskt är så nära/iikapp Intel men man får inte bli förblindad. Spel t.ex kommer inte bli mer trådade över en natt och där skiner Intel fortfarande.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Inaktiv
Skrivet av AdoringFan:

Skillnaden minimal? Vad har du kikat på?

Skillnaden är rätt stor i applikationer som inte nyttjar fler än 8 trådar.
Det är ju få spel som ens använder fler än 4 trådar, och få som ens nyttjar 4 fullt ut.

0.01% och 1% percentile så ligger AMD rätt risigt till. I vissa spel så får ju 3700x/3900x rätt grova framedrops (min fps)
I DigitalFoundrys video så får ju AMD en massa stutter i Witcher 3.

Ang argument om mikrokod och säkerhet så har ju AMD också: Ryzenfall, Fallout mfl.

Värd att kika på:
https://youtu.be/4kDoMKos2CU

87 vs. 94 min frames i total war
117 vs 121 min frames i bf5

Ska man köpa en sämre cpu då menar du bara för att många spel inte är väl optimerade för moderna processorer med många kärnor ännu?

Permalänk
Inaktiv
Skrivet av anon56869:

87 vs. 94 min frames i total war
117 vs 121 min frames i bf5

Ska man köpa en sämre cpu då menar du bara för att många spel inte är väl optimerade för moderna processorer med många kärnor ännu?

Och vid optimeringar av spel kommer ju även 9900k prestera bättre sedan.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Min poäng var mer att varken en 9900k eller en 3900x skulle märka av att ha en sån load som du drog upp. Jag råder dig att gå in i köpråd där folk säger att den kommer "åldras bättre" och det räcker att kolla denna tråden + Sweclockers recension av 3900 och 3700. Ingen utav oss kan säga att dittan eller dattan är det bästa köpet, men ändå uttalar sig folk som att mer kärnor är framtiden samtidigt som dom klagar på 720p tester. Jag tycker att denna releasen är nice (men med alla moderkortsproblem kunde den vänta), det är skitkul att se att AMD faktiskt är så nära/iikapp Intel men man får inte bli förblindad. Spel t.ex kommer inte bli mer trådade över en natt och där skiner Intel fortfarande.

Just spel tycker jag ändå är intressant.
Många äldre spel har fått ganska rejäla multicore uppdateringar i släppta patcher med mycket prestandavinst som följd. Kanske inte så att 8 kärnor blir idealiskt men en tydlig trend syns ändå att man på något år verkligen i vissa fall har gått från extremt entråds tänk med endast små processer liggandes i andra trådar till att bakat om kärnkoden till flera trådar.
Många nya spel använder även dem flera trådar bättre än bara för något år sedan. Återigen 8 eller fler verkar fortfarande vara något sämre än ren mhz per kärna i tester där GPU inte spelar in.

720p tester är ett riktigt bra sätt att testa en cpus förmånga att prestera i spel när gpu inte är flaskhalsen är vi helt överens om och Intels varianter är ganska markant bättre där.
Problemet är bara att mer eller mindre ingen med en 3900 eller 9900 eller omkring dessa cpuer kommer någonsin att använda sig av den upplösningen. Även om 1080p håller på att ta 720p platsen för att trycka ut FPS spelar det ingen roll då alla ändå sneglar att byta ut 1440p mot 2160p och 1080 mot 1440p etc. GPUn kommer än så länge alltid att vara det som styr prestandan och även i den närmaste framtiden. Skillnaden i de flesta spel när man stiger upp i 1080p eller 1440p som idag snart är den vanligaste upplösningen för spela är så försvinnande liten roll att det måste till ett benchmarktest för att användaren faktiskt skall märka? (se) skillnaden i de flesta fall. Då känns det liksom inte riktigt motiverat att hävda att 720p tester är det som faktiskt som visar prestanda idag eller imorgon. Det blir lite mer som bil tillverkarnas uppgivna förbrukningsvärden av drivmedel de alltid uppger som aldrig stämmer i verkligheten.

Vad det gäller AMDs lansering av 3000 serien kan man ju mycket riktigt undra. Garanterat har de stressat fram denna lanseringen och låter slutanvändarna vara alpha och betatestare när varken AMD själva eller framförallt moderkortstillverkare fått tiden att prova och bygga klart bios till lanseringen.
Bara det att flera stora hårdvarusajter fick så pass stor skillnad i reslutat trots att de ända skall veta vad de pysslar med vittnar ju om detta.
Tycker också det verkar som AMD klockat vissa av sina versioner bortom absurdum för att få till den där extra procenten. Lite som Vega kretsen där alla entusiaster pratar om att sänka spänningen snarare än att höja den
Det är egentligen en cpu som hör hemma i PC för alla segmentet än på Sweclockers forumet då överklockning är ett ord AMD nu absolut totalt dödat eller döpt om till fabriksöverklockade? vilket vi alla köper med hull o hår.

Med det sagt tycker jag ändå att 3900x är riktigt intressant CPU som jag troligen kommer att köpa i höst om det kommer moderkort för min formfaktor Matx som är något att ha. Ser tyvärr inte ut som att det kommer att hända varken till AMD eller Intel så det får bli en ny utvärdering då.

Permalänk
Medlem
Skrivet av anon56869:

Hm ja i farcry och bf5 var det ju enorma skillnader där ja. Om de siffrorna stämmer så var det ju delvis en riktigt stor skillnad på 2700x och 9700k. Vart har du saxat de resultaten från? Kom de fram till vad problemet var varför amd presterade så dåligt?

Nåja i testet som gällde nu var dock siffrona en helt annan visa och trots att man körde 1280x720 så var skillnaden minimal. Förutom i de cpu tunga programmen där intel fullkomligt krossades.

Vill tillägga att jag googlade lite och 3700x och 9700k verkar snarlika i spel. 2700x verkar dra ner performance i vissa spel och upplösningar. Kanske throttlar eller är det någon design error man fixat med 3 serien mån tro?

Skickades från m.sweclockers.com

Som jag skrev, det är från digital foundry https://www.eurogamer.net/articles/digitalfoundry-2019-amd-ry...

Problemet? Inget "problem", vi har "vetat" hela tiden att Intel är upp till 40% snabbare än Zen+ i spellaster när man ser ren CPU-flaskhals (som man t ex kan se med snabba grafikkort och när man kör med snabba minnen, och om man faktiskt väljer bra testsekvenser som faktiskt är CPU-tunga). Detta såg vi redan i sweclockers test av 9900k/9700k när de körde om några test med 3200mhz minnen och 2080Ti. Enda "problemet" är att detta ignoreras, för att i "verkligheten" så är de ju lika snabba enligt internet, eller? Är ju bara skillnad i 720p som ingen spelar i!

Enligt DF:s test, så har de mer än halverat prestandaskillnaden upp till intel, de är inte ikapp än, men de är imo så pass nära att iaf jag tar 8 trådar före de där sista 10-20% i spel. Men bara för det så kommer jag ju inte skrika över hela internet att amd minsann är lika snabba för att 720p och 500fps i CSGO är orealistiskt.

Permalänk
Datavetare
Skrivet av sweisdapro:

Allmän annan multitasking, om vi nu ska bortse streaming som annars blir paradgren för 3900X.
Ett par YouTube-videos, något excelldokument, något spel som uppdateras i bakgrunden samtidigt som man lirar något spel med en polare på discord.

Tycker att något sådant test hade varit roligt att se med lite olika processorer

Skickades från m.sweclockers.com

Det är inte "parallellism" som avgör hur bra multitasking fungerar, det är "concurrency". Dessa två koncept är det väldigt många som blandar ihop!

För de som är bekanta med NodeJS finns ett lysande exempel på där man kan har direkt strålande "concurrency" helt i frånvaro av parallellism (NodeJS är enkeltrådat i normalfallet, finns paket likt Cluster modulen för att utnyttja flera trådar men många verkliga användningar är enkeltrådade).

Windows har absolut fått förbättringar här, men än idag så hanterar en 2C/4T laptop med Linux extremfall av "multitasking" bättre än vad Windows gör med en 8C/16T CPU. Det för att Linux/Linux-program hanterar "concurrency" generellt sätt långt bättre än vad de gör på Windows.

Däremot är det noll skillnad i väl dessa två OS kör något som uppför sig som Cinebench, det är ett (trivialt) fall av "parallellism" och kommer självklart fungerar väsentligt bättre på en 8C/16T CPU!

YouTube
Är inte ditt exempel här lite märkligt? Vem kollar på flera YouTube-videos samtidigt? Och om det är ett prestandaproblem, varför inte välja en CPU med Quick Sync (d.v.s. slå på iGPU i Intel CPU, något som med de flesta moderkort är möjligt även om man har en dGPU) och få denna del helt avlastad från CPU?

Själv ser jag inte poängen med att köra YouTube medan man spelar, men grabben gör nästan jämt det (Youtube på en skärm och spelet på en annan). QS-tricket gör att det fungerar lysande på en 4C/8T CPU än idag (i7-5775C).

Streaming
Varför skulle man välja att streama på samma CPU man spelar på idag? Om detta är viktigt, varför inte välja ett RTX-kort då nvenc i dessa har en kvalité i nivå med "medium-preset" i x264. Det är en kvalitetsnivå där spelprestanda även med 3900X kommer påverkas klart negativt.

Excel
Excel är, utanför ett par riktigt smala nischer, i princip enkeltrådat. Även svårt att se hur du samtidigt som du kör spelet och kollar på YouTube ovanpå det även ska kunna jobba i Excel parallellt...

Discord
Det är ett program man nästan skulle kunna köra på valfri 1kr mikrokontroller utan att problem, d.v.s. det har i praktiken noll CPU-påverkan på vilken modern CPU som helst.

Uppdatering i bakgrunden
Absolut! Men här är något där både Windows, Linux och MacOS är rätt bra att klassificera laster som just bakgrundsuppgifter och därmed köra dem på ett sätt som har nära nog noll prestandapåverkan på andra saker. Tidigare kunde de ha negativ påverkan på I/O-prestanda, men även det har man fått ordning på då dessa OS numera har rätt avancerade schemaläggare även för I/O.

Sedan är väl Steam rätt standard på PC, har för mig att Steam inte gör uppdateringar när ett spel är igång?

Det skrivet, jag ska själv definitivt skaffa en 3900X efter semestern. Det då jag faktiskt har en nisch som kan dra nytta av hög kapacitet av "parallellism" men som också har krav på hög prestanda per kärna (så en server/HEDT med lite lägre prestanda per kärna fast fler kärnor är inte optimalt). Men det är i praktiken bara ett par nischer där ens 8C CPUer har något mervärde på skrivbordet.

Orsaken att 3900X och 9900K är lysande desktop CPUer rent generellt är inte för de har många CPU-kärnor, det är för att dessa har högre enkeltrådprestanda än någon annan CPU-modell från respektive tillverkare!

Specifikt är 3000-serien en klart bättre desktop CPU jämfört med 1000/2000-serien primärt p.g.a. två orsaker

  • högre prestanda per kärna

  • CPPC2 (Collaborative Power Performance Control 2, samma sak som Intels Speedshift)

Det mesta som körs på skrivbordet är "burstigt", vilket är orsaken till att närmare 80 % av desktopmarknaden består av bärbara system och dessa är hårdoptimerade för det fallet.

De fall som skalar lysande med trådar är de fall som väldigt ofta görs bäst på GPU alt. på dedicerat kisel. Men finns självklart undantag, bygg/test-server för programutveckling är ett sådant (är precis det jag tänker använda min 3900X till).

Skrivet av cchriss:

720p medium är väl inte så vanligt att man kör i men jag vill nämna att 1080p low är bland de vanligaste inställningarna och det man i regel rekommenderar för alla multiplayer spel där man spelar mot andra spelare just för att få ner latenser så mycket som möjligt.
Och då ser siffrorna into så olika ut från vad de gör vid 720p medium.

De siffror som jag tycker är intressantast är just 1080p low och 1440p high.
Den ena är full fokus på latenser den andra är fokus på bildkvalitet men utan att använda onödigt kostsamma inställningar som ultra och 4k.

Har varit en del frågetecken kring om "medium" eller "low" inställningar missgynnar CPU-modeller med fler kärnor. Nederländska Hardware info har tittat på en rad spel från 2C/4T till 10C/20T och är i princip noll skillnad i skalning mellan "medium" och "ultra" (rent matematiskt är det något bättre skalning med kärnor i "medium").

En annan sak man ser där är att både genomsnittlig och lägsta FPS i 1920x1080 "ultra" och 2560x1440 "medium" ligger extremt nära.

"ultra" inställningar innehåller ofta en eller ett par saker som ger orimligt hög negativ påverkan på prestanda medan det kanske inte alls ger någon synlig effekt på skärmen. Så ur det perspektivet kan man ifrågasätta om CPU-tester verkligen borde köras med "ultra" inställningar (något i princip alla, SweC inkluderat, använder sig av).

Man kan också vara pragmatisk och bara se 1280x720 "ultra" testerna som 1920x1080 "medium", då blir det helt plötsligt relevanta redan idag och inte bara ett instrument för att gissa framtiden. En gissning som är rätt bra i ett relativt kort perspektiv, typ 2-3 år. Se bara på 1800X vs 7700K där 720p resultaten när dessa lanseras nu är rätt mycket exakt samma vi idag ser i 1440p (mer krävande spel + byte från GTX1080 till RTX2080Ti).

Däremot kan man inte säga speciellt mycket om hur dagens CPU-modeller kommer klara tidens tand >5 år framåt, inte åt något håll faktiskt (d.v.s. går inte att göra en vettig gissning på om 9900K något högre spelprestanda per kärna kommer vara viktigare än 3900X fler kärnor).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av sKRUVARN:

Som jag skrev, det är från digital foundry https://www.eurogamer.net/articles/digitalfoundry-2019-amd-ry...

Problemet? Inget "problem", vi har "vetat" hela tiden att Intel är upp till 40% snabbare än Zen+ i spellaster när man ser ren CPU-flaskhals (som man t ex kan se med snabba grafikkort och när man kör med snabba minnen, och om man faktiskt väljer bra testsekvenser som faktiskt är CPU-tunga). Detta såg vi redan i sweclockers test av 9900k/9700k när de körde om några test med 3200mhz minnen och 2080Ti. Enda "problemet" är att detta ignoreras, för att i "verkligheten" så är de ju lika snabba enligt internet, eller? Är ju bara skillnad i 720p som ingen spelar i!

Enligt DF:s test, så har de mer än halverat prestandaskillnaden upp till intel, de är inte ikapp än, men de är imo så pass nära att iaf jag tar 8 trådar före de där sista 10-20% i spel. Men bara för det så kommer jag ju inte skrika över hela internet att minsann är lika snabba för att 720p och 500fps i CSGO är orealistiskt.

https://cdn.sweclockers.com/artikel/diagram/15668?key=a1f49e2584dad3d8e3ecc0ee789a7e4b
https://cdn.sweclockers.com/artikel/diagram/15671?key=c54c5234bb601fa9ac2334a10568ec6e
https://cdn.sweclockers.com/artikel/diagram/15672?key=1d5320a4e86ad572b9e29dceee98c75e
https://cdn.sweclockers.com/artikel/diagram/15670?key=5fa3adf1f8c7e6e0f909de37064b8f33

Kollar på lägsta FPS är det inte 10-20 % fördel för Intel, det är i genomsnitt 34 % fördel när båda systemet använder DDR4-3200 (och i Intels fall är det just snabbare RAM som ger effekten, överklockningen gav minimal effekt på prestanda men löjligt effekt på strömförbrukning).

Dessa resultat är i 1920x1080 "ultra" vilket betyder att det är den skillnad vi kommer se idag om man kör 2560x1440 "medium", en inställning jag gissar är rätt vanlig även bland SweC (för den stora massan är nog 1920x1080 "medium" rätt vanlig)!

Absolutvärdet på lägsta FPS är inte heller på en sådan löjlig nivå i dessa spel att man kan avfärda skillnaden som "meningslös". Hade ju spelat rätt mycket mindre roll om det var 250 mot 200 FPS.

Edit: jag som läser illa i värmen... Tyckte det var lite väl stor skillnad till 9900K, det var ju resultat mot 2700X.

9900K och 3900X med DDR4-3600 uppvisar i princip samma relativa skillnad i 1280x720 (3000-serien skalar inte lika bra med RAM-hastighet som 1000/2000-serien medan Skylake uppvisar rätt ordentligt skalning)

I genomsnitt 31 % fördel för 9900K i lägsta FPS. Rejäl boost från snabbare RAM, rätt liten boost från överklockning.

Tyvärr bara två spel, skulle inte dra allt för stora växlar (framförallt inte då det skiljer rätt mycket i relativ prestanda mellan dessa två titlar så omöjligt att veta vad som är "normalfallet"). Ovan är som vanligt "ultra", så man skulle se ungefär samma sak i 1920x1080 "medium".

I 1920x1080 "ultra" är skillnaden i genomsnittlig FPS mer eller mindre borta, finns dock ändå en viss effekt från CPU i lägsta FPS kvar

15 % fördel 9900K om man jämför överklockad + DDR4-3600 fallet, men 3900X får faktiskt lägre lägsta FPS i överklockat läge här. Är 8 % fördel om man jämför med bästa fallet för 3900X.

1920x1080 "ultra" resultatet är vad man även borde se för 2560x1440 "medium".

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Undra hur alla dessa BF tester får så låg minimum fps. Jag ligger konstant på 135-220 fps i BFV 64 player med 3900x... samtidigt som jag har på 3x livestreams 1080(60 fps) och cpu usage är runt 40%. Dessutom med långsamma minnen 2800mhz.

Permalänk
Medlem
Skrivet av Yoshman:

Kollar på lägsta FPS är det inte 10-20 % fördel för Intel, det är i genomsnitt 34 % fördel när båda systemet använder DDR4-3200 (och i Intels fall är det just snabbare RAM som ger effekten, överklockningen gav minimal effekt på prestanda men löjligt effekt på strömförbrukning).

Dessa resultat är i 1920x1080 "ultra" vilket betyder att det är den skillnad vi kommer se idag om man kör 2560x1440 "medium", en inställning jag gissar är rätt vanlig även bland SweC (för den stora massan är nog 1920x1080 "medium" rätt vanlig)!

Absolutvärdet på lägsta FPS är inte heller på en sådan löjlig nivå i dessa spel att man kan avfärda skillnaden som "meningslös". Hade ju spelat rätt mycket mindre roll om det var 250 mot 200 FPS.

Vart tog du 34% ifrån? Jag syftade på 3700x mot 9700k med data från df, inte 2700x. Som jag skrev, för 2700x är det upp till 40%. Tycker det ser ut att vara betydligt mindre än 34% för 3700x, eller?

Skickades från m.sweclockers.com

Permalänk
Datavetare
Skrivet av sKRUVARN:

Vart tog du 34% ifrån? Jag syftade på 3700x mot 9700k med data från df, inte 2700x. Som jag skrev, för 2700x är det upp till 40%. Tycker det ser ut att vara betydligt mindre än 34% för 3700x, eller?

Skickades från m.sweclockers.com

Såg det och var precis i en "edit", se ovan. Är inga 40 % längre i 1280x720, men ändå fortfarande 30 % om man kör med DDR4-3600, mycket p.g.a. att 3000-serien inte skalar lika väl med snabbare RAM p.g.a. att minneskontroller inte längre är integrerad.

34 % är skillnaden i lägsta FPS mellan 9900K och 2700X i 1920x1080 "ultra".

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Såg det och var precis i en "edit", se ovan. Är inga 40 % längre i 1280x720, men ändå fortfarande 30 % om man kör med DDR4-3600, mycket p.g.a. att 3000-serien inte skalar lika väl med snabbare RAM p.g.a. att minneskontroller inte längre är integrerad.

34 % är skillnaden i lägsta FPS mellan 9900K och 2700X i 1920x1080 "ultra".

Ok, tänkte väl att det fel någonstans. Se mitt tidigare inlägg i tråden med data i 1440p från df så ser vi redan stora skillnader mellan zen+ och 9700k, behöver inte ens titta på 720p länge för att se tydliga skillnader.

Skickades från m.sweclockers.com

Permalänk
Datavetare
Skrivet av sKRUVARN:

Ok, tänkte väl att det fel någonstans. Ser du mitt tidigare inlägg i tråden med data i 1440p så ser vi redan stora skillnader mellan zen+ och 9700k, behöver inte ens titta på 720p länge för att se tydliga skillnader.

Skickades från m.sweclockers.com

Såg det.

Och är exakt det jag pekat på ett par gånger nu, på "kort sikt" (typ 2-3 år) är 1280x720 resultaten med stor sannolikhet en rätt bra indikator på hur det kommer utveckla sig i 1920x1080 samt även 2560x1440 med inställningsreglaget nedskruvat ett snäpp.

Däremot kan man nog inte göra några vettig utsagor på längre sikt. Enda man generellt kan säga är: förändringar tar typiskt betydligt längre tid än de flesta gissar. Se t.ex. på införandet av DX12/Vulkan, man blev i princip idiotförklarad i dessa forum av att välja GTX970 då DX12 skulle göra Radeon till ett överlägset val. Än idag är DX11 normen (och GTX900 serien är i praktiken obsolete) men nu börjar vi definitivt se en förskjutning mot DX12/Vulkan.

Redan när 2500K/2600K släpptes fanns det speltitlar där 4C/8T hade en relevant fördel över 4C/4T, men dessa CPU-modeller hann ur alla praktiska vinklar bli obsolete innan någon större mängd titlar uppvisade ett sådant beteende (tog >5 år).

Värt att ta med i en eventuell gissning kring utvecklingen 9900K vs 3900X är att saker som inte är triviala att skala över kärnor (vilket inkluderar spel) blir exponentiellt svårare att skala med kärnor ju fler kärnor man använder som "baseline". Det framförallt då GPUer bara har en grafik-kö (då renderingsmaskineriet är en tillståndsmaskin), så man har en rätt fundamental serialiseringspunkt i spel som DX12/Vulkan inte kan göra något åt!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd
Skrivet av anon56869:

87 vs. 94 min frames i total war
117 vs 121 min frames i bf5

Ska man köpa en sämre cpu då menar du bara för att många spel inte är väl optimerade för moderna processorer med många kärnor ännu?

Vad pratar du om?
Och snygg cherry pick.

Skillnaden är snarare 20-40 fps i vissa spel, om vi pratar min fps. Och jag väljer hellre en cpu som ger högre FPS med låga frametimes än en som leder till höga frametimes och har problem med stutter.

Och AMD kommer aldrig kunna stå upp emot Intel när det gäller rå enkeltrådad prestanda då intel alltid kommer ligga på 5ghz eller mer medans AMD inte ens kommer upp i sin turbo frekvens.

Om båda CPUer ligger i 4ghz så är de rätt lika i enkeltrådat. Men detta är dock inte verkligheten.

Jag väljer hellre rå prestanda idag och närmsta 3 åren, än "om 5+ år" prestanda, när man ändå ska byta ut CPUn.

Schedulern gör ju inte ens ett bra jobb heller. Då ryzen använder två chips/die? så går prestandan ner om schedulern väljer att köra en kärna på ett chipp och 2 på den andra, istället för 3st på samma chip.

Permalänk
Medlem

Åter igen ett sådant skämt test, logik är väldigt underskattat tydligen... Äger man en 2080 ti så kör man fan inte i 720 om ens 1080... Var lite seriösa och mer realistiska tack. Usch vilket test. Hey jag köpte mig en 40k rig för jag ska köra 720p ha ha och nej all försök till förklaring är trams

Skickades från m.sweclockers.com

Permalänk
Inaktiv
Skrivet av Ani_ma:

Åter igen ett sådant skämt test, logik är väldigt underskattat tydligen... Äger man en 2080 ti så kör man fan inte i 720 om ens 1080... Var lite seriösa och mer realistiska tack. Usch vilket test. Hey jag köpte mig en 40k rig för jag ska köra 720p ha ha och nej all försök till förklaring är trams

Skickades från m.sweclockers.com

@Ani_ma

Återigen, man testar bara vilken cpu som är starkast när inte grafikkortet sätter stop.
I högre upplösning sätter grafikkortet stop för högre fps och man ser inte vilken cpu som är starkast

Det har inget med att man spelar i den upplösningen.

Och det är inget skämt, det är så man testar processorer.