Test: Ryzen 9 3900X och Core i9-9900K i överklockat läge

Permalänk
Medlem
Skrivet av Lordsqueak:

Det du säger är korrekt och riktigt. men du missar fortfarande poängen.
Det är ingen som sitter och spelar i 720p om dom inte måste, och har man ett 2080Ti i burken så är chansen ganska liten att man sitter och spelar på en monitor som bara klarar 720p. har man råd med ett 2080Ti så har dom garanterat redan uppgraderat sin monitor.

Så... att jämnföra 150fps mot 180fps i 720p är helt enkelt något som aldrig kommer att ske när någon sitter och spelar på riktigt.

Går man upp till 1080p så är det ingen skillnad, 3 fps när man ligger runt 100fps är det fan ingen som kan märka någon skillnad på. och det är DET som är poängen. I 1080p så är det fan ingen märkbar skillnad.
Jag är skitkräsen när det gäller input delay och jag kan lova att varken jag eller någon annan skulle greja ett blindtest.

Så jaa, om någon sitter och säger att Intel spöar AMD för att den har mer fps i 720p så kommer jag göra mig lustig över det. för det är en upplösning som ingen seriöst använder, speciellt inte med den hårdvaran som krävs för att nå upp till den skillnaden. Och i andra upplösningar så är skillnaden så pass liten att det rent praktiskt inte är någon skillnad.

Poängen är, även om du helt missat den, att man mäter råprestanda på CPUn. Spel är ofta ojämna i hur mkt GPU vs CPUbundna de är, i synnerhet i online läge med många andra spelare. Då börjar CPUn plötsligt flaska vid mycket lägre FPS, även i 1080p eller 1440p. När det händer så är man ofta glad att man valt processorn som presterar bättre, i detta fall Intels variant.

Permalänk
Skrivet av Yoshman:

Ett exempel på hur resultat i 1280x720 faktisk är relevant givet lämplig tidshorisont är jämförelsen 7700K vs 1800X. Läs kommentararena till 1800X testet, samma gnäll där om hur 720p är irrelevant. Vad det visade är ett klart övertag för 7700K i spel när man tittade på 720p, i detta fall med ett GTX1080. I 1440p var det rätt minimal skillnad.

Spola fram till 3700X/3900X, inte så många som nu kanske kikade på hur 7700K står sig mot 1800X. Men vad ser vi nu? Jo att den skillnad i spelprestanda som bara visade sig i 720p på ett GTX1080 nu visar sig även i 1440p när man använder ett RTX2080Ti.

På 2,5 år hinner inte Gustafsons lag göra någon relevant skillnad kring hur väl spel börjat skala med kärnor, att 1800X har dubbelt så många kärnor som 7700K spelar därför med den tidshorisonten minimal roll. Däremot fortsätter spel att bli mer CPU-krävande p.g.a. snabbare GPUer.

Sätter vi i stället tidshorisonten till ett decennium kommer de som hävdar att 1800X är mer "framtidssäker" garanterat få rätt, det p.g.a. att spel kommer fortsätta bli allt större och mer komplexa -> Gustafsons lag beskriver hur det kommer betyda bättre skalning för med kärnor.

Svårt att se hur något annat kommer hända med 9900K mot 3900X. Dels blir det exponentiellt svårare att skala saker som inte är embarrassingly parallel ju fler kärnor man använder som utgångspunkt, dels är det "bara" 50 % fler kärnor i 3900X över 9900K.

I det korta loppet, typ <5 år, kommer vi se samma utveckling som för 7700K vs 1800X. D.v.s. 9900K bättre prestanda i 720p idag kommer krypa upp i högre upplösningar.

Givet startpunkten kommer det med största sannolikhet ta längre tid för 3900X att gå förbi 9900K i spel än det kommer ta för 1800X att gå om 7700K. Vidare är en intressant observation för just 3900X och 9900K att det nu är stört fördel för Intel i lägsta FPS, i fallet 1800X vs 7700K var det mer likartad skillnad i lägsta FPS som genomsnittlig FPS.

Den dagen en normal användare har nytta flera år i förväg av tester på 720p så kommer det vara ett tvång med PCI-E 4.0 på graffeplatsen och vi pratar generationer framåt i tiden för GPU. Börjar bli fruktansvärt uttjatat detta nu. Är totalt irrelevant att ha med 720-tester för en processor idag. Den "miljarddels promillen" som verkligen har nytta av mer FPS kan lätt bilda sig en uppfattning genom att studera 1080-tester. Man kan köra 1080-testar med lättare grafikinställningar samt en med normala grafikinställningar. Hur många datorbyggare av alla har kvar sin CPU i 5-6 år innan man köper snabbare?

Om man ska sälja en produkt så väljer man den stora skaran och inte enstaka individer.

Permalänk
Datavetare
Skrivet av JonkenPonken:

Den dagen en normal användare har nytta flera år i förväg av tester på 720p så kommer det vara ett tvång med PCI-E 4.0 på graffeplatsen och vi pratar generationer framåt i tiden för GPU. Börjar bli fruktansvärt uttjatat detta nu. Är totalt irrelevant att ha med 720-tester för en processor idag. Den "miljarddels promillen" som verkligen har nytta av mer FPS kan lätt bilda sig en uppfattning genom att studera 1080-tester. Man kan köra 1080-testar med lättare grafikinställningar samt en med normala grafikinställningar. Hur många datorbyggare av alla har kvar sin CPU i 5-6 år innan man köper snabbare?

Om man ska sälja en produkt så väljer man den stora skaran och inte enstaka individer.

Tror vi är helt överens om det fetmarkerad. Hur blir då slutsatsen någon annan än att 720p faktiskt är relevant om man tittar på 7700K vs 1800X?

För 2,5 år sedan var det noll skillnad i 2560x1440, i princip en irrelevant skillnad i 1920x1080 (båda i "ultra") med GTX1080. Idag är det ungefär samma skillnad i 2560x1440 "ultra" p.g.a. att grafikkortet som används ökat så mycket i prestanda att 1280x720 med GTX1080 då lägger lika mycket tryck på CPU som 2560x1400 med RTX2080Ti.

Självklart kommer spelen med tiden också börja dra mer nytta av CPU-kärnor, helt enligt Gustafsons lag. Men ju fler kärnor CPUer få ju längre tid kommer det ta innan spelen kan dra nytta av dem (gäller inte bara spel, gäller allt som inte är trivialt att parallellisera, det som är trivialt att parallellisera lär i allt större utsträckning köras på GPGPU).

När man ställer 9900K mot 3900X är ju primärt i lägsta FPS som den förra har en fördel i 1280x720. Det betyder att redan idag kommer 9900K ha en fördel i högre upplösningar om man inte kör "ultra". Givet att Nvidia kommer gå till 7 nm nästa år kommer steget till Ampere antagligen bli större än steget mellan Pascal till Turing.

D.v.s. i det korta loppet (mindre än de 5-6 år du nämner) kommer gisningsvis 9900K dra ifrån lite. I det långa loppet, vilket mycket väl kan betyda >10 år givet hur spel utnyttjar 8C/16T idag, pekar mycket på att 3900X vinner mer. Frågan är hur relevant någon av 9900K och 3900X är om tio år, framförallt givet att Apples CPU-design redan ligger 40-50 % högre i IPC och ARM kommer kliva in på PC-marknaden (bara frågan om när det händer).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Yoshman:

Tror vi är helt överens om det fetmarkerad. Hur blir då slutsatsen någon annan än att 720p faktiskt är relevant om man tittar på 7700K vs 1800X?

För 2,5 år sedan var det noll skillnad i 2560x1440, i princip en irrelevant skillnad i 1920x1080 (båda i "ultra") med GTX1080. Idag är det ungefär samma skillnad i 2560x1440 "ultra" p.g.a. att grafikkortet som används ökat så mycket i prestanda att 1280x720 med GTX1080 då lägger lika mycket tryck på CPU som 2560x1400 med RTX2080Ti.

Självklart kommer spelen med tiden också börja dra mer nytta av CPU-kärnor, helt enligt Gustafsons lag. Men ju fler kärnor CPUer få ju längre tid kommer det ta innan spelen kan dra nytta av dem (gäller inte bara spel, gäller allt som inte är trivialt att parallellisera, det som är trivialt att parallellisera lär i allt större utsträckning köras på GPGPU).

När man ställer 9900K mot 3900X är ju primärt i lägsta FPS som den förra har en fördel i 1280x720. Det betyder att redan idag kommer 9900K ha en fördel i högre upplösningar om man inte kör "ultra". Givet att Nvidia kommer gå till 7 nm nästa år kommer steget till Ampere antagligen bli större än steget mellan Pascal till Turing.

D.v.s. i det korta loppet (mindre än de 5-6 år du nämner) kommer gisningsvis 9900K dra ifrån lite. I det långa loppet, vilket mycket väl kan betyda >10 år givet hur spel utnyttjar 8C/16T idag, pekar mycket på att 3900X vinner mer. Frågan är hur relevant någon av 9900K och 3900X är om tio år, framförallt givet att Apples CPU-design redan ligger 40-50 % högre i IPC och ARM kommer kliva in på PC-marknaden (bara frågan om när det händer).

PCI-E 4.0 står bakom hörnet och väntar och då med högprestandagrejer. Tittar man överlag på de utövare som finns som måste ha nuffror på 720 så är det förmodligen samma sak som om Teknikens Värld gör test på sommardäck och inför ett specialtest för de som tävlar i Ecodriving och testar med 4 kg i däcken. Tror du förstår poängen.

Hur många FPS-proffs vet du om på SC?

Den dagen en vanlig datoranvändare som spelar ser skillnad på CPU IRL på FPS vid förväntad då (vi pratar ju om framtiden 5-6 år eller mer?) normal upplösning så är dagens PCI-E 3.0 för slött för dessa grafikkort eftersom vi pratar om 4K. De som lirar FPS professionellt är redan sponsrade och de som inte redan är sponsrade vet gott och väl vilka produkter man skall köpa.

Menar att det är bättre att lägga energi på tester som är relevanta för den stora skaran besökare och utövare.

Har själv spelat FPS 8-10 timmar "per dag" i 3-4 år men det var då det. Idag är det andra regler som gäller, tex kolla vilka däck som rullar snabbast med 4 kg lufttryck vid given effekt.

Det är väl en jäkla tur att man får tycka vad man vill samt köpa de produkter man vill ha, eller vad säger du.

Permalänk
Medlem
Skrivet av Chrisj:

Poängen är, även om du helt missat den, att man mäter råprestanda på CPUn. Spel är ofta ojämna i hur mkt GPU vs CPUbundna de är, i synnerhet i online läge med många andra spelare. Då börjar CPUn plötsligt flaska vid mycket lägre FPS, även i 1080p eller 1440p. När det händer så är man ofta glad att man valt processorn som presterar bättre, i detta fall Intels variant.

Poängen är ju att det är ju ingen nämnvärd skillnad i högre upplösningar.

Jag är inte nån AMD fanboi här, utan konstaterar bara att båda lagen drar jämt skägg, det spelar helt enkelt ingen roll. Vill du välja intel, så varsågod. Jag konstaterar bara att AMD har kommit ikapp. (bra jobbat AMD)

Man behöver inte rättfärdiga sitt val med audiophile nivå på skillnader i fps, för i praktiken så kommer det inte spela någon roll.
Battlefield V i 1080p - 172fps vs 176fps (båda maxar en 144hz monitor, skillnad i input delay v-sync off är 0,12 millisekunder)
Total war 1080p - 114fps vs 122fps (ingen grejar att maxa en 144hz monitor, skillnad i input delay 0,57 millisekunder)
^ visst, sitter man med en 120hz monitor så ,, tja då har man problem för 2080Ti saknar DVI port, något som äldre 120hz monitorer ofta kräver.
Argumenterar man input delay så snackar vi om skillnader mätta i mikrosekunder, något som ingen input device klarar av att utnyttja. tangentbord är typiskt låsta till default pollingrate på 125hz, medans möss med speciella drivare kan klara av att gå upp till en polling rate på 1000hz. (1ms) Ingen av dem drar någon nytta av skillnader på mikrosekunder.

I praktiken så blir det helt enkelt inga skillnader, även om det nu går att mäta nån fps i skillnad rent tekniskt. Övrig utrustning i datorn klarar helt enkelt inte av att dra någon nytta av de små skillnader som går att mäta. Och DET är poängen!

Permalänk
Medlem
Skrivet av Lordsqueak:

Poängen är ju att det är ju ingen nämnvärd skillnad i högre upplösningar.

Jag är inte nån AMD fanboi här, utan konstaterar bara att båda lagen drar jämt skägg, det spelar helt enkelt ingen roll. Vill du välja intel, så varsågod. Jag konstaterar bara att AMD har kommit ikapp. (bra jobbat AMD)

Man behöver inte rättfärdiga sitt val med audiophile nivå på skillnader i fps, för i praktiken så kommer det inte spela någon roll.
Battlefield V i 1080p - 172fps vs 176fps (båda maxar en 144hz monitor, skillnad i input delay v-sync off är 0,12 millisekunder)
Total war 1080p - 114fps vs 122fps (ingen grejar att maxa en 144hz monitor, skillnad i input delay 0,57 millisekunder)
^ visst, sitter man med en 120hz monitor så ,, tja då har man problem för 2080Ti saknar DVI port, något som äldre 120hz monitorer ofta kräver.
Argumenterar man input delay så snackar vi om skillnader mätta i mikrosekunder, något som ingen input device klarar av att utnyttja. tangentbord är typiskt låsta till default pollingrate på 125hz, medans möss med speciella drivare kan klara av att gå upp till en polling rate på 1000hz. (1ms) Ingen av dem drar någon nytta av skillnader på mikrosekunder.

I praktiken så blir det helt enkelt inga skillnader, även om det nu går att mäta nån fps i skillnad rent tekniskt. Övrig utrustning i datorn klarar helt enkelt inte av att dra någon nytta av de små skillnader som går att mäta. Och DET är poängen!

Men hela poängen är denna: När du tar bort GPU som flaskhals (720p) så presterar Intel märkbart bättre. När du sedan spelar spel som kräver mycket mer av CPU i förhållande till GPU så syns den skillnaden även i högre upplösningar. Jag vet inte hur jag ska vara tydligare med detta. AMD gör skitfina CPUer sedan första Ryzen kom, men de är fortfarande inte ikapp Intel i enkeltrådad prestanda.

Om du sedan inte märker av framedips eller nedsatt följsamhet så är det jättebra för dig, men jag kan garantera dig att det finns en stadig skara här på forumet.

Permalänk
Medlem
Skrivet av JonkenPonken:

Den dagen en normal användare har nytta flera år i förväg av tester på 720p så kommer det vara ett tvång med PCI-E 4.0 på graffeplatsen och vi pratar generationer framåt i tiden för GPU. Börjar bli fruktansvärt uttjatat detta nu. Är totalt irrelevant att ha med 720-tester för en processor idag. Den "miljarddels promillen" som verkligen har nytta av mer FPS kan lätt bilda sig en uppfattning genom att studera 1080-tester. Man kan köra 1080-testar med lättare grafikinställningar samt en med normala grafikinställningar. Hur många datorbyggare av alla har kvar sin CPU i 5-6 år innan man köper snabbare?

Om man ska sälja en produkt så väljer man den stora skaran och inte enstaka individer.

Varför blir du arg över att det finns mer data i testet?

Permalänk
Medlem

Jag blir något förundrad över denna tråd. Skrev själv i den tidigt för att ta upp och problematisera kring det faktum att vi försöker parallellisera kod och att detta kan påverka den externa validiteten av 720p-testerna. Detta är rimligt att diskutera, men det dömer inte ut 720p-testerna på något sätt.

Dock är det till största delen huruvida 720-tester är användbara överhuvudtaget som tas upp i kommentarstråden. Jag känner mig osäker på om dessa personer försöker lyfta AMD högre än vad de borde, om de trollar eller om de faktiskt inte inser fördelen med dessa tester.

Jag ser diskussion efter diskussion gällande att ingen spelar i 720p och total oförståelse av grundtanken med testet i sig. Att låta CPU:n vara den begränsande faktorn. Om det faktiskt är något som många i forumet inte begriper är det kanske något som redaktionen kunde göra en artikel om @JonasT ? Är övertygat om att ni tagit upp bakgrunden till 720p-testning i många gånger i era recensioner, men jag tänkte en samlad artikel om metodiken i grafikkortstester.

Risken är förstås att det faktum inte rör sig om oförmåga att förstå testen utan trollning och fanboyism, men jag tänkte i vart fall lyfta förslaget.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av lhugo:

Jag blir något förundrad över denna tråd. Skrev själv i den tidigt för att ta upp och problematisera kring det faktum att vi försöker parallellisera kod och att detta kan påverka den externa validiteten av 720p-testerna. Detta är rimligt att diskutera, men det dömer inte ut 720p-testerna på något sätt.

Dock är det till största delen huruvida 720-tester är användbara överhuvudtaget som tas upp i kommentarstråden. Jag känner mig osäker på om dessa personer försöker lyfta AMD högre än vad de borde, om de trollar eller om de faktiskt inte inser fördelen med dessa tester.

Jag ser diskussion efter diskussion gällande att ingen spelar i 720p och total oförståelse av grundtanken med testet i sig. Att låta CPU:n vara den begränsande faktorn. Om det faktiskt är något som många i forumet inte begriper är det kanske något som redaktionen kunde göra en artikel om @JonasT ? Är övertygat om att ni tagit upp bakgrunden till 720p-testning i många gånger i era recensioner, men jag tänkte en samlad artikel om metodiken i grafikkortstester.

Risken är förstås att det faktum inte rör sig om oförmåga att förstå testen utan trollning och fanboyism, men jag tänkte i vart fall lyfta förslaget.

Skickades från m.sweclockers.com

Dom skulle kunna sätta @yoshman på det. Han skriver ändå en förklaring i istortsett varje tråd där det kommer upp så det hade sparat på hans tangentbord att offra sig och skriva en artikel om det.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Inaktiv

Speltesterna i 720p är de absolut viktigaste i ett CPU-test likt detta. De säger absolut mest om den faktiska prestandan. Intels CPUer presterar idag ungefär 15-20% bättre än AMDs i spel när båda överklockas.
Prestandafördelen kommer visa sig i vissa spel redan idag i långt mycket högre upplösningar. Detta med svagare grafikkort än RTX 2080Ti.

Speltester för CPU i högre upplösning än 720p är enbart för att ge dig en uppfattning om hur mycket av denna prestandaskillnad som kommer att maskeras i specifika fall.

Permalänk
Medlem
Skrivet av anon12433:

Speltesterna i 720p är de absolut viktigaste i ett CPU-test likt detta. De säger absolut mest om den faktiska prestandan. Intels CPUer presterar idag ungefär 15-20% bättre än AMDs i spel när båda överklockas.
Prestandafördelen kommer visa sig i vissa spel redan idag i långt mycket högre upplösningar. Detta med svagare grafikkort än RTX 2080Ti.

Speltester för CPU i högre upplösning än 720p är enbart för att ge dig en uppfattning om hur mycket av denna prestandaskillnad som kommer att maskeras i specifika fall.

Ändå märks detta varken i 1080P eller över. När ett 2080Ti agerar flaskhals i 1080p så ska det mycket till för att svagare grafikkort ska göra det. Oberoende så bygger mycket av Intel försprång på deras höga klockfrekvenser. Ett problem som Intel antagligen insett men även verkar ha insett att deras 10 nm idagsläget inte är bra nog. Antagligen pga. den inte klockar i närheten av vad deras 14 nm gör.. vilket betyder att 10 nm gen 1 antagligen kommer att prestera sämre än 9900K pga. lägre klockfrekvenser och kan tom. hamna efter AMD i stort sett allt (speciellt med tanke på att vid det laget så har man lanserat Zen 3 och eventuellt Zen 3+). Därför skjuts den upp gång på gång.

Vi har ju sett detta förut. För varje kliv nedåt i tillverkningsprocessens storlek så har Intel tappat överklockningspotential och maxfrekvens. Det började med Ivy Bridge och det är först vid Skylake typ gen 100000 som man nått liknande frekvenser. Då med en fullständigt mogen nod som tagit fyra år att nå och då har man istället slagit i en vägg i vad 14 nm klarar av att leverera.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av Chrisj:

Men hela poängen är denna: När du tar bort GPU som flaskhals (720p) så presterar Intel märkbart bättre. När du sedan spelar spel som kräver mycket mer av CPU i förhållande till GPU så syns den skillnaden även i högre upplösningar. Jag vet inte hur jag ska vara tydligare med detta. AMD gör skitfina CPUer sedan första Ryzen kom, men de är fortfarande inte ikapp Intel i enkeltrådad prestanda.

Om du sedan inte märker av framedips eller nedsatt följsamhet så är det jättebra för dig, men jag kan garantera dig att det finns en stadig skara här på forumet.

Men poängen är ju att att det INTE syns!
Visst du kan mäta upp en liten skillnad, men någon sitter och spelar på riktigt (med en gpu) så syns det ju ingen skillnad.
Om du märker skillnad så snackar vi placebo effekt, ren inbillning, för i verkligheten där dom flesta bor, så begränsas fps av resten av burken.

Och sedan så är ditt påstående om enkeltrådad prestanda lite tveksam. Menar du att Intel kan klocka högre?
För om vi kollar på enkeltrådad prestanda vid samma klock, så spöar AMD intel numera. (enligt swec's tester)
https://www.sweclockers.com/test/27760-amd-ryzen-9-3900x-och-...

Fast om vi ska vara riktigt ärliga så är det ingen CPU som klarar av att sitta och spela utan framedips när windows eller nått annat sätter igång med massa jävla updates i backgrunden.

Permalänk
Skrivet av Chrisj:

Varför blir du arg över att det finns mer data i testet?

Är inte ett dugg arg.

Permalänk
Medlem
Skrivet av Lordsqueak:

Men poängen är ju att att det INTE syns!
Visst du kan mäta upp en liten skillnad, men någon sitter och spelar på riktigt (med en gpu) så syns det ju ingen skillnad.
Om du märker skillnad så snackar vi placebo effekt, ren inbillning, för i verkligheten där dom flesta bor, så begränsas fps av resten av burken.

Det syns ju, det är det som man försöker få dig att förstå. Intel presterar i runda slängar 20% bättre när CPU är den begränsande faktorn. Något som också rimmar väldigt väl med hur mycket högre de klockar. I scenarion där CPU är begränsande faktor, typ WoW raids som ett exempel, så kommer du märka skillnad på 48 och 60 fps.

Citat:

Och sedan så är ditt påstående om enkeltrådad prestanda lite tveksam. Menar du att Intel kan klocka högre?
För om vi kollar på enkeltrådad prestanda vid samma klock, så spöar AMD intel numera. (enligt swec's tester)
https://www.sweclockers.com/test/27760-amd-ryzen-9-3900x-och-...

Ja, jag menar att intel kan klocka högre. IPC är relevant men om man har snarlik IPC, vilket Intel och AMD nu har, så vinner den som har markant högre klock.

Citat:

Fast om vi ska vara riktigt ärliga så är det ingen CPU som klarar av att sitta och spela utan framedips när windows eller nått annat sätter igång med massa jävla updates i backgrunden.

Absolut, så varför ska jag välja den produkt som har mer framedips och får det kämpigare att dra runt de enkeltrådsbundna applikationer jag kör? Som sagt, AMD har fina allround processorer, men de får fortfarande pisk av Intel i enkeltrådat.

Permalänk
Inaktiv
Skrivet av Xinpei:

Ändå märks detta varken i 1080P eller över. När ett 2080Ti agerar flaskhals i 1080p så ska det mycket till för att svagare grafikkort ska göra det. Oberoende så bygger mycket av Intel försprång på deras höga klockfrekvenser. Ett problem som Intel antagligen insett men även verkar ha insett att deras 10 nm idagsläget inte är bra nog. Antagligen pga. den inte klockar i närheten av vad deras 14 nm gör.. vilket betyder att 10 nm gen 1 antagligen kommer att prestera sämre än 9900K pga. lägre klockfrekvenser och kan tom. hamna efter AMD i stort sett allt (speciellt med tanke på att vid det laget så har man lanserat Zen 3 och eventuellt Zen 3+). Därför skjuts den upp gång på gång.

Vi har ju sett detta förut. För varje kliv nedåt i tillverkningsprocessens storlek så har Intel tappat överklockningspotential och maxfrekvens. Det började med Ivy Bridge och det är först vid Skylake typ gen 100000 som man nått liknande frekvenser. Då med en fullständigt mogen nod som tagit fyra år att nå och då har man istället slagit i en vägg i vad 14 nm klarar av att leverera.

Jag har en Ryzen 3600 på ingång och kommer köra lite speltester med den. Jag är till 95% säker på att jag kan få den att begränsa frameraten i spel redan nu med ett GTX 1080Ti i 1080p, troligtvis även i 1440p på medium/high settings.
Som jag beskrev i ett tidigare inlägg så finns det spel med långt mycket högre krav på CPU-prestanda än t.ex. de tester som Sweclockers kör. Så pass krävande att tror att inte ens en 9900K på 5GHz kan tillåta ett 1080Ti att leverera maximal prestanda i 1080p/1440p.

Intel har för övrigt ännu ett litet försprång i IPC vad gäller spel, 9900K slår 3900X vid samma klockfrekvens i flera spel:

Sen hur de lyckas med 10nm eller lägre för desktop återstår att se.

Permalänk
Medlem
Skrivet av anon12433:

Intel har för övrigt ännu ett litet försprång i IPC vad gäller spel

Bäst vore om vi försökte hålla isär begreppen så att vi enklare förstår vad verkligheten är. Zen 2 har bättre IPC. Skylake/Coffee Lake har bättre prestanda i spelscenarion av andra skäl, delvis övertaget i klockhastiget och delvis fördel med latency tack vare monolitisk design.

Verkligheten ser ut såhär på grund av det:

Dold text

Jag vill inte rätta dig jag tänker i och med hur diskussionerna är här i forumet så kan det vara bäst denna informationen finns. Om spel kommer fortsätta vara så beroende av core-core och memory latency är en bra fråga. Alla är ju inte det verkar det som i nuläget. Jag är inte direkt insatt i detta tyvärr.

För övrigt, jag tänker beställa en Ryzen 3600 inom kort. Kan vara trevligt att se vad för data du får fram.

Visa signatur

Ryzen 7 5800X3D | RX 7900 XT

Permalänk
Inaktiv
Skrivet av LPG:

Bäst vore om vi försökte hålla isär begreppen så att vi enklare förstår vad verkligheten är. Zen 2 har bättre IPC. Skylake/Coffee Lake har bättre prestanda i spelscenarion av andra skäl, delvis övertaget i klockhastiget och delvis fördel med latency tack vare monolitisk design.

Verkligheten ser ut såhär på grund av det:

Jag vill inte rätta dig jag tänker i och med hur diskussionerna är här i forumet så kan det vara bäst denna informationen finns. Om spel kommer fortsätta vara så beroende av core-core och memory latency är en bra fråga. Alla är ju inte det verkar det som i nuläget. Jag är inte direkt insatt i detta tyvärr.

För övrigt, jag tänker beställa en Ryzen 3600 inom kort. Kan vara trevligt att se vad för data du får fram.

Jag ska inte säga att jag vet hur det förhåller sig men som jag förstått det så används IPC i benchmarksammanhang som ett ganska brett begrepp och inte bara enligt den bokstavliga meningen. Åtminstone brukar benchmarks peka på att en processors IPC är bättre när den presterar bättre än en annan i t.ex. Cinebench trots att det inte är antalet instruktioner per klockcykel de mäter.

Visst är det på grund av ringbussen och de låga minneslatenserna som Intel har övertaget i spel, men av det jag kan se här på forumet så används uttrycket IPC väldigt brett.
Hur som helst, vad jag menade med "bättre IPC i spel" är bättre framerate vid vid en given klockfrekvens.

Sedan så kanske någon kunnig kan svara på om de lägre minneslatenserna Intel har också innebär en ökning i antalet instruktioner per klockcykel? Hur vet t.ex. du @LFG att Ryzen 3000 har bättre IPC än Intel? Har du sett några siffror på antalet instruktioner per cykel för båda CPUerna.

Permalänk
Avstängd
Skrivet av FredrikMH:

Edit: Oj, det här blev långt... Nästan sugen på att 'delete' på allt för nu har jag skrivit av mig

Det är fascinerande hur många som inte förstår varför man testar processorer i 720p och varför det resultatet som framkommer där är intressant.

Det handlar INTE om att man ska spela i 720p. Släpp den tanken och fundera ett steg längre. Att ens påstå det visar bara att man inte alls förstår hur hårdvaran fungerar. Varför inte låta nätverkskortet vara flaskhals när man testar diskar? Eller kortläsaren när man testar minneskort eller grafikkortet när man testar skärmar?

720p jämför processorernas förmåga att bearbeta spellogik
Spellogiken utförs av processorn och genom att testa i en så låg upplösning som möjligt så exkluderar man grafikkortet från ekvationen. Detta är något man såklart vill göra i ett test av processorer för att kunna se den faktiska skillnaden mellan dem.

Ju högre upplösning och ju mer grafikinställningar som maximeras så talar sannolikheten för att processorn oftare kommer att få vänta på grafikkortet, vilket jämnar ut resultatet eftersom skillnaderna mellan processorerna då blir mindre betydelsefulla.

Spel idag
Eftersom inga (kanske finns något udda?) spel idag använder fler än 8c/16t kan man med säkerhet säga att 9900K kommer prestera bäst i spel. I det mest extrema scenariot är det ett spel där grafikkortet inte alls flaskhalsar och det är här skillnaderna i 720p går att ta med sig som en uppskattning om hur processorn kommer prestera. I ett annat fall är det ett grafiktungt spel där grafikkortet blir en flaskhals långt tidigare och valet av processor spelar då inte så stor roll.

Det intressanta uppstår ju dock när man hellre vill ha ett spel som flyter bra än att maximera grafikinställningar. Counter-Strike är ju ett spel som historiskt funnits med hur länge som helst som är ett lysande exempel på det. Här fungerar ju AMD:s processorer riktigt bra men samtidigt är det ett spel (om jag inte missminner mig) som påverkas en hel del av minnets hastighet och här kan man argumentera för att Intel har mer att hämta från ordinarie test - men det hade såklart behövts testats för säkerställas.

Men även många andra spel där man tävlar mot varandra och där många ungdomar/gamers gör detta flera timmar om dagen så spelar detta en roll. Man är helt enkelt villig att sänka grafiken så många steg så man får ut det bästa flytet i spelet eftersom det är en direkt fördel.

Ju oftare spelet uppdaterar bildfrekvensen i dessa lägen, ju snabbare har du som spelare möjlighet att agera - och ju snabbare agerar spelets bild på dina rörelser. Även äldre speltitlar som CS 1.6 hade direkta spellogiska aspekter kopplade till fps där rekylen i vapnet återgick baserat på din fps. Men jag tror inte det är så längre. Faktum kvarstår att många vill maximera flytet.

För casual gamers (som säkert många här är) så spelar inte detta någon roll. Jag hade personligen inte brytt mig så mycket idag om jag hade 100 fps eller 130 fps i Battlefield, Apex Legends eller liknande. Men jag kan inte förneka att det fanns en tid då jag tyckte det var mycket viktigare och där jag spenderade många timmar på dag i onlinespel.

Hade jag spelat så mycket idag så hade det varit svårt att ljuga för sig själv och säga att AMD är det jag ska välja. Även om jag gärna hade velat det. För även om AMD:s processorer är väldigt bra och prisvärda så hade jag inte brytt mig om jag fick vänta några sekunder extra i andra applikationer - för där tävlade jag inte.

Men att förstå syftet med varför processorer testas i 720p, förstå hur det resultatet kan implementeras och samtidigt acceptera att andra människor har andra preferenser än sig själv är viktigt.

Morgondagens spel
Väldigt få spel utvecklas exklusivt till PC för att flytta gränserna för vad hårdvaran klarar av. Eftersom 6c/12t räcker långt idag så är det rimligt att anta att 8c/16t kommer räcka ett bra tag till. @Yoshman har antagligen helt rätt i hur stödet för antal kärnor kommer utvecklas över tid, även om det såklart är extremt svårt att sätta en exakt tidsfrist.

Konsolerna kommer säkerligen hjälpa till att pusha gränserna lite när de lanserats i slutet på nästa år. Men jag är förvånad om det finns mer än någon enstaka titel som använder fler 8c/16t om 3-4 år. Det är väl heller inte omöjligt att konsolerna lanseras med just 8c/16t? Jag har inte sett någon uppgift om det men det känns som en rimlig gissning.

För att spel ska utvecklas med stöd för fler än 8c/16t krävs det att större andel av marknaden har stöd för det. Även om 3900X kommer att plockas upp av en del så är det ju snarare 3600/3700/3800 som väljs av den större merparten. Så merparten av de om köper nya speldatorer idag kommer väja 8c/16t och med stor sannolikhet är det även den vägen konsolerna går. Så spelutvecklarna följer efter.

Slutsats
Jag förstår att många tycker att Ryzen 3000 serie är mer attraktiv och bättre ur många perspektiv än vad Intel har att erbjuda. Jag håller även med om det och jag kommer själv antagligen att välja 3900X i mitt bygge under hösten. För den verkar episk för mina behov idag. Och då är ändå spelande en av de mest krävande saker jag utför på datorn.

Men jag förstår inte hur svårt det ska vara att förstå varför 9900K är ett bättre val för vissa och att där uppenbarligen kan finnas en klar fördel - en fördel som tydligt framkommer när man testar spel i 720p - en fördel som även går att finna i andra upplösningar. Jag vet heller inte om folk låtsas som att de inte förstår för att få fortsätta "trolla" eller om det faktiskt tror att deras världsbild av hur folk använder datorer är korrekt.

720p är inte någon magisk upplösning. Tvärtom är det ointressant, eftersom det är ett ensidigt mått. Digital Foundry gör så att man överklockar Nvidias värsting och kör 1080p ultra. Då tar man bort grafikflask och ser vad processorn är kapabel till. Detta resulterar i att processorn måste göra fler draw calls som inte sker vid 720p low, och därför är det ett bättre mått på processorprestanda. Processorn blir alltså mer belastad än vid 720p low, det har alltså inget med att 720p är en magisk upplösning för testning av "spellogik".

Permalänk
Inaktiv
Skrivet av terra33:

720p är inte någon magisk upplösning. Tvärtom är det ointressant, eftersom det är ett ensidigt mått. Digital Foundry gör så att man överklockar Nvidias värsting och kör 1080p ultra. Då tar man bort grafikflask och ser vad processorn är kapabel till. Detta resulterar i att processorn måste göra fler draw calls som inte sker vid 720p low, och därför är det ett bättre mått på processorprestanda. Processorn blir alltså mer belastad än vid 720p low, det har alltså inget med att 720p är en magisk upplösning för testning av "spellogik".

Fast 720p Ultra är bättre än 1080p Ultra ur testsynpunkt för CPU. Allra bäst vore det om man identifierade de CPU-belastande inställningarna och behöll dem högt för att enbart sänka GPU beroende inställningar. Har dock full förståelse för att ingen har tid för sådant när det är flera spel och CPU modeller som ska testas.

Permalänk
Avstängd
Skrivet av anon12433:

Fast 720p Ultra är bättre än 1080p Ultra ur testsynpunkt för CPU. Allra bäst vore det om man identifierade de CPU-belastande inställningarna och behöll dem högt för att enbart sänka GPU beroende inställningar. Har dock full förståelse för att ingen har tid för sådant när det är flera spel och CPU modeller som ska testas.

Fast en högre upplösning kräver mer jobb av CPU, varför det jag sade fortfarande gäller. Egentligen hade det varit bättre om GPU inte flaskade i 4k osv.

Permalänk
Inaktiv
Skrivet av terra33:

Fast en högre upplösning kräver mer jobb av CPU, varför det jag sade fortfarande gäller. Egentligen hade det varit bättre om GPU inte flaskade i 4k osv.

Nej, en högre upplösning kräver ej mer av CPUn. Gällande texturupplösning så krävs det lika många draw calls för att rita upp en 512x512 textur som en 4096x4096. Det är därför man sänker upplösningen när man vill testa CPUer. Vad som däremot påverkar CPU är sådant som draw distance, fysik och AI. Sedan finns många inställningar som påverkar både CPU och GPU.

Permalänk
Medlem
Skrivet av anon298854:

@vinylens

Ska du montera kylaren på vägguttaget då?
Det står vad hela systemet drar vid vägguttaget 😂

Nu är det ju 300 watts kyleffekt som behövs på processorn vad den drar vid ström uttaget är ännu mera

Visa signatur

Moderkort: B550M AORUS PRO , Minne: 32GB 3600Mhz HDD1: Intel 660P M2 1TB, HDD2: Kingston A400 960GB CPU: 5900X, Kylning: NH-D15 black GPU: RTX 4080 VENTUS 3X OC Låda: Define 7 Compact Glass, PSU: RM650i
Mus: G502 Wireless Lightspeed, Tangentbord: Strafe RGB MK.2, Monitor: LC49G95TSSRXEN
Surfplatta: Huawei Mediapad M5, Telefon: Pixel 7 Pro

Permalänk
Medlem
Skrivet av Gyhlen:

Min Celsius S36 klarar det perfekt.

Kör du den i 100% load hela tiden i flera timmar, inte bara för att benchmarka någon timme.
Vad har du för värme på processorn då?

Visa signatur

Moderkort: B550M AORUS PRO , Minne: 32GB 3600Mhz HDD1: Intel 660P M2 1TB, HDD2: Kingston A400 960GB CPU: 5900X, Kylning: NH-D15 black GPU: RTX 4080 VENTUS 3X OC Låda: Define 7 Compact Glass, PSU: RM650i
Mus: G502 Wireless Lightspeed, Tangentbord: Strafe RGB MK.2, Monitor: LC49G95TSSRXEN
Surfplatta: Huawei Mediapad M5, Telefon: Pixel 7 Pro

Permalänk
Datavetare
Skrivet av Xinpei:

Ändå märks detta varken i 1080P eller över. När ett 2080Ti agerar flaskhals i 1080p så ska det mycket till för att svagare grafikkort ska göra det. Oberoende så bygger mycket av Intel försprång på deras höga klockfrekvenser. Ett problem som Intel antagligen insett men även verkar ha insett att deras 10 nm idagsläget inte är bra nog. Antagligen pga. den inte klockar i närheten av vad deras 14 nm gör.. vilket betyder att 10 nm gen 1 antagligen kommer att prestera sämre än 9900K pga. lägre klockfrekvenser och kan tom. hamna efter AMD i stort sett allt (speciellt med tanke på att vid det laget så har man lanserat Zen 3 och eventuellt Zen 3+). Därför skjuts den upp gång på gång.

Vi har ju sett detta förut. För varje kliv nedåt i tillverkningsprocessens storlek så har Intel tappat överklockningspotential och maxfrekvens. Det började med Ivy Bridge och det är först vid Skylake typ gen 100000 som man nått liknande frekvenser. Då med en fullständigt mogen nod som tagit fyra år att nå och då har man istället slagit i en vägg i vad 14 nm klarar av att leverera.

För 2,5 år sedan var det snabbaste du kunde köpa i konsumentledet 1800X resp. 7700K. Idag är relativ prestanda mellan dessa CPUer i 2560x1440 "ultra" med RTX2080Ti rätt identisk med relativ prestanda mellan dessa två modeller i 1280x720 "ultra" på ett GTX 1080.

Är det då inte uppenbart varför 1280x720 testerna har ett enormt värde?

I det "korta" perspektivet (typ <5 år) är det utvecklingen vi kommer se. I det "långa" perspektivet (typ >10 år) kommer det ske en relevant förskjutning där fler kärnor ger ett mervärde för normalanvändaren

Det innan man ignorerar att även i total isolation är CPU-tester där man så långt som möjligt försökt eliminerat GPU som flaskhals rätt värdefulla. Spel är i praktiken det mest CPU-krävande en klar majoritet kommer köra på sina datorer, det är också bland de saker folk faktiskt kommer köra som skalar absolut bäst över CPU-kärnor.

Cinebench resultaten är för en förkrossande majoritet totalt irrelevant, ju fler kärnor konsument CPUer få ju mer irrelevant blir CB!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av vinylens:

Nu är det ju 300 watts kyleffekt som behövs på processorn vad den drar vid ström uttaget är ännu mera

@vinylens

Ta och läs vad det står i testet igen.
Det är inte 300Watts kyleffekt som behövs, hela datorn tar 300 watt vid vägguttaget vid max belastning när den är överklockad.

Oklockat tar hela datorn vid väggen 145 Watt.

Effektmätning
För hela systemet, vid väggen utan skärm.

Permalänk
Medlem
Skrivet av LPG:

Bäst vore om vi försökte hålla isär begreppen så att vi enklare förstår vad verkligheten är. Zen 2 har bättre IPC. Skylake/Coffee Lake har bättre prestanda i spelscenarion av andra skäl, delvis övertaget i klockhastiget och delvis fördel med latency tack vare monolitisk design.

Verkligheten ser ut såhär på grund av det:

Jag vill inte rätta dig jag tänker i och med hur diskussionerna är här i forumet så kan det vara bäst denna informationen finns. Om spel kommer fortsätta vara så beroende av core-core och memory latency är en bra fråga. Alla är ju inte det verkar det som i nuläget. Jag är inte direkt insatt i detta tyvärr.

För övrigt, jag tänker beställa en Ryzen 3600 inom kort. Kan vara trevligt att se vad för data du får fram.

Fast även latenserna har med ipc att göra, Intel har helt enkelt mycket bättre ipc i spel/databaser å sådant tack vare en u-arch design som har lägre latenser även i samma frekvens. Amd har en u-arch som fungerar ypperligt i renderings/crunchings belastingar och nu har AMD även mycket mer cache för att komma runt problemet med höga latenser men mycket väl betyder det att amd har bättre ipc i just sådan miljö.

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk
Medlem
Skrivet av vinylens:

Kör du den i 100% load hela tiden i flera timmar, inte bara för att benchmarka någon timme.
Vad har du för värme på processorn då?

Syntettester 80-85 (85 grader är bara spike) och under gaming 6+ timmar mellan 60-65.

Visa signatur

🏬: Gigabyte Aorus X570 Master 🔲: AMD Ryzen R5 5600X ❄️: Cooler Master Hyper212 BE 🏴: ASUS RX 6700 XT DUAL
🗄️: Fractal Define 7 Compact 🔌: EVGA B5 850W 🎞️: 32GB HyperX Beast 3600Mhz 💾: Crucial 512 GB
🖥️: ROG STRIX XG27WQ 🖱️: Corsair Scimitar RGB Elite ⌨️: K70 RGB TKL CHAMPION SERIES 🎧: Corsair H55 📶: Archer C80

Permalänk
Avstängd

@anon12433:

Fint, då kan vi testa i 1*1 så är saken avgjord.

Här har du mer info för förkovran;

https://simonschreibt.de/gat/renderhell/

Permalänk
Medlem

Hej, vill bara inflika att jag kör en del i 720p då min skärm är begränsad till det om jag vill ha 75Hz istället för 1080p i 60Hz.
Jag köpte inte ny CPU på minst 8 år då min Phenom II x4 dög tills förra året, men det var egentligen för att mitt moderkort bara kunde klämma in 4GB RAM som jag ville uppgradera.

För nuvarande pris så behöver jag inte uppgradera min 1300X(Zen) till en Zen2, då Zen2 inte ger nog prestandaökning för att motivera det.
Visst vore det trevligt med fler kärnor men eftersom jag mest har datorn som leksak så klarar jag mig nog till Zen2+ om de har konkurrenskraftiga priser mot Zen2.

Hade funderingar på att skaffa 3700x eller 3800x men priset och testresultaten visar på att uppgraderingen inte blir stor nog för att motivera priset.

Hur som helst är det skönt att AMD är med och krigar med intel, inte för att driva på utvecklingen men för att få ner priserna, då grafikkorten verkar ligga lite efter i utvecklingen just nu och kryptogruvarbetarna gör inte priserna behagligare.
Jag tycker det finns väldigt många likvärdiga grafikkort på marknaden nu, skillnaden mellan det dyraste och billigaste i prestanda är mindre än någonsin.
Kom igen Nvidia vi behöver nåt mer än strålspårning.

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Medlem
Skrivet av Chrisj:

Det syns ju, det är det som man försöker få dig att förstå. Intel presterar i runda slängar 20% bättre när CPU är den begränsande faktorn. Något som också rimmar väldigt väl med hur mycket högre de klockar. I scenarion där CPU är begränsande faktor, typ WoW raids som ett exempel, så kommer du märka skillnad på 48 och 60 fps.

Skulle vara intressant att se ett test på det där, har du någon data som stödjer ditt påstående?
Jag skulle vilja se ett test där man med flit belastar cpu core med typ 50% eller 75% load, och tvingar spelet att bara använda typ 25% cpu, och se vad som händer i ett 720p test. (eller klockar ner cpu till typ 1ghz.)
Vore intressant att se om det skulle visa samma resultat som swec's test.

Ditt argument här är dock lite vilseledande, för om du nu är så fokuserad på single core prestanda, så borde du absolut INTE välja någon av de CPU'er som testats. Utan välja en cpu med färre cores som kan köras i 5ghz med full load. typ en klockad 9600K. eller annan cpu utan HT.

Citat:

Ja, jag menar att intel kan klocka högre. IPC är relevant men om man har snarlik IPC, vilket Intel och AMD nu har, så vinner den som har markant högre klock.

hmmmm,
9900K 3,6ghz - 3900X 3,8ghz
Vilken var det som är klockad högst nu igen?
Jag vill påminna om att det är dessa 2 CPU'er diskussionen gäller.

Citat:

Absolut, så varför ska jag välja den produkt som har mer framedips och får det kämpigare att dra runt de enkeltrådsbundna applikationer jag kör? Som sagt, AMD har fina allround processorer, men de får fortfarande pisk av Intel i enkeltrådat.

Detta var ang, något jag sa om uppdates och annat som körs i backgrunden, vilket är något som absolut inte kommer att köras på samma core som spelet. (om inte något är helt fel confat) Så ditt påstående här om enkeltrådat verkar vara irrelevant. Dessutom så har amd'n fler cores, så ... mindre chans att det stör?

----

Jag har alltid föredragit Intel, men nu är det ju bara att konstatera att AMD är ikapp. båda CPU'er drar jämt i testerna som är relevanta.
Ingen sitter och spelar seriöst i 720p med en 2080Ti under huven. och i 1080p och uppåt så är det lika. ev, skillnader är så små att dom aldrig kommer att märkas på en riktig dator. (pga ,, tja, resten av datorn.)
...I detta specifika test! Vilket är det jag refererar här. glöm allt gammalt groll och titta på datan här. Det är dessa 2 CPU'er vi jämför.

Själv kommer jag inte välja någon av dem, för jag vill iallafall ha en cpu som kan klocka högre än 4ghz. (lite löjlig skäl kanske, men men,,)
Men i vilket fall som helst så är väl 10000 serien på G,, då kanske det blir 12core vs 12core. Och om intel får arslet ur vagnen med nästa arkitektur så kommer dom ju springa ifrån igen... kanske? (om dom inte klantat sig)