Test: Ryzen 9 3900X och Core i9-9900K i överklockat läge

Permalänk
Medlem

Exakt vad är det ni har testat här?
Ni "drar upp minneshastigheterna till 3600Mhz CL16"... i jämförelse till vadå?
Vad betyder (OC) och stock för minneshastigheter i era grafer?
Har ni testat 3200Mhz CL14 och andra intressanta hastigheter?

skärpning.

Felstavning
Permalänk
Medlem
Skrivet av Kvickstick:

WoW är knappt spelbart på min dator, så DX12 kan inte gjort mycket i det spelet.

Jag fick i snitt 20 högre fps när de släppte MCE

Skickades från m.sweclockers.com

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av Maximo:

Exakt vad är det ni har testat här?
Ni "drar upp minneshastigheterna till 3600Mhz CL16"... i jämförelse till vadå?
Vad betyder (OC) och stock för minneshastigheter i era grafer?
Har ni testat 3200Mzh CL14 och andra intressanta hastigheter?

skärpning.

Ja, Intel ökar från 2666 som är deras stock, och amd från 3200 som är deras stock

Skickades från m.sweclockers.com

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av Maximo:

Exakt vad är det ni har testat här?
Ni "drar upp minneshastigheterna till 3600Mhz CL16"... i jämförelse till vadå?
Vad betyder (OC) och stock för minneshastigheter i era grafer?
Har ni testat 3200Mhz CL14 och andra intressanta hastigheter?

skärpning.

Läs artikeln så hittar du svar på dina frågor.

Permalänk
Medlem
Skrivet av Aktsu:

Läs artikeln så hittar du svar på dina frågor.

Vart?

Skrivet av sweisdapro:

Ja, Intel ökar från 2666 som är deras stock, och amd från 3200 som är deras stock

Skickades från m.sweclockers.com

Timings?

Permalänk
Medlem
Skrivet av Maximo:

Läs artikeln, de hänvisar till all info.

Permalänk
Medlem
Skrivet av Maximo:

Vart?

Timings?

"Testsystemen som används finns beskrivet i testet för AMD Ryzen 9 3900X. Överklockning för samma modell är densamma som i recensionen, nämligen en klockfrekvens på 4,3 GHz vid 1,34 V medan Core i9-9900K går upp till 5,1 GHz vid 1,375 V. Samtidigt passade redaktionen på att dra upp minneshastigheten för båda systemen, vilket innebär en minnesfrekvens på 3 600 MHz i CL16."

Gå in på länken "beskrivet" i artikeln så har du din info

Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av Yoshman:

Även om det finns enstaka avvikande fall så är det fortfarande så att färre starka trådar är bättre för spel. Faktum är att det fanns enstaka avvikande titlar redan innan i5-2500K/i7-2600K lanseringen som uppvisande en relevant fördel med 4C/8T över 4C/8T. Men tog rätt många år innan det på något sätt blev vanligt.

Exakt samma sa sades om 1800X vs 7700K. Eller där kanske det än mer handlade om att "med tiden kommer 1800X gå om 7700K i spel då kommer bli optimerade för Ryzen".

Lite mer än två år efter lansering kan vi kika i testat av Ryzen 3000 och konstatera att 7700K med RTX2080Ti och dagens spel har i 2560x1440 ungefär den fördel över 1800X som var fallet med ett RTX1080 i 1280x720.

Gissningsvis kommer Apere bli ett prestandamässigt större lyft jämfört med Pascal till Turing då grafikkort lättare kan utnyttja nya tillverkingsnoder för högre prestanda jämfört med CPUer. Det då GPUer jobbar med saker som skalar nära nog perfekt med "kärnor" och den skalningen är relativt lätt med mindre nod medan högre prestanda per tråd är och kommer bli allt mer kämpigt framöver (både Intel och AMD har ju flaggat för att framtida noder antagligen kommer betyda lägre frekvenser).

Stämmer verkligen det? TechPowerUp har fortfarande med modeller som i3-8350K, även i 1280x720 med 2080Ti håller den modellen jämna steg med 1800X. Och till skillnad från AMD/Intels modeller med många kärnor har 8350K rum för en meningsfull överklockning på 20-25 %.

Det skrivet, jag tror ändå alla som hävdar att fler kärnor kommer löna sig i framtida spel ändå har rätt. Problemet är tidshorisonten.

Min gissning är att i det korta loppet, d.v.s. mindre än fem år, kommer vi se samma utveckling mellan Ryzen 3000 och Core 9000 som för 1800X och 7700K.

D.v..s det kommer dyka upp snabbare GPUer och med komplexa spel som kräver mer av CPU, det framförallt givet att kommande konsoler blir rejält mycket CPU-starkare än tidigare (antal kärnor i konsoler är nog mindre viktigt, redan PS3 hade total 8 CPU-trådar, dagens konsoler har 8 kärnor).

På längre sikt, som t.ex. i7-980X (6C/12T) mot i5-2500K (4C/4T), d.v.s. närmare ett decennium, så kommer spel kräva allt fler kärnor. Det helt enligt Gustafsons lag, inte p.g.a. att spelprogrammerare hel plötsligt får magiskt parallellprogrammeringskrafter. Problemet här är att den som köpte en i7-980X för spel har under i princip hela tiden fram till rätt nyligen haft en sämre upplevelse jämfört med den som valde i5-2500K.

Ryzen 3000 är en helt fantastisk produkt! Men ser inte hur man kan ens försöka argumentera emot att Intel fortfarande kan hålla sig fast vid att fortfarande sitta med ledartröjan vad det gäller spelprestanda. För oss som inte spelar finns nu en superprodukt, på de flesta sätt bättre än Intels. Men man får ha i åtanke att många på SweC har spel som högsta prioritet, på de flesta spelriggar är just spelande det enda som inte vilken modern CPU som helst är "bra nog", så enda som i praktiken betyder något där är spelprestanda (verkar också som Intel börjat sänka priserna, ~$440 för 9900KF hos Amazon).

Problemet med att hänvisa till tester är väl att dom nästan aldrig kör multiplayer. Tycker jag har hört en hel del om att 7700K har det rätt jobbigt i spel som BF 5 med framedrops.

I slutänden gäller det att köpa en sån prisvärd plattform man kan som täcker ens behov och idag har vi privilegiet att kunna välja. Hurtigare CPU med snabbare minnesaccess (Intel), eller starkare CPU som lyfter mycket men lite långsammare.

Att Intel sänker priserna är nog rätt självklart om dom ska ha någon marknadsandel hos plockhandeln framöver. Såg siffror ifrån Mindfactory där AMD hade nästan 70 % marknadsandel, även om försäljningen i dollar var rätt lika. Detta var för veckan INNAN Ryzen 3xxx-släppet. Man blir ju lite nyfiken på vilket pris i5:orna måste ner i för att dom ska sälja...

Men det är ju uppenbart att Intel fortfarande är rätt val för en ren och skär superspelburk om man slänger i ett 2080 Ti och kör i lägre upplösningar. Skulle dock inte röra plattformen med tång om jag tänkte behålla CPU och modermodem en längre tid. Då känns det som att AM4 X570 är ett bättre val med iaf ytterligare en generation CPU:er att välja mellan.

Visa signatur

DATOR i bruk: ASUS ROG STRIX B550-F Gaming, Ryzen 7 5900X. 4x16 GB Ballistix MAX RGB @ 3800 MT/s 16-17-18-34-51 (1T)/~58 ns. MSI RTX 4090 Ventus x3. Samsung 980 Pro 1 TB. EK AIO Elite 360.
DATOR 2011 års modell: Underbara Sandy Bridge, i7 2600K@4,7 GHz på ett P67 Sabertooth-bräde. Radeon HD 7770

Permalänk
Medlem
Skrivet av anon298854:

@Gambit_2K

Jag rekommenderar dig att läsa reglerna, kan vara bra att förbättra de ibland 🙂

"•1.6 Meningslösa inlägg som inte för diskussionen framåt är förbjudna. Detta omfattar inlägg som utan vidare motivering uttrycker medhåll eller missnöje."

Skulle även vara kul att se 9700K i överklockat läge då den presterar bättre i spel än 9900K.
Fast det skulle ju även gå att stänga av HT på 9900K och testa.

Bra test annars av Swec.

Mvh

Du har helt rätt, jag borde anpassa mig till tråden och istället skriva ngt i stilen.

AMD krossar intel i allt, AMD är bäst och det är ett skämt att Intel inte kan matcha AMD's pris vs. prestanda med 2 år gamla CPUer.

Men så länge man tackar redaktionen för ett bra test är allt förlåtet?

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Medlem

Eftersmaken av bulldozer vs sandybridge hänger verkligen kvar. Undrar hur mycket diverse "techtubers" fått betalt av AMDs marknadsavdelning för att helt exkludera prestandatester vid överklockning? x) har aldrig sett så många recensioner där man skippat överklockning av den enkla anledning att zen 2 helt saknar den funktionen på ett tillfredställande sätt. Då blir ju jämförelserna inte speciellt rättvisa eftersom k-chippen är gjorda för överklockning.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Eftersmaken av bulldozer vs sandybridge hänger verkligen kvar. Undrar hur mycket diverse "techtubers" fått betalt av AMDs marknadsavdelning för att helt exkludera prestandatester vid överklockning? x) har aldrig sett så många recensioner där man skippat överklockning av den enkla anledning att zen 2 helt saknar den funktionen på ett tillfredställande sätt. Då blir ju jämförelserna inte speciellt rättvisa eftersom k-chippen är gjorda för överklockning.

Antagligen inte ett enda öre. De reviews jag sett så har de som brukar inkludera överklockning gjort det, och de som inte gör det har inte gjort det.
SweClockers brukar aldrig inkludera överklockade resultat från någon annan cpu än den som recenseras

Skickades från m.sweclockers.com

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Hjälpsam
Skrivet av osgorth:

Nice!

Tyvärr känns det som att tiden med överklockning börjar gå mot sin ände. Prylarna börjar bli så avancerade att de kan prestera nästan lika bra som en manuell överklock med egna boostsystem, och det med effektivare strömförbrukning och temperaturer som följd. Ryzen 3000 (och för all del Nvidia GPUs sen Pascal) visar att det i bästa fall handlar om nån enstaka procent, och i värsta fall t.o.m. regression.

Å ena sidan är det ju förträffligt att de lär sig utnyttja prestandan bättre och bättre, å andra är det ju tråkigt för oss som gillar att pula och fixa. Kanske var såhär det var för bilentusiasterna när bilarna gick över till att bli slutna datorsystem där man inte kan trimma eller tweaka ett skvatt med dem?

Surgubben i mig skakar på huvudet och muttrar: "määäh, det var bättre förr!"

Enligt min mening det bästa inlägget i denna tråd.
Ni som inte läst det, se till att göra det.

edit Enligt detta test, överklockar Ryzen 3000 dåligt, Intel 9000 överklockar till viss del, men på bekostnad av extremt hög effektförbrukning.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Kvickstick:

WoW är knappt spelbart på min dator, så DX12 kan inte gjort mycket i det spelet.

Det gjorde enormt mycket, 20-30% förbättring var normen typ. Dock inte enbart DX12 i sig, det gjorde inte något, men multi threading optimizations i DX12

Skickades från m.sweclockers.com

Permalänk
Medlem

Edit: Oj, det här blev långt... Nästan sugen på att 'delete' på allt för nu har jag skrivit av mig

Det är fascinerande hur många som inte förstår varför man testar processorer i 720p och varför det resultatet som framkommer där är intressant.

Det handlar INTE om att man ska spela i 720p. Släpp den tanken och fundera ett steg längre. Att ens påstå det visar bara att man inte alls förstår hur hårdvaran fungerar. Varför inte låta nätverkskortet vara flaskhals när man testar diskar? Eller kortläsaren när man testar minneskort eller grafikkortet när man testar skärmar?

720p jämför processorernas förmåga att bearbeta spellogik
Spellogiken utförs av processorn och genom att testa i en så låg upplösning som möjligt så exkluderar man grafikkortet från ekvationen. Detta är något man såklart vill göra i ett test av processorer för att kunna se den faktiska skillnaden mellan dem.

Ju högre upplösning och ju mer grafikinställningar som maximeras så talar sannolikheten för att processorn oftare kommer att få vänta på grafikkortet, vilket jämnar ut resultatet eftersom skillnaderna mellan processorerna då blir mindre betydelsefulla.

Spel idag
Eftersom inga (kanske finns något udda?) spel idag använder fler än 8c/16t kan man med säkerhet säga att 9900K kommer prestera bäst i spel. I det mest extrema scenariot är det ett spel där grafikkortet inte alls flaskhalsar och det är här skillnaderna i 720p går att ta med sig som en uppskattning om hur processorn kommer prestera. I ett annat fall är det ett grafiktungt spel där grafikkortet blir en flaskhals långt tidigare och valet av processor spelar då inte så stor roll.

Det intressanta uppstår ju dock när man hellre vill ha ett spel som flyter bra än att maximera grafikinställningar. Counter-Strike är ju ett spel som historiskt funnits med hur länge som helst som är ett lysande exempel på det. Här fungerar ju AMD:s processorer riktigt bra men samtidigt är det ett spel (om jag inte missminner mig) som påverkas en hel del av minnets hastighet och här kan man argumentera för att Intel har mer att hämta från ordinarie test - men det hade såklart behövts testats för säkerställas.

Men även många andra spel där man tävlar mot varandra och där många ungdomar/gamers gör detta flera timmar om dagen så spelar detta en roll. Man är helt enkelt villig att sänka grafiken så många steg så man får ut det bästa flytet i spelet eftersom det är en direkt fördel.

Ju oftare spelet uppdaterar bildfrekvensen i dessa lägen, ju snabbare har du som spelare möjlighet att agera - och ju snabbare agerar spelets bild på dina rörelser. Även äldre speltitlar som CS 1.6 hade direkta spellogiska aspekter kopplade till fps där rekylen i vapnet återgick baserat på din fps. Men jag tror inte det är så längre. Faktum kvarstår att många vill maximera flytet.

För casual gamers (som säkert många här är) så spelar inte detta någon roll. Jag hade personligen inte brytt mig så mycket idag om jag hade 100 fps eller 130 fps i Battlefield, Apex Legends eller liknande. Men jag kan inte förneka att det fanns en tid då jag tyckte det var mycket viktigare och där jag spenderade många timmar på dag i onlinespel.

Hade jag spelat så mycket idag så hade det varit svårt att ljuga för sig själv och säga att AMD är det jag ska välja. Även om jag gärna hade velat det. För även om AMD:s processorer är väldigt bra och prisvärda så hade jag inte brytt mig om jag fick vänta några sekunder extra i andra applikationer - för där tävlade jag inte.

Men att förstå syftet med varför processorer testas i 720p, förstå hur det resultatet kan implementeras och samtidigt acceptera att andra människor har andra preferenser än sig själv är viktigt.

Morgondagens spel
Väldigt få spel utvecklas exklusivt till PC för att flytta gränserna för vad hårdvaran klarar av. Eftersom 6c/12t räcker långt idag så är det rimligt att anta att 8c/16t kommer räcka ett bra tag till. @Yoshman har antagligen helt rätt i hur stödet för antal kärnor kommer utvecklas över tid, även om det såklart är extremt svårt att sätta en exakt tidsfrist.

Konsolerna kommer säkerligen hjälpa till att pusha gränserna lite när de lanserats i slutet på nästa år. Men jag är förvånad om det finns mer än någon enstaka titel som använder fler 8c/16t om 3-4 år. Det är väl heller inte omöjligt att konsolerna lanseras med just 8c/16t? Jag har inte sett någon uppgift om det men det känns som en rimlig gissning.

För att spel ska utvecklas med stöd för fler än 8c/16t krävs det att större andel av marknaden har stöd för det. Även om 3900X kommer att plockas upp av en del så är det ju snarare 3600/3700/3800 som väljs av den större merparten. Så merparten av de om köper nya speldatorer idag kommer väja 8c/16t och med stor sannolikhet är det även den vägen konsolerna går. Så spelutvecklarna följer efter.

Slutsats
Jag förstår att många tycker att Ryzen 3000 serie är mer attraktiv och bättre ur många perspektiv än vad Intel har att erbjuda. Jag håller även med om det och jag kommer själv antagligen att välja 3900X i mitt bygge under hösten. För den verkar episk för mina behov idag. Och då är ändå spelande en av de mest krävande saker jag utför på datorn.

Men jag förstår inte hur svårt det ska vara att förstå varför 9900K är ett bättre val för vissa och att där uppenbarligen kan finnas en klar fördel - en fördel som tydligt framkommer när man testar spel i 720p - en fördel som även går att finna i andra upplösningar. Jag vet heller inte om folk låtsas som att de inte förstår för att få fortsätta "trolla" eller om det faktiskt tror att deras världsbild av hur folk använder datorer är korrekt.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Inaktiv

Jag vågar nog till och med påstå att en stor majoritet av konsumenternas tyngsta belastning på sina datorer är just spel.

I mitt fall är det helt solklart. Ingenting av det jag gör på dator förutom spel kräver någon nämnvärd prestanda. Att surfa, kolla på videos, film, serier, lyssna på musik, photoshoppa, sköta mailen, skriva på forum, shoppa, använda VoIP, chatt osv. kan göras på enklare surfdatorer.
Förutom när det kommer till spel. Det är den överlägset tyngsta belastningen jag utsätter datorn för och man ska heller ej glömma att just spel kanske är och har varit en av de drivande krafterna bakom prestandautvecklingen på datorer. Därför är spelprestandan A och O för de flesta i en stationär dator.
Visst har jag videoredigerat, streamat, kört servrar och databaser några gånger på mina datorer men det är sällsynt. En bra speldator klarar ofta dessa uppgifter med bravur.

Visst kan man göra andra prestandakrävande saker på sin hemdator men jag tror de som i huvudsak gör det är en minoritet. Här på Sweclockers kan det skrämmade nog ibland verka som om vissa börjar ägna sig åt videoredigering, cinebenchande, 7-zippande etc. bara för att deras favoritmärke råkar prestera bra på just sådant och inte för att de faktiskt är intresserade eller har något behov av det.

Permalänk
Medlem

Jag tycker SweClockers ska börja bencha Roblox i 480P.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av FredrikMH:

Edit: Oj, det här blev långt... Nästan sugen på att 'delete' på allt för nu har jag skrivit av mig

Det är fascinerande hur många som inte förstår varför man testar processorer i 720p och varför det resultatet som framkommer där är intressant.

Det handlar INTE om att man ska spela i 720p. Släpp den tanken och fundera ett steg längre. Att ens påstå det visar bara att man inte alls förstår hur hårdvaran fungerar. Varför inte låta nätverkskortet vara flaskhals när man testar diskar? Eller kortläsaren när man testar minneskort eller grafikkortet när man testar skärmar?

720p jämför processorernas förmåga att bearbeta spellogik
Spellogiken utförs av processorn och genom att testa i en så låg upplösning som möjligt så exkluderar man grafikkortet från ekvationen. Detta är något man såklart vill göra i ett test av processorer för att kunna se den faktiska skillnaden mellan dem.
...

Jag håller med om huvudsaken i ditt inlägg, men en sak som jag stör mig på när folk pratar om 720p tester (jag håller med om att de bör göras), är att vissa tror att det visar på "framtidsprestanda" även i något annat än just det testade spelet. Det är problemet för vissa i mina ögon.
Det bästa exemplet på detta är 7600k mot 1600(X) som hardwareunboxed har gjort stora tester kring, där 1600 har åldrats mycket bättre, trots att 7600k presterade bättre när de släpptes (bla i 720p).
Skillnaden är att det i moderna spel (de flesta) helt enkelt inte räcker med 4c/4t.

Framtidssäkring är något som är otroligt svårt att uttala sig om kring med datorutrustning, men historisk har/är det att fler kärnor ger en okej upplevelse längre än få, även om de få kärnorna presterar bättre från början.

Skickades från m.sweclockers.com

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av sweisdapro:

Jag håller med om huvudsaken i ditt inlägg, men en sak som jag stör mig på när folk pratar om 720p tester (jag håller med om att de bör göras), är att vissa tror att det visar på "framtidsprestanda" även i något annat än just det testade spelet. Det är problemet för vissa i mina ögon.
Det bästa exemplet på detta är 7600k mot 1600(X) som hardwareunboxed har gjort stora tester kring, där 1600 har åldrats mycket bättre, trots att 7600k presterade bättre när de släpptes (bla i 720p).
Skillnaden är att det i moderna spel (de flesta) helt enkelt inte räcker med 4c/4t.

Framtidssäkring är något som är otroligt svårt att uttala sig om kring med datorutrustning, men historisk har/är det att fler kärnor ger en okej upplevelse längre än få, även om de få kärnorna presterar bättre från början.

Skickades från m.sweclockers.com

Well, problemet med framtidssäkring är att det är en gissning. Du kan inte mäte något som kommer om två år. Däremot kan och bör man göra kvalificerade gissningar. Såsom att Zen, när de produkterna lanserades 2017, med största sannolikhet presterar bättre efter en tids optimeringar i form av alla möjliga delar som faller på plats.

Men 720 används även väldigt mycket för att påvisa skillnader jämfört med generationerna tidigare. I dessa fall är det även intressant att se hur Zen 2 ställer sig mot föregångarna.

Sedan så kikar man även (iaf jag) på både det samt prestanda i de upplösningar man personligen spelar i för att skaffa sig en uppfattning om produkten är bra eller inte. Där väger mycket mer in för min egen del.

-----------------------------------------------------------

Gällande överklockning och dylikt måste man förstå att alla möjliga tester inte kan göras till dag ett.
Tester baserade på alla möjliga saker brukar dyka upp efter lansering. Exempelvis hur det skalar med timings på minne vs bandbredd, hur överklockning påverkas. Test av ny processor på gamla moderkort e.t.c.
Det känns ibland som att några här i tråden inte varit med om en hårdvarulansering tidigare.

Visa signatur

"Trust Me, I'm an Engineer"

Permalänk
Inaktiv
Skrivet av sweisdapro:

Jag håller med om huvudsaken i ditt inlägg, men en sak som jag stör mig på när folk pratar om 720p tester (jag håller med om att de bör göras), är att vissa tror att det visar på "framtidsprestanda" även i något annat än just det testade spelet. Det är problemet för vissa i mina ögon.
Det bästa exemplet på detta är 7600k mot 1600(X) som hardwareunboxed har gjort stora tester kring, där 1600 har åldrats mycket bättre, trots att 7600k presterade bättre när de släpptes (bla i 720p).
Skillnaden är att det i moderna spel (de flesta) helt enkelt inte räcker med 4c/4t.

Framtidssäkring är något som är otroligt svårt att uttala sig om kring med datorutrustning, men historisk har/är det att fler kärnor ger en okej upplevelse längre än få, även om de få kärnorna presterar bättre från början.

Skickades från m.sweclockers.com

Det går såklart aldrig med säkerhet att säga hur prestandakraven kommer se ut i framtiden men man kan göra en kvalificerad gissning. Jag var tidigt ute på Sweclockers och försökte förklara att Ryzen 1600 har gjort 4C/4T i5'or likt 6600K och 7600K föråldrade och ett mycket dåligt köp. Det var dock få som lyssnade och pekade på prestandatester där i5orna fortfarande låg före i just spel.

Jag förstod att när min 6600K slog i 100% belastning i BF1 multiplayer i så hög upplösning som 1440p så var det en förvarning om vad som skulle komma. I det fallet berodde det naturligtvis på att i5'orna hade för få trådar för de nya och kommande spelen.

Permalänk
Medlem
Skrivet av LPG:

folk packar upp och komprimerar filer ganska ofta det är väl inte bara jag som sysslar med det... eller? :/ 20s mot 30s kommer märkas tydligare än 200 fps mot 180 fps är min tanke i det hela.

I vilket sammanhang och med vilket syfte pysslar du med det så att det åtgår någon betydelsefull tid framför datorn med den sysslan?

Permalänk
Medlem

Personligen tror jag att prestandan kommer att bli bättre om några månader. Nya bios/drivers osv, då kommer vi nog se något bättre prestanda.

Visa signatur

[Fractal Design Define S2]-[Asus CrossHair Hero X670E]-[Ryzen 9 7900x]-[Corsair Dominator Platinum 6000mhz 32gb]-[Asus Tuf RTX 3090]-[Corsair Mp510 960gb]-[2x Samsung Evo 860 500gb ssd Raid 0]-[Lenovo Legion Y27q-20 165hz][AOC 24G2U 144hz]

Permalänk
Medlem
Skrivet av Maximo:

Exakt vad är det ni har testat här?
Ni "drar upp minneshastigheterna till 3600Mhz CL16"... i jämförelse till vadå?
Vad betyder (OC) och stock för minneshastigheter i era grafer?
Har ni testat 3200Mhz CL14 och andra intressanta hastigheter?

skärpning.

Jag antar att det är i jämförelse med förra testets 2666MHz på Intelsidan respektive 3200MHz hos AMD

Visa signatur

AMD R9 5900X | Asus Strix X470-F | 32GB G-Skill @ 3,6GHz | RTX 3090Ti

Permalänk
Medlem

Blir så jävla trött på att ni testar i 720p... Seriöst vilken jävla relevans har den upplösningen? Sitter man på highend burk så bryr man inte sig om 720p. Tycker det är ytterst löjligt och missvisande, erm jag har en 2080 ti men jag vill se hur mycket fps jag spottar ur i lägre upplösning...

Skickades från m.sweclockers.com

Permalänk
Inaktiv
Skrivet av Ani_ma:

Blir så jävla trött på att ni testar i 720p... Seriöst vilken jävla relevans har den upplösningen? Sitter man på highend burk så bryr man inte sig om 720p. Tycker det är ytterst löjligt och missvisande, erm jag har en 2080 ti men jag vill se hur mycket fps jag spottar ur i lägre upplösning...

Skickades från m.sweclockers.com

@Ani_ma

Och jag blir så trött på folk som inte förstår att det är så man testar en CPU för att se vilken som är starkast/kan leverera mest fps utan att grafikkortet är flaskhalsen.

Det är endast ett test och inte att folk sitter och spelar med det 🙂

Permalänk
Medlem
Skrivet av Ani_ma:

Blir så jävla trött på att ni testar i 720p... Seriöst vilken jävla relevans har den upplösningen? Sitter man på highend burk så bryr man inte sig om 720p. Tycker det är ytterst löjligt och missvisande, erm jag har en 2080 ti men jag vill se hur mycket fps jag spottar ur i lägre upplösning...

Skickades från m.sweclockers.com

Ja. Då kan dom lika gärna köra i 320 x 240 upplösning

Visa signatur

Coca Cola missbrukare Förbjuden dryck för mig pga diabetes
AMD älskare
Katt älskare

Permalänk
Medlem
Skrivet av anon12433:

Det går såklart aldrig med säkerhet att säga hur prestandakraven kommer se ut i framtiden men man kan göra en kvalificerad gissning. Jag var tidigt ute på Sweclockers och försökte förklara att Ryzen 1600 har gjort 4C/4T i5'or likt 6600K och 7600K föråldrade och ett mycket dåligt köp. Det var dock få som lyssnade och pekade på prestandatester där i5orna fortfarande låg före i just spel.

Jag förstod att när min 6600K slog i 100% belastning i BF1 multiplayer i så hög upplösning som 1440p så var det en förvarning om vad som skulle komma. I det fallet berodde det naturligtvis på att i5'orna hade för få trådar för de nya och kommande spelen.

nej, det finns en kostnad för maintråden för varje nu tråd du lägger till. En server som kör av varandra helt oberoende processer kan ju helt klart dra nytta av det men en process med användargränsnitt kan börja få negativ prestanda redan vid 4-8 trådar. Ju mer realtid en process är desto mindre nytta av fler trådar och vice versa. Teoretiskt kan du lägga varje AI-kontrollerad NPC i varsin tråd men effekten på total prestanda är tveksam eftersom synkning måste sker minst en gång per frame.

Permalänk
Medlem

Oavsett dessa tester så lär det bli en 3900x då jag både spelar och jobbar i tunggrodda 2d-filer i AutoCAD/draftsight och ritprogrammet geo som kräver en massa cpu kraft för att inte lagga när man lägger 7-8 dwg:er ovanpå varann. Att kalla det "syntetiska tester" låter som folk som håller på i forskningslabb men jag skulle tro att många av oss här på forumet kommer i kontakt med en del i 2d-program och att förringa användningsområdet genom namnvalet känns fel i mina ögon.

Skickades från m.sweclockers.com

Visa signatur

Star citizen - swedish umbrella. En svensk union för er spelare och organisationer som tycker om demokratiska val.
https://robertsspaceindustries.com/orgs/SWEUMB
Discord:
https://discord.com/invite/j5AkGERJz3

Permalänk
Medlem
Skrivet av Mordekai:

nej, det finns en kostnad för maintråden för varje nu tråd du lägger till. En server som kör av varandra helt oberoende processer kan ju helt klart dra nytta av det men en process med användargränsnitt kan börja få negativ prestanda redan vid 4-8 trådar. Ju mer realtid en process är desto mindre nytta av fler trådar och vice versa. Teoretiskt kan du lägga varje AI-kontrollerad NPC i varsin tråd men effekten på total prestanda är tveksam eftersom synkning måste sker minst en gång per frame.

Det stämmer inte helt, titta t.ex. på Go som har en scheduler som exekverar hundratusentals goroutines ("trådar") och sprider dom anpassat efter antalet fysiska processorer. Eller Erlang som kör flera applikationer i samma VM och löser kommunikationen mellan dom med meddelanden istället för synkronisering (dessutom med underbar failure hantering).
Effektiviteten borde bli betydligt större när man kan synkronisera mer längre ut och minimera interaktion med huvudtråden, det är dock inte ett lätt problem att lösa.

Permalänk
Medlem
Skrivet av Nikodemous:

"syntetiska tester"

Syntetiska tester innebär att testresultaten bara är jämförbara inbördes, att det inte går att föra över siffrorna till prestanda i en verklig situation.

Permalänk
Medlem
Skrivet av Nikodemous:

Oavsett dessa tester så lär det bli en 3900x då jag både spelar och jobbar i tunggrodda 2d-filer i AutoCAD/draftsight och ritprogrammet geo som kräver en massa cpu kraft för att inte lagga när man lägger 7-8 dwg:er ovanpå varann. Att kalla det "syntetiska tester" låter som folk som håller på i forskningslabb men jag skulle tro att många av oss här på forumet kommer i kontakt med en del i 2d-program och att förringa användningsområdet genom namnvalet känns fel i mina ögon.

Skickades från m.sweclockers.com

Kanske minns fel, men är inte AutoCAD ökänt för att inte kunna utnyttja många kärnor?