AMD Ryzen 7 2700X och Ryzen 5 2600X "Pinnacle Ridge"

Permalänk
Medlem
Skrivet av anon159643:

Varför i7 6850K och inte en 8700k? Den stora fördelen med i7 6850K är att de stöder mer ram, men då brukar man samtidigt gå upp i antal kärnor när man ändå är inne på en dyrare plattform.
För övrigt avvaktar jag uppgradering och inväntar Threadripper 2, sedan slänga ut min 7700K och en 8 core Intel (Ice Lake). Det som hindrar mig förutom att ingen av dem finns ännu, är att 20 000kr enbart på ram till en desktop känns sådär. (treadripper 2 med 128GB)

Finns mycket orsaker och features på varför jag valde.

Framtiden för att spela i 4k i SLI, och att det ger bättre skalning vid högre upplösning och att ha upp till 40 PCI-e lanes.

Resten är gemensam till många andra modeller som, bättre flertråds applikationer och rendering.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Relik 📜

Massa diskussion, härligt! Själv lutar jag åt en 2600X för min dator, 4770K:n som sitter i har börjar bråkar lite. Ska ge det ett försök till första hjälpen i helgen, annars är det dags. Skulle lika gärna kunna ta någon Intel-variant, men omväxling är kul! Ryzen till förra bygget (HTPC:n) föll först på inga ITX-moderkort och sedan på att 8400:an är så jäkla effektiv, men för stora burken spelar de bitarna mindre roll.

Om 720p-testerna, tycker många har intressanta poänger. Handlar egentligen inte om att försöka sia framtiden på något vattentätt sätt, utan om att ge en indikation. Där håller jag inte med om att testerna är värdelösa, utan tittar vi några år bakåt står sig de processorer som hanterade 720p bäst även rätt bra idag. Tycker historien visar att just spel förändras ganska långsamt, och även om det kommer större hopp ibland tar det tid innan majoriteten av titlar är med på tåget.

Till det kommer alla som spelar i höga frekvenser, redan idag. En bit över 100 FPS blir processorn i (väldigt) många fall vad som håller tillbaka, oavsett hur hårt inställningarna för grafik sänks. I ett test med hög upplösning eller bara Ultra är det svårt att se, däremot med sänkt upplösning plockas grafikkortet bort allt mer ur ekvationen. Jag har själv "upplevt" förändringen när jag gick från 60 Hz till 165 Hz i vintras, helt plötsligt är processorn vad som flaskar typ allt vilket är rätt hemskt. CPU-bundet är enligt mig ofta en sämre upplevelse med hack och ryck än GPU-bundet.

I slutänden är det ju bara ytterligare en datapunkt, och de som anser den irrelevant kan helt enkelt segla förbi. Ersätta med SLI och/eller CF är en möjlighet, erfarenheten säger däremot att det introducerar mer huvudvärk än det löser. SLI/CF kommer alltid vara en möjlig felkälla, även i spel där det fungerar till synes perfekt. Att göra spelurvalet baserat på "hur bra går multi-GPU" blir också skevt och begränsande redan där. Kan vara intressant för något mindre tillägg i stil med minnesfrekvens, men inte för bastesterna.

Skrivet av tellus82:

Alltså, man använder medium inställningar, något man gör normalt i spel för att matcha gårdagens hårdvara med färre kärnor och försöker applicera det på eventuell framtida prestanda i kommande spel med nästa generationers gpu'er, blir en aning stukat tänk för min del.

Här har du helt klart en poäng. Vissa inställningar kan absolut påverka även CPU-belastning, till exempel AI, mesh, skuggor etc. När vi testade runt sist handlade det om relativt sett små skillnader, en CPU som var 10 % snabbare var fortfarande typ 10 % snabbare och så vidare. Däremot introducerar det ju en otydlighet. Egentligen används Medium av två skäl.

* Fram tills överraskande nyligen blev även 720p med Ultra ganska raka staplar för CPU:er i den högre skolan. Deltat CPU/GPU var helt enkelt mindre, tillsammans med till exempel MSAA och andra tunga tekniker som rent krasst försvunnit. Därför behövdes en lägre kvalitetsnivå, annars berättade testet inget extra ställt mot 1080 eller högre.

* De som vill spela i 144 Hz, 165 Hz eller liknande kommer sannolikt behöva kompromissa med inställningar till någon form av Medium-nivå. Majoriteten där lär helt enkelt sänka reglaget, utan att gå igenom och fundera på vad som är CPU- och vad som är GPU-bundet.

Jag och @JonasT snackade igår, och till nästa stora refresh testar vi helt enkelt att köra en repa med 720p på samma kvalitetsnivå som 1080p. Det vore enklast av många anledningar, ställt mot att försöka hamra ut exakt vilka inställningar som gör vad. Ser de siffrorna bra ut är Bob vår farbror, annars får vi ta en snackis hur vi kan anpassa.

Till nästa refresh har vi förhoppningsvis snabbare grafikkort också. Att GTX 1080-korten körs nu är helt enkelt en praktisk anpassning, vi har inte dubbla GTX 1080 Ti som går att använda och behöver köra (minst) två testriggar för att hinna med alla siffror. Av någon anledning är just grafikkort lite svårt att få tag i..

Låter det som en deal? Tummis?

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem

Nu är en 2700X inhandlad. Min 4790 får snällt vandra vidare till sekundärburken. Hade redan köpt minne för en uppgradering förra året men det blev nerprioritert pga flytt och sambo.
Det stora med zen+ för min del är att jag hoppas den är indre kinkig när det kommer till minne. Att den inte når upp till intel i spel överlever jag, den är tillräckligt bra. Då vill jag hellre ha fler kärnor och möjligheten att uppgradera eller för den delen om moderkorte pajar om något år ersätta det med en nyare version och inte behöva leta efter begagnade.

Skickades från m.sweclockers.com

Permalänk
Inofficiell ambassadör
Skrivet av emilakered:

Jag och @JonasT snackade igår, och till nästa stora refresh testar vi helt enkelt att köra en repa med 720p på samma kvalitetsnivå som 1080p. Det vore enklast av många anledningar, ställt mot att försöka hamra ut exakt vilka inställningar som gör vad. Ser de siffrorna bra ut är Bob vår farbror, annars får vi ta en snackis hur vi kan anpassa.

Vänta, va?

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5600X RAM Corsair Vengance 16GB @ 36000 MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Permalänk
Hedersmedlem
Skrivet av Xyborg:

Vänta, va?

En kanske inte helt vanlig försvenskning av ett engelskt ordspråk.
https://en.m.wikipedia.org/wiki/Bob%27s_your_uncle

Skickades från m.sweclockers.com

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Benchmaskin 🍞
Skrivet av Starric:

Läser att "Samtliga tester av Ryzen 2000-serien körs med processorkylaren Noctua NH-U14S". Antar att även övriga processorer testats med samma kylare? Eller är jag för trött för att läsa ordentligt?

Ja, förutom X299 och Threadripper som använder en Bequiet-kylare respektive TR-specifik kylare från Noctua. Exakta modellnamn är mer än vad min trötta hjärna klarar just nu.

Skickades från m.sweclockers.com

Permalänk
Skrivet av Xyborg:

Vänta, va?

...And Bob's your uncle is an expression of unknown origin, that means "and there it is" or "and there you have it." It is commonly used in United Kingdom and Commonwealth countries. Typically, someone says it to conclude a set of simple instructions or when a result is reached. The meaning is similar to that of the French expression "et voilà!"

https://en.wikipedia.org/wiki/Bob%27s_your_uncle

EDIT: pucktvåa

Permalänk
Hjälpsam

@Söderbäck: Lite som att säga att någon eller något "sparkar stjärt".

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam
Skrivet av Oyes:

Hur kommer det sig att 8600k presterar så mycket bättre än 8700k i FC5? 10+ skillnad i min FPS.

Skrivet av tellus82:

FC5 belastar som mest 6 trådar fullt och verkar lira bäst på processorer som matchar detta i antal tillgängliga kärnor, kan komma att förbättras med patchning av spelet i fråga.

Detta tillsammans med Windows föråldrade skedulerare.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam
Skrivet av Aleshi:

Ja, det är ju en del av en helhetsuppfattning även där.
Tack!

Tur att jag inte följde ditt resonemang och köpte en A8-5600K då. En samtida i5 står sig dugligt idag.
https://cdn.sweclockers.com/artikel/diagram/3834?key=a79bd09ce026d250f0ca0fc19849da0f
https://cdn.sweclockers.com/artikel/diagram/3835?key=57685a9f4284124d6e2d90559b60f45f

Och angående det om 10 år. Jag säger inte att det inte hänt saker på 10 år. Bara det att multitrådade processorer alltid legat rätt långt före spelmotorerna. Jag nämner ju att det som är relevant idag är ju huruvida spelmotorer gör skillnad på 12 och 16 trådar. Hur länge dröjer det innan det är vanligt? Det kommer dröja. Och det är inte för att det inte ligger pengar i flertrådade spel. De är ju nödvändigtvis inte sämre på få trådar bara för att de kan utnyttja många. Det handlar om att spel är väldigt svåra att parallellisera, därför går utvecklingen långsamt. Och jag tvivlar på att spel kommer komma ifatt inom överskådlig tid.

Fast spelar man i 1080p duger en A8-5600K nästan lika bra.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Skrivet av Aleshi:

För det första så är hela det argumentet irrelevant som motargument då mitt argument inte handlade om framtida spel, utan om framtida grafikkort. Men vi kan ta den diskussionen också. Dagens spel kommer vara aktuella när nästa och nästnästa generation grafikkort släpps. Processor behöver man inte uppgradera lika ofta, framförallt inte om man köper smart från början. Därför är det relevant att se prestandaskillnaden på själva processorn. En graf som visar att man kan sitta med en Ryzen 1400 lika gärna som en Ryzen 2700X är inte så spännande. Och framförallt fullkomligt intetsägande. För det är en allmän vetskap att man kan ha klena processorer om man kör på höga upplösningar med ett grafikkort som total flaskhals. Så varför efterfråga en sådan graf.

Fair enough, men när man pratar framtida grafikkort så är den diskussionen ganska sammantvinnad med den om framtida spel.
För det första så sa jag aldrig att tester i 720p inte var nödvändiga, men det jag menar är att jag inte ser de som relevant för en som spelar, utan det visar mer helt enkelt hur CPUn hanterar rätt dåligt kodade program som inte kan hantera många trådar.

De spel som lever länge, är de större onlinespelen, de är oftast inte speciellt krävande, varken CPU eller GPU mässigt.

Skrivet av Aleshi:

Men, eftersom du tog upp framtida spel. Vi har hört att spelen om ett eller två år ska bli mycket bättre på att ta till vara flera trådar än dagens spel. Grejen är att vi har hört det i över tio år. Jag lovar dig, den dagen du kan se en så relevant skillnad mellan 12 och 16 trådar i spel att dagens tester blir missvisande så är dagens processorer utdaterade sedan länge. Så det är också irrelevant.

Dessutom. Spelprestanda är ganska så mycket samma sak i de flesta fall. Med en rad tester med lagom mix så kan man bilda sig en uppfattning av generell spelprestanda som gör att man kan förutsäga ungefär hur stora skillnaderna är även i andra spel som inte testats. Detta håller i sig rätt bra.
Det är fullkomligt irrelevant huruvida många eller få spelar på 720P eftersom argumentet för att testa i 720P inte baseras på detta. Om du trots förklaringar tror att det är därför man förespråkar test i 720P så förstår jag varför du har din ståndpunkt. Men jag tror nog snarare att du här missrepresenterar våra argument.
Vi vet ganska bra hur spelutvecklingen ser ut. Om något år baseras de flesta spel på samma motorer som idag, och de nya som hunnit komma innan dess kommer inte utnyttja 16 trådar märkbart bättre än 12.
Det vi vet är att generell spelprestanda är något som håller i sig över en rad olika motorer. Därför kan man från några få tester få en bra uppfattning om hur bra en processor är på spel.

Om du läser igen så påstod jag inte att 720p är orelevant att testa, som jag skrev här över, så ser jag det inte direkt som en speltest dock.

Skrivet av Aleshi:

Med tester i låg upplösning så vet du:
1. Generell skillnad i spelprestanda mellan processorer.
2. Med stor säkerhet de kommer stå sig med starkare grafikkort.
3. Med fullt duglig säkerhet hur de kommer stå sig i kommande spel.
4. Kombinerat med grafikkortstest ser du hur du bör värdera CPU mot GPU i budgeten.

Håller med till viss del, då de flesta som spelar mycket och framförallt de som hänger på SweC så är det i stort sett aldrig CPUn som blir begränsande i spel, det visar dessa tester tydligt, så att säga att 8700k är en bättre spelprocessor så har man faktamässigt rätt, men i realiteten så märker man ingen skillnad nu, eller om 2 år.

Det är väldigt sällan CPUn faktiskt är flaskhalsen för någon som bryr sig om spelprestanda. Det är bara att kolla runt här på forumet, alla trådar om "hur får jag bättre spelprestanda" så får man svar, nytt grafikkort, sätt in SSD och uppgradera minne, i stort sett aldrig är det CPUn som rekommenderas att uppgradera. Det är en hänvisning hur verkligheten ser ut.

Skrivet av Aleshi:

Med hög upplösning så vet du:
1. Hur bra recensentens grafikkort är i upplösningar som entusiaster spelar i. Men det visste redan killen som valde att läsa recensionen i låga upplösningar.

Finns ingen fördel med att recensera i höga upplösningar. Du ser hur bra testdatorn är i höga upplösningar, det är helt sant, men du ser också att en Ryzen 1300 står sig bra mot en 2700X. Köper du en Ryzen 1300 till din speldator för det?

Håller med, förutom på en punkt, det finns en fördel att recensera en CPU i medel och höga upplösningar, det visar hur orelevant speltester är i det stora hela, när man testar en CPU. Så alla som skriker "AMD misslyckades, Intel mycket bättre i spel" och baserar detta på en test i 720p ... jaa, är en sanning i modifikation då detta i stort sett aldrig kommer bli relevant i verkliga livet.

Visa signatur

WS1: | Gigabyte X670 G AX | Ryzen 9 7950x3D | 32GB G.Skill Trident Z5 NeoRGB | Sapphire RX 7800XT Pure | Corsair RM650i | Lian-Li O11 | EK Nucleus CR360 | WS2: | Asus RoG Strix X470-F | Ryzen 7 5600x | 16gb G.skill Trident Z Neo 3600mhz | Asus RoG Strix 3070 | Lian-Li Lancool 205 | ESX Srvr1 | MSI B450-A Pro Max | Ryzen 7 3700x | 64GB Corsair Vengence | Jonsbo UMX4 | Srvr2 MacMini | ClearOS

Permalänk
Skrivet av Gambit_2K:

Bra recension men hade gärna sett er leka med XFR2 inställningarna lite mer nu när AMD tillåter en ställa in max TDP. Ser att många får sina 2700X att boosta 1 eller 2 kärnor till 4500+ om man ställer in en högre TDP.

Var ser du detta? Om det stämmer är det onekligen intressant men jag har inte sett någon recension där man utforskar detta.

Permalänk
Medlem
Skrivet av anon200632:

Ja, vill du ha bra spelpresstanda så ta Intel, vill du köra cinebench och köra mängder med program samtidigt så ta amd.

Valet är lätt om man vill ha en grym speldator eller en arbetsdator.

Valet är ännu enklare om man vill ha en som kan göra båda och inte lägga en massa pengar i onödan...

8700k har sin poäng, helt klart. Men prestandan du får i spel är inte prisvärt, om du inte sitter på just 1080Ti. Köper du svagaregrafikkort för att köpa en 8700k gör du idiotiskt val, "för spel". 2600X ligger precis perfekt till här och kan ge 100+ FPS, men samtidigt inte bryta banken för de med 1060-1070/580 osv. De tjänar mer på att satas på mer/snabbare RAM eller bättre GPU än 8700k om budgeten är tajt.

Btw, sluta trolla med Z370. För inlägget ovan var inget annat än just det.

Permalänk

Men vänta lite nu.

Är testerna gjorde med ett 1080GTX eller är det en felskrivning? Hoppas innerligt på felskrivning annars har vi ett problem redan där eftersom GPU agerar broms i spelen idag.

Hade varit vettigare med ett 1080ti än att köra i 720p

Visa signatur

1::3700+ San Diego@3.0GHzghz[300x10], Abit KN8-Ultra, 1024mb, X850XT @ PE. 01: 27190. 05: 6220.
2::XP 2500+ @ 3200+, Asus A7N8X-X, GeForce FX 5700 Ultra@ 605/1100, 512mb ddr. 01: 13550

Permalänk
Medlem
Skrivet av Aleshi:

Det viktiga är ändå att man visar hur snabb själva processorn är. Det är aktuellt för hur datorn kan prestera med framtida grafikkort också. Och i grova drag så visar det hur processorerna orkar med tyngre situationer. Att dölja prestandaskillnaden med en flaskhals visar inget av detta. Vill man se hur snabbt grafikkortet är så kan man kolla test ämnade för detta. Sedan kan man matcha grafikkort bättre efter processor.

Jag ser det som att man skapar ett osannolikt scenario som inte är relevant. Att någon skulle använda (speciellt med dagens priser) högkvalitativa datordelar för att köra spel på mediokra inställningar. Jag förstår argumentationen att det är för att flytta över last till CPU:n men min fråga är; vad bevisar detta egentligen? En lägre upplösning ger ingen indikation på framtida optimeringar eller förbättringar i spelmotorer. Många motorer är dessutom inte byggda för att köras i extremt hög fps. Dessutom känns det något arbiträrt att stanna på 720p. Varför då inte köra 600x800? Eller ännu lägre? Får man inte då en ännu större indikation på framtida prestanda?

Jag tycker det är en dåligt definierad metod som är vedertagen men inte tydligt bevisad att den fungerar. Har vi exempel där man framgångsrikt förutspått framtida prestanda på detta sätt? Snarare har jag sett bevis på motsatsen.

Permalänk
Redaktion
Praktikant ✨
Skrivet av pecesithon:

Men vänta lite nu.

Är testerna gjorde med ett 1080GTX eller är det en felskrivning? Hoppas innerligt på felskrivning annars har vi ett problem redan där eftersom GPU agerar broms i spelen idag.

Hade varit vettigare med ett 1080ti än att köra i 720p

Ingen felskrivning, Geforce GTX 1080 i de vanliga speltesterna samt Geforce GTX 1080 Ti i de kompletterande testerna vid hög upplösning.

Vi kommer troligtvis på sikt gå över till Geforce GTX 1080 Ti för samtliga tester, men i dagsläget har vi endast ett exemplar av detta kort medan vi har två identiska Geforce GTX 1080 - något som låter oss köra tester på två testriggar parallellt.

Permalänk
Datavetare
Skrivet av CyberVillain:

Använder blender väldigt lite så vet inte exakt hur mycket multi core det är i dagligt användande, men jag använder Unity och där är i princip allt multitrådat, från att uppdatera library cachen till att baka precomputed realtime GI. Speciellt library cachen är något som är sjukt frustrerande på färre kärnor, om du byter branch i git och det är många art assets som ska uppdateras så går alla 16 logiska kärnor på max på min burk i säkert 5 minuter

Antar att du menar att själva miljön man utvecklar till i Unity är väldigt bra på att utnyttja många trådar? Dokumentationen till Unity verkar annars nämna att majoriteten av alla API-anrop endast får göras från huvudtråden (vilket inte alls är speciellt ovanligt, speciellt inte pre-DX11/Vulkan).

Det betyder självklart inte att ett Unity-baserat spel måste vara enkeltrådat, men det betyder att alla trådar utanför huvudtråden måste synkroniseras med huvudtråden minst en gång per scen om de har någon information som ska bli synlig (denna kommentar är självklart inte till dig @CyberVillain då du vet långt mer om Unity än vad jag gör).

Angående git. Om du tycker git-operationer är sega finns ett tips som ger långt mer effekt jämfört med att försöka skaffa ännu fler kärnor- Och för den som undrar, det är sant att när man byter utvecklingsgren på ett stort git-projekt under Windows så ligger man nära 100 % CPU last under hyfsat lång tid...

Jobbar på ett git-repo som har ~10 miljoner rader kod och är ett gäng gigabyte i storlek. Att byta mellan två relativt närbesläktade grenar (eng. "branch") tar 11-12 sekunder under Windows. Grejen är att samma git-träd på samma dator men där man gör samma operation på en Linux installation körandes i Hyper-V under Windows 10 så tar samma operation rätt exakt en sekund! Tidsdifferensen ökar ju mer de två grenarna divergerat.

Så visst kan man försöka hitta en dator med 50 kärnor, men man lär ändå inte nå prestanda motsvarande en virtualiserad Linux. Själv är det bara en i raden av orsaker till att all min programutveckling sker i Linux, även fast jag kör Windows som desktop OS. Måste man ha Windows/Visual Studio som miljö, vilket lär vara fallet för dig, så kör en virtualiserad Linux där git-operationer utförs och dela ut den katalogen som nätverksdisk.

OBS: man får inte denna prestandaboost om man kör "Linux subsystem under Windows" (a.k.a. "bash i Windows" som rent tekniskt är att köra t.ex. Ubuntu userland på en Windows-kärna). Orsaken verkar vara att Windows I/O-system / filsystem är inte i närheten lika effektivt som Linux när det handlar om extremt många små läsningar/skrivningar som utförs från flera parallella kontext.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Är det bara jag eller ser det ut som AMD vinner när minnesfrekvensen är 2933+. Det är inte direkt jämfört med Intel, men 2700x har ju högst medel FPS i 1080p i far vet 5. Intel kanske också skalar bra det framkommer inte i recensionen.

Skickades från m.sweclockers.com

Permalänk
Datavetare
Skrivet av Oyes:

Hur kommer det sig att 8600k presterar så mycket bättre än 8700k i FC5? 10+ skillnad i min FPS.

Detta är med stor sannolikhet en av de få fall vi ser idag där SMT är en nackdel i spel.

Spel är en form av realtidsapplikation, framförallt lägsta FPS. För realtidsapplikationer är låg latens den kritiska komponenten medan total kapacitet i normalfallet är relativt oviktigt.

Moderna spel delar upp de uppgifter som ska utföras i arbetsmoment som endera kan köras av vilken tråd som helst samt arbetsmoment som måste köras på någon specifik tråd (i praktiken finns nästan alltid bara en sådan tråd som benämns "huvudtråd" eller liknande).

Det som avgör lägsta FPS är den lägsta tid någon enskild tråd måste spendera för att utföra alla sina tilldelade jobb. Om man har fall där någon del tar ganska mycket tid (mycket CPU-kraft) så kan SMT vara en nackdel om den "andra" CPU-tråden på samma fysiska kärna ofta också har något att jobba på under relativt lång, det medan andra CPU-trådar kanske rätt snabbt blir klar med sina jobb.

TomsHardware har gjort en analys kring hur Far Cry 5 använder CPU-trådar, det man ser är att spelmotorn använder alla CPU-trådar som finns, även upp till 6C/12T.

Man ser däremot att det är bara väldigt korta stunder som många trådar jobbar samtidigt, i vilken tråd som är lastad vid ett visst tillfälle hoppar runt extremt mycket

Detta är ett skolboksexempel på när något försöker använda fler trådar än vad som är optimalt. Rätt gjort, vilket man ändå kan säga att är fallet här, blir inte den negativa påverkan speciellt stor. Den är dock negativ!

Detta visar ju att spelet inte har mer jobb att utföra när det paras med GTX1060/TX580 (vilket är vad TomsHardware testat) med än vad man får vid 4C/4T (redan 2C/4T är väldigt nära "bra nog", men 4C/4T är bättre ur ett realtidsperspektiv)

Det skrivet: SMT är i väldigt sällan en nackdel på det stora hela, tvärtom är det en väldigt energieffektiv teknik för alla fall som behöver mycket beräkningskraft.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av emilakered:

Massa diskussion, härligt! Själv lutar jag åt en 2600X för min dator, 4770K:n som sitter i har börjar bråkar lite. Ska ge det ett försök till första hjälpen i helgen, annars är det dags. Skulle lika gärna kunna ta någon Intel-variant, men omväxling är kul! Ryzen till förra bygget (HTPC:n) föll först på inga ITX-moderkort och sedan på att 8400:an är så jäkla effektiv, men för stora burken spelar de bitarna mindre roll.

Om 720p-testerna, tycker många har intressanta poänger. Handlar egentligen inte om att försöka sia framtiden på något vattentätt sätt, utan om att ge en indikation. Där håller jag inte med om att testerna är värdelösa, utan tittar vi några år bakåt står sig de processorer som hanterade 720p bäst även rätt bra idag. Tycker historien visar att just spel förändras ganska långsamt, och även om det kommer större hopp ibland tar det tid innan majoriteten av titlar är med på tåget.

Till det kommer alla som spelar i höga frekvenser, redan idag. En bit över 100 FPS blir processorn i (väldigt) många fall vad som håller tillbaka, oavsett hur hårt inställningarna för grafik sänks. I ett test med hög upplösning eller bara Ultra är det svårt att se, däremot med sänkt upplösning plockas grafikkortet bort allt mer ur ekvationen. Jag har själv "upplevt" förändringen när jag gick från 60 Hz till 165 Hz i vintras, helt plötsligt är processorn vad som flaskar typ allt vilket är rätt hemskt. CPU-bundet är enligt mig ofta en sämre upplevelse med hack och ryck än GPU-bundet.

I slutänden är det ju bara ytterligare en datapunkt, och de som anser den irrelevant kan helt enkelt segla förbi. Ersätta med SLI och/eller CF är en möjlighet, erfarenheten säger däremot att det introducerar mer huvudvärk än det löser. SLI/CF kommer alltid vara en möjlig felkälla, även i spel där det fungerar till synes perfekt. Att göra spelurvalet baserat på "hur bra går multi-GPU" blir också skevt och begränsande redan där. Kan vara intressant för något mindre tillägg i stil med minnesfrekvens, men inte för bastesterna.

Här har du helt klart en poäng. Vissa inställningar kan absolut påverka även CPU-belastning, till exempel AI, mesh, skuggor etc. När vi testade runt sist handlade det om relativt sett små skillnader, en CPU som var 10 % snabbare var fortfarande typ 10 % snabbare och så vidare. Däremot introducerar det ju en otydlighet. Egentligen används Medium av två skäl.

* Fram tills överraskande nyligen blev även 720p med Ultra ganska raka staplar för CPU:er i den högre skolan. Deltat CPU/GPU var helt enkelt mindre, tillsammans med till exempel MSAA och andra tunga tekniker som rent krasst försvunnit. Därför behövdes en lägre kvalitetsnivå, annars berättade testet inget extra ställt mot 1080 eller högre.

* De som vill spela i 144 Hz, 165 Hz eller liknande kommer sannolikt behöva kompromissa med inställningar till någon form av Medium-nivå. Majoriteten där lär helt enkelt sänka reglaget, utan att gå igenom och fundera på vad som är CPU- och vad som är GPU-bundet.

Jag och @JonasT snackade igår, och till nästa stora refresh testar vi helt enkelt att köra en repa med 720p på samma kvalitetsnivå som 1080p. Det vore enklast av många anledningar, ställt mot att försöka hamra ut exakt vilka inställningar som gör vad. Ser de siffrorna bra ut är Bob vår farbror, annars får vi ta en snackis hur vi kan anpassa.

Till nästa refresh har vi förhoppningsvis snabbare grafikkort också. Att GTX 1080-korten körs nu är helt enkelt en praktisk anpassning, vi har inte dubbla GTX 1080 Ti som går att använda och behöver köra (minst) två testriggar för att hinna med alla siffror. Av någon anledning är just grafikkort lite svårt att få tag i..

Låter det som en deal? Tummis?

Som jag skrev i flertalet andra inlägg ni undvek att citera, Hur svårt är det att köra en anpassad 720p ultra inställning där inställningar som enbart lägger extra belastning på gpu är sänkta till den punkt som gpu inte blir den begränsande faktorn? Många moderna spel beskriver till och med vilka inställningar som belastar vad men det är inte direkt svårt att lista ut själv heller. Att ni inte skulle ha tid till detta låter kanske lite underligt.
Ingenstans i mina inlägg har jag skrivit att 720p testande är överflödigt eller onödigt eller bortkastat utan jag framhåller med det bestämdaste att 720p test för att påvisa prestanda utan att gpu agerar limiterande faktor är mycket bra att inkludera vid sidan av resten av upplösningarna.
Det jag invänder emot är som sagt användandet av låga in-game inställningar som riktar resultaten att föredra färre kärnor (se föregående 3-4 inlägg från mig) i ett test som ska påvisa framtida prestanda eller prestanda ohejdad av gpu.

Att ni ser över detta är väldigt bra och jag hoppas att ni kan köra 720p testen med 1080ti kortet ni använt till vissa tester eller att ni anpassar de gpu tunga delinställningarna på ultra inställningar

Skickades från m.sweclockers.com

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Inaktiv
Skrivet av skewgen:

De testar det för att det är relevant för att få fram hur bra råprestanda processorn har under den typen av last.

Og den last er ikke realistisk, for folk med slike prosessorer og GPUer spiller i høyere oppløsning. Dermed ender testen med å produsere tall som ikke representerer folks bruksområde.

Herregud, når vil sånne som deg noensinne innse dette?

Skickades från m.sweclockers.com

Permalänk
Medlem

AMD:s nya andra generation av Zen känns som en stor gäspning jämfört med första generationen, å andra sidan antar jag att Intels nästa generation på desktopsidan inte heller lär bli någon större revolution. Jag tycker utvecklingen på ARM och även RISC-V är intressantare.

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Relik 📜
Skrivet av tellus82:

Som jag skrev i flertalet andra inlägg ni undvek att citera, Hur svårt är det att köra en anpassad 720p ultra inställning där inställningar som enbart lägger extra belastning på gpu är sänkta till den punkt som gpu inte blir den begränsande faktorn?
Ingenstans i mina inlägg har jag skrivit att 720p testande är överflödigt eller onödigt eller bortkastat utan jag framhåller med det bestämdaste att 720p test för att påvisa prestanda utan att gpu agerar limiterande faktor är mycket bra att inkludera vid sidan av resten av upplösningarna.
Det jag invänder emot är som sagt användandet av låga in-game inställningar som riktar resultaten att föredra färre kärnor (se föregående 3-4 inlägg från mig) i ett test som ska påvisa framtida prestanda eller prestanda ohejdad av gpu.

Att ni ser över detta är väldigt bra och jag hoppas att ni kan köra 720p testen med 1080ti kortet ni använt till vissa tester eller att ni anpassar de gpu tunga delinställningarna på ultra inställningar

Skickades från m.sweclockers.com

Hm, nu tror jag du missuppfattar mig. Det enda som var svar direkt till dig var det efter citatet av din text, där jag pratar om varför testet ser ut som det gör idag, vad vi testar internt och vad som finns att jobba med där. Jag har aldrig menat på att du tycker det är onödigt, det finns däremot andra i tråden som står på den sidan av staketet.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Inaktiv

Är era MBOs för Intel patchade för spectre2? Det räcker inte med bara windows uppdateringar. Alla X470 MBOs kommer med AMD patch för Spectre2 så ni jämför inte samma saker om Intel saknar dessa patchar (som räknas minska prestanda men inte lika mycket som Meltdown).

Permalänk
Medlem
Skrivet av emilakered:

Hm, nu tror jag du missuppfattar mig. Det enda som var svar direkt till dig var det efter citatet av din text, där jag pratar om varför testet ser ut som det gör idag, vad vi testar internt och vad som finns att jobba med där. Jag har aldrig menat på att du tycker det är onödigt, det finns däremot andra i tråden som står på den sidan av staketet.

Aha då missuppfattade jag er så till vida.
Tyvärr verkar dessa användare fortsätta under den föreställningen, att kunna se cpu/plattformsprestanda ohejdad av gpu prestanda är absolut inte onödigt eller dumt, man måste bara se upp hur man gör det

Skickades från m.sweclockers.com

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Inaktiv
Skrivet av emilakered:

Massa diskussion, härligt! Själv lutar jag åt en 2600X för min dator, 4770K:n som sitter i har börjar bråkar lite. Ska ge det ett försök till första hjälpen i helgen, annars är det dags. Skulle lika gärna kunna ta någon Intel-variant, men omväxling är kul! Ryzen till förra bygget (HTPC:n) föll först på inga ITX-moderkort och sedan på att 8400:an är så jäkla effektiv, men för stora burken spelar de bitarna mindre roll.

Om 720p-testerna, tycker många har intressanta poänger. Handlar egentligen inte om att försöka sia framtiden på något vattentätt sätt, utan om att ge en indikation. Där håller jag inte med om att testerna är värdelösa, utan tittar vi några år bakåt står sig de processorer som hanterade 720p bäst även rätt bra idag. Tycker historien visar att just spel förändras ganska långsamt, och även om det kommer större hopp ibland tar det tid innan majoriteten av titlar är med på tåget.

Sigh...vi har vært gjennom dette før. Dette argumentet er horribelt. Om noen år er GPUer også kraftige nok til at man spiller i enda høyere oppløsning. For eks. 4K. Da forsvinner flaskehalsen igjen. Dette nuller ut den flaskehalsen du mener vil dukke opp om noen år. Hva som er standard for 1440p er standard for 4K i fremtiden. CPUen vil aldri bli en flaskehals i fremtiden med kraftigere GPUer, så lenge folk fortsetter å spille i høyere og høyere oppløsninger. Er dette så vanskelig å forstå?

Spilltester skal representere virkeligheten. Det er hele meningen med disse anmeldelsene. Ingen spiller i 720p på en GTX 1080 i virkeligheten. Dermed ender testen opp med å vise tall som er viktig for absolutt ingen som helst. Selv 1080p er lavt med den GPUen; de kan for min del ha 1080p, men inkluder for Guds skyld en oppløsning folk flest med GTX 1080 bruker: 1440p!

Jeg sitter på en 1440p og et GTX 1080. Vet du hva Sweclockers informerer meg om hvilken CPU er best for meg? Ingenting? Jeg får ikke vite noe som helst. Det gjør heller ikke majoriteten av GTX 1080-eiere som tenker å kanskje kjøpe ny CPU.

Skickades från m.sweclockers.com

Permalänk
Redaktion
Praktikant ✨
Skrivet av anon127948:

Är era MBOs för Intel patchade för spectre2? Det räcker inte med bara windows uppdateringar. Alla X470 MBOs kommer med AMD patch för Spectre2 så ni jämför inte samma saker om Intel saknar dessa patchar (som räknas minska prestanda men inte lika mycket som Meltdown).

Jajemen! Alla gamla resultat skrotades inför detta test av den anledningen.

Permalänk
Medlem
Skrivet av anon227198:

Sigh...vi har vært gjennom dette før. Dette argumentet er horribelt. Om noen år er GPUer også kraftige nok til at man spiller i enda høyere oppløsning. For eks. 4K. Da forsvinner flaskehalsen igjen. Dette nuller ut den flaskehalsen du mener vil dukke opp om noen år. Hva som er standard for 1440p er standard for 4K i fremtiden. CPUen vil aldri bli en flaskehals i fremtiden med kraftigere GPUer, så lenge folk fortsetter å spille i høyere og høyere oppløsninger. Er dette så vanskelig å forstå?

Spilltester skal representere virkeligheten. Det er hele meningen med disse anmeldelsene. Ingen spiller i 720p på en GTX 1080 i virkeligheten. Dermed ender testen opp med å vise tall som er viktig for absolutt ingen som helst. Selv 1080p er lavt med den GPUen; de kan for min del ha 1080p, men inkluder for Guds skyld en oppløsning folk flest med GTX 1080 bruker: 1440p!

Jeg sitter på en 1440p og et GTX 1080. Vet du hva Sweclockers informerer meg om hvilken CPU er best for meg? Ingenting? Jeg får ikke vite noe som helst. Det gjør heller ikke majoriteten av GTX 1080-eiere som tenker å kanskje kjøpe ny CPU.

Skickades från m.sweclockers.com

Åter igen, att påvisa prestanda ohejdad av GPU limitering är inget fel, speciellt inte när det dessutom kombineras med 1080p,1440p och 4k upplösningar. Finns ingen anledning att inte ta med det i ett processor test.
Det handlar inte om vad folk i allmänhet spelar på eller ej utan det ska helt enkelt visa hur saker presterar när GPU "tas bort" ur ekvationen.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Relik 📜
Skrivet av anon227198:

Sigh...vi har vært gjennom dette før. Dette argumentet er horribelt. Om noen år er GPUer også kraftige nok til at man spiller i enda høyere oppløsning. For eks. 4K. Da forsvinner flaskehalsen igjen. Dette nuller ut den flaskehalsen du mener vil dukke opp om noen år. Hva som er standard for 1440p er standard for 4K i fremtiden. CPUen vil aldri bli en flaskehals i fremtiden med kraftigere GPUer, så lenge folk fortsetter å spille i høyere og høyere oppløsninger. Er dette så vanskelig å forstå?

Spilltester skal representere virkeligheten. Det er hele meningen med disse anmeldelsene. Ingen spiller i 720p på en GTX 1080 i virkeligheten. Dermed ender testen opp med å vise tall som er viktig for absolutt ingen som helst. Selv 1080p er lavt med den GPUen; de kan for min del ha 1080p, men inkluder for Guds skyld en oppløsning folk flest med GTX 1080 bruker: 1440p!

Jeg sitter på en 1440p og et GTX 1080. Vet du hva Sweclockers informerer meg om hvilken CPU er best for meg? Ingenting? Jeg får ikke vite noe som helst. Det gjør heller ikke majoriteten av GTX 1080-eiere som tenker å kanskje kjøpe ny CPU.

Skickades från m.sweclockers.com

Jag håller inte med. Redan idag är CPU en flaskhals för många, speciellt de som vill pressa upp högre bildfrekvenser än 60 FPS. Jag tror också du överskattar hur snabbt övergången till 4K UHD går eller kommer gå, dels eftersom många hellre söker hög frekvens, dels eftersom det ligger en bit in i framtiden innan priserna faller. Majoriteten av skärmar som säljs är fortfarande 1920x1080 pixlar, och de lär användas några år framåt.

Testerna i 720p är viktiga för att visa aspekten vad som händer i ett läge där användaren är CPU-bunden, må det vara på grund av hög bildfrekvens, låg upplösning, nytt saftigt grafikkort eller vad som. Många uppskattar siffrorna och tycker de är intressanta, inklusive jag själv.

För dig och andra som finner dessa irrelevanta finns ju tester i 1920x1080, 2560x1440 och 4K UHD också. De visar andra aspekter, till exempel att för den som lägger sig på den nivåerna spelar valet av CPU mindre roll i dagsläget.

Jag tror och hoppas de flesta kan få ut vad de vill ha av testerna som finns, givetvis kombinerat med andra recesioner på nätet.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Avstängd
Skrivet av Yoshman:

Antar att du menar att själva miljön man utvecklar till i Unity är väldigt bra på att utnyttja många trådar? Dokumentationen till Unity verkar annars nämna att majoriteten av alla API-anrop endast får göras från huvudtråden (vilket inte alls är speciellt ovanligt, speciellt inte pre-DX11/Vulkan).

Det betyder självklart inte att ett Unity-baserat spel måste vara enkeltrådat, men det betyder att alla trådar utanför huvudtråden måste synkroniseras med huvudtråden minst en gång per scen om de har någon information som ska bli synlig (denna kommentar är självklart inte till dig @CyberVillain då du vet långt mer om Unity än vad jag gör).

Angående git. Om du tycker git-operationer är sega finns ett tips som ger långt mer effekt jämfört med att försöka skaffa ännu fler kärnor- Och för den som undrar, det är sant att när man byter utvecklingsgren på ett stort git-projekt under Windows så ligger man nära 100 % CPU last under hyfsat lång tid...

Jobbar på ett git-repo som har ~10 miljoner rader kod och är ett gäng gigabyte i storlek. Att byta mellan två relativt närbesläktade grenar (eng. "branch") tar 11-12 sekunder under Windows. Grejen är att samma git-träd på samma dator men där man gör samma operation på en Linux installation körandes i Hyper-V under Windows 10 så tar samma operation rätt exakt en sekund! Tidsdifferensen ökar ju mer de två grenarna divergerat.

Så visst kan man försöka hitta en dator med 50 kärnor, men man lär ändå inte nå prestanda motsvarande en virtualiserad Linux. Själv är det bara en i raden av orsaker till att all min programutveckling sker i Linux, även fast jag kör Windows som desktop OS. Måste man ha Windows/Visual Studio som miljö, vilket lär vara fallet för dig, så kör en virtualiserad Linux där git-operationer utförs och dela ut den katalogen som nätverksdisk.

OBS: man får inte denna prestandaboost om man kör "Linux subsystem under Windows" (a.k.a. "bash i Windows" som rent tekniskt är att köra t.ex. Ubuntu userland på en Windows-kärna). Orsaken verkar vara att Windows I/O-system / filsystem är inte i närheten lika effektivt som Linux när det handlar om extremt många små läsningar/skrivningar som utförs från flera parallella kontext.

Jag pratar enbart om att jobba i Unity nu. Dock händer det mycket i 2018.1 på runtimefronten, då kommer ECS och C# Job system, tex kommer vi använda det för att skapa en sjukt hög nivå på vår ballistiksimulering. Du kommer då kunna skjuta asynkrona raycasts på jobbtråden. VI kommer använda det för att med hög detaljrikedom simulera penetration i olika material osv.

Det är inte själva git som är problemet, vi kör git med LFS. Problemet är om du byter till en branch med kanske 10-20 gigabyte nya art assets, då ska UNity uppdatera sin library cache. Detta snabbas upp rejält med fler kärnor. Sedan har du ju baka ljus, detta skalar linjärt, jag halverade tiden när jag gick från min 4C 3770k@4.5 till min Ryzen 1800x (4.5 ungefär samma single core perf som en 1800x på 3.8). Dock jobbar Unity på att flytta detta till GPU, men när det gäller Unity ska man inte hålla andan.

Unity har en feature för multitrådad distribuering av draw calls kallad Ghraphics jobs. Det är här jag tror framtiden för Multi core lligger inom gaming. Spelar ingen roll hur tight domän du har (spellogiken), tex vår addar 0.5 ms på frame time, när den stora overheaden för CPU är att skicka instruktioner till GPU. Man kan absolut optimera draw calls en del del tex genom att använda texture arrays (kräver DX11 eller nyare). Men på slutet av dagen så kräver hög detaljrikedom många draw calls.

Dock har Unity lång väg kvar för att vi ska se någon förbättring,
Här är en screenshot på Graphics jobs påslaget (DX11)

Här avslaget (DX11)

Som du ser rör sig inte CPU frame timen (övre grafen). Möjligen det ser bättre ut med Vulkan, men Vulkanimplementationen är i kraftig beta i Unity och crashar för mig, enligt Unity för att de måste jobba mer med Single pass rendering (Teknik för att rendera två stereoskopiska kameror i samma pass så det tar mindre draw calls)

Visa signatur