AMD Ryzen 3000 "Matisse" – samlingstråd

Permalänk
Inaktiv
Skrivet av Icte:

Yes, det blir nog väldigt svettigt med ett sådant. Förhoppningsvis inte varmare än 8700K/9700K/9900K, men ja återstår att se när recensionerna dyker upp! Blir det inte för varmt, och om 3900X presterar likvärdigt eller bättre i diverse spel så kan det mycket möjligt bli ett sådant, men för min del är ögonen just nu på 3700X (väldigt prisvärt!) och 3800X (vad döljer prislappen, förutom de lite högre frekvenserna??).

Verkar för övrigt som att ASRock's X570 mITX kort använder LGA115x monteringslösningen för CPU-kylare:

https://youtu.be/XlG9pIE0XDo?t=247

Låter klokt det! Åttakärnig Zen 2 blir nog en trevlig CPU med. Stora frågan är ju vad skillnaderna är mellan de två, om 3700 var utan X hade jag sett en viss poäng med det hela.

Inte helt dumt att återanvända samma monteringslösning, behovet av att byta kylare eller skaffa nya fästen hos den som uppgraderar från ett Intel-system försvinner. Även om en del kylartillverkare skickar ut gratis fästen om man bevisar köp av kylare så slipper man risken att man ska montera ihop systemet och inser att man glömt kylare/fästen.

Skrivet av Överklockad_gasklocka:

Fan, det börjar kännas som att det finns risk för en stor samtidig ekonomisk smäll att köpa ett system baserat kring den här processorserien. Efter alla nyheter vill man ju vänta med nästan allt. Se hur Ryzen 3000-serien presterar, se hur Navi presterar, se vilka minnen som presterar bäst med det, se vad som händer på SSD-fronten i och med PCI express 4.0. Är det nån av er som är spekulanter och har gjort någon form av road map för inköp?

Även om man inte kommer ha nytta av de extrema hastigheterna på såna SSD:er så kanske något händer med prisbilden för de existerande, om det kommer en högre tier?

Angående RAM-minnen så har jag inte riktigt koll på om någon kommit med en kvalificerad gissning på vad som torde vara optimalt för Ryzen 3000.

Jag var inne på bara CPU och moderkort från början men sugen på att dra till med mer minnen. Behöver egentligen byta grafikkort med om jag vill använda alla fyra skärmar samt min Oculus Rift då 3900X saknar grafikdel. Jag har norpat två portar på min 6700Ks grafiklösning i dagsläget, dock fungerar inte dessa speciellt stabilt då de blinkar eller fryser bilden.

Sugen på att stoppa in så mycket NVMe moderkort och budget tillåter. Minst två iallafall, men finns det plats för mer så inte mig emot.

3900X, troligen X570-moderkort, snabbare RAM (2x16GB 3000MHz i dagsläget), en till NVMe på minst 500GB och ett grafikkort som helst ska ersätta ett 1080Ti slutar totalt långt över 10 000kr, troligen över 20 000kr. Så blir nog att försöka hålla i pengarna lite hehe.

Men nog är det kul att klura och planera iallafall?

Permalänk
Medlem
Skrivet av Icte:

2700X släpptes för $329 också och då kostade den 3499 kr i Sverige, så möjligt att 3700X kommer att kosta 4000 kr eller så vid release.

Okej. Jag hade gärna sett 3700X lite billigare jämfört med 3900X. Det kanske är värt att betala de 2000 kr extra för Ryzen 9 och få 4 kärnor och 8 trådar mer. Mycket beror på vad moderkortspriserna hamnar på.

Intervju med en AMD-anställd som jag lyssnar på nu:

Permalänk
Medlem
Skrivet av lasseTM:

Förmodligen lägre "binning" på 3600x och därför kräver högre spänning för att klara angiven klockfrekvens.

Ok, that makes sense, antar att det kan vara så att 3600X hamnar strax över 65W men att den då hamnar utanför 65w kategorin och in på 95W eftersom det är nästa steg helt enkelt.

Skrivet av hipstergamer:

Jag skulle gissa på att de har olika boost-clocks när alla kärnor körs. Rätta mig om jag har fel, men vi har väl bara fått värden på base och 1-core boost?

Fast boost clock är ju densamma 4.4Ghz på bägge. Möjligtvis att 3600X har mycket aggresivare boost, 4.4Ghz 2 kärnor, 4.3Ghz på 4 kärnor 4.2Ghz på 6 kärnor. Medans 3700x kanske kör 4.4ghz på 1 kärna , sen 4.3 på 2 kärnor 4.1 på 4 kärnor och 3.9Ghz på alla 8
.

Skrivet av Jonas79:

Tdp värdet är mätt i Base clock värdet så vad Cpu drar i effekt i Boost läget vet man inte förrens tester finns ute

Det stämmer väl inte. I januari när de jämförde zen 2 mot 9900K i cinnebench så drog hela systemet typ 133watt, ca 60-70watt av dessa var resten av systemet, sedan +65watt för CPUn när cinnebench kördes. Processorn körde då i sin all core boost och drog ca 65 watt.

Visa signatur

[FD R5]--- [B550-E Strix] ---[Ryzen 5900X]--- [Noctua NH-U14S]---[RTX 3080 TUF OC]---[Corsair RM850X V2]---[WD SN850x 1TB]---[TridentZ 2x8gb 3800mhz CL16]---[Predator XB271HU]---[HyperX Cloud Alpha]---[Steelseries Rival]---[Logitech G710 ]----> Win10

Permalänk
Datavetare
Skrivet av Xinpei:

Intressant att du inte riktigt nämnde samma sak i tråden om Intels användning av just Cinebech för att visa deras "15% högre IPC".. Varför är det skämskudde när AMD gör det men inte när Intel gör det?

Finns en rad problem med just Cinebench, de största är

  • de flesta program beror primärt av heltals prestanda, Cinebench är ett rent flyttalstest

  • extremt få program är "embarrassingly parallel", något som Cinebench är. I sig inte ett problem om man nu råkar jobba med sådant, men just rendering är ett "embarrassingly parallel" problem som passar väldigt bra på GPU och sedan något år tillbaka är renderingsprestanad väsentligt högre med GPGPU jämfört med CPU

  • Cinebench är en datapunkt och en punkt som idag är rätt mycket ett extremfall, vilket inte var sant för 10-15 år sedan när Cinebench först introducerades (på den tiden var CB en helt OK indikator på "generell" prestanda då CPUer hade 1-2 kärnor och det var rätt likvärdig IPC differens mellan heltal och flyttal för AMD och Intel, inget av det är längre sant)

Hänger inte riktigt med hur du får det till att Intel får sina 18 % från Cinebench. Skulle faktiskt förvåna mig rejält om Sunny Cove får 18 % högre IPC över Skylake i just Cinebench, de förändringar man gjort ser inte ut att hjälpa den specifika lasten speciellt mycket.

de siffror som används av Intel är ett genomsnitt från ett gäng olika program, bl.a. SPEC som är branch-standard för att mäta server-prestanda samt SysMark som är ett försök till att ge en siffra på typiska desktop program som MS Office, webläsare ets. Man testar _även_ Cinebench

Så lite svårt att se hur det är samma sak som att enbart visa upp Cinebench och Blender. Om du inte ser skillnaden mellan dessa två fall ser jag inte hur vidare diskussion på något sätt vore meningsfullt.

Utöver det finns också läckta siffror från GB4. Av de mer tillgängliga benchmarks som existera idag är GB4 en av de absolut bästa förutsatt att man får tillgång till resultatet för varje deltest. Geekbench förtjänade ett dålig rykte innan version 4, men i version 4 har man gjort väldigt mycket rätt i att man använder verkliga program och bibliotek.

Vad man måste ha i åtanke kring GB4 är att det är en benchmark _specifikt_ designad för att testa "typisk interaktiv användning". D.v.s. testerna körs relativt kort tid och det är en kort paus mellan varje deltest -> enheter med riktigt låg TDP kommer ligga nära sin maximala turbofrekvens, vilket inte alls skulle vara fallet i CB, kompileringstest, spel eller liknande. För CPUer med TDP på runt 100 W fungerar ändå GB4 bra som referens då det testar många olika fall.

GB4 har även ett renderingstest, som för de läckta Ryzen 3600 resultaten visar rätt exakt de 15 % bättre IPC över Zen+. Finns deltester där IPC ökat mer, finns de där de ökat mindre. I genomsnitt över alla test visar GB4 (som jag inte påstår är en absolut sanning, men ändå milsvid bättre än enbart CB då last motsvarande CB ingår som ett av 25 deltest i CB4) på strax under 10 % IPC ökning.

Oavsett om Intel eller AMD använder rendering som mått på CPU-prestanda är det 2019 något som bör stark ifrågasättas då Nvidias/AMDs GPUer borde få en att ställa frågan: vad är poängen när det går flera gånger snabbare med GPGPU? Det även med en relativt enkel GPU.

Detta är mätt i en beta av Blender 2.8, GPGPU-koden är mer trimmad idag. Vidare är detta utan stöd för RT-kärnorna, flertalet kommersiella renderingsprogram har även stöd för RT-kärnor som ger 3-5 gånger extra prestanda på RTX-serien. Ett RTX2070 är mer än dubbelt så snabb som 2700X, om renderingsprestanda är primärt kan man välja t.ex. OctaneRender, V-ray eller liknande så ökar skillnaden till upp mot en tiopotens

Och för mig personligen handlar det primärt att sätta påstådd IPC förbättring i relation mot vad som faktiskt ändrats i mikroarkitekturen. Har väldigt svårt att se hur Zen+ -> Zen2 kan få 15 % i genomsnitt om Skylake -> Sunny Cove får 18 %, det är klart större förändringar i det senare steget (men båda får ändå skämmas lite då Cortex A76 matchar Zen+/Skylake i IPC och ett år senare lanseras uppföljaren med ~20 % högre IPC, ARM har så här långt faktiskt levererat minst de IPC förbättringar man lovat).

Är AMD respektive Intel som hävdar 15 % respektive 18 % högre IPC. Den exakta nivån är omöjlig för något att säga då det beror kraftigt på användarfall. Tror dock att skillnaden kommer vara större i praktiken, det enbart baserat på nivån på skillnader i mikroarkitektur över föregående modell för respektive företag. Men är självklart en gissning i detta läge!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av sweisdapro:

Värt att tänka på är att den ligger på 1.517V när den kör sin cinebench, min 1700 låg nästan på 80 grader när jag körde 1.4V genom den.
Jag tror inte att 3000-serien kommer vara speciellt varm

Skickades från m.sweclockers.com

Nä 3000 serien som helhet kommer inte gå direkt varm men man ska inte glömma att boost funktionerna är designade att nyttja outnyttjade marginaler både för ström & för temperaturer vilket automagiskt håller uppe temp en del. Med det sagt så kommer en överklockad 16c inte vara direkt kall, inbillar man sig att en 16c på OC skulle vara "kall" lär man nog se över sina definitioner. Sen så låg enligt vad jag fick fram riktig intern vcore runt eller precis under 1.4V under load vid 4.1GHz för den överklockade 16c när den drog 245w package power & hade temp runt 82-83 tdie. Sen ska man ha i åtanke att 1.4V med all sannolikhet inte är jättebra i längden på 7nm processen, det kan hända att spänningen är ganska hög original & då gör det inte så mycket och det kanske är liknande gränser som för gen 1 Zen men följer det normal utveckling så borde vcore sjunka med krympt process så som det gjorde med Zen+, med Zen+ sjönk max vcore du kunde köra innan du degraderade betydligt snabbare än vid stock jämfört Zen. Om man utgår från att det då istället följer normal utveckling så kan man anta att runt 1.5vcore+ är riktigt ohälsosamt som 24/7 klockning för Zen2.

Vad som i slutändan gäller för Zen2 lär vi med tiden bli varse, den kan tåla mer spänning eller betydligt mindre, time will tell.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av TKD_1337:

Okej. Jag hade gärna sett 3700X lite billigare jämfört med 3900X. Det kanske är värt att betala de 2000 kr extra för Ryzen 9 och få 4 kärnor och 8 trådar mer. Mycket beror på vad moderkortspriserna hamnar på.

Intervju med en AMD-anställd som jag lyssnar på nu:

https://www.youtube.com/watch?v=ml7rHtCHoFE.

Mycket intressant! Vad jag kan utröna av det är att 3900X komme vara bäst både på single och multithread så då slipper man ju välja mellan kärnor och prestanda

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Inaktiv
Skrivet av Xinpei:

Beror fullständigt vad du gör med datorn. Ska du spela något som helst semi-nytt AAA spel så kan du glömma att Dual-cores fungerar idag.

#17923741

Skrivet av Xinpei:

De flesta dual-cores går dock på knäna om man börjar sitta uppe med en massa chromeflikar samt exstensions.

Det har jag ingen koll på, sitter typ aldrig med många flikar (trots sexkärnig processor).

Permalänk
Medlem
Skrivet av anon42512:

#17923741

Det har jag ingen koll på, sitter typ aldrig med många flikar (trots sexkärnig processor).

Att man "klarar sig" på en dualcore idag är inte det samma som att man inte bör köpa en dual core, eller quad core. Kikar man sedan på kostnad vs prestanda så finns det idag & med kommande lanseringar ännu mindre poäng att rekommendera något mindre än 6c. Visst finns det use cases där du kan klara dig med en dual core men det kommer inte vara en angenäm upplevelse när du behöver uppdatera windows eller köra en virusscanning i bakgrunden medans du gör något annat, har en i3a med HT ståendes och den är inte super kul att använda till annat än lättare browsing & hårdvaruavkodad video, skulle den sakna HT vore det en veritabel mardröm att bruka på modern mjukvara. 4 tillgängliga kärnor logiska eller fysiska är ett absolut minimum idag oavsett vad du gör om du kör windows 8-10 som OS i mitt tycke.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av Ozzed:

Mycket intressant! Vad jag kan utröna av det är att 3900X komme vara bäst både på single och multithread så då slipper man ju välja mellan kärnor och prestanda

Låter riktigt lovande och går dom inte varma som 9900K lär det bli 3900X i mitt Ghost S1 chassi med Nzxt X52 kraken.

Visa signatur

Chassi: Ssupd Meshroom S V2, Moderkort: Gigabyte Aorus X570I Pro Wifi, Processor:Ryzen 7 5800X3D , Cpu kylare: EK-AIO Elite 280 D-RGB Minnen Gskill Ripsaw 16 Gb Cl16 3600 mhz,Startdisk:SSD Samsung 970 Evo plus 1 TB , Grafikkort:PNY RTX4070TI Super Verto Oc PSU: Corsair SF850L Skärm: ASUS ROG Swift PG278Q Tillbehör: Logitech G903 & Funk KB460 , Logitech Z520 datorhögtalare.

Permalänk
Medlem
Skrivet av Yoshman:

Oavsett om Intel eller AMD använder rendering som mått på CPU-prestanda är det 2019 något som bör stark ifrågasättas då Nvidias/AMDs GPUer borde få en att ställa frågan: vad är poängen när det går flera gånger snabbare med GPGPU? Det även med en relativt enkel GPU.

Detta är mätt i en beta av Blender 2.8, GPGPU-koden är mer trimmad idag. Vidare är detta utan stöd för RT-kärnorna, flertalet kommersiella renderingsprogram har även stöd för RT-kärnor som ger 3-5 gånger extra prestanda på RTX-serien. Ett RTX2070 är mer än dubbelt så snabb som 2700X, om renderingsprestanda är primärt kan man välja t.ex. OctaneRender, V-ray eller liknande så ökar skillnaden till upp mot en tiopotens
https://cdn.sweclockers.com/artikel/diagram/16503?key=21aba4026136b4076a60b0a0f6df1114

Ja, om man verkligen ska ha datorn primärt för t ex blender eller motsvarande, som kan använda grafikkort, då är det rimligare att t ex skaffa ett ytterligare för samma pengar som ny processor, moderkort och ev minne skulle kosta.

Stöd för RT-kärnor i just blender verkar tyvärr dröja länge.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av cyklonen:

Ja, om man verkligen ska ha datorn primärt för t ex blender eller motsvarande, som kan använda grafikkort, då är det rimligare att t ex skaffa ett ytterligare för samma pengar som ny processor, moderkort och ev minne skulle kosta.

Stöd för RT-kärnor i just blender verkar tyvärr dröja länge.

Fast håller man verkligen på med Blender så kör man hybrid läge som nyttjar cpu & gpu och då vill du ha en del kärnor tillgängliga, finns tester ute på detta sedan ett tag tillbaka och det kapar renderingstider rätt markant jämfört gpu only. Detta gäller även andra mjukvaror för rendering av exempelvis video där vissa delmoment faktiskt fortfarande utförs snabbare av just manycore cpuer kontra gpuer. Att rakt av säga att cpu eller gpu är bäst för content creation blir lite missvisande då det beror väldigt mycket på vilken mjukvara du kör och hur du i slutändan nyttjar den.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Inaktiv
Skrivet av tellus82:

Att man "klarar sig" på en dualcore idag är inte det samma som att man inte bör köpa en dual core, eller quad core. Kikar man sedan på kostnad vs prestanda så finns det idag & med kommande lanseringar ännu mindre poäng att rekommendera något mindre än 6c. Visst finns det use cases där du kan klara dig med en dual core men det kommer inte vara en angenäm upplevelse när du behöver uppdatera windows eller köra en virusscanning i bakgrunden medans du gör något annat, har en i3a med HT ståendes och den är inte super kul att använda till annat än lättare browsing & hårdvaruavkodad video, skulle den sakna HT vore det en veritabel mardröm att bruka på modern mjukvara. 4 tillgängliga kärnor logiska eller fysiska är ett absolut minimum idag oavsett vad du gör om du kör windows 8-10 som OS i mitt tycke.

Sen har vi såna som min mamma som fortfarande klarar sig på en Pentium dual core som är typ sandy bridge.

Permalänk
Medlem
Skrivet av anon42512:

Sen har vi såna som min mamma som fortfarande klarar sig på en Pentium dual core som är typ sandy bridge.

Att sitta på en pentium dual core sandy är inte en rolig upplevelse idag, att man "klarar sig" är som sagt inte riktigt poängen. Jag kan använda skor som är 2 nummer för små, det är dock inte en angenäm upplevelse...

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av tellus82:

Fast håller man verkligen på med Blender så kör man hybrid läge som nyttjar cpu & gpu och då vill du ha en del kärnor tillgängliga, finns tester ute på detta sedan ett tag tillbaka och det kapar renderingstider rätt markant jämfört gpu only. Detta gäller även andra mjukvaror för rendering av exempelvis video där vissa delmoment faktiskt fortfarande utförs snabbare av just manycore cpuer kontra gpuer. Att rakt av säga att cpu eller gpu är bäst för content creation blir lite missvisande då det beror väldigt mycket på vilken mjukvara du kör och hur du i slutändan nyttjar den.

Kanske det. Jag har själv testat i blender (både 2.79b med Turing-stöd, och en 2.8 beta) för att se hur stor skillnaden blir, och med min 2080 Ti kombinerat med 8600K (6c/6t) så handlar det om några procent kortare renderingstid jämfört med enbart grafikkortet. Lite pga att grafikkortet gillar större tile size medan processorn funkar bättre med små. Optimalt hade varit att ställa in så att processorn får en enda tile att rendera i taget, men att den sen kan delas upp i delar för att matcha processortrådarna. Kör man med stora tiles så kan det bli lång väntan på ett par av processorns på slutet. Ett annat alternativ hade varit att dumpa det redan framräknade i den tile som dröjer, och låta grafikkortet ta över direkt när det är ledigt.

Lite OT, men i alla fall...

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Skrivet av anon5930:

Jag var inne på bara CPU och moderkort från början men sugen på att dra till med mer minnen. Behöver egentligen byta grafikkort med om jag vill använda alla fyra skärmar samt min Oculus Rift då 3900X saknar grafikdel. Jag har norpat två portar på min 6700Ks grafiklösning i dagsläget, dock fungerar inte dessa speciellt stabilt då de blinkar eller fryser bilden.

Sugen på att stoppa in så mycket NVMe moderkort och budget tillåter. Minst två iallafall, men finns det plats för mer så inte mig emot.

3900X, troligen X570-moderkort, snabbare RAM (2x16GB 3000MHz i dagsläget), en till NVMe på minst 500GB och ett grafikkort som helst ska ersätta ett 1080Ti slutar totalt långt över 10 000kr, troligen över 20 000kr. Så blir nog att försöka hålla i pengarna lite hehe.

Men nog är det kul att klura och planera iallafall?

Förstår om du är sugen på lite snabbare RAM då, om än kanske mängden RAM du har känns synd att dumpa, men det är ju en någorlunda lättsåld grej iaf (särskilt packningsmässigt). Är det p.g.a. de nya hastigheterna, eller p.g.a. den "extra lagringskapaciteten inom något som är bättre än SATA" som du vill ha fler NVMe-diskar?

Ja, själv hade jag även velat ha en ny tv. Är rädd att om alla de här grejerna blir för dyra så kommer man antingen köpa något i mellanklass och få en bitter eftersmak att man missat nåt, eller kanske inte märker så mycket prestandaförbättring, eller köper dyrt och får en bitter eftersmak att man pungslog sig alldeles för grovt. Dock har jag nog inget emot att låta det gå en månad eller två mellan komponentinköpen, ska också basera det lite på när Cyberpunk 2077 ska släppas.

Visa signatur

Dator 1: MSI Tomahawk Max, Ryzen 3700X, Sapphire Pulse RX 5700 XT, Ballistix Elite 4x8 GB 3200 MHz cl15, Corsair Force MP510 960 GB, Scythe Kaze Master Pro, Plusdeck 2c Dator 2: Lenovo ThinkPad T480s

Permalänk
Medlem
Skrivet av cyklonen:

Kanske det. Jag har själv testat i blender (både 2.79b med Turing-stöd, och en 2.8 beta) för att se hur stor skillnaden blir, och med min 2080 Ti kombinerat med 8600K (6c/6t) så handlar det om några procent kortare renderingstid jämfört med enbart grafikkortet. Lite pga att grafikkortet gillar större tile size medan processorn funkar bättre med små. Optimalt hade varit att ställa in så att processorn får en enda tile att rendera i taget, men att den sen kan delas upp i delar för att matcha processortrådarna. Kör man med stora tiles så kan det bli lång väntan på ett par av processorns på slutet. Ett annat alternativ hade varit att dumpa det redan framräknade i den tile som dröjer, och låta grafikkortet ta över direkt när det är ledigt.

Lite OT, men i alla fall...

6 tillgängliga trådar på CPU är inte i närheten tillräckligt att ge den boost du annars kan få, 24 och uppåt är kanske mer rekommenderat för att se en stor effekt

Skickades från m.sweclockers.com

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Inaktiv
Skrivet av Överklockad_gasklocka:

Förstår om du är sugen på lite snabbare RAM då, om än kanske mängden RAM du har känns synd att dumpa, men det är ju en någorlunda lättsåld grej iaf (särskilt packningsmässigt). Är det p.g.a. de nya hastigheterna, eller p.g.a. den "extra lagringskapaciteten inom något som är bättre än SATA" som du vill ha fler NVMe-diskar?

Ja, själv hade jag även velat ha en ny tv. Är rädd att om alla de här grejerna blir för dyra så kommer man antingen köpa något i mellanklass och få en bitter eftersmak att man missat nåt, eller kanske inte märker så mycket prestandaförbättring, eller köper dyrt och får en bitter eftersmak att man pungslog sig alldeles för grovt. Dock har jag nog inget emot att låta det gå en månad eller två mellan komponentinköpen, ska också basera det lite på när Cyberpunk 2077 ska släppas.

För mig är det snabbare RAM, speciellt om jag kan få tag i 4000MHz eller högre och 2x16GB. Men känns som det lär kosta mer än det smakar. Mina minnen är inte speciellt optimala för Ryzen så hade gärna haft lite bättre minnen. Kommer inte vilja gå ner till 16GB igen så lutar starkt åt att skippa minnesköp.

Dubbla (eller fler) NVMe för att spara plats. Nu räcker det egentligen om två lagringsenheter är NVMe (Windows 10 och gärna möjlighet på en egen enhet för eventuell Kubuntu-installation), de övriga kan lika väl vara SATA i M.2 formfaktor. Då jag är sugen på moderkortsstorlek i ITX-klassen (Ncase M1) så blir utrymmet mer begränsat rent fysiskt. Blir det ATX så har jag mer utrymme (Fractal Design R5 Blackout med fönster) och kan få plats med vanliga 2,5" SATA-enheter.

Förstår dig där! Bra att kunna kompromissa men snålar man lite för mycket kommer man bli evigt påmind om det så länge man har sina prylar. Lättast, kanske, att prioritera. Ju oftare man använder prylen, desto mer borde man kunna kosta på den.

Vad sneglar du på för TV i dagsläget?

Själv köpte jag en LG OLED 55B7V förra året, som ersatte en då drygt 10 år gammal Sony TV. Jag hade tittat på TVs under 10 000kr innan men när denna sjönk till 13000kr precis innan den slutade säljas så slog jag till. Något jag ångrade ganska fort var att jag skulle ha köpt 65" istället (vilket då kostade runt 20 000-22000kr) vilket dels var långt över budget men den större bildytan hade varit tacksam efter jag flyttat om TVn i lägenheten. TVn duger bra nog, uppskattar den tid jag spenderar vid den men det blir oftast inte jättemånga timmar i veckan, såvida jag inte håller på och plöjer igenom någon TV-serie eller spelar något spel på den. Hade hellre kostat på någon av mina datorer då men fanns inget att uppgradera med så gick det att använda av datorbudgeten för 2018.

Sen har jag ett kanske konstigt sett att se på köp, när jag inser att jag spenderar alldeles för mycket tid på att researcha produkten och också håller i sig över ett par dagar slår jag oftast till. Det är då inte riktigt ett impulsköp hehe. Även om sådanna i sällsynta fall också händer.

Att sprida ut köpen över någon månad, där det går då hehe, moderkort och CPU behövs ju köpas samtidigt iallafall, är nog klokt.

Jag ser också fram emot Cyberpunk 2077! Hade för mig att jag läste/hörde att spelet skulle släppas våren 2019 men det stämmer ju dessvärre inte. Jag hoppas vi får se lanseringsdatum eller iallafall period nu under E3. CDPR får ta den tid de behöver förstås men nog är man sugen efter tidigare uppvisningar av spelet.

Permalänk
Skrivet av anon5930:

För mig är det snabbare RAM, speciellt om jag kan få tag i 4000MHz eller högre och 2x16GB. Men känns som det lär kosta mer än det smakar. Mina minnen är inte speciellt optimala för Ryzen så hade gärna haft lite bättre minnen. Kommer inte vilja gå ner till 16GB igen så lutar starkt åt att skippa minnesköp.

Dubbla (eller fler) NVMe för att spara plats. Nu räcker det egentligen om två lagringsenheter är NVMe (Windows 10 och gärna möjlighet på en egen enhet för eventuell Kubuntu-installation), de övriga kan lika väl vara SATA i M.2 formfaktor. Då jag är sugen på moderkortsstorlek i ITX-klassen (Ncase M1) så blir utrymmet mer begränsat rent fysiskt. Blir det ATX så har jag mer utrymme (Fractal Design R5 Blackout med fönster) och kan få plats med vanliga 2,5" SATA-enheter.

Förstår dig där! Bra att kunna kompromissa men snålar man lite för mycket kommer man bli evigt påmind om det så länge man har sina prylar. Lättast, kanske, att prioritera. Ju oftare man använder prylen, desto mer borde man kunna kosta på den.

Vad sneglar du på för TV i dagsläget?

Själv köpte jag en LG OLED 55B7V förra året, som ersatte en då drygt 10 år gammal Sony TV. Jag hade tittat på TVs under 10 000kr innan men när denna sjönk till 13000kr precis innan den slutade säljas så slog jag till. Något jag ångrade ganska fort var att jag skulle ha köpt 65" istället (vilket då kostade runt 20 000-22000kr) vilket dels var långt över budget men den större bildytan hade varit tacksam efter jag flyttat om TVn i lägenheten. TVn duger bra nog, uppskattar den tid jag spenderar vid den men det blir oftast inte jättemånga timmar i veckan, såvida jag inte håller på och plöjer igenom någon TV-serie eller spelar något spel på den. Hade hellre kostat på någon av mina datorer då men fanns inget att uppgradera med så gick det att använda av datorbudgeten för 2018.

Sen har jag ett kanske konstigt sett att se på köp, när jag inser att jag spenderar alldeles för mycket tid på att researcha produkten och också håller i sig över ett par dagar slår jag oftast till. Det är då inte riktigt ett impulsköp hehe. Även om sådanna i sällsynta fall också händer.

Att sprida ut köpen över någon månad, där det går då hehe, moderkort och CPU behövs ju köpas samtidigt iallafall, är nog klokt.

Jag ser också fram emot Cyberpunk 2077! Hade för mig att jag läste/hörde att spelet skulle släppas våren 2019 men det stämmer ju dessvärre inte. Jag hoppas vi får se lanseringsdatum eller iallafall period nu under E3. CDPR får ta den tid de behöver förstås men nog är man sugen efter tidigare uppvisningar av spelet.

Undrar om det kommer vara minnen med högre hastigheter på ingående på marknaden eller om man kommer få nöja sig med de som finns om man ska köpa till nya Ryzen? Om den nu skulle palla upp till 5000 mHz. Ja det lär ju bli dyrt nog som det är att köpa 32 GB 4000 mHz. 3600 mHz cl16 verkar väl ha okej priser nu.

Vad gäller tv så är jag i så fall helt såld på idén med Samsungs nya som har möjlighet till både 4k, 1440p och 1080p-gaming och 120 Hz (och Freesync, därav intresset för Navi). Detta eftersom jag har tv som spelskärm. 55 tum räcker gott och väl.

Jag brukar inte röra mig med så mycket pengar så det får bli ganska avvägda inköp, däremot resonerar jag som så att det jag faktiskt är intresserad av och håller på med till vardags, kan få kosta. Men då blir det desto svårare att motivera vissa priser för vissa enskilda komponenter som kanske inte lyfter helheten så jättemycket.

Ja, jag har svårt att avgöra om det kan tänkas vara ett spel som får en snar release när det väl avslöjas, som Fallout 76, eller om det blir nåt drygt år från avslöjandet.

Vilken av processorerna är det du siktar på?

Visa signatur

Dator 1: MSI Tomahawk Max, Ryzen 3700X, Sapphire Pulse RX 5700 XT, Ballistix Elite 4x8 GB 3200 MHz cl15, Corsair Force MP510 960 GB, Scythe Kaze Master Pro, Plusdeck 2c Dator 2: Lenovo ThinkPad T480s

Permalänk
Medlem
Skrivet av tellus82:

Att sitta på en pentium dual core sandy är inte en rolig upplevelse idag, att man "klarar sig" är som sagt inte riktigt poängen. Jag kan använda skor som är 2 nummer för små, det är dock inte en angenäm upplevelse...

Jag klagar inte när jag sitter med 4-5 flikar, lyssnar på en twitch stream och spelar wow. Sitter med en i3 ivybridge. Flyter på fint tycker jag, jämn fps och inga hack i det jag har i bakgrunden heller.

Skickades från m.sweclockers.com

Visa signatur

Moderkort: ASRock H61M- DGS, Processor: Intel i3 3225, Grafik: GTX 460SE, RAM 2x4 GB 1600MHz ddr3 , 1TB HDD Seagate Barracuda, 450W Antec VP450P PSU och en stor svart jävla låda.

Permalänk
Medlem
Skrivet av qwzxqwzx:

Jag klagar inte när jag sitter med 4-5 flikar, lyssnar på en twitch stream och spelar wow. Sitter med en i3 ivybridge. Flyter på fint tycker jag, jämn fps och inga hack i det jag har i bakgrunden heller.

Skickades från m.sweclockers.com

Din core i3 är ju snabbare än en Sandy bridge pentium på flera sätt.
Högre frekvens, högre ipc, 4 trådar istället för 2 och snabbare gpu om man använder den.

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Medlem

Bättre minnen verkar komma, Hynix ryktas ha ett nytt superchip som skall vara bättre än Samsung B-die på alla sätt, även Samsung har nya minneschip som vi inte vet hur dom presterar ännu.

Skickades från m.sweclockers.com

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

@the squonk: jag vågade inte ta risken och klickade hem ett likadant kit som jag redan har för att satsa på 32GB 3200cl14 till Ryzen 3000 (4x8) XD

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Inaktiv

Är det någon som vet någonting mer om spelprestandan på Ryzen 3000?
Har sökt runt på flera sajter gällande "speltestet" mellan 9900K och 3800X i PUBG men alla rapporterar bara att de båda höll ungefär samma framerate. Nu är jag ingen PUBG spelare men generellt sett så säger en sådan video ingenting om prestandan om man inte vet variablerna.

Det jag undrar är vilken GPU de använde, vilken upplösning etc? Alltså, var de CPU bundna i det testet? Alla tekniksajter verkar bara ha svalt presentationen med hull och hår och litar blint på att de presterar likvärdigt. Eller föregicks presentationen av någon ytterligare information?

Permalänk
Medlem
Skrivet av anon12433:

Är det någon som vet någonting mer om spelprestandan på Ryzen 3000?
Har sökt runt på flera sajter gällande "speltestet" mellan 9900K och 3800X i PUBG men alla rapporterar bara att de båda höll ungefär samma framerate. Nu är jag ingen PUBG spelare men generellt sett så säger en sådan video ingenting om prestandan om man inte vet variablerna.

Det jag undrar är vilken GPU de använde, vilken upplösning etc? Alltså, var de CPU bundna i det testet? Alla tekniksajter verkar bara ha svalt presentationen med hull och hår och litar blint på att de presterar likvärdigt. Eller föregicks presentationen av någon ytterligare information?

Nej, verkar inte finnas någon information om detta (varken från golvet på Computex eller läckta). Bara att hålla ut och vänta i några veckor till!

Visa signatur

12c/24t 4.0GHz (Zen2) • 2x16GiB 3200MHz C14 • RTX 2080 FE 1965MHz 7000MHz • X570 I PW • Ghost S1 MKII

Permalänk
Medlem
Skrivet av anon12433:

Är det någon som vet någonting mer om spelprestandan på Ryzen 3000?
Har sökt runt på flera sajter gällande "speltestet" mellan 9900K och 3800X i PUBG men alla rapporterar bara att de båda höll ungefär samma framerate. Nu är jag ingen PUBG spelare men generellt sett så säger en sådan video ingenting om prestandan om man inte vet variablerna.

Det jag undrar är vilken GPU de använde, vilken upplösning etc? Alltså, var de CPU bundna i det testet? Alla tekniksajter verkar bara ha svalt presentationen med hull och hår och litar blint på att de presterar likvärdigt. Eller föregicks presentationen av någon ytterligare information?

Har för mig att det var i 1080p med ett 2080Ti i alla fall

Skickades från m.sweclockers.com

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Inaktiv
Skrivet av tellus82:

Att sitta på en pentium dual core sandy är inte en rolig upplevelse idag, att man "klarar sig" är som sagt inte riktigt poängen. Jag kan använda skor som är 2 nummer för små, det är dock inte en angenäm upplevelse...

Inget oangenämt att använda den datorn för det den är till för.

Permalänk
Hedersmedlem

Uppmaning från Moderator

Skrivet av anon42512:

Inget oangenämt att använda den datorn för det den är till för.

Nu tycker jag vi släpper offtopic-diskussionen om huruvida en dual core är tillräckligt år 2019 eller ej, såvida vi inte på något sätt kan få det att handla om Ryzen 3000 Matisse.

Med vänlig hälsning,
pv2b (Moderator)

Permalänk
Medlem

Ja, när kan man förboka 3900X?

Skickades från m.sweclockers.com

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Inaktiv
Skrivet av Överklockad_gasklocka:

Undrar om det kommer vara minnen med högre hastigheter på ingående på marknaden eller om man kommer få nöja sig med de som finns om man ska köpa till nya Ryzen? Om den nu skulle palla upp till 5000 mHz. Ja det lär ju bli dyrt nog som det är att köpa 32 GB 4000 mHz. 3600 mHz cl16 verkar väl ha okej priser nu.

Vad gäller tv så är jag i så fall helt såld på idén med Samsungs nya som har möjlighet till både 4k, 1440p och 1080p-gaming och 120 Hz (och Freesync, därav intresset för Navi). Detta eftersom jag har tv som spelskärm. 55 tum räcker gott och väl.

Jag brukar inte röra mig med så mycket pengar så det får bli ganska avvägda inköp, däremot resonerar jag som så att det jag faktiskt är intresserad av och håller på med till vardags, kan få kosta. Men då blir det desto svårare att motivera vissa priser för vissa enskilda komponenter som kanske inte lyfter helheten så jättemycket.

Ja, jag har svårt att avgöra om det kan tänkas vara ett spel som får en snar release när det väl avslöjas, som Fallout 76, eller om det blir nåt drygt år från avslöjandet.

Vilken av processorerna är det du siktar på?

Jo bra fråga det. Minnen på minst 3200MHz borde nog vara bra nog. Över 4000MHz för de som verkligen vill klämma ur all prestanda de kan ur systemet. Jag antar att nyare Ryzen än 1000-serien fortfarande inte hanterar 3000MHz bra (mina körs i 2933MHz).

Låter klokt! Någon av Samsungs QLEDs? Och just Freesync/VESA Adaptive Sync är något jag önskat min LG hade med. Men nästa TV, om ett par år så är det förhoppningsvis standard.
Kör du Xbox One X med eller bara PC? Just 2560x1440 och Adaptive Sync är ju något som stöds även med den idag.

Låter klokt även det. Jo, en del komponenter kommer verkligen dra iväg i pris. Grafikkort speciellt, men samtidigt en ganska vital del i en speldator.

Känns lite som att CDPR kommer släppa spelet när de verkligen känner sig klar. Fallout 76 känns nästan framstressad av vad jag sett. Och efter Witcher 3 (spelat igenom tre gånger sedan lanseringen) så är förväntningarna väldigt höga med.

3900X här, vill gärna ha 12-kärnigt. Kanske 16-kärnigt beroende på om jag kan motivera behovet/kostnaden och kylning. Då jag uppgraderar från en fyrkärnig 6700K så blir det även med en åttakärnig Zen 2 en dubblering sett till kärnor. Men inget är hugget i sten ännu förstås.
Lika för dig eller blir det åttakärnigt?

Permalänk
Avstängd
Skrivet av anon12433:

Är det någon som vet någonting mer om spelprestandan på Ryzen 3000?
Har sökt runt på flera sajter gällande "speltestet" mellan 9900K och 3800X i PUBG men alla rapporterar bara att de båda höll ungefär samma framerate. Nu är jag ingen PUBG spelare men generellt sett så säger en sådan video ingenting om prestandan om man inte vet variablerna.

Det jag undrar är vilken GPU de använde, vilken upplösning etc? Alltså, var de CPU bundna i det testet? Alla tekniksajter verkar bara ha svalt presentationen med hull och hår och litar blint på att de presterar likvärdigt. Eller föregicks presentationen av någon ytterligare information?

Omöjligt att svara på idag men på E3 borde det bli mer om spelandet.

överklockning kommer
https://www.pcgamesn.com/amd/ryzen-3000-cpu-overclocking

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)