AMD Ryzen 9 9950X3D – AMD överträffar sig själva

Permalänk
Medlem
Skrivet av InfectiousII:

Ja, det är klart att det kommer märkas skillnad med ett 5090.

Nja, inte riktigt, 720p och 1080p verkar inte stämma överens heller inte alltid. Oavsett 5090 eller 4090 på testbänk. Cyberpunk 2077 är bland annat ett av de spelen som ibland påvisar både bättre och sämre prestanda med 9950x3D gentemot 9800x3d. Toms Hardware t.ex, som också använt sig av ett 5090. Sen finns det lite diverse YouTube-kreatörer (som kanske inte är de bästa källorna alltid) som Gamers Nexus samt Hardware Unboxed påvisar bättre resultat over-all resultet än vad TPU gör, och skulle väl ändå klassas som om de ändå har ett över medelmåttigt/bra anseende idag.

Det är nog bara jag som tycker det är märkligt med att processorn hamnar på andra plats med ett 5090 när den jämförs med en testbänk med en 9800X3D, medans den hamnar på första plats med ett 4090 jämfört med en 9800X3D i vissa tester? Lyftet med ett 5090 borde väl rimligtvis fortsätta hålla den på första plats? Eller tänker jag helt galet någonstans här?

Men ja, åter igen, hårklyveri.

Nej, såklart, det inte är rimligt att någon sitter och uppdaterar BIOS inför varenda benchmark vid nysläpp, varje gång. Det är ju ett hästjobb utan dess like. Jag omformulerar mig lite. Ställer mig bara frågande till om det faktiskt gjordes någon efterforskning om det var någon skillnad. Vi vet ju alla hur day-one patches kan påverka.

Tycker att 9800X3D borde kunna vara snabbare ibland pga en enda CCD och enbart 8 kärnor att driva. TPU och HBU kör olika moderkort och olika timings på RAM, kan påverka små mängder.

Sedan är 5090 fortfarande ganska nytt, kan vara lite driverkonstigheter som gör att det och 4090 beter sig olika i likanande scenarion.

Men viss varians är ju normalt mellan reviewers, därför det är värt att kolla om aggregerat reviews på reddit, eller iallafall kolla flera reviews.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av InfectiousII:

Ja, det är klart att det kommer märkas skillnad med ett 5090.

Nja, inte riktigt, 720p och 1080p verkar inte stämma överens heller inte alltid. Oavsett 5090 eller 4090 på testbänk. Cyberpunk 2077 är bland annat ett av de spelen som ibland påvisar både bättre och sämre prestanda med 9950x3D gentemot 9800x3d. Toms Hardware t.ex, som också använt sig av ett 5090. Sen finns det lite diverse YouTube-kreatörer (som kanske inte är de bästa källorna alltid) som Gamers Nexus samt Hardware Unboxed påvisar bättre resultat over-all resultet än vad TPU gör, och skulle väl ändå klassas som om de ändå har ett över medelmåttigt/bra anseende idag.

Det är nog bara jag som tycker det är märkligt med att processorn hamnar på andra plats med ett 5090 när den jämförs med en testbänk med en 9800X3D, medans den hamnar på första plats med ett 4090 jämfört med en 9800X3D i vissa tester? Lyftet med ett 5090 borde väl rimligtvis fortsätta hålla den på första plats? Eller tänker jag helt galet någonstans här?

Men ja, åter igen, hårklyveri.

Nej, såklart, det inte är rimligt att någon sitter och uppdaterar BIOS inför varenda benchmark vid nysläpp, varje gång. Det är ju ett hästjobb utan dess like. Jag omformulerar mig lite. Ställer mig bara frågande till om det faktiskt gjordes någon efterforskning om det var någon skillnad. Vi vet ju alla hur day-one patches kan påverka.

När det gäller just TPU's test så verkar det som om dom faktiskt testade alla processorer igen vilket skulle kunna förklara att skillnaderna är mindre i deras test:

Test Setup

All applications, games, and processors are tested with the drivers and hardware listed below—no performance results were recycled between test systems.
All games and applications are tested using the same version.
All games are set to their highest quality setting unless indicated otherwise.

https://www.techpowerup.com/review/amd-ryzen-9-9950x3d/5.html

Detta skulle kunna innebära att de övriga processorerna helt enkelt är snabbare idag gentemot när de testades första gången och om någon av övriga testare där ute återanvände sina test så blir det missvisande.

Sen så använder Toms Hardware In-Game test vilket sannolikt innebär att dom spelar utvald sekvens ur spelen. TPU använder Custom Scene test vilket mycket väl skulle kunna vara samma sak som Toms Hardware använder fast då kanske inte exakt samma sekvens vilket kan förklara skillnader i fps.

Visa signatur

[AMD Ryzen 9 9950X][Gigabyte X870E Aorus Elite][G.Skill Trident Z5 NEO DDR5 6400Mhz 32GB CL-32-39-39-102][ASUS GeForce RTX 3090 ROG Strix OC][Samsung 990 PRO M.2 NVMe SSD 2TB, Seagate FireCuda Gaming Hub 16TB][Noctua NH-D15 chromax.black][Corsair AX1600i][Xigmatek Elysium][Samsung S27B970D]

Permalänk
Medlem

Synd bara att moderkorten suger om man behöver många pci-e platser (linor) & threadripper e för dyrt känns otroligt fånigt med denna processor & handikappat moderkort, men imponerande prestanda på processorn så klart

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av Palme_570:

varför inte, funkar fin fint i itx för mig

Du har kanske plats för större kylare. Dan Case A4 är jäkligt snål på CPU-delen.

Visa signatur

DAN Cases A4-SFX | AMD Ryzen 7 9800X3D | Thermalright AXP90-X47 Full Copper |
INNO3D GeForce RTX 4070 Ti SUPER 16GB Twin X2 | Kingston 32GB (2x16GB) DDR5 6000MHz CL30 | ASUS ROG Strix B650E-I Gaming WIFI | Samsung 960 EVO 1TB | Corsair SF-600

Permalänk
Medlem
Skrivet av Mindfighter:

De är duktiga på GPU:er. bara att Nvidia var först med ray-tracing och satsade tidigare på mjukvaru-delen och därmed ligger före nu.

Skulle nog säga att det är en hel del annat som ligger bakom, gaming segmentet är det minsta som drar in pengar för Nvidia. Det är enterprise segmenten som ger pengar och därmed mer budget.

Nvidia är liksom 20 gånger större än vad AMD är och de fokuserar enbart på GPUs medans AMD gör flertalet produkter.

Visst att de var först med Ray tracing osv, dock med tanke på hur lång tid som passerat och deras enorma resurser, så borde de har kommit mycket längre med utvecklingen. Därmed tror jag inte att det är en av de drivande faktorerna.

Nvidia har varit bra mycket framför AMD under väldigt lång tid nu, är dessvärre egentligen inte ens en strid.
AMD har ju dessutom dragit sig ur high end segmentet av en anledning. Tråkigt för oss konsumenter i slutändan. Nvidia är helt enkelt för stora för att kunna konkurrera med idag.

Permalänk
Medlem
Skrivet av Mindfighter:

De är duktiga på GPU:er. bara att Nvidia var först med ray-tracing och satsade tidigare på mjukvaru-delen och därmed ligger före nu.

Nivida har alltid legat lite före AMD.

Den första stora nyheten var physx, sen gsync och nu sist rx.

Första var ingen hit i de första spelen, men men. AMD har ju varit sena att kontra och med något som fungerar minst lika bra. Är ändå förvånad över hur snabbt AMD tagit till sig RX, men kanske är också för det inte är låst och patenterad ett märke.

Är dock tråkigt med just vi fortfarande måste leva med gsync i någon form.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Hedersmedlem
Skrivet av Broken-arrow:

Nivida har alltid legat lite före AMD.

Nåja, med din avatar borde du väl minnas tiderna då AMD varit rejält överlägsna NVIDIA?
Radeon 9700/9800 PRO som exempel.

Skrivet av Broken-arrow:

Är dock tråkigt med just vi fortfarande måste leva med gsync i någon form.

Hm, hur menar du? Alla tillverkare har ju något motsvarande som vad jag vet fungerar precis lika bra. Och VRR är väl i regel inte något dåligt, förutom då VRR-flimmer som kan vara jäkligt jobbigt, ffa på OLED/VA.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Thomas:

Nåja, med din avatar borde du väl minnas tiderna då AMD varit rejält överlägsna NVIDIA?
Radeon 9700/9800 PRO som exempel.

Hm, hur menar du? Alla tillverkare har ju något motsvarande som vad jag vet fungerar precis lika bra. Och VRR är väl i regel inte något dåligt, förutom då VRR-flimmer som kan vara jäkligt jobbigt, ffa på OLED/VA.

Tyvärr inte varit med just 9700/9800 PRO tiden utan hade ett 8800GT som gick sönder två gånger, just på grund av värme (fick artefakter). Fick första gången ett nytt kort på garantin, men andra gången så köpte ett 5750/5770 (inte koll på exakt modell) AMD kort, visades senare att kylpastan på 8800GT hade torkat (så det fungerar fortfarande idag, men används ju inte).

Menar bara att just freesync/adaptive sync fortfarande inte lever upp i samma kvalitet som gsync, dessutom varierar kvalitén beroende på tillverkare och serie. Kör nu med ett 980 och verkar inte kunna så på sync trots skärmarna stödjer detta och är påslaget (dock inte just g-sync på dessa skärmar, men du ska ändå använda samma inställningar tydligen) och ja detta är två lika dana skärmar ovanför budget/mellan segmentet. Men kan vara för just jag inte kan för tillfället få ut 144 på 4k, men hade ju då varit trevligt få varning än att funktionen saknas.

Men ja till 500 serien från Nvidia hade AMD vist övertag, men sålde ändå inte och sen kom gsync och delade marknaden tvärt i två delar :/ Jag har varit rejält sen på bollen med skärm med mer än just 60Hz, var inte från i höstas jag fann stor skärm med 4k till vettigt pris, men lite tråkigt att man fortfarande inte kan testa sync när man äntligen klivit in i framtiden som sagt jag vägrar just gsync just för inte bli inlåst, men tittade inte så noga just på den delen när jag köpte skärmarna (viktigaste var hyfsad bildkvalité och över 100hz stöd).

Men som de ser ut idag är ju 9700XT mer vettigt än Nvidias motsvarande, men inte för över 8600kr. Dock blir det ganska dyr uppgradering för mig har ju last gammal cpu.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Datavetare
Skrivet av Radovic:

Kod = Thread Riper.

Fast stämmer det? Ge exempel på vad/hur man på någon rationell sätt skulle jobba där TR är det optimala valet för någon som jobbar som programmerare.

Normalfallet är väl ändå inkrementell kompilering, något där prestanda per kärna är långt viktigare än aggregerad prestanda. Inte minst om man jobbar med språk som C++ eller Rust där kompilering av en enda fil tyvärr kan ta minuter på en snabb dator (Google har tydligen fått öka timeout åtskilliga gånger i deras C++-pipeline, läst att de har extremfall som kan ta nästan 20 min att kompilera en enda fil...).

Resultaten är från GB6 Clang test. Clang är en av världens mest populära kompilator för C och C++.

Toppmodellen av 7995WX mot 9950X3D, man måste ha väldigt speciella omständigheter för att den senare inte ska vara bättre.

Just kompilering lär annars vara en av de vanligaset "krävande" uppgifterna en CPU utsätts för idag. Till skillnad från spel där man främst ser skillnaden i CPU-kraft när man kör 1280x720 med 5090 är skillnaden i kompileringshastighet där fullt ut oavsett om man har ett 5090 eller kör iGPU.

Och i det läget vet jag inte riktigt om "toppklass" är rätt betyg för 9950X3D. Detta är mot mobiltelefoner (varav den första använder Arm Cortex X925 klockad till 3,7 GHz, Nvidia förväntas använda X930 klockad >4,0 GHz i sin PC CPU)

Arm Coretx X925 @ 3,7 GHz vs 9950X3D @ 5,7 GHz, notera telefonen är den snabbare (ca 95 % bättre perf/Hz)

Qualcomm Oryon 2 @ 4,2 GHz vs 9950X3D @ 5,7 GHz (ca 70 % bättre perf/Hz)

M4 Max @ 4,5 GHz vs 9950X3D @ 5,7 GHz (ca 80 % bättre perf/Hz)

Intel och AMD är väldigt jämna på denna punkt. De är idag långt ifrån "toppklass" på just denna punkt*, de slås om vem som "suck less".

Som utvecklare finnas all anledning att enormt mycket se fram emot framtida ARM64 CPUer designade för Windows/Linux (är man OK med MacOS lär man bytt för länge sedan). Tyvärr är inte desktop någon större prioritet. Det säljs ca 5 laptop-CPUer per desktop-CPU och ca 25 smartphone-SoC per desktop CPU, men allt pekar på att de kommer modellen både från Nvidia och Qualcomm för Windows i slutet av året.

Tycker det är helcoolt att Arm gått förbi Apple i perf/MHz (på just detta, i genomsnitt leder Apple med liten marginal) och Qualcomm är inte långt efter. Alla dessa är långt förbi AMD/Intel.

* Viktigt att påpeka här är att just kompilering (SPECInt som använder GCC visar på samma sak, upplever själv samma med M3 Max körandes ARM64 Windows 11/Visual Studio 2022/.NET8 via Parallells) där ARM64 har sådan fördel. Kompilering står ut och Intel/AMD står sig långt bättre i genomsnitt. Historiskt var kompileringen en svag punkt för Arm, så gissningsvis är det att Apple, Arm och Qualcomm alla gått till extrema "out-of-order-windows" (större än Zen5/Lion Cove) som gynnar just detta.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hedersmedlem
Skrivet av Broken-arrow:

Menar bara att just freesync/adaptive sync fortfarande inte lever upp i samma kvalitet som gsync, dessutom varierar kvalitén beroende på tillverkare och serie. Kör nu med ett 980 och verkar inte kunna så på sync trots skärmarna stödjer detta och är påslaget (dock inte just g-sync på dessa skärmar, men du ska ändå använda samma inställningar tydligen) och ja detta är två lika dana skärmar ovanför budget/mellan segmentet. Men kan vara för just jag inte kan för tillfället få ut 144 på 4k, men hade ju då varit trevligt få varning än att funktionen saknas.

NVIDIA började inte ha stöd för "G-Sync Compatible" (VESA adaptive sync/FreeSync) förrän 1000-serien, så det är därför det inte funkar med din skärm, tyvärr.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Shiprat:

Nu är det bara att vänta på "vArFöR tEsTaR nI iNtE bArA 4K???

(Svar: därför att man här ser vad processorn kan prestera med snabbaste tillgängliga grafikkort, i 4K ser man som bäst bara ett benchmark av grafikkortet med möjligen lite ledtrådar om processors prestanda, iallafall för de "snabba" processorerna)

Gnäll åsido- trevlig processor, hoppas Intel är hungriga och kör lite gaming-satsning framöver!

Så 4K kräver inte mer av processorn än 1080p?

Permalänk
Medlem
Skrivet av Songless:

Så 4K kräver inte mer av processorn än 1080p?

Korrekt. Det är enbart grafikkortet som belastas av högre upplösning.

Visa signatur

DAN Cases A4-SFX | AMD Ryzen 7 9800X3D | Thermalright AXP90-X47 Full Copper |
INNO3D GeForce RTX 4070 Ti SUPER 16GB Twin X2 | Kingston 32GB (2x16GB) DDR5 6000MHz CL30 | ASUS ROG Strix B650E-I Gaming WIFI | Samsung 960 EVO 1TB | Corsair SF-600

Permalänk
Hedersmedlem
Skrivet av Songless:

Så 4K kräver inte mer av processorn än 1080p?

Nej, vanligtvis inte. Kanske med ray tracing påslaget dock.

Det brukar till och med sägas att det kräver mindre, vilket inte är sant, men det kan verka så eftersom flaskhalsen flyttas mer till grafikkortet.
Så om man har säg 9800X3D med high end-GPU och får en viss FPS i 4K så kan du mycket väl få typ i princip samma FPS med en Ryzen 7600 istället. (Beror förstås på spelet, vissa är mycket mer CPU-krävande än snittet, då påverkar den mycket även i 4K.)
Men om du gör samma test i 1080p är det mycket mer sannolikt att 7600 blir en flaskhals och du får mycket lägre FPS med den.

Så i princip ger processorns prestanda en minimum-FPS som är oberoende av upplösning. Därför testar SweC processorer i 720p och 1080p, för det visar vad processorn orkar för FPS innan den blir flaskhals.

Sen får man kolla på vad grafikkortet klarar av i den upplösning/med de inställningar man kör, och i grova drag blir prestandan man får den lägsta siffran av "CPU-FPS" (720p) och "GPU-FPS" (målupplösning).

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Thomas:

Nej, vanligtvis inte. Kanske med ray tracing påslaget dock.

Det brukar till och med sägas att det kräver mindre, vilket inte är sant, men det kan verka så eftersom flaskhalsen flyttas mer till grafikkortet.
Så om man har säg 9800X3D med high end-GPU och får en viss FPS i 4K så kan du mycket väl få typ i princip samma FPS med en Ryzen 7600 istället. (Beror förstås på spelet, vissa är mycket mer CPU-krävande än snittet, då påverkar den mycket även i 4K.)
Men om du gör samma test i 1080p är det mycket mer sannolikt att 7600 blir en flaskhals och du får mycket lägre FPS med den.

Så i princip ger processorns prestanda en minimum-FPS som är oberoende av upplösning. Därför testar SweC processorer i 720p och 1080p, för det visar vad processorn orkar för FPS innan den blir flaskhals.

Sen får man kolla på vad grafikkortet klarar av i den upplösning/med de inställningar man kör, och i grova drag blir prestandan man får den lägsta siffran av "CPU-FPS" (720p) och "GPU-FPS" (målupplösning).

Okey. Jag funderar nämligen på att uppgradera. Har idag en 4770K med ddr3 och ett 1080ti. Min tanke var att börja med att uppgradera cpu, moderkort, minnen och ev ssd till en m2 men behålla mitt 1080 ti sålänge då jag tycker grafikortspriserna är horribla. Jag spelar mest CS 2 och har märkt att fpsen droppar under 130 ibland och därmed under skärmens hz som är 165 vilket såklart påverkar när man försöker spela comp. Jag spelar i 1440p vilket är native för min skärm. Det hade därför varit intressant att veta om jag kommer få en högre lägsta-fps om jag uppgraderar och hur mycket mitt grafikkort i fråga kommer flaska. Vad jag hört förr är att CS är ganska CPU tungt och funderade på om det är mer tungdrivet i 1440p än tex 1080p för min processor tex och om jag som sagt kommer få någon märkbar prestandaökning om jag bara uppgradera cpu.

Permalänk
Medlem
Skrivet av Thomas:

NVIDIA började inte ha stöd för "G-Sync Compatible" (VESA adaptive sync/FreeSync) förrän 1000-serien, så det är därför det inte funkar med din skärm, tyvärr.

Det förklarar hel del, behöver ändå annat kort ovsett. Är helt klart fel tid att behöva uppgradera datorn XD allt har blivit snordyrt.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Songless:

Så 4K kräver inte mer av processorn än 1080p?

Absolut minimalt. Om spelmotorn hanterar detaljnivå baserat främst på upplösning (alltså bestämmer om små objekt eller objekt långt bort ska renderade eller inte efter huruvida de når någon gräns för pixelyta eller något) så kanske man ser en liten ändring i vad GPU instruerad att rendera, men undrar om det är nog belastning ens att kunna mötas upp i slutresultatet.

Men generellt sett nej, även om npgra få väldigt specifika fall kanske finns. GPU påverkas enormt av högre upplösning, CPU kör sin grej oavsett. När du sänker upplösningen når du förr eller senare gränsen (om spelmotor inte är dålig/har låst fps) där CPU inte kan ge fler frames per sekund för vad den hanterar (alltså logik, draw calls etc) än vad grafikkortet kan rendera.
Då ser man vilket processorer som är snabbare. Detta märks mest om man kör det absolut snabbaste grafikkort som är tillgängligt- med sämre grafikkort eller i grafiskt tyngre kan det begränsa FPS även ner i 1080p, särskilt om man kör ray tracing etc.

Anledningen att man ibland ser lite skillnader mellan processorer när man är begränsade av grafikkortet har mer att göra med arkitekturen och motorn, en processorn kanske hanterar någon del lite bättre på så vis att grafikkortet/renderingmotorn har lägre latens någonstans.

De snabbaste processorerna är generellt mest för de som vill spela olika esport-spel där man skiter lite i grafiken och bara vill ha max FPS, och för entusiaster som vill pusha gränser för prestanda bara. Annars finns argumentet för X3D processorerna att de sannolikt kommer levera längre - ol du uppgradera till ett xx90 om tre år är det mer sannolikt att ek 9800X3D hänger med i spel än en 9600X eller något.

Min rekommendation för de flesta fall brukar vara undvika flaggskepp både för GPU och CPU, de pushar ofta sina egna gränser för kylning och strömförsörjning mer, de kräver ofta mer av resten av systemet. Lagom ger bästa upplevelsen.

Jag brukar inte själv följa detta råd, men jag gillar att bygga om mina datorer regelbundet bara för skojs skull och har inget emot felsökning när något strular.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem

Det bästa Svaret jag sett hittills. :)

Skrivet av Yoshman:

Fast stämmer det? Ge exempel på vad/hur man på någon rationell sätt skulle jobba där TR är det optimala valet för någon som jobbar som programmerare.

Normalfallet är väl ändå inkrementell kompilering, något där prestanda per kärna är långt viktigare än aggregerad prestanda. Inte minst om man jobbar med språk som C++ eller Rust där kompilering av en enda fil tyvärr kan ta minuter på en snabb dator (Google har tydligen fått öka timeout åtskilliga gånger i deras C++-pipeline, läst att de har extremfall som kan ta nästan 20 min att kompilera en enda fil...).

Resultaten är från GB6 Clang test. Clang är en av världens mest populära kompilator för C och C++.

Toppmodellen av 7995WX mot 9950X3D, man måste ha väldigt speciella omständigheter för att den senare inte ska vara bättre.
<Uppladdad bildlänk>

Just kompilering lär annars vara en av de vanligaset "krävande" uppgifterna en CPU utsätts för idag. Till skillnad från spel där man främst ser skillnaden i CPU-kraft när man kör 1280x720 med 5090 är skillnaden i kompileringshastighet där fullt ut oavsett om man har ett 5090 eller kör iGPU.

Och i det läget vet jag inte riktigt om "toppklass" är rätt betyg för 9950X3D. Detta är mot mobiltelefoner (varav den första använder Arm Cortex X925 klockad till 3,7 GHz, Nvidia förväntas använda X930 klockad >4,0 GHz i sin PC CPU)

Arm Coretx X925 @ 3,7 GHz vs 9950X3D @ 5,7 GHz, notera telefonen är den snabbare (ca 95 % bättre perf/Hz)
<Uppladdad bildlänk>

Qualcomm Oryon 2 @ 4,2 GHz vs 9950X3D @ 5,7 GHz (ca 70 % bättre perf/Hz)
<Uppladdad bildlänk>

M4 Max @ 4,5 GHz vs 9950X3D @ 5,7 GHz (ca 80 % bättre perf/Hz)
<Uppladdad bildlänk>

Intel och AMD är väldigt jämna på denna punkt. De är idag långt ifrån "toppklass" på just denna punkt*, de slås om vem som "suck less".

Som utvecklare finnas all anledning att enormt mycket se fram emot framtida ARM64 CPUer designade för Windows/Linux (är man OK med MacOS lär man bytt för länge sedan). Tyvärr är inte desktop någon större prioritet. Det säljs ca 5 laptop-CPUer per desktop-CPU och ca 25 smartphone-SoC per desktop CPU, men allt pekar på att de kommer modellen både från Nvidia och Qualcomm för Windows i slutet av året.

Tycker det är helcoolt att Arm gått förbi Apple i perf/MHz (på just detta, i genomsnitt leder Apple med liten marginal) och Qualcomm är inte långt efter. Alla dessa är långt förbi AMD/Intel.

* Viktigt att påpeka här är att just kompilering (SPECInt som använder GCC visar på samma sak, upplever själv samma med M3 Max körandes ARM64 Windows 11/Visual Studio 2022/.NET8 via Parallells) där ARM64 har sådan fördel. Kompilering står ut och Intel/AMD står sig långt bättre i genomsnitt. Historiskt var kompileringen en svag punkt för Arm, så gissningsvis är det att Apple, Arm och Qualcomm alla gått till extrema "out-of-order-windows" (större än Zen5/Lion Cove) som gynnar just detta.

(...)där prestanda per kärna är långt viktigare än aggregerad prestanda.(...).

Mycket bra förklaring / svar. Jag tänkte mig (så svårt att sätta en "inre bild 📸" man har på pränt men nåväl) att prestanda per kärna skulle fördela arbetsbelastningen över hela cpu:n / programmeringen och att man därmed kunde vinna tid under inkrementell kompilering arbetet. Detta efterhand som kärnkraften kan jobba i både pair och singel Threads.

Visa signatur

Att jaga Krokodil 🐊 med en känd profil gör att internetfakturan blir betald med Stil. 🏖

En dammsugare som Suger och inte är Sugen betyder bara att det är ett dåligt märke utan drag i - Ett felaktigt köp...😃

Storken Han Svävar i skyn ovanför: Storken Skiter På Orättvisor med Energi ⚡ och Ligger i: Det Hurrar, Det Hurrar, Det Hurrar vi för! 😃 😃 Absolutely Vodka. 😊 Det är träning som gör Susen! 🪿

Permalänk
Medlem
Skrivet av Shiprat:

Absolut minimalt. Om spelmotorn hanterar detaljnivå baserat främst på upplösning (alltså bestämmer om små objekt eller objekt långt bort ska renderade eller inte efter huruvida de når någon gräns för pixelyta eller något) så kanske man ser en liten ändring i vad GPU instruerad att rendera, men undrar om det är nog belastning ens att kunna mötas upp i slutresultatet.

Men generellt sett nej, även om npgra få väldigt specifika fall kanske finns.

Har du kört MSFS 2020 i 4K och VR?
64GB istället för 32GB RAM hjälpte lite, men amd 9800x3D istället för 5950x gjorde att spelet flöt på ett helt annat sätt. Skillnaden är stor. Även om den genomsnittliga fps inte blev så mycket högre så var den stora skillnaden att framedropsen nästan eliminerades helt. Förutsättningarna för gpu har varit densamma, RTX 4090.
Nu är det här kanske ett exempel som ligger utanför vad den vanlige gamern sätter tänderna i, men än dock finns det spel därute där en bra cpu gör skillnad i högre upplösningar.

Visa signatur

Dator - Dell Alienware Oled AW3423DW, Phantek Enthoo Pro, Intel i7 8700K, Noctua NH-14, Asus TUF Z370-PRO, Samsung SSD 840 Pro 128GB, 32 GB DDR4, Gigabyte Geforce GTX 1080 Ti, 2st x 3 TB WD RED, Logitech MX518, Sennheiser Momentum, Qpad Pro MK80.

Permalänk
Hedersmedlem
Skrivet av hakan78:

Har du kört MSFS 2020 i 4K och VR?
64GB istället för 32GB RAM hjälpte lite, men amd 9800x3D istället för 5950x gjorde att spelet flöt på ett helt annat sätt. Skillnaden är stor. Även om den genomsnittliga fps inte blev så mycket högre så var den stora skillnaden att framedropsen nästan eliminerades helt. Förutsättningarna för gpu har varit densamma, RTX 4090.
Nu är det här kanske ett exempel som ligger utanför vad den vanlige gamern sätter tänderna i, men än dock finns det spel därute där en bra cpu gör skillnad i högre upplösningar.

MSFS är definitivt ett undantag där, kanske det främsta bland populära, GPU-krävande spel, men det går ändå inte emot det du citerar -- det kräver inte mer CPU i 4K än i 1080p.
(Jag har faktiskt testat det själv av andra skäl, och hade samma FPS i 720p med 50% render scaling som i 1440p på vissa ställen, så CPU-flaskhalsad -- men samma mängd flaskhals oavsett upplösning.)

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av hakan78:

Har du kört MSFS 2020 i 4K och VR?
64GB istället för 32GB RAM hjälpte lite, men amd 9800x3D istället för 5950x gjorde att spelet flöt på ett helt annat sätt. Skillnaden är stor. Även om den genomsnittliga fps inte blev så mycket högre så var den stora skillnaden att framedropsen nästan eliminerades helt. Förutsättningarna för gpu har varit densamma, RTX 4090.
Nu är det här kanske ett exempel som ligger utanför vad den vanlige gamern sätter tänderna i, men än dock finns det spel därute där en bra cpu gör skillnad i högre upplösningar.

Och de problemen finns inte i 1080p / 1440p utan dyker upp vid 4K? Nu har ju varken AMD eller Intel någon motsvarighet till 4090 men när CPU inte hänger med i scenarion blir jag alltid nyfiken om det skulle fungera bättre med AMD då Nvidia i sig verkar kräva lite mer av CPU. Blir spännande om AMD faktiskt konkurrerar i toppen i framtiden, då kanske vi får veta svaret.

Oavsett, ja det finns som sagt vissa väldigt specifika fall där det är annorlunda men det är inte det generella beteende man ser i spel. Intressant nog kan RT i GTA V enchanted edition vara ett annat fall där CPU gör mer skillnad, verkar vara relativt lätt för GPU men kräva lite mer av CPU.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem

Sent omsider men recensionen dök ju åtminstone upp innan min 9950X3D som beställdes vid släppet från Inet. Fler som fick den fördröjningen?

Permalänk
Medlem

9950x3d, varför inte då sätta priset på 9950 kr??? Hade varit snyggare

Permalänk
Medlem
Skrivet av Snabbt_o_Hårt:

Oj vad dyra AMD har blivit. Byggde flera system med AM5 MB DDR5 Ryzen 7600 för mindre än vad denna CPU kostar...förra året

Blivit? Processorer i absoluta gamingtoppen har alltid varit högt prissatta.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | AMD R7 9800X3D | MSI MAG X870 Tomahawk WIFI | 64 GB Corsair DDR5 6000 MHz CL30 | Asus Prime RTX 5070 Ti OC 16GB GDDR7 | 512 GB Samsung Pro 850 SSD + 2TB WD Black + SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem

Någon som har tips om lämplig AIO för att kyla denna CPU och samtidigt hålla någorlunda jämn och låg ljudnivå? Får gärna vara 420mm rad, annars 360mm rad. Bryr mig egentligen noll om utseende (skärm, RGB är inga pluspoäng för mig), är enbart ute efter prestanda och ljudnivå till ett bra pris. Några tips? Kommer att köras på en öppen testbänk.

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 4TB SATA SSD = total 16TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: ASUS PG32UCDM 32" 4K OLED 240Hz, Acer Predator XB323UGX 32" 1440p 270Hz
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Skrivet av aMp:

Någon som har tips om lämplig AIO för att kyla denna CPU och samtidigt hålla någorlunda jämn och låg ljudnivå? Får gärna vara 420mm rad, annars 360mm rad. Bryr mig egentligen noll om utseende (skärm, RGB är inga pluspoäng för mig), är enbart ute efter prestanda och ljudnivå till ett bra pris. Några tips? Kommer att köras på en öppen testbänk.

https://gamersnexus.net/megacharts/cpu-coolers

https://gamersnexus.net/coolers/best-cpu-coolers-weve-tested-...

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem

Tackar, svenska kocken!

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 4TB SATA SSD = total 16TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: ASUS PG32UCDM 32" 4K OLED 240Hz, Acer Predator XB323UGX 32" 1440p 270Hz
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Skrivet av fsp:

Sent omsider men recensionen dök ju åtminstone upp innan min 9950X3D som beställdes vid släppet från Inet. Fler som fick den fördröjningen?

Min kom (från Inet) dagen efter släppet (och några dagar innan recensionen )

Visa signatur

Ett flertal datorer (typ 5-6).
Om det alltid var bättre förr så kommer det aldrig att bli lika bra igen som det är just nu.

Permalänk
Medlem
Skrivet av aMp:

Tackar, svenska kocken!

Kan nämna att jag hade AIO till min 9950X, det funkade jättebra tills pumpen gick sönder när jag var inne i bios och tempen överskred 100C på någon sekund. Det var rimligt eftersom den var 5 år gammal, hursomhelst ingen mer AIO enligt mig.

Monterade in en Thermalright Phantom Spirit 120 EVO istället, finns för 570Kr på Amazon. Tempsen är närmast identiska med min AIO(Corsair H150i Pro 360rad) och till och med bättre i idle, och den är tystare. Prestanda är exakt likadan, tappar ingenting på att inte köra AIO. Rekommenderas!

Visa signatur

9950X3D X870E HERO 96/6400c30/2200 RTX5090 Gaming OC || 7950X B650 Gaming Plus WIFI 32/6000c30 RTX5080 TUF OC(450w) UBUNTU || 12900KF Z690 Tomahawk WIFI 64/3600c16 Gear1 RTX4080 Ventus 3X OC(400W) || 5900X(B2) B550-F 32/3800c18 RTX3080 TUF OC V2 || 5800X3D CH VIII EXT. 32/3800c18 RTX3080 Gaming OC || 3700X X570 HERO 32/3000c16 RTX3070 FTW3 Ultra || Thinkpad P16s G2 PRO7840U 32/6400

Permalänk
Medlem

Helvede, Intel har varit överkörda länge nu på alla fronter

Permalänk
Skrivet av Mindfighter:

De är duktiga på GPU:er. bara att Nvidia var först med ray-tracing och satsade tidigare på mjukvaru-delen och därmed ligger före nu.

Då AMD har levererat historiskt bättre rasteriseringsprestanda per chipyta mot Nvidia så stämmer det att AMD gör bra hårdvara, däremot mjukvaran har sina brister. Inte själva användarupplevelsen snarare hur drivrutinerna hanterar hårdvarans kapacitet motsvarande spel.

Visa signatur

Spelburk: R7 5700X | 6700 | 32GB RAM | MSI B350M PRO-VDH