AMD Ryzen 9 7950X3D snittar 6 procent högre än Core i9-13900K i spel

Permalänk
Medlem
Skrivet av Blub:

Ser ut som att AMD fortfarande är med i matchen. Det som förvånar mig är dock att folk byter cpu så fort någon ny släpps även fast de flesta kör på högre upplösning än 1080 och då spelar ju inte cpun någon roll längre då det blir gpu tungt istället.

Finns det någon anledning, förutom att visa att man har stor e-penis, att faktiskt köpa denna över förra generationen om man spelar i högre upplösningar?

Är väl enbart om man spelar "e-sport" spel där grafiken är väldigt lättdriven och kör på 240hz+ skärm för då kräver det rejält med cpu enkeltrådprestanda.

Visa signatur

AMD Ryzen 7 5800X3D | Arctic Liquid Freezer II 420 | G.Skill Trident Z Neo 32GB 3600Mhz CL16 | Kingston KC2500 2TB x2 | ASUS ROG STRIX B550-F Gaming Wifi | ASUS ROG STRIX RTX 4090 OC | Corsair RM750x | Fractal Design Torrent | 6x Noctua NF-A14 PWM

Permalänk
Medlem

Jag sa till mig själv att om 7950X3D slår 13900k med minst 10% i 1080p skulle jag uppgradera från min 5950X. Nu känner jag mig lite osäker. Blir till att läsa recensioner i morgon.

Visa signatur

AMD Ryzen 7800x3d | Asus Strix X670E-F | G.Skill DDR5 2x32GB @6000MT/s CL30 | RTX 4090 TUF | Sound Blaster AE-7 | WD SN850x 4TB | Corsair HX1500i | NZXT H7 Flow | Logitech G915 TKL | G502 X Lightspeed | LG 42" C2 OLED | Logitech Z-5500 | Epos H6Pro | Windows 11 Pro

Permalänk
Medlem
Skrivet av X-TroNiC:

Om jag inte missminner mig så har 7950X3D en TDP på 120w, vilket isf då skulle göra den bra mycket effektivare än 13900k

Skrivet av sesese:

7950X3D endast 120W CPU som är snabbast! Bra jobbat AMD
https://i.gyazo.com/6932ff7f13c0dd6e292147ed62a9f35f.jpg

TDP säger ju dock inte mycket alls längre. Är ju inte ovanligt att CPUer kan dra dubbla jämfört med TDP.

Permalänk
Skrivet av anon132576:

Min 7900X hackar som fan runt världsbossar när det är tjogvis med spelare runtikring som bombar på allt de kan, men WoW verkar också riktigt ruttet på multicore-utnyttjande. Är bara en enda tråd som är fullt maxad som det ser ut i aktivitetshanteraren, med ett par till som kanske ligger på runt 50-60%... Mycket av processorn småputtrar bara även i kaosartade situationer.

Ja, att döma av att standard 7950X tydligen klår 3D-versionen i ett par speltitlar enligt det där kalkylarket som postades tidigare i den här tråden så verkar AMD/Microsofts automatiska trådstyrning inte fungera helt optimalt.

Man skulle kanske behöva kunna manuellt dirigera om vissa mjukvaror till antingen standard-CCDn för högre klock, eller 3D-CCDn för mera cache. Och spel som har enormt stöd för multicore typ Ashes of Singularity tappar ju oavsett, pga 3D-CCDns lägre klock (och då hjälper det ju inte att köpa en 7800X3D kan tilläggas. ) Men det spelet är ju nästintill ett unikt undantag, och spelar man det inte så lider man ju inte heller...

Du kan ju skruva upp frekvensen till himlen och det spelar ingen roll ifall du ändå sitter och väntar på primärminnet. Dock är det ju inte alla spel som reagerar positivt på mer cache över en viss gräns, FPS i stengamla CS:GO rakar ju uppenbarligen i höjden med Intels toppklockade CPU, förefaller som i stort sett hela spelloopen får plats i cachen (proppen har ju trots allt typ 30MB L3 och mängder L2 också)

Du har en 7900X, dvs ingen x3d cpu, som är bäst på mmos, Känner flera som spelar med 5800x och 4090 Rtx i 4k, dom har sjuk fps hela tiden i wow och det är tack vare x3d som gör att minimum fps går upp mycket, tack vare cachet.

Visa signatur

Live for fun, Loyal to none

Permalänk
Medlem
Skrivet av anders190:

Att jag lyckades med det jag bara hört talas om tidigare från andra när jag monterade mitt RTX 4090, AM4 processorn slits ur sockeln, gav mig en rejäl nope-känsla trots att AM5 nu är LGA.

Hur monterar du grafikkort egentligen??

Jag har lyckats rycka CPU ur socket när jag tagit bort CPU kylare.
Men aldrig när jag installerat grafikkort.
Om man är så våldsam när man monterar grafikkort att man lyckas slå bort CPU kylaren i processen borde man väl förstöra hela moderkortet (och troligtvis grafikkortet också) ?
Vad använder du för att ta bort det gamla grafikkortet?
En handgranat?

Permalänk
Medlem
Skrivet av GuessWho:

Hur monterar du grafikkort egentligen??

Jag har lyckats rycka CPU ur socket när jag tagit bort CPU kylare.
Men aldrig när jag installerat grafikkort.
Om man är så våldsam när man monterar grafikkort att man lyckas slå bort CPU kylaren i processen borde man väl förstöra hela moderkortet (och troligtvis grafikkortet också) ?
Vad använder du för att ta bort det gamla grafikkortet?
En handgranat?

Noctuas D14 blockerar PCIe låset, kylaren måste avlägsnas för att få bort grafikkortet. Försöker avmontera som tidigare gånger, rotera kylaren ca 45 grader åt vardera håll så att kylaren ska släppa från IHS. Pastan var rätt ny och segare än vanligt. Kylaren verkade vara lös så började dra upp den och upptäcker med fasa att CPU följde kylaren. Att försöka lossa CPU från kylaren utan att kleta ned den var fippligt. Och sedan kontrollera stiften. Den klarade sig.

En av alla varianter på hur det kan ske. Då det inte finns något lås likt framförallt Intels LGA socklar så finns risken att man sliter loss den. Trodde det var lite av en skröna även om det inte var helt orimligt. Rekommenderar inte erfarenheten.

Visa signatur

Huvuddator: 7800X3D, 2x16GB G.Skill Flare X5 6000MHz CL30, Asus B650E-F, KFA2 RTX 4090 SG, 6TB NVMe/SATA SSD, 42" LG OLED C3 Evo
Spellaptop: Asus ROG Strix G15, 6800H, 16GB, RTX 3070Ti, 1TB NVMe
Övrigt: Dell XPS 13 modell 9310, Apple Macbook Air M1 8GB samt Samsung Galaxy S7 FE, Steam Deck
Dammsamlare: PS5, Switch och Xbox One X
Folda för Sweclockers! https://www.sweclockers.com/forum/trad/1348460-faq-kom-igang-...

Permalänk
Medlem
Skrivet av Chibariku:

TDP säger ju dock inte mycket alls längre. Är ju inte ovanligt att CPUer kan dra dubbla jämfört med TDP.

Men lägre TDP brukar trots allt betyda lägre förbrukning.

Permalänk
Medlem
Skrivet av Chibariku:

TDP säger ju dock inte mycket alls längre. Är ju inte ovanligt att CPUer kan dra dubbla jämfört med TDP.

ok men

AMD 7950X3D 2*120=240W
AMD 7950X 2*170=340W
Intel 13900K 2*253=506W

Blir fortfarande stor skillnad mellan AMD och Intels Top modeller.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

ok men

AMD 7950X3D 2*120=240W
AMD 7950X 2*170=340W
Intel 13900K 2*253=506W

Blir fortfarande stor skillnad mellan AMD och Intels Top modeller.

Fast Intel drar ju inte det i gaming utan runt 80W...
Amd har oftast högre effekt vid färre cores så max tdp nås tidigt med få cores medan intel oftast ligger lågt och sedan rusar effekten.

Den enda cpu som hade lägre W/fps än 12700k och 12900k var 5800x3d

Sen får man också komma ihåg hur länge något tar att utföra vs effekten. KWh kan bli samma beroende på effekt och hur effektivt processorn jobbar

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Avstängd
Skrivet av sesese:

7950X3D endast 120W CPU som är snabbast! Bra jobbat AMD
https://i.gyazo.com/6932ff7f13c0dd6e292147ed62a9f35f.jpg

Fsst i spel drar väl de lika mycket watt? När intel släpptes så var väl intel kung i spel gällande watt? Alla drar väl under 100w i spel.

Folk drar alltid in full load cinebench r23 i speldiskussioner. Till ingen nytta annat än att försöka vara missvisande.

Permalänk
Avstängd
Skrivet av Nozomi:

Fsst i spel drar väl de lika mycket watt? När intel släpptes så var väl intel kung i spel gällande watt? Alla drar väl under 100w i spel.

Folk drar alltid in full load cinebench r23 i speldiskussioner. Till ingen nytta annat än att försöka vara missvisande.

Nja, tittar man hardware unboxed videos så drar Intel mer. Det är därför de har sagt att de ska satsa på att bli energieffektiva igen... skulle inte få för mig att köpa Intel idag för bara moderkortet måste ha massa extra VRM för att inte bränna upp den och det verkar inte många heller vara entusiastiska för.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem
Skrivet av anders190:

Noctuas D14 blockerar PCIe låset, kylaren måste avlägsnas för att få bort grafikkortet. Försöker avmontera som tidigare gånger, rotera kylaren ca 45 grader åt vardera håll så att kylaren ska släppa från IHS. Pastan var rätt ny och segare än vanligt. Kylaren verkade vara lös så började dra upp den och upptäcker med fasa att CPU följde kylaren. Att försöka lossa CPU från kylaren utan att kleta ned den var fippligt. Och sedan kontrollera stiften. Den klarade sig.

En av alla varianter på hur det kan ske. Då det inte finns något lås likt framförallt Intels LGA socklar så finns risken att man sliter loss den. Trodde det var lite av en skröna även om det inte var helt orimligt. Rekommenderar inte erfarenheten.

Själv har jag inte behövt ta bort processorkylare för att montera eller ta ut grafikkort.
När jag råkade ut för att processorn följde med kylaren så lyfte jag bara kylaren rakt uppåt.
Efter det har jag vridit kylaren när jag ska byta kylare på PGA processorer.
Då har det inte hänt igen för min del.

Men ja LGA med monteringsram sitter ju bättre...

På AM4 är det också ganska många men små/klena pins.
Tror de satt lite bättre förr på äldre sockets som hade färre men grövre pins.
Åtminstone har jag inte något minne av att slita ut processorer på äldre Sockets.

Permalänk
Inaktiv
Skrivet av blue eyed devil:

Du har en 7900X, dvs ingen x3d cpu, som är bäst på mmos

Tack, men jag vet mycket väl vad för CPU min egen dator har.

Goddag yxskaft, typ...

Citat:

Känner flera som spelar med 5800x och 4090 Rtx i 4k, dom har sjuk fps hela tiden i wow och det är tack vare x3d som gör att minimum fps går upp mycket, tack vare cachet.

Det är det jag hoppas kommer stämma även med 7950, satsar på att uppgradera relativt snart - nu när AMD har stöd för AVX512 också finns det som inga ursäkter kvar för mig att inte gå tillbaks till röda laget (AMD K6-III var min senaste... Varit några år sedan dess.)

Permalänk
Skrivet av anon132576:

Tack, men jag vet mycket väl vad för CPU min egen dator har.

Goddag yxskaft, typ...

Det är det jag hoppas kommer stämma även med 7950, satsar på att uppgradera relativt snart - nu när AMD har stöd för AVX512 också finns det som inga ursäkter kvar för mig att inte gå tillbaks till röda laget (AMD K6-III var min senaste... Varit några år sedan dess.)

Får man fråga vad du behöver AVX512 för?

Visa signatur

Live for fun, Loyal to none

Permalänk
Medlem
Skrivet av anders190:

Noctuas D14 blockerar PCIe låset, kylaren måste avlägsnas för att få bort grafikkortet. Försöker avmontera som tidigare gånger, rotera kylaren ca 45 grader åt vardera håll så att kylaren ska släppa från IHS. Pastan var rätt ny och segare än vanligt. Kylaren verkade vara lös så började dra upp den och upptäcker med fasa att CPU följde kylaren. Att försöka lossa CPU från kylaren utan att kleta ned den var fippligt. Och sedan kontrollera stiften. Den klarade sig.

En av alla varianter på hur det kan ske. Då det inte finns något lås likt framförallt Intels LGA socklar så finns risken att man sliter loss den. Trodde det var lite av en skröna även om det inte var helt orimligt. Rekommenderar inte erfarenheten.

Vill bara påpeka att de 4 gånger jag bytt gpu med en D14 har jag aldrig lossat kylaren. Varken på D14 eller D15.

Visa signatur

PSU: Cooler Master V850 SFX Case: Lian Li O11 Mini
GPU:
RTX 4090 TUF OC CPU: Ryzen 5950x RAM: G.Skill 32GB Trident Z Neo Motherboard: Asus ROG Strix X570-i
Onkyo TX-RZ820 | Advance Paris X-A160 EVO | Dynavoice DF-8

Permalänk
Medlem
Skrivet av GuessWho:

Själv har jag inte behövt ta bort processorkylare för att montera eller ta ut grafikkort.
När jag råkade ut för att processorn följde med kylaren så lyfte jag bara kylaren rakt uppåt.
Efter det har jag vridit kylaren när jag ska byta kylare på PGA processorer.
Då har det inte hänt igen för min del.

Men ja LGA med monteringsram sitter ju bättre...

På AM4 är det också ganska många men små/klena pins.
Tror de satt lite bättre förr på äldre sockets som hade färre men grövre pins.
Åtminstone har jag inte något minne av att slita ut processorer på äldre Sockets.

Typ så jag brukar göra, men denna gång drog den med istället. I detta system är det väldigt trångt, se nedan.

Har aldrig varit med om det tidigare. Innan AM4 körde jag bara Intel. Min nyaste "gamla" PGA-processor var AMDs gamla AthlonXP 2500+.

Skrivet av 13ers3rk:

Vill bara påpeka att de 4 gånger jag bytt gpu med en D14 har jag aldrig lossat kylaren. Varken på D14 eller D15.

Kollade på ditt kort, låset sitter mer åtkomligt. Snyggt kort med, har ett system med "lillebror" till denna, ASUS ROG Strix B550-I Gaming i mitt NR200-baserade system.

Kortet det gäller för mig är den aningen bökigare MSI MPG X570 Gaming Pro Carbon Wifi där låset sitter lite jäkligt. Chipset och NVMe kylningen sitter runt om vilket gör den svår att nå underifrån. Grafikkortet blockerar "nedre" änden av låset och den övre är tornkylaren ivägen i detta fall. Hade jag haft riktigt långa smala fingrar kanske jag hade nått ner mellan tornen och lyckats lossa kortet men i detta fall var det helt enkelt smidigare att montera av CPU-kylningen.
https://www.msi.com/Motherboard/MPG-X570-GAMING-PRO-CARBON-WI...

Har inga bilder på själva monteringen. Med tanke på vilka ramsor som kom ur mig vid installationen så hade det nog varit värt det.

Visa signatur

Huvuddator: 7800X3D, 2x16GB G.Skill Flare X5 6000MHz CL30, Asus B650E-F, KFA2 RTX 4090 SG, 6TB NVMe/SATA SSD, 42" LG OLED C3 Evo
Spellaptop: Asus ROG Strix G15, 6800H, 16GB, RTX 3070Ti, 1TB NVMe
Övrigt: Dell XPS 13 modell 9310, Apple Macbook Air M1 8GB samt Samsung Galaxy S7 FE, Steam Deck
Dammsamlare: PS5, Switch och Xbox One X
Folda för Sweclockers! https://www.sweclockers.com/forum/trad/1348460-faq-kom-igang-...

Permalänk
Medlem
Skrivet av Maximo:

Men lägre TDP brukar trots allt betyda lägre förbrukning.

Skrivet av sesese:

ok men

AMD 7950X3D 2*120=240W
AMD 7950X 2*170=340W
Intel 13900K 2*253=506W

Blir fortfarande stor skillnad mellan AMD och Intels Top modeller.

Om Intel och AMD mätt på samma sätt ja. Sen lär ingen av dem gå på max vid spelande så vi får helt enkelt avvakta och se hur mycket det skiljer.

Permalänk
Datavetare
Skrivet av Chibariku:

Om Intel och AMD mätt på samma sätt ja. Sen lär ingen av dem gå på max vid spelande så vi får helt enkelt avvakta och se hur mycket det skiljer.

Fast dom "mäter" faktiskt på samma sätt, båda följer termodynamikens första huvudsats! Det betyder däremot inte alls att peak-effekt har något alls med TDP att göra, och det är här som förvirringen slår in.

13900K har 125 W TDP (inte 253 W som @sesese skriver). Enda det säger är att vid maximal arbetstemperatur (kyleffekten ökar ju högre CPU-temperaturen blir) måste kyleffekten vara minst 125 W för att korrekt funktion av CPU ska garanteras.

253 W är rekommenderade värdet på PL2, d.v.s. effekten CPUn kan dra "under en begränsad tid". Men det är bara en rekommendation + om kylaren faktiskt kan hantera PL2 Watt kan "begränsad tid" vara rätt länge...

7950X har antaligen mindre "wiggle-room" för att slå till bromsen om kyleffekten inte räcker till. Därför ligger golvet för lägsta kyleffekt (170 W) för garanterad korrekt funktion närmare rekommenderad effekt "under begränsad tid" (230 W) för denna CPU. Också här är det möjligt att lyfta standardgränsen på 230 W.

Även om maxeffekten ökas ändras inte TDP för någon av CPUerna ovan. Är fullt möjligt att sätta PL2 till 350 W på en 13900K, CPUn ska ändå fungera korrekt så länge som kylaren fixar minst 125 W (CPUn kommer dock trottla i det läget efter någon sekund om man kör all-out på alla kärnor).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Hur kan priset bli 8000:- för en 7900x3d?

Vanliga 7900x ligger på 5700:- (proshop) o sen 10% på det (549-599) för 3d versionen av cpun får jag till 6300:-?

Priset skulle ju bli typ samma som processorerna utan den extra cachen, vad jag läst.....eller har jag missuppfattat?

Permalänk
Avstängd
Skrivet av Kaleid:

Nja, tittar man hardware unboxed videos så drar Intel mer. Det är därför de har sagt att de ska satsa på att bli energieffektiva igen... skulle inte få för mig att köpa Intel idag för bara moderkortet måste ha massa extra VRM för att inte bränna upp den och det verkar inte många heller vara entusiastiska för.

Är ditt resultat bara i videon. För på techspot ser jag bara allcore.

Kikade videon nu. Samma resultat där. Bara allcore i blender och inte gaming?

Skrivet av 13ers3rk:

Vill bara påpeka att de 4 gånger jag bytt gpu med en D14 har jag aldrig lossat kylaren. Varken på D14 eller D15.

Samma här d15s

Permalänk
Avstängd
Skrivet av Nozomi:

Är ditt resultat bara i videon. För på techspot ser jag bara allcore.

Kikade videon nu. Samma resultat där. Bara allcore i blender och inte gaming?

Samma här d15s

Vet inte exakt vilken video jag har kikat på, har sett för många. Men det var i gaming.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Inaktiv
Skrivet av blue eyed devil:

Får man fråga vad du behöver AVX512 för?

Kör en del distribuerad vetenskapsberäknande som kan använda det.

Samt, bra-att-ha-grej.

Permalänk
Medlem
Skrivet av Rubberduckrof:

Hur kan priset bli 8000:- för en 7900x3d?

Vanliga 7900x ligger på 5700:- (proshop) o sen 10% på det (549-599) för 3d versionen av cpun får jag till 6300:-?

Priset skulle ju bli typ samma som processorerna utan den extra cachen, vad jag läst.....eller har jag missuppfattat?

USD priserna på de gamla är nog MRSP när de släpptes. De kostar inte så mycket idag. Och det du läst är nog att priset på de nya ska vara samma som på de gamla, när de först släpptes.

7900x kostar ju idag 419, inte 549.

Men jag förstår ju inte hur AMD tänkt. Okej de KANSKE presterar 6% bättre än 13900K, men den kostar ju fan bara 7500. Ska man betala 1700 extra för de? Och då räknar jag inte ens moderkortspriser på det.

Visa signatur

Case: Fractal Design Torrent Solid Black MOBO: ASUS ROG STRIX X670E-A GAMING WIFI CPU: AMD Ryxen 7 7800X3D CPU cooler: Noctua NH-D15 RAM: G.Skill Trident Z5 Neo DDR5 6000MHz CL30 32GB GPU: MSI RTX 3080 GAMING Z TRIO 12G PSU: ROG Strix 1000W Gold Aura Edition M2: Kingston Fury Renegade 2TB Fans: 4x Noctua NF-A12x25
Monitor: ASUS ROG Swift PG27AQDM 27" 240Hz 1440p OLED QHD Mouse: Razer DeathAdder v3 Pro Wireless
Mousepad:
InfinityMice Speed V2 Keyboard: Wooting Two HE Headset: Audeze Maxwell Mic: Blue Yeti X

Permalänk
Skrivet av krEJZi:

USD priserna på de gamla är nog MRSP när de släpptes. De kostar inte så mycket idag. Och det du läst är nog att priset på de nya ska vara samma som på de gamla, när de först släpptes.

7900x kostar ju idag 419, inte 549.

Men jag förstår ju inte hur AMD tänkt. Okej de KANSKE presterar 6% bättre än 13900K, men den kostar ju fan bara 7500. Ska man betala 1700 extra för de? Och då räknar jag inte ens moderkortspriser på det.

haha, jo insåg det sen efter att ha googlat i natt, tack

Håller med om priset!

Permalänk
Datavetare

CPU testning

Angående effekten hos CPU vid spelade. Det är en rad saker som skulle behövas revideras när det kommer till testing av CPUer. Övergången till desktop-modeller med ordentligt många kärnor har gjort att många tester som används idag gått från "ger en hyfsat bra vink" till "i bästa fall bara missvisade".

Uppenbara är "icke-spel testerna". I princip alla använder Cinebench samt typiskt ett gäng andra program som skalar nästan perfekt med CPU-kärnor. Extremt få (men finns alltid undantag) har verkliga use-case som påminner om det som testas.

Trista här är att det egentligen inte finns några "typiska" fall längre, viss klassificering kan göras med det blir rätt många klasser. Som tur är finns det webbplatser som testar väldigt många olika fall, t.ex. TechPowerUp och Phoronix, Geekbench 6 går också att använda. Är inte genomsnittet man bör kika på (eller "poängen" i GB), man ska identifiera vilka fall som påminner om de man själv är intresserade av och titta på dessa.

CPU-effekt
Samma gäller effekten. I princip alla testar effekten när man kör Blender, Handbrake, Cinebench eller liknande. Det ger en datapunkt, i detta fall en vink om peak-effekt hos CPUn. Det ger däremot knappt någon information alls om effekten i t.ex. spel, något som för många här på SweC är en klar majoritet av användarfallen!

Tja, men spel är väl bara en fraktion av peak-effekten. De tester man kör ger kanske en bra indikation av relativ rangordning?
Om det varit sant hade effekt-mätingarna ändå haft en bra poäng, tyvärr ser det inte alls ut på det sättet...

Här är ett exempel där 5800X3D, 13600K, 7700X, 13700K och 7950X jämförs i en rad spel. Om man bara fokuserar på effekten får man (siffrorna är tagna typ mitt i sekvensen, är de som råkar visas är egentligen ±5 W)

Game

5800X3D

13600K

7700X

13700K

7950X

Horizon Zero Dawn

90 W

94 W

107 W

108 W

120 W

Cyberpunk

94 W

89 W

100 W

103 W

111 W

Hitman 3

93 W

88 W

109 W

113 W

120 W

Far Cry 6

95 W

84 W

102 W

96 W

119 W

God of War

85 W

86 W

99 W

102 W

122 W

Assassins Creed Valhalla

92 W

88 W

102 W

112 W

115 W

Forza Horizon 5

92 W

88 W

98 W

106 W

111 W

Enda konsekventa är att 7950X drar mest i alla spel. Men på det stora hela är det minimal skillnad mellan alla CPU-modeller givet vad en modern GPU drar...

Data från detta test

Klicka för mer information
Visa mer
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Snyggt uppställt där Yoshman!

Permalänk
Inaktiv
Skrivet av Yoshman:

Enda konsekventa är att 7950X drar mest i alla spel.

En del av svaret till detta kan kanske komma från att AMD inte har integrerade voltregulatorer i sina processorer, så (så som jag förstår det) alla kärnor matas med samma vCore oavsett vilken klock de kör i. Så om man har vissa kärnor som kör på mycket hög frekvens och en dröse som bara ligger och småputtrar (som det ofta är i spel) så blir effektutvecklingen sammantaget onödigt stor över hela CPUn.

Här har AMD nog en del att vinna i framtiden. Detta kombinerat med en variant av EMIB för infinity fabric mellan IO-chip och CPU-chip. Zen 6, månne?

Permalänk
Medlem

Blir det recension senare idag kanske?

Permalänk
Medlem

Härligt, ser fram emot X3D på AM5

Inte särskilt förvånande att den är snabbare än Intel dock, tvärtom enligt förväntan.

Mvh

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Medlem

Techpowerups test av 7950X3D har kommit nu

Bild på powerdraw under gaming:
https://tpucdn.com/review/amd-ryzen-9-7950x3d/images/power-ga...

Visa signatur

7800X3D | 7900XTX Merc 310 Alphacool | ASUS B650E-F | G.Skill 6000Mhz 32GB CL30 | SN850X | EK Quantum custom loop | Be Quiet 900 Dremel Edition | ASUS Xonar STX + Sennheiser HD650 | Corsair RM1000x | Monitor: LG C2 42 | Nintendo Switch | TV: LG C1 65