AMD om prestandaproblem med Ryzen 7000 – "Väntat med ny teknik"

Permalänk
Melding Plague

AMD om prestandaproblem med Ryzen 7000 – "Väntat med ny teknik"

Processormakaren går ut med att de arbetar på möjliga prestandaproblem med Ryzen 7000 i spel, något de menar kan ha flera orsaker.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Efter en snabb tillbakatitt på sweclockers 7950X recenscion ser det ut som att när 7700X är oväntat mycket snabbare än 7950X så är även 5800X/5700X snabbare än 5950X. Känns som ett problem med chiplets där trådar hamnar på båda chiplets men där endast en chiplet hade varit att föredra.

7950X/5950X borde väl egentligen alltid vara snabbare än single chiplet versionerna då dom klockar högre. Ett intressant test skulle kanske vara att testa 7950X i spel med affinity satt till en (den snabbare) chiplet i jämförelse med stock, kommer den då prestera bättre eller liknande som en 7700X åtminstone. 6 kärnor skulle ju också kunna testas för att jämföra med 7600X.

Känns konstigt om windows/spelutvecklare inte kunde lösa detta på ett bättre sätt. Ge trådar hints om vart dom ska placeras kanske, tråd x måste ha snabbast möjliga kommunikationshastighet med tråd z,y,v men skitsamma mot tråd k,l,j etc etc.

Permalänk
Medlem

Efter att upplevt alla TPM/USB/Ljud problem Ryzen 3000 "Matisse" bytte jag tillbaka till intel-spåret, låter som ett klokt val.

Permalänk

Prestandaproblem är väl det minsa problemet. Problemet är AMDs skyhöga priser på sina Ryzen modeller och moderkort. Visst Nvidia tar kakan med stor marginal med 4000-serien här men ändå.

Vad det än beror på som kommer ju X3D-varianterna nästa år ändå vara de modellerna man ska köpa om man främst ska spela.

Permalänk

Vi är inte bara dyra, vi är även buggiga är den nya slogan!

Permalänk
Medlem
Skrivet av Rapidact:

Efter att upplevt alla TPM/USB/Ljud problem Ryzen 3000 "Matisse" bytte jag tillbaka till intel-spåret, låter som ett klokt val.

Tur att du inte dök på PCI-E problemen, gjorde samma efter nästan ett år med olösliga problem orsakade av buggar i AGESA koden.

Hur mycket kan man skylla på Microsoft egentligen? Med förstahands erfarenhet av AMDs brister är det svårt att inte utesluta att de beror på mikrokoden

Permalänk
Medlem

Efter att ha varit med från början av ryzen 1-releasen så köper jag hellre det bästa på det sista i en generation än det första på en ny generation.

Visa signatur

Ryzen 7 5800X3D | MSI 4090 Suprim Liquid X | Gigabyte Aorus X570 XTREME | 64GB Vengeance RGB Pro 3600MHz | Corsair MP600 M.2 - 500GB | Corsair MP600 M.2 - 2TB | Samsung 970 EVO 1TB M.2 | EVGA Supernova G2 1300W | Phanteks Eclipse P500A DRGB | Alienware 34" QD-OLED – AW3423DW

Permalänk
Medlem

Hur mycket prestandadelta pratar vi egentligen, och är det generellt bara i scenariot när man kör spel?

Jag menar är det 10-15% så är det nåt att snacka om, 1-2% inte så mycket.

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|

Permalänk
Medlem

Hänger inte detta ihop med denna nyhet som Sweclockers släppte för 1 år sedan?
https://www.sweclockers.com/nyhet/32922-amd-ryzen-upp-till-15...

Visa signatur

Dator: Lian Li O11 Dynamic, R9 5900X, MSI X570 ACE, Corsair H150i Pro, G.Skill TridentZ@3733MhzCL16, ASUS RTX 3090 TUF OC, Firecuda 530 2TB, 990 Pro 2TB, Corsair RM850x.
Skärm: LG OLED 42C2

Permalänk
Medlem

Zen 3 måste vara årtiondets största scam som jag gick på. Trots hög genomanittlig bildfrekvens så kan det känns så jävla laggigt i Quaken Champions vilket är det enda spel jag lirar. Är man inne samtidigt som många proffs i spelläget "unholy trinity" på kartan Deep Embrace börjar till och med ljudet lagga tilllslut. Alla stora youtubekanaler som recenserar hårdvara är ju knappast några gamers själva utan kör dessa förprogramerade testrundor i single player. Det blir ju blir totalt missvisande för hur processorer uppträder i spel som folk faktiskt lirar på riktigt. Överklockar jag cpun får jag dessutom än mer inkonsekvent prestanda så det är bara att glömma. Gissar att en låst frekvens för samtliga kärnor hade hjälpt men då klockar ju heller cpun aldrig ner sig i windowsmiljö heller. Ångrar att jag inte köpte i9 10900K när det begav sig.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem

Chiplet latency har de ju dragits med sedan 1. gen Ryzen och har varit en direkt inverkan på lägre prestanda än det borde varit.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av Saagaa:

Efter en snabb tillbakatitt på sweclockers 7950X recenscion ser det ut som att när 7700X är oväntat mycket snabbare än 7950X så är även 5800X/5700X snabbare än 5950X. Känns som ett problem med chiplets där trådar hamnar på båda chiplets men där endast en chiplet hade varit att föredra.

7950X/5950X borde väl egentligen alltid vara snabbare än single chiplet versionerna då dom klockar högre. Ett intressant test skulle kanske vara att testa 7950X i spel med affinity satt till en (den snabbare) chiplet i jämförelse med stock, kommer den då prestera bättre eller liknande som en 7700X åtminstone. 6 kärnor skulle ju också kunna testas för att jämföra med 7600X.

Känns konstigt om windows/spelutvecklare inte kunde lösa detta på ett bättre sätt. Ge trådar hints om vart dom ska placeras kanske, tråd x måste ha snabbast möjliga kommunikationshastighet med tråd z,y,v men skitsamma mot tråd k,l,j etc etc.

Det var initialt problem med Intels Big Little-kärnor i Windows 10 och Linux, med tiden utvecklades OS:en att hantera dom bättre, har inte hört om spel som krånglat men spelar mest spel med några år på nacken. För OS:en borde Ryzen-processorer med en typ av kärnor vara enklare att hantera och är säkert det. Kanske har spelutvecklare inte ens provat på AMDs plattform? Inte vet jag, har inte haft en 5950x utan en R5 3600 och nu en R5 5600 och har varken haft problem med USB ljud eller nåt spel. Hade en Intelplattform innan och erfor inga specifika problem med en heller.

Varken Raptor Lake (död sockel) eller Raphael (dyr sockel) ter sig värst intressanta men nästa gen med chiplets på Intel-sidan (tiles, lite saksamma?) verkar rätt intressant, likaså blir AMDs 3D-varianter det.

Visa signatur

| 212965 00 ] == :^D * ==)

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Zen 3 måste vara årtiondets största scam som jag gick på. Trots hög genomanittlig bildfrekvens så kan det känns så jävla laggigt i Quaken Champions vilket är det enda spel jag lirar. Är man inne samtidigt som många proffs i spelläget "unholy trinity" på kartan Deep Embrace börjar till och med ljudet lagga tilllslut. Alla stora youtubekanaler som recenserar hårdvara är ju knappast några gamers själva utan kör dessa förprogramerade testrundor i single player. Det blir ju blir totalt missvisande för hur processorer uppträder i spel som folk faktiskt lirar på riktigt. Överklockar jag cpun får jag dessutom än mer inkonsekvent prestanda så det är bara att glömma. Gissar att en låst frekvens för samtliga kärnor hade hjälpt men då klockar ju heller cpun aldrig ner sig i windowsmiljö heller. Ångrar att jag inte köpte i9 10900K när det begav sig.

Den ska nog sänka hastighet efter behov trots att du sätter en låst frekvens om du nu inte stänger av powersaving och allt sånt i bios/uefi.
Testat diverse windows tweaks som t ex stänga av " Windows slide show background image changer " Vet att folk haft lite problem med det och stänga av " full screen optimization " for vissa spel ifall det fortfarande är igång så kan det orsaka prestanda problem med typ Discord igång i bakgrunden också.

Antar att du redan rotat runt i bios och satt xmp eller vad det heter på ramminnen för AMD, så de kör i rätt klockhastighet och inte typ 2400 mhz som är jedec standard medans du har 3200 - 3600 mhz eller kanske snabbare ramminnen än så, detta är såklart något som behövs ställas in oavsett om det är intel eller amd oftast, vissa moderkort kanske hoppar igång utan problem utan att ställa in detta, men värt att kolla då det hjälper prestanda.

Kanske kan kika lite med denna video igång på telefon hur det ser ut pi uefi/bios just nu.
https://www.youtube.com/watch?v=j63qZS6L6VE

Visa signatur

Ryzen 5 5600, MSI B450 Tomahawk Max, 2x8 gb kingston reaper 3200 mhz Gigabyte GTX 1660 Super OC och nätagg be quiet 700w SSD: 120 gb pny cs 900, Kingston Fury 1 tb, wd blue ssd 500gb

Permalänk
Skrivet av Chris_Kadaver:

Zen 3 måste vara årtiondets största scam som jag gick på. Trots hög genomanittlig bildfrekvens så kan det känns så jävla laggigt i Quaken Champions vilket är det enda spel jag lirar. Är man inne samtidigt som många proffs i spelläget "unholy trinity" på kartan Deep Embrace börjar till och med ljudet lagga tilllslut. Alla stora youtubekanaler som recenserar hårdvara är ju knappast några gamers själva utan kör dessa förprogramerade testrundor i single player. Det blir ju blir totalt missvisande för hur processorer uppträder i spel som folk faktiskt lirar på riktigt. Överklockar jag cpun får jag dessutom än mer inkonsekvent prestanda så det är bara att glömma. Gissar att en låst frekvens för samtliga kärnor hade hjälpt men då klockar ju heller cpun aldrig ner sig i windowsmiljö heller. Ångrar att jag inte köpte i9 10900K när det begav sig.

Stäng av fast boot i bios. Om du kör windows 11 stäng av core isolation/memory integrity.

Permalänk
Medlem
Skrivet av Kolsvart Katt:

Det var initialt problem med Intels Big Little-kärnor i Windows 10 och Linux, med tiden utvecklades OS:en att hantera dom bättre, har inte hört om spel som krånglat men spelar mest spel med några år på nacken. För OS:en borde Ryzen-processorer med en typ av kärnor vara enklare att hantera och är säkert det. Kanske har spelutvecklare inte ens provat på AMDs plattform?

Jag vet inte säkert om Windows hanterar dubbelchiplet ryzens annorlunda än singel. Kan tänka mig att ett hypotetiskt spel som ser 16 kärnor och som då spawnar 16 trådar, om spelet varit cinebench skulle absolut bäst resultat nås genom att lägga alla trådar på varsin kärna, alltså över båda chipletarna. I spel skulle det antagligen vara bättre att lägga alla trådar på en chiplet, och möjligtvis ännu bättre att endast spawna 8 trådar istället.

Vart trådar ska köras kan ju vara en väldigt svår sak att avgöra, är det mycket som ska "computas" så kan det vara värt att köra på en helt ledig kärna i en annan chiplet. Annars om det krävs mycket kommunikation mellan trådar så kan det vara värt att köra i samma chiplet.

Anandtech testar core-to-core latency och har bilder som dessa i sina recenscioner:

Permalänk
Datavetare
Skrivet av Saagaa:

Jag vet inte säkert om Windows hanterar dubbelchiplet ryzens annorlunda än singel. Kan tänka mig att ett hypotetiskt spel som ser 16 kärnor och som då spawnar 16 trådar, om spelet varit cinebench skulle absolut bäst resultat nås genom att lägga alla trådar på varsin kärna, alltså över båda chipletarna. I spel skulle det antagligen vara bättre att lägga alla trådar på en chiplet, och möjligtvis ännu bättre att endast spawna 8 trådar istället.

Vart trådar ska köras kan ju vara en väldigt svår sak att avgöra, är det mycket som ska "computas" så kan det vara värt att köra på en helt ledig kärna i en annan chiplet. Annars om det krävs mycket kommunikation mellan trådar så kan det vara värt att köra i samma chiplet.

Anandtech testar core-to-core latency och har bilder som dessa i sina recenscioner:
https://images.anandtech.com/doci/17585/AMD%20Ryzen%209%207950X%20Core%20to%20Core%20Latency%20Final.jpg

Tror det markerade är huvudet på spiken!

Anta att det (bara) handlar om en vs två CCD, varför är då nästan alltid 7900X snabbare än 7950X? (Gäller både de fall TomsHardware testar och även det SweClockers testar)? Notera att skillnaden är ofta större för lägsta FPS jämfört med genomsnittlig FPS.

När man är relativt kraftigt GPU-begränsad spelar det ingen direkt roll hur man hanterar CPUn, det blir ungefär samma prestanda ändå.

Stoppar man i ett RTX4090 och kör i relativt låg upplösning skjuter man över flaskhalsen rätt mycket på CPU. Vidare använder idag de flesta spelmotorer som har någon form av skalning över CPU-kärnor en teknik som kallas work-stealing.

Fördelen med work-stealing är att tekniken automatiskt kan anpassa sig efter tillgängligt antal CPU-kärnor. Enda egentligen nackdelen med tekniken är att den kan "överanvända" kärnor, något som kan försämra prestanda om systemet har fler kärnor är vad det egentligen finns potentiell parallellism i problemet att utnyttja.

Specifikt för 7950X vs 7900X blir problemet att work-stealing kan under vissa lägen aktivera 16 CPU-trådar (eller mer), det trots att många kommer vara aktiva under mycket kort tid och det hade på alla sätt varit mer effektivt att låta färre kärnor få mer arbete.

Om/när detta händer på CPU-modeller som har samma effektbudget, vilket är fallet för 7950X och 7900X, kommer den med fler kärnor få klocka ned sig mer -> prestanda på den/de mest kritiska lasterna (de som dikterar lägsta FPS) minskar mer här -> lägsta FPS får sig en törn.

Finns väldigt lite ett OS kan göra i detta läge, spelet/applikation skulle kunna sätta hårda gränser för hur många CPU-trådar som faktiskt används och det är nog "rätt" lösning här.

Vidare kring schemaläggning: många anser att Linux hanterar Ryzen riktigt bra. Värt att notera är att Linux kommer explicit se till att lasten sprids så mycket som möjligt över alla CCX. Orsak: i de flesta fall är det optimalt då det ökar effektiv mängd CPU-cache varje aktiv CPU-tråd har till sitt förfogande. Men tror faktiskt Windows har den omvända policyn, den försöker i alla fall till viss del hålla saker på samma CCX.

Edit: eventuell skillnad i OS-policy blir oavsett vilket irrelevant i fall som använder "för många" CPU-trådar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Rapidact:

Efter att upplevt alla TPM/USB/Ljud problem Ryzen 3000 "Matisse" bytte jag tillbaka till intel-spåret, låter som ett klokt val.

Verkade som om det var lite rysk roulette över det då jag (isolerat fall kanske) med ett B550 moderkort & en 3900X inte hade något problem med det du beskriver.

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Medlem

Alltså, dom gamers jag sett som kör 7950X stänger alltid av ena CCD i bios när dom spelar, för att det ger högre prestanda i spel och högre än en 7700X eftersom den "bra" CCD i 7950X är mycket högre binnad än 7700X.

Varför köper man då en 16-core? Jo, för att man gör annat än bara spelar, men som sagt inget som hindrar en att stänga av en CCD just för en spelsession.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av Bael:

Verkade som om det var lite rysk roulette över det då jag (isolerat fall kanske) med ett B550 moderkort & en 3900X inte hade något problem med det du beskriver.

Jag har haft USB problem med vissa Ryzen kombinationer, i ALLA fall har det gått att lösa till 100% genom att stänga av power management för var och en av alla on board USB hubbar i device manager. USB:s energihantering verkar alltså de facto vara buggad, men går som sagt enkelt att lösa.

Jag kör med låglatency USB-ljudkort för musikskapande och det fungerar precis lika bra som för Intel, ja, jag kör Intel också.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Jag är än så länge väldigt nöjd med min 7700X. Har fått märkbart mycket bättre fps i de spel jag lirar. Hade 10700K innan.
Inga problem med något än så länge. Hoppas det håller i sig

Har kört Intel i många år av just de "negativa" anledningarna som nämnts ovan med AMD. Men tänkte att nu provar vi igen.

Visa signatur

hellre mer fps på skärmen än pengar på banken

Permalänk
Medlem
Skrivet av Rapidact:

Efter att upplevt alla TPM/USB/Ljud problem Ryzen 3000 "Matisse" bytte jag tillbaka till intel-spåret, låter som ett klokt val.

Jag har inte haft ett enda betydande problem med Ryzen. Haft från Ryzen 1200 och de som nu är i sign. Har även laptop med Ryzen.

Visa signatur

JJ2 Multiplayer
JJ2 ZStats

[1] Ryzen 5800X | 5500XT | Kingston A2000 | Lenovo G24-10 144Hz [2] Ryzen 5700G | RX 560 | WD Blue SN550 [3] Ryzen 5600G | Kingston A2000 [4] Ryzen 3600 | GT 740 | 850 EVO [5] Ryzen 3600 | Geforce 405 | 850 EVO (alla är i bruk)

Permalänk
Medlem
Skrivet av maweric:

Jag har inte haft ett enda betydande problem med Ryzen. Haft från Ryzen 1200 och de som nu är i sign. Har även laptop med Ryzen.

Samma här.. Inte haft några som helst problem med dessa varken på min gamla 3700x eller dagens 5600x och 5900x på B550 och x570 bräda.

Permalänk
Medlem
Skrivet av Yoshman:

Tror det markerade är huvudet på spiken!

Anta att det (bara) handlar om en vs två CCD, varför är då nästan alltid 7900X snabbare än 7950X? (Gäller både de fall TomsHardware testar och även det SweClockers testar)? Notera att skillnaden är ofta större för lägsta FPS jämfört med genomsnittlig FPS.

När man är relativt kraftigt GPU-begränsad spelar det ingen direkt roll hur man hanterar CPUn, det blir ungefär samma prestanda ändå.

Stoppar man i ett RTX4090 och kör i relativt låg upplösning skjuter man över flaskhalsen rätt mycket på CPU. Vidare använder idag de flesta spelmotorer som har någon form av skalning över CPU-kärnor en teknik som kallas work-stealing.

Fördelen med work-stealing är att tekniken automatiskt kan anpassa sig efter tillgängligt antal CPU-kärnor. Enda egentligen nackdelen med tekniken är att den kan "överanvända" kärnor, något som kan försämra prestanda om systemet har fler kärnor är vad det egentligen finns potentiell parallellism i problemet att utnyttja.

Specifikt för 7950X vs 7900X blir problemet att work-stealing kan under vissa lägen aktivera 16 CPU-trådar (eller mer), det trots att många kommer vara aktiva under mycket kort tid och det hade på alla sätt varit mer effektivt att låta färre kärnor få mer arbete.

Om/när detta händer på CPU-modeller som har samma effektbudget, vilket är fallet för 7950X och 7900X, kommer den med fler kärnor få klocka ned sig mer -> prestanda på den/de mest kritiska lasterna (de som dikterar lägsta FPS) minskar mer här -> lägsta FPS får sig en törn.

Finns väldigt lite ett OS kan göra i detta läge, spelet/applikation skulle kunna sätta hårda gränser för hur många CPU-trådar som faktiskt används och det är nog "rätt" lösning här.

Vidare kring schemaläggning: många anser att Linux hanterar Ryzen riktigt bra. Värt att notera är att Linux kommer explicit se till att lasten sprids så mycket som möjligt över alla CCX. Orsak: i de flesta fall är det optimalt då det ökar effektiv mängd CPU-cache varje aktiv CPU-tråd har till sitt förfogande. Men tror faktiskt Windows har den omvända policyn, den försöker i alla fall till viss del hålla saker på samma CCX.

Edit: eventuell skillnad i OS-policy blir oavsett vilket irrelevant i fall som använder "för många" CPU-trådar.

Det kan vara så som du säger men tycker mig inte se att 7900X presterar så mkt bättre i swecklockers siffror som du säger, lows verkar vara proportionerliga med avg med. Om det endast är effektbudget som sätter stopp så borde väl ändå 7900X/7950X prestera bättre än 7700X generellt mha 240W mot 140 där IOD inte lär dra dubbelt mer för 9-serien. Dom kommer alla också upp i hyffsat liknande frekvens under spel, inklusive 7600X. Alla ryzen 7000 processorer presterar väl snarlikt som stock med eco-mode på också. Möjligt att overheaden från flera trådar drar ner på prestandan men tror inte effekbudgeten ändrar särskilt mycket.

Tar man in ett lite större spel-sample från techspots recension så ligger 7900X och 7950X lika medans 7700X presterar bättre även här.
Edit: länkar om med 13900k recensionen då den kör med 4090.

Mitt original testscenario kanske borde uttökas med låst frekvens också för att eliminera pbo variation.

Permalänk
Medlem
Skrivet av Saagaa:

Känns konstigt om windows/spelutvecklare inte kunde lösa detta på ett bättre sätt.

Dom har nog redan "löst" det, frågan är bara hur många som verkligen optimerar. Är väl inte slump att spel designade för PS/Xbox kör bra på desktop AMD prollar...

Permalänk
Datavetare
Skrivet av Saagaa:

Det kan vara så som du säger men tycker mig inte se att 7900X presterar så mkt bättre i swecklockers siffror som du säger, lows verkar vara proportionerliga med avg med. Om det endast är effektbudget som sätter stopp så borde väl ändå 7900X/7950X prestera bättre än 7700X generellt mha 240W mot 140 där IOD inte lär dra dubbelt mer för 9-serien. Dom kommer alla också upp i hyffsat liknande frekvens under spel, inklusive 7600X. Alla ryzen 7000 processorer presterar väl snarlikt som stock med eco-mode på också. Möjligt att overheaden från flera trådar drar ner på prestandan men tror inte effekbudgeten ändrar särskilt mycket.

Tar man in ett lite större spel-sample från techspots recension så ligger 7900X och 7950X lika medans 7700X presterar bättre även här.
Edit: länkar om med 13900k recensionen då den kör med 4090.
https://static.techspot.com/articles-info/2552/bench/Average_1080p.png

Mitt original testscenario kanske borde uttökas med låst frekvens också för att eliminera pbo variation.

TechSpots CPU tester är rätt värdelösa. De har av någon outgrundlig anledning valt att testa flera titlarna i 1920x1080 medium istället för 1280x720 high/ultra/RT. Förhoppningsvis är det (enda) förklaringen till varför just TS/HUB relativa resultat mellan modeller avviker en del från de flesta andra!

Innan DX12/Vulkan blev hyfsat standard fungerade det att även dra ned detaljnivån, men då DX12/Vulkan specifikt är designade för att komma runt den CPU-flaskhals man primärt åker in i med lägre detaljnivå blir det i många fall mindre CPU-bundet om man kör medium, flaskhalsen verkar i stället hamna på RAM och/eller GPU (nåt bl.a. LTT nämner att de själva noterat i denna video).

I TomsHardwares tester, likt SweC, är 7900X några procent snabbare än 7950X sett över alla titlar (oavsett om man tittar på lägsta eller genomsnittlig FPS). Även om det inte är en stor skillnad verkar den vara konsekvent, vilket rimligen bara går att förklara med att när man kör spelet är den/de kritiska trådarna lägre klockade för 7950X. Givet att 7950X har högre peak-clock känns enda rimliga förklaringen att spelen använder "för många" trådar -> power-limits (eller det skulle även kunna vara en värmeutvecklings-effekt!) gör att man har (lite) lägre frekvens på en 7950X jämfört med 7900X.

Att man inte ser motsvarande på 7600X vs 7700X kan förklaras med att där kommer den senare ha högre frekvens då både effekt och kylning räcker. Samma för Intels 13000-serie, Intel "löser" detta problem med att ha tillåta högre peak-effekt på modellerna med fler kärnor (det givet tillräckligt kylning).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

är väl ganska verifierat att dubbla kretsar ökar latens därav att de ökat på casheminnet för att försöka kompensera chiplet designen ser dock inga stora problem med dessa processorer för att spela spel är de tillräckligt snabba skulle jag säga (men kan ju vara optimeringar de kan göra såklart) men behöver de inte åtminstånde en ny stepping för att åtgärda de såkallade problemen så länge de inte kan fixa nåt mjukvarumässigt.

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av Rapidact:

Efter att upplevt alla TPM/USB/Ljud problem Ryzen 3000 "Matisse" bytte jag tillbaka till intel-spåret, låter som ett klokt val.

Jag hade då inga som helst problem med min 2700X, min första 5900X spottade ur WHEA-errors efter 2 månader dock. Men den jag fick efter reklamation fungerar klockrent. Inte haft ett enda problem med ljud/USB eller TPM. Men jag har heller inte kört Win 11 och kommer fortsätta att undvika det då det känns som ett nytt Vista/Win 8 med alla problem och mindre trevligt UI.

Visa signatur

Ryzen 5900X | 32GB G.Skill CL14 3866MT/s | 7900 XTX | Asus Strix X470-F

Permalänk
Medlem
Skrivet av Yoshman:

TechSpots CPU tester är rätt värdelösa. De har av någon outgrundlig anledning valt att testa flera titlarna i 1920x1080 medium istället för 1280x720 high/ultra/RT. Förhoppningsvis är det (enda) förklaringen till varför just TS/HUB relativa resultat mellan modeller avviker en del från de flesta andra!

Innan DX12/Vulkan blev hyfsat standard fungerade det att även dra ned detaljnivån, men då DX12/Vulkan specifikt är designade för att komma runt den CPU-flaskhals man primärt åker in i med lägre detaljnivå blir det i många fall mindre CPU-bundet om man kör medium, flaskhalsen verkar i stället hamna på RAM och/eller GPU (nåt bl.a. LTT nämner att de själva noterat i denna video).

I TomsHardwares tester, likt SweC, är 7900X några procent snabbare än 7950X sett över alla titlar (oavsett om man tittar på lägsta eller genomsnittlig FPS). Även om det inte är en stor skillnad verkar den vara konsekvent, vilket rimligen bara går att förklara med att när man kör spelet är den/de kritiska trådarna lägre klockade för 7950X. Givet att 7950X har högre peak-clock känns enda rimliga förklaringen att spelen använder "för många" trådar -> power-limits (eller det skulle även kunna vara en värmeutvecklings-effekt!) gör att man har (lite) lägre frekvens på en 7950X jämfört med 7900X.

Att man inte ser motsvarande på 7600X vs 7700X kan förklaras med att där kommer den senare ha högre frekvens då både effekt och kylning räcker. Samma för Intels 13000-serie, Intel "löser" detta problem med att ha tillåta högre peak-effekt på modellerna med fler kärnor (det givet tillräckligt kylning).

Det blir ju ett intressant optimeringsproblem när man har temperaturberoende klockfrekvenser. Är det lönt att byta kärna till en svalare som klockar högre mot att man tappar en del av cachen?

Permalänk
Medlem
Skrivet av str8forthakill:

Tur att du inte dök på PCI-E problemen, gjorde samma efter nästan ett år med olösliga problem orsakade av buggar i AGESA koden.

Hur mycket kan man skylla på Microsoft egentligen? Med förstahands erfarenhet av AMDs brister är det svårt att inte utesluta att de beror på mikrokoden

Creative Labs. (vi vet hur trevliga deras drv är) Sa att det inte gick att lösa ljudproblemen via drivrutiner då PCI-E funktioner fattades. Sedan kom folk med registerhack och Creative Labs själva. Jag får slänga in H10 eller H14 på latencin varje gång MS uppdaterar HAL i någon windows update.
Har fortfarande B4 (USB) problemet på min Asrock MB trotsa att jag har AGESA koden som ska fixa det. Verkar som den inte tar vissa USB diskar som den ska men andra. Funderar på att byta moderkort bara för att se om det blir någon skillnad. 5900x och 64GB RAM borde gå att använda i några år till. 3600x hade jag innan på samma MB samma problem.

Nu när jag skrev färdigt förra raden så ser jag att det kom en ny UEFI för 2veckor sedan som ska fixa inkompatibilitet med nvidia 40 serien. Något säger mig att jag kommer flasha om alt idag. Inga förhoppningar men varför inte.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Datavetare
Skrivet av SAFA:

Det blir ju ett intressant optimeringsproblem när man har temperaturberoende klockfrekvenser. Är det lönt att byta kärna till en svalare som klockar högre mot att man tappar en del av cachen?

Är det inte just denna optimering som Sony designat kring med PS5?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer