Inlägg

Inlägg som Rotten har skrivit i forumet
Av Rotten
Skrivet av Mocka:

Konversationen drog igång på denna sida : https://www.overclock.net/threads/5800x3d-owners.1798046/page...

Okej, det var ju trevligt att höra att så inte är fallet.

En annan fråga - angående CO, läst om att folk kör -30 direkt på alla cores men är det inte lite mycket? Tips på hur man ska börja där? För det vore inte fel att ha alla cores körandes på 4450MHz.

5800x3d är i stort sett top core bin, något servrar inte behöver (de behöver effektivitet och jobbar relativt svalt), server CPUer får istället top bin infinity fabric (AMDs svaga punkt) denna måste vara stabil som granit då den limmar ihop alla cores så de kan hålla alla bollar i luften. Det är nog OK bin på Infinity Fabric i 5800x3d, bara inte topp-toppers, med enbart en CCD blir kraven lägre.

Det är därför man börjar på -30 och ser i Event Viewer: applications and services-> Microsoft -> Windows -> Kernel-WHEA -> Errors om det dyker upp några nya error, och vilken kärna det rör sig om, och dp justera ner den det gäller. Kan se över minnet också då.

-30 är en bra start om du inte gör mycket viktiga projekt på PC:n och inte har råd krascha en endaste gång. Kanske inte spela rankade matcher om du är på vippen att bli grand champ?

Rekommenderar också att PC:n står på efter användning till du vet att du inte får WHEA med eller utan belastning.

Corecycler kan testa alla värden men det tar tiiiiid. Tar ca två dagar så det sparar inte direkt ström jämfört med ha PC:n idle i en vecka, corecycler är enbart värt om du inte kan leva med en endaste krasch.

5800X3D är ett vaccin mot stutter så det är 100% något fel på din setup om du får det. bios version, bios reset, chipset drivrutiner, testa bios Curve Optimizer mot pbo2 tuner dito, installera om grafikkortet med DDU, justera minnet, etc etc.

Av Rotten
Skrivet av Swedishchef_90:

https://www.tweaktown.com/tweakipedia/38/nvidia-geforce-gtx-7...
780 sli test...
https://www.techpowerup.com/review/asus-geforce-gtx-680-sli/2...
680 sli test...

Tycker det ser ut som de flesta spel förutom crysis får 30-100% fps gain...

De flesta spel får inga ökningar alls och fungerar faktiskt sämre. Testerna bänkar ju bara spelen som fungerar över huvud taget.

Vad blir genomsnittsökningen då? Realiteten är att du i genomsnitt får sämre prestanda.

Detta var det största hindret mot multi-gpu.

Hade tre 7970n, det var stort sett bara bf3 som skalade bra. Resten av spelen ville ha ett tredje kort för att hjälpa lite på framepacing.

Inte ovanligt att man fick man 20-80% förbättring PÅ PAPPRET men i verkligheten gick spelet som ett arsle

Av Rotten
Skrivet av Swedishchef_90:

45-65% ökning enligt swec test i 1080-4k med Ray tracing och 35-60 utan rt.
Tycker det är ett ganska stort hopp ..

När jag kan öka prestandan på mitt 16000kr kort med 15%, för 16000kr ja då är det inte mycket prestanda att hurra över om jag säger så.

Det ska också sägas att denna jävla samsungnod definitivt är på nvidias top 5 av idiotiska schackdrag. Garanterar att 3080-3080ti och 3090 tappar minst 15% prestanda bara för att nvidia tänkte spara 20 kronor per kort.

Försvinnande få verkar känna till detta. Lovelace är inte så imponerande som man kan tro.

Av Rotten
Skrivet av Mithras:

Alla diskussioner kring valet att låta en last-gen GPU jämföras med en current-gen konsol samt dåliga valutakurser åt sidan;

Du har redan bevisat dig själv fel. Skillnaden du själv lägger upp är 3000 SEK. Jämfört med GTX980 där skillnaden var 500 SEK. Därmed är skillnaden inte konstant och har ökat, enligt dina egna siffror och antaganden.

Återigen cherry-picking; 80% prestanda är i princip det bästa du någonsin kunde få. Snittet låg runt 30-50%, som jag redan skrev.

Ingetdera är dubbla fps. Andra gången du motbevisar dig själv i samma inlägg.

Det är ännu värre än så, genomsnittlig SLI-prestanda är en kraftig försämring faktiskt.

Det är enbart fåtalet spel som ökar fps, men så är det försvinnande få spel som kan göra det utan ödelägga allt vad framepacing heter. Grejen med SLI/crossfire var att man behövde ett tredje kort för att slippa det äckliga hacket man fick.

Kan bara hålla med i att 980SLI jämförelsen är efterbliven och den främsta formen av körsbärsnypande jag sett

Av Rotten
Skrivet av GreeM:

b450 tomahawk max har icke stöd för det nej. Du måste bara läst något konstigt eller inte förstått att de pratade om b550 tomahawk. Jag sitter också på ett b450 o får köra på pbo 2 tunern.

Har CO på b450 a-pro max, jag. Då kan du räkna med att Tomahawken också har det.
Eller Kombo Strike som det kan heta.

Av Rotten
Skrivet av Duxus:

Windows känns tveklöst snabbare, osäker om nåt var lite wonky med gamla processorn eller nån inställning som resettades för det borde inte va såpass stor skillnad som jag upplever. Inser placebo-effekten, men det är märkbart mer än så. Alt-TAB går snabbare, exempelvis.

Är inte placebo, du gick från dual CCD Zen 2 till single CCD Zen 3 fast med ännu högre klockfrekvenser och det märker man helt klart av.

Är därför 5600G och 5700G (Zen 3 Cezanne) också är snabbare än en 3600 trots halverad L2 cache.

Alla ska märka en förbättring från Zen 2 till Zen 3, från dual CCD till en enkel CCD med alla kärnor på gör störst skillnad, högre klockfrekvens är inte så dumt det heller. Skillnaden i OS och kontorsbruk hade du märkt av lika bra på en 5600 eller 5700x, tom 5600G och misstänker troligen även 5500 upplevs mer responsiv.. fast prestandan är närmast identisk på pappret.

Av Rotten
Skrivet av zyrien:

Kör Dark Rock 4! Den har jag lekt med och och mina temps går upp om jag kör -30.. vilket är märkligt?

Går din boostfrekvens upp då också? -30 kan resultera i samma temp och möjligen högre temperatur men det borde isf vara pga högre boost.

Vad får du om du sätter en gräns på 80-85C i PBO2 tuner och jämför max/average boost i hwinfo64? Det kan vara att du tappar så lite som 60mhz på detta å det är det värt.

Kanske din kylpasta och/eller dark rock 4 är halvkass, det är inte bara totala värmeavledningskapaciteten som avgör hur varm denna CPU blir utan hur fort du kan dra värmen ur värmespridaren å där gör materialval och toleranser enorm skillnad ju närmare källan man är.

Av Rotten
Skrivet av hinneinisanni:

Missar jag någon inställning? Ligger runt 140fps nu men låg runt 130 innan

Chipset och ny BIOS:
https://www.asus.com/Motherboards-Components/Motherboards/TUF...

Av Rotten
Skrivet av zyrien:

Absolut inte Hade Kombo strike, men graderna blev absolut inte bättre av det.

Ändrade dock denna och fick den den 10C.

https://i.imgur.com/9tIZKny.png

Först, fixa nya chipset-drivrutiner och nytt bios om du inte gjort det.

Annars är nog 80C helt fint i warzone. Men, ska du bara ändra en endaste grej (utöver CO) och så bara sätter du temp limit där du vill ha den, det är det bästa, enkla sättet att tämja denna cpu med ett klick utan massa annat tjafs.

Med manuell temp limit 80C öppnar du för en högre single-core boost. Varför? Jo för att du med en given arbetstemperatur på main thread kan bli effektbegränsad av sänkt PPT, viktigt att låta kärnan som lyfter tungt få jobba så bra den kan, de sju andra kärnorna arbetar ändå knappt och kan utan problem offra lite boost så spelet flyter bäst möjligt. De är liksom 8 kärnor, det är tillräckligt. Du vet intels E-cores? Det är samma filosofi - behöver inte max prestanda på alla kärnor.

mao är det något bättre vara begränsad på temperatur än effekt.

80C är för aggressiv gräns om du inte tänkt kompilera 24/7 fyra år i sträck. Sätter en gräns på 85 själv och det är inte många spel som låter den gå så högt. Att den når 80-85 på en dark rock pro 4 i nåt enstaka tungt spel är inte alarmerande. Kryper den över 85 i många spel, då kanske din cpu har dålig binning, skev värmespridare, eller att kylaren är halvskev, eller nåt annat.

Så är det smart justera fläktkurvorna med denna CPU.
Den kommer gå varmare än en 5600/5800x. Men mer fläktar hjälper också mindre än annars. Värmen sitter fast bakom L3-cachen oavsett vad du gör så din gamla fläktkurva kommer tro att den steker och stressa järnet utan vidare förbättring.
Tillåt moderkortet att hålla CPU:n 10-15C högre än förut innan fläktarna börjar jobba på allvar. Föreslår att du baserar detta på temperaturen i dina spel, får du 80C i warzone kör du fläktarna från 83C och på allvar efter 85, så slipper du nästan allt oljud

Av Rotten
Skrivet av Kezzo:

Kör Noctua NF-A12x25 i hela chassit spelat i princip bara wow och cs och i cs verkar 5600x prestera bättre marginellt , ska försöka motivera mig själv köpet , i wow är det lite fps drops i raids. kan ju vara klent grafikkort med . 3060ti 1440p
Får se om om någon CPU kommer på mellandags rea 👍

Wow kommer du märka klar skillnad i men om det är värt pengarna är svårt säga om du inte spelar annat, själv hade jag lutat åt bättre grafikkort i första hand men det gör ju inte skillnad i cs:go eller wow heller så cpu:n tror jag du märker av mest.

Hoppas den landar nära 3000:- snart så den blir lättare att rekommendera.

Av Rotten
Skrivet av Kezzo:

Någon som gått från 5600x till 5800x3d hur mycket varmare går den ? Kör luft i ett mini itx chassi NR200P .🙂

Den går varm hur du än gör men du har en del flexibilitet faktiskt.

Den kommer inte värma upp ditt chassi mer än vilken som helst annan CPU med samma TDP.

Sen är det ingen stor sak justera TDP eller temp limit ned en bit, den kommer fortfarande ha ett klart övertag där förbättringarna fanns från början IOM att den kan arbeta med 400mhz mindre än en 5800x och ändå smula den där det betyder något. Vad gäller spel i vart fall.

Sålänge du ska spela spel är det inte mycket bry sig om, du kommer få ett lyft.

Har du en Noctua D12L redan så är det inget fundera över, men kör du gpu och CPU fullt ut längre perioder kan du justera fläktkurvan och/eller köpa rejäla noctuafläktar till chassit.

Hade det funnits en 5600X3D hade den gjort det precis lika i spel som 5800X3D så i värsta fall kan man bara tänka mera åt det hållet.

Av Rotten
Skrivet av Kilrah:

Hur stor skillnad tror ni det skulle bli med att köra 2st 3600 cl18 istället för mina 4 stickor som körs i 2800 cl14? Överklockade från 2400. Knappt värt det eller vad säger expertisen? 😊

Knappt värt alltså men du kan köra tre rundor benchmark i Geekbench 3 å posta ett typiskt resultat från toppen (single/multicore) och memory performance https://www.geekbench.com/geekbench3.

typiskt resultat med 4x8gb 3600 cl18 (16+2t), CO-30 och billig kylare:

https://i.imgur.com/oPVCroZ.png

2800 cl 14 är helt ok, samma latency som 3600 cl18 men du har nog lägre bandbredd, blir det markant lägre GB/s räcker det med fyra billiga 3600 single rank minnen eller två i dual rank.

Jag fick ett bra lyft med fyra vs två av dessa minnen, men skillnaden i spel förblir nog liten. I mitt fall dök det upp 16 gig extra för 400kr å då var det inget att fundera över. Vill tro at 3800 cl18 inte är värt pengarna och att billigare 3600 kan vara värt, men enbart om du väntar på en bra deal. ddr4 blir väl mer rea på framöver

Av Rotten
Skrivet av Nivity:

Då är burken igång.
Allt fungerar felfritt hittills. Uppdaterat till senaste bios osv.
Håller på med olika stresstester o blir memtest osv över natten för se så det är stabilt med 3600 stickorna men inga problem hittills efter några timmar.

Kanske blir prova curve optimizer senare. Den slår i 80c rätt fort. Upp mot 90 i prime burn.
Se vad den ligger på i spel för det är ju det som spelar roll.

90 i prime är normalt. Men du bör absolut använda dig av CO oavsett, enbart fördel med det. Den kommer bli lika varm i stresstest men de är inte så relevanta här, men jag fick något bättre temperatur i spel faktiskt.

En för aggressiv CO märks mest i instabilitet under låg belastning så det är lite omvänd situation. Hittar du så WHEA-error i Event Viewer kan du utröna vilken kärna som behöver ses över... Enklast är att köra på o minska CO efter behov, är inte så jäkla viktigt, -30, -25 same shit men har du tråkigt kan du spendera en dag eller två med core cycler för individuella värden och få marginell förbättring https://github.com/sp00n/corecycler

guide till bortkastad tid: https://www.youtube.com/watch?v=wpciiIddJvE

Av Rotten
Skrivet av Lodisen:

Jag fick sämre prestanda när jag bytte till 5800X3D från en 5950x. Kändes ju lite sådär.
https://youtu.be/sw97hj18OUE?t=345

Gick från ~800 FPS ned till 400 FPS på 1440P / Low.

Tappade även FPS i Overwatch 2, gick från stabila +400 FPS till att ligga mellan 180-350.

FPSen spelar ju ingen roll för mig så länge den inte går under 240, men känns ju ändå surt då det var tänkt som en uppgradering.

Så stor skillnad ska det inte vara. Du ska alla gånger ha mer konsistent fps i vart fall. Får du 800fps early game i sc2? X3D ska då inte vara hälften så snabb i sc2, inte en chans.

5950x ska i vart fall inte vara dubbelt så snabb i ett endaste spel. Antingen är det nåt fel eller så vet du inte vart du ska leta.

Uppdatera chipset, bios, byt XMP profil etc etc

Av Rotten
Skrivet av Kastanjekalle:

Varierar indeed väldigt mycket.
Man kan ju hoppas att nästa generations releaser drar nytta av det lite mer än det som finns idag.

Det blir stort sett samma sak, ju mer ett spel drar nytta av fet cache desto värre fungerar spelen på allt som inte har det dvs 99% av marknaden försvinner, tror knappast mainstream går åt det hållet med det första.

Det som kommer göra nästa generation x3d till en no-brainer är dess bättre IPC och att de troligen kommer kunna bevara mer av boostfrekvensen, så den inte behöver sitta -500mhz under 7800X. Max fps kommer inte bli speciellt bättre i mainstreamspel mot vanlig 7800X men den X3D behöver bara filtrera ut .1% och 1% lows i någon minut för att genomsnittsgrafen ska öka ganska bra.

Som vi sett nu med 5800X3D, typiskt exempel: samma fps i genomsnitt, eller hacket lägre på X3D i [generellt-mainstreamspel-konsoltitel], då kan somliga dra öronen åt sig, men det som händer är ofta att man tagit 20fps från 220 i toppen, pga lägre klockfrekvens, och sprider ut det i botten där det inte syns lika lätt på grafer så det ser ut som inte mycket hänt på genomsnittet...

Det tillkortakommandet kommer mest troligt försvinna.. kanske ta 2fps från toppen och sprida ut 20 i botten, de e gratis lunch (kostar iofs pengar)

Av Rotten
Skrivet av Palme_570:

historiskt har jag hålt med , men från 12000 serien är det inte fallet, Intels little big har dragits med flertalet problem. Jag har upplevt tvärtom gick från 12900ks till 7950x plötsligt funkar bara allt.

Om jag fick en krona för var gång min rekommendation om avaktiverade e-cores fixar problem med spelprestanda, och inte bara så lite heller....

Trots att "det blev patchat för längesen o det var bara typ tre spel"

Av Rotten

De ska ha en jävla tro på att kunderna köper nytt för detta, jag tror inte den där generationen kommer konkurrera värdigt med zen 4 med x3d på annat än pris och typ 80 snigelkärnor @ 500 watt som förstås är den viktigaste egenskapen på en CPU i mellansegmentet hehuhö

Blir deras första nod på 7nm, lycka till intel, det behöver ni...

Av Rotten

Temperaturerna ser OK ut på bilden, hade vart annat om det blir 90C core och 105+ vram, kan det med märkligt beteende i förgrund/bakgrund vara en windows 11-bugg?

Prova avaktivera hardware-accelerated GPU scheduling

På bilden där kan du utvidga kolumnen så förklarar det mer.

* GPU Performance Limit - Power Yes = som det ska vara, att kortet kan dra strömmen den tillåts dra utan överhettning, det ser OK ut. Min 3080 ti drar 320 watt.

* GPU Performance Limit - Thermal No = inga problem alltså med temperaturer enligt sensorerna.

Så länge den drar stabila 320 watt under belastning i andra tester är det inget som tyder på PSU i vart fall., men kanske du har en 340w 3080 ti, det vet jag inte, isf kan det vara nätagget eller typ vrm eller nåt som håller tillbaka kortet.
Tycker det ser mest ut som en mjukvarubugg, avinstallera nvidia-drivrutinerna med DDU och installera samma eller alternativ version igen.

Av Rotten

kolla temperaturerna i hwinfo64

Även gddr minnet då dina pads kan vara kaputski

Av Rotten

Håll ett öga på temperaturerna med hwinfo64.

Jag gissar att minnen eller gpu har dålig kylning och throttlar, men det får hwinfo64 utröna.

hp omen 800watt nätaggregat är inget jag hade förlitat mig på, PC:n borde iofs krascha mer än gå trögt om det är nätagget, men de här korten fordrar erkänt kompetenta och beprövade modeller och det är inte många OEM-byggen som får den lyxen. Hade inte köpt mindre än 750 watt från A-tier till dessa kort i denna lista <- alla bör känna till denna

En 5600x ska definitivt inte handikappa en 3080ti mer än marginellt i de flesta tester.