Inlägg

Inlägg som Rotten har skrivit i forumet
Av Rotten
Skrivet av Palme_570:

Det finns kort i lägre prisklasser man måste inte ha det värsta.

Finns knappt lägre prisklasser.
Men tids nog ska väl RDNA 2 och Ampere nå sitt rättmätiga pris även här, om det så ska vara begagnat.

Se bara på 3050, lägre prisklass för en helt bedrövlig produkt.
3050 ti blev av en händelse inte av, detta för att nvidia inte är intresserade av några kap i lägre prisklasser.

2060 fick aldrig en ersättare...

Av Rotten
Skrivet av Paw:

Hur ser det ut hos er andra 5800X3D användare?

Detta bör testas under belastning.

Idle:

https://i.imgur.com/vQKijLg.png

Belastning:

https://i.imgur.com/Xq8T8HX.png

Använder High Performance power plan, Det kan påverka klockfrekvensen men du ser att min idle är ca samma som din

Av Rotten

En liten modern 2x20-40W stärkare och Canton Plus S, har slutat leta ljud efter att de införskaffades. Kör iofs med en gammal NAD 2x20W, en modernare förstärkare kan ersätta denna pjäs vilken dag som helst men det är inte många högtalare som slår de här å i den storleken har jag inte hört en endaste.

Hade audioengine A5 och Audio Pro Addon T20 och allt möjligt men de här småttingarna är klart bättre, har till och med slutat använda subwoofer även om det är mindre bas.

Har till och med storebror Canton GLE 240, de låter bättre och större, men de imponerar ändå inte som lillebror Plus S men har du lite extra plats hade ett par såna i bra skick vart solitt. De vill ha 2x40W.

Av Rotten
Skrivet av infigo:

Håller med om val av minne men det är inga problem att köra 1t command rate, sett många som gör och jag fick det att rulla fint utan pill, aktivera XMP profil och tuta, står att den kör 1t i cpuz iaf. Bara Trc som rapporteras som 85 istället för 58 på mina moduler som jag "behövde" ändra.

Geardown mode syns inte i CPU-Z. Det är ett tillägg till 1t. Kolla i bios.

GDM Auto = på.

1t hade fungerat på min r5 5600 om jag inte överklockat minnet.
3600 CL16 + GDM >= 3200 CL16 + 1t.

Min 5800X3D har 3600 CL17, men CL17 rundas upp då GDM är auto på XMP och Ryzen (i vart fall med kompetent bios). Minnet som är speccat CL17 2t, blev istället CL18 +GDM. Men de kör jag alltså i CL16 +2t istället med GDM manuellt avstängt.

Av Rotten
Skrivet av cyan69:

Vad tror ni om denna plus och minus? Tänkte en till disk iaf.

https://www.inet.se/datorbygge/b1332329/god-hjul

- 4080? Ingen kommentar.

- AIO till en 13600K, varför?

- 13600K istället för 7600x, am5 har långt bättre uppgraderingspotential.

- DDR5 4800, bra deal. Hade passat bättre till am5 tack vare kommande X3D, mindre bra på intel som kommer få bra skjuts/mer behov för 7000+ minnen.

- Priset, alldeles för högt

Av Rotten
Skrivet av dbxxx:

Jag har byggt en nyligen, B550-F (senaste BIOS), 5800X3D och G.Skill Ripjaws 2x16GB 3600 CL14. Lirar hur bra som helst.
Jag är mest nyfiken på om det går utan problem stoppa i ytterligare 2x16GB 3600 CL14, om någon här kör de?

Bild på bygget.

https://i.imgur.com/oGSethK.jpg

Behöver du extra minne är det bara köpa mer minne.

Om dina gamla stickor är single rank kör de möjligen 1t command rate, så två extra stickor kan du räkna med få byta till Gear Down Mode eller 2t. Men fungera kommer det göra. Kommer inte märka någon skillnad oavsett CL eller command rate.

Det är dock noll poäng kasta mer pengar efter CL14 med denna CPU, sätt i g skill CL16 och lägga mellanskillnaden på typ SSD eller nåt som faktiskt gör konkret skillnad, blir väl fort en tusenlapp det där.

Av Rotten
Skrivet av Mattiiss:

kände mig gammal som inte fattade vad delide var och fick googla. Så ni menar att ni tar bort själva ovansidan och lägger flytande silver för att skapa bättre förutsättning att nå toppen på CPU för att kyla bättre? Aldrig hört detta innan. Är det verkligen upp mot 20 grader skillnad eller är detta något slags max? Någon som gjort det och jämfört?

Skillnad kan det göra, men det är ändå ett slöseri på både tid och garanti. Detta är enbart för den uttråkade.
På senaste generationen CPU är det bara köra -30% lägre effekt och ta 2% förlorad prestanda. Om dessa 2% kostar dig så mycket, har du nog inte tid lyfta locket på en cpu egentligen :D.

Av Rotten
Skrivet av CusmaR:

Jag hade mycket problem med detta när jag köpte min burk men efter några bios / uppdateringar så funkade det, nu flyter det på fint! Har dock ingen 5800x3d.

3600 är inte lika tolerant som en 5600. Men kan tänkas att en solid 3600 tacklar ddr4 som en dassig 5800x3d. Tror dock de flesta x3d är top-bins på ett eller annat vis. Min x3d, samt många andra, rapporteras fungera med -30 all core CO, det är inte vanligt för 5800x och fungerar inte på min 5600 non-x (som är närmast golden sample, den överklockar som satan).

Av Rotten

https://www.prisjakt.nu/produkt.php?p=3294850, https://www.prisjakt.nu/produkt.php?p=4878071 - Dessa är dual rank, så har du bara två platser på moderkortet är det ett bra 16GB kit.

Ska du ha 32gb får du dual rank oavsett, typ fyra såna här: https://www.prisjakt.nu/produkt.php?p=5831514

Eller 3600mhz ditton. 3200cl6/3600cl18 e same shit

Av Rotten
Skrivet av Nivity:

Hm. Intressant.
För när jag googlar ser jag många som har problem med just 3600mhz "OC" mode.
Även på Inet när man läser reviews på inet ser man sådant här ex "!Fungerar bra över lag, men var tvungen att köra mina 3600 MHz stickor på 3200 MHz, lite synd".

Jag funderade ex på dessa: https://www.inet.se/produkt/5304054/kingston-fury-32gb-2x16gb...
Nu har de ju höjts igen dock, kostade 1100 tills igår

Typ 1200kr är max känner jag på minne om jag ska byta ut mina gamla 2666mhz ifrån 2016 eller inte
Därför de kändes roligare med 3600 än 3200 också. Om det nu fungerar felfritt.

Och mina gamla minne har ju inget "AMD xmp" mode heller (de där DOCP)

Kanske får tänka om annars o bara köra 3200mhz om de kommer bra pris på ett 32gb kit, eller köra mina gamla sletna minne

Ja grejen är att kör du dual rank är det mer osäkert, med 2t command rate löser det mesta.

Eller kan du gå ner i klockfrekvens, alt. öka CL ett hack.

Men kör du dual rank kan du glömma 1T command rate.

Och i alla fall är det inget att gråta över, 5800x3d bryr sig noll om hur snabbt minnet är och vilket latency en kör

EDIT: Köp det billigaste cl16 3200 eller cl18 3600 ish du hittar.

Av Rotten

3200 cl14 och 3600cl16 ska inte vara några som helst problem det.

Kör själv 5800X3D med Kingston 3600 cl17 2T command rate i cl16 2T command rate (gear down eller 1T fungerade inte i CL16 på dessa )

på r5 5600-burken körs ballistix 3200cl16 minnen i 3600 cl16, har testat alla fyra samtidigt på 5800x3d 3600 cl17 2t utan problem.

I övrigt är minneshastighet tämligen irrelevant för 5800x3d.

Det är sant att ryzen 1000-2000 och till viss del 3000 var dels mer känsliga för minneshastighet och hade mindre tolerant minneskontroller. Det är också sant att 5800x3d generellt inte tar lika snabba minnen som en 5800x pga värmen, men det är en offset i denna ekvation pga binningprocessen.

Av Rotten

Varför en 5900x för en SPEL-dator när 5800x3d är bättre?

Av Rotten

https://i.imgur.com/RCiPwyA.png

Ser bra ut så långt, detta är med VR mod jämfört med 5600. 5800x3d är ca dubbelt så snabb, trots att 5600 inte börjat svetta än.

Ypperligt. Det är då inte alltid detta hade inneburit dubbel fps men jag kan säga att det är närmast dubbel headroom.

EDIT: Kyler den med en 212 evo black, tror jag har sämst kylare av alla med denna CPU, funkar ändå

Av Rotten
Skrivet av Massy:

Säger du det så... Vet inte hur du kan inbilla dig att några av marknadens snabbaste GPUer inte skulle användas för professionellt bruk. Ska de dessutom tillverka fler av deras enterprise-kretsar så kan de förmodligen tillverka färre av deras 3000 serie.

Videoredigering? 3D rendering? Beräkningar för AI? Utveckling av grafiska applikationer? Spelutveckling?

Listan kan fortgå.

Resten av ditt inlägg är mest konspirationer från en besviken GPU entusiast som missförstått marknadsekonmi.

Är du proffs köper du inte 3060 eller 3070 helt enkelt, det är i huvudsak gamers som gärna vill ha "bra" raytracing och NVENC. Är väl någon som skriver ut 3d-kukar där ibland men det betyder INTE professionellt bruk.

Sen verkar du ha missa att nvidia sitter med en helvetes massa Ampere-kort de har själva deklarerat detta inför sina investorer och även sagt att Ampere kan anses vara mellankorten. Och har justerat priserna därefter.

Det är inget hux flux med detta, ren och skär girighet, det tog fart med 2080ti och krypto hjälpte inte.

Varför går Rradeonkorten ner i pris i USA men inte Geforce? Marknadsdominans, för många kort, och lättflådda kunder.

Av Rotten

Det är väl kristallklart att kylpastan skall bytas när du överklockar och övervoltar en 13 år gammal processor

Av Rotten

Enda konklusionen jag har är att valet att gå till Samsungs "8"nm nod för att "nvidia inte har råd med TSMC:s kiselplattor" var en gigantisk fuckup.

Av Rotten
Skrivet av Massy:

Så förut var det brist på kort som ledde till höga priser och nu är det överflöd på kort som också leder till höga priser? Det finns väl knappast något överflöd med Nvidia kort i lager någonstans alls.

Ethereum och därmed krypto kör nummer proof of stake och det finns ingen anledning för någon att köpa en GPU för mining idag.

Sanningen är nog snarare att det med pandemi och annat blivit svårare att producera i ett läge där helt plötsligt exempelvis alla bilar har ett par nvidia kretsar där stora kunder prioriteras över Kalle 17 som vill spela Battlefield. Det är inte direkt så att det bara är GPUer som det varit strul med. Det har varit över ett år ledtid på simpla komponenter från ex Texas instruments länge.

Korten används dessutom i många många professionella sammanhang så att påstå att det bara är gamers som handlar till överpris är en oerhörd förenkling.

Det är inte många 3060, 3060ti, 3070, 3070ti som används i professionella sammanhang om du trodde det.

Och ja, innan var det enorm efterfrågan, missade du det? Nu sjönk efterfrågan också över en natt - men har du hört talats om manipulerade marknader någon gång? Här har du en aktör som står för 80% av all försäljning på grafikkort, med lojala kunder... du tror inte detta företag utnyttjar detta för att proppa fickorna fulla?

NVIDIA "kan" inte sänka sina priser, de har så många lojala mongon som köper ändå att de bara höjer priset på 4000-serien till 3000-serien ser attraktiv ut för att bli av med lager. Det dyker upp 3060ti med gddr6x... varför gör den det tror du? Professionella applikationer my ass. Att 4080 ligger på 1200 dollar riktledande pris är även det för att de vill sälja ut Ampere "budget alternativet"! Toppen av Ampere-linjen är att anse som mellankorten som kompletterar lovelace.

När 7900xt släpps, ska du se att 4080 magiskt sjunker i pris, förblir oattraktiv, men blir köpt ändå.
Och är du proffs köper du ett 4090, inte 4080, så det blir nog mest flum. Kul testa funktioner och så.. betyder inte att det är något proffs som renderar kukar i blender alltså.

Att prisutvecklingen här på teknologi inte är som i USA är inget nytt, men det kan vi skylla på våra försäljare, amd korten har sänkt sina priser enormt. Ändå köper gamers... jag menar proffs, "svinbiliga" 350 dollars 3060 på rea, istället för 6700xt för samma pris.

Att gamers till sist sväljer kamelen är 50% av situationen idag, den andra är att nvidia vill ha maximal profit för att blidka sina investorer. amd har sänkt priserna, det har inte nvidia. Enbart manipulering.

Har personligen en bro att sälja dig.

Av Rotten
Skrivet av Massy:

Fortfarande Ethereum-miners fel eller vad ska ni gnälla på nu?

Sanningen är väl och har alltid varit kretsbrist i kombination med att industrin betalar dyra pengar för kretsar.

Krypto är stor faktor till dessa priser, nvidia måste sälja ut sina (överproducerade) ampere-kort och vägrar sänka priserna där, bättre höja i andra änden vettu. Detta för att:

Den stora andelen korkade jävla gamers som ändå köper.

Av Rotten
Skrivet av OldSchool297:

Har 2st till min retro dator. Då det ena kortet har 2st uttag. Ett för DVI och ett för vga, och det ena har enbart vga. Fanns det deluxe model till detta?

Hade en med S-video i tillägg. Men det var inte mycket som hette deluxe över det kortet

Av Rotten
Skrivet av CreativeX:

Det handlar om HOTSPOT inte VRAM. Hans VRAM är 75 *C. Och så vitt jag vet så ska inte kortet nå 125 i hotspot. Det är långt tills dess va?

om hotspot på processorn är 25 grader över core temp så har vi 100% ett problem.
men detta är klassiskt på 3080 och senare amperekort.
De är dynga. 3090 ti är enda kortet som produceras med precision och tidigare erfarenhet som hjälp.

Till och med EVGA med deras välbyggda kort har högre temperaturer än flera andra AIB's, men detta är inte EVGA's fel.
En av anledningarna till att de stack är ju för att de inte får tid att designa en kylare som de vill ha den, tack nvidia.

Denna strömtörstiga generation (på samsung 8nm) var bara droppen som fick bägaren rinna över.
Ampere 3080+ är kostbar dynga och 105 hotspot på en 80 core temp är inte OK