Geforce RTX 5000-serien kan få högre effektuttag

Permalänk
Medlem

Tror ett grafikkort anno 2024 drar mer än vad hela min dator gjorde 2005.......

Visa signatur

"Jag är så gammal att jag brukade styra med piltangenterna"
StoppaCopySwede
Fraktrfitt:Inet

Permalänk
Medlem

Snart dags att börja tänka på egen fas till uttaget för datorn… höhö.

Visa signatur

Chassi: Fractal Meshify, Skärm: LG C2 oled, GPU: AMD 6950XT, CPU: Ryzen 5800X3D, M2: 1TB , SSD: 480GB, M2 1TB, PSU: Dark Power Pro 1500W, Mobo: ASUS TUF GAMING X570-PLUS, RAM: 32GB Ripjaws @ 3600MT, Mus: Logitech G502X Matta: Steelseries QcK Heavy, Tbord: Logitech MX Mech Mini, Hörlurar: BD DT1990 Pro, DT770 PRO, Superlux HD-668B, Sennheiser HD599 OS: Win11. AI: Tascam US-20x20, Monitorer: Yamaha HS7 x2.
Citera när ni svarar! :)

Permalänk
Medlem

Man undrar ju om det är datorspelande entusiaster här eller trötta gamla kontorsgubbar som tycker "spel och sånt" är lite kul ibland.
Vill vi ha mer prestanda så ökar det.
Ställ ner effektuttaget (lite tinkering klarar ni väll, ni är väll inga konsol-plebs?) eller nöj er med mindre.
Man måste inte alltid köpa det senaste och det värsta.

Visa signatur

🇸🇪 VR Sverige Discord server - Svensk VR Community
https://discord.com/invite/avnhs6mgjc

Permalänk
Master of Overkill
Skrivet av Megacrash:

Haha tänkte just säga detta, Nvidia återinför SLI men denna gång är det dubbla PSUs som gäller ^^

Körde jag på quad sli va runt 2050w från väggen.
Dubbla psu 1500w 1200w

Visa signatur

CASE CaseLabs SMA8-A + CaseLabs Nova X2M CPU 9900k @5.3GHz (No AVX) 7950X3D @5.7GHz GPUs RTX 3090 FE + RTX 3080 FE RAM 2x32GB Corsair Dominator Platinum 3533MHz CL13 + 2x32GB 6000MHz CL30 Dominator Titanium PSU EVGA T2 1600W + Corsair SFF 750W SSD Corsair Force MP700 Pro M.2 NVMe 2.0 Gen 5 2TB, 2x Samsung 990 Pro 2TB M.2 Headphones Audeze Maxwell + Audeze LCD-2 + Moon Cable DAC/AMP Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard ASUS ROG Crosshair X670E Hero + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Skrivet av DasIch:

Fast de har ju ständigt blivit snabbare och effektivare. 4000-serien är vad jag vet den mest energieffektiva och snabbaste generationen någonsin.

Sen må det vara hänt att det är lite dryg att korten är effekttörstiga. Å andra sidan är kylarna ofta rejält tilltagna så har man utrymmet, och inte spelar under högsommaren, funkar det rätt bra. Mitt 4080 är det tystaste grafikkortet jag haft i modern tid, tack vare en överdimensionerad kylare.

Inte för att det är Nvidias fel men min CPU är en 13900 så det fattas bara björkriset och en skopa vatten i sovrummet

Permalänk
Medlem
Skrivet av Molotov:

Man undrar ju om det är datorspelande entusiaster här eller trötta gamla kontorsgubbar som tycker "spel och sånt" är lite kul ibland.
Vill vi ha mer prestanda så ökar det.
Ställ ner effektuttaget (lite tinkering klarar ni väll, ni är väll inga konsol-plebs?) eller nöj er med mindre.
Man måste inte alltid köpa det senaste och det värsta.

Jag vill ha bättre prestanda. Mer prestanda är inte nödvändgtvis mer prestanda. Om prestanda enbart går upp i takt med strömförbrukning och indirekt värmeutveckling så är det mer prestanda enbart, inte bättre. Jag är inte intresserad av att betala en massa pengar för att trampa vatten- isåfall har vi inte kommit någonvart från SLI/Crossfire dagarna då man bara kunde slänga in en GPU till.

Och det är inte alls så att "vill vi ha mer prestanda så ökar det", om det var så hade marknaden sett väldigt annorlunda ut. Bättre prestanda/watt är alltid en stor del av argumentet för att uppgradera.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Skrivet av Shiprat:

Jag vill ha bättre prestanda. Mer prestanda är inte nödvändgtvis mer prestanda. Om prestanda enbart går upp i takt med strömförbrukning och indirekt värmeutveckling så är det mer prestanda enbart, inte bättre. Jag är inte intresserad av att betala en massa pengar för att trampa vatten- isåfall har vi inte kommit någonvart från SLI/Crossfire dagarna då man bara kunde slänga in en GPU till.

Och det är inte alls så att "vill vi ha mer prestanda så ökar det", om det var så hade marknaden sett väldigt annorlunda ut. Bättre prestanda/watt är alltid en stor del av argumentet för att uppgradera.

Finns väl knappt någon som uppgraderar prestanda/watt?? Den besparing har man aldrig igen...
Det är prestanda/krona och den fortsätter åt rätt håll, även om långsammare

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Shiprat:

Jag vill ha bättre prestanda. Mer prestanda är inte nödvändgtvis mer prestanda. Om prestanda enbart går upp i takt med strömförbrukning och indirekt värmeutveckling så är det mer prestanda enbart, inte bättre. Jag är inte intresserad av att betala en massa pengar för att trampa vatten- isåfall har vi inte kommit någonvart från SLI/Crossfire dagarna då man bara kunde slänga in en GPU till.

Och det är inte alls så att "vill vi ha mer prestanda så ökar det", om det var så hade marknaden sett väldigt annorlunda ut. Bättre prestanda/watt är alltid en stor del av argumentet för att uppgradera.

Jag vill inte påstå att bättre prestandan/w varit nått stort argument för uppdatering.
Då kan du ju rent av säga att du byter kort e bart för att få samma prestanda men lägre W.

Argumentet för uppdatering har alltid varit att man vill ha bättre prestanda oavsett.

Visa signatur

🇸🇪 VR Sverige Discord server - Svensk VR Community
https://discord.com/invite/avnhs6mgjc

Permalänk
Hedersmedlem
Skrivet av Molotov:

Jag vill inte påstå att bättre prestandan/w varit nått stort argument för uppdatering.
Då kan du ju rent av säga att du byter kort e bart för att få samma prestanda men lägre W.

Argumentet för uppdatering har alltid varit att man vill ha bättre prestanda oavsett.

Ja nä det är nog väldigt få som uppgraderar med samma prestanda men lägre effekt för grafikkkortet 😁.

Men när jag valt grafikkort så har energieffektivitet absolut varit en faktor. Jag vill ha hyfsat tysta kort i hyfsat kompakta byggen.
För mig finns en effektbudget att förhålla sig till innan det börjar bli högljutt.
Vilket grafikkort ger mest prestanda för 200w.
Typ så (givetvis finns fler faktorer med i valet).

Jag har valt AMD tidigare av den anledningen. Senast blev det nvidia av den anledningen.

Visa signatur

🎮 → Node 304 • Ryzen 7 5700X3D • Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Skrivet av Swedishchef_90:

Finns väl knappt någon som uppgraderar prestanda/watt?? Den besparing har man aldrig igen...
Det är prestanda/krona och den fortsätter åt rätt håll, även om långsammare

Menar du att ingen uppgraderar för prestanda/watt eller att ingen tillverkare uppgraderar den ration?

För det är stor skillnad mellan kort och generationer.

Skrivet av Molotov:

Jag vill inte påstå att bättre prestandan/w varit nått stort argument för uppdatering.
Då kan du ju rent av säga att du byter kort e bart för att få samma prestanda men lägre W.

Argumentet för uppdatering har alltid varit att man vill ha bättre prestanda oavsett.

Du generaliserar din upplevelse till alla låter det som, jag har gjort flertalet byten/uppgraderingar för att få bättre energieffektivitet/kylning, mindre totalt storlek, eller skruva på andra parametrar som inte har att göra med absolut prestanda.

Jag har bytt ner mig i prestanda flera gånger, antingen för att ett kort behövt säljas och det ens är värt mer än det andra, eller när jag ville testa RTX och bara ville ha tag i något rimligt i motsvarande prisklass mot mitt dåvarande, eller för att bästa prestandan kom i kort som vara instabila/kokheta och det inte funkade bra med den setup jag ville ha.

Skrivet av Söderbäck:

Ja nä det är nog väldigt få som uppgraderar med samma prestanda men lägre effekt för grafikkkortet 😁.

Men när jag valt grafikkort så har energieffektivitet absolut varit en faktor. Jag vill ha hyfsat tysta kort i hyfsat kompakta byggen.
För mig finns en effektbudget att förhålla sig till innan det börjar bli högljutt.
Vilket grafikkort ger mest prestanda för 200w.
Typ så (givetvis finns fler faktorer med i valet).

Jag har valt AMD tidigare av den anledningen. Senast blev det nvidia av den anledningen.

Mjo, har man byggt några sff eller itx så vet man värdet av kort som kan gå effektivt. Att byta från till exempel ett 3090Ti till ett 4070 Ti Super är ju en liten nedgradering i absolut prestanda (en stor nedgradering i namn )men med enormt bättre energieffektivitet. Kör man i ett tight chassi kan man ganska sannolikt lättare få ut mer prestanda ur 4070 Ti Super än ur 3090Ti i det bygget när man väl har allt på plats.

Har också en lite lös effekbudget, inte en särskild watt i sig men efter jag gjorde mig av med mina två 3090 så bestämde jag mig för helst något svalare än mitt 6800XT nästa gång. Något på nivån av 3090 kämns inte värt mödan att hålla det kallt nog för att faktiskt få ut prestandan som utlovas för en "daily driver" gamingrigg.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Shiprat:

Menar du att ingen uppgraderar för prestanda/watt eller att ingen tillverkare uppgraderar den ration?

För det är stor skillnad mellan kort och generationer.

https://tpucdn.com/review/nvidia-geforce-rtx-4080-super-founders-edition/images/energy-efficiency.png

Du generaliserar din upplevelse till alla låter det som, jag har gjort flertalet byten/uppgraderingar för att få bättre energieffektivitet/kylning, mindre totalt storlek, eller skruva på andra parametrar som inte har att göra med absolut prestanda.

Jag har bytt ner mig i prestanda flera gånger, antingen för att ett kort behövt säljas och det ens är värt mer än det andra, eller när jag ville testa RTX och bara ville ha tag i något rimligt i motsvarande prisklass mot mitt dåvarande, eller för att bästa prestandan kom i kort som vara instabila/kokheta och det inte funkade bra med den setup jag ville ha.

Mjo, har man byggt några sff eller itx så vet man värdet av kort som kan gå effektivt. Att byta från till exempel ett 3090Ti till ett 4070 Ti Super är ju en liten nedgradering i absolut prestanda (en stor nedgradering i namn )men med enormt bättre energieffektivitet. Kör man i ett tight chassi kan man ganska sannolikt lättare få ut mer prestanda ur 4070 Ti Super än ur 3090Ti i det bygget när man väl har allt på plats.

Har också en lite lös effekbudget, inte en särskild watt i sig men efter jag gjorde mig av med mina två 3090 så bestämde jag mig för helst något svalare än mitt 6800XT nästa gång. Något på nivån av 3090 kämns inte värt mödan att hålla det kallt nog för att faktiskt få ut prestandan som utlovas för en "daily driver" gamingrigg.

Nej jag generaliserar inte alla men jag menar dom flesta. Det gäller aå klart inte alla so i ditt fall.
Men dom flesta vill ha mer prestanda så enkelt är det.

Visa signatur

🇸🇪 VR Sverige Discord server - Svensk VR Community
https://discord.com/invite/avnhs6mgjc

Permalänk
Medlem
Skrivet av Molotov:

Nej jag generaliserar inte alla men jag menar dom flesta. Det gäller aå klart inte alla so i ditt fall.
Men dom flesta vill ha mer prestanda så enkelt är det.

Jo, mitt argument var aldrig att ingen vill ha mer prestanda, det var att jag vill ha mer effektiv prestanda. Jag tror inte att de flesta är taggade över att få säg, 30% bättre prestanda per generation men med 30% högre strömförbrukning, och sedan efter några generationer behöva ha ett eget ventilationssystem bara för att kyla datorn. Jag skulle gissa att de flesta som till exempel sitter på ett xx80 eller xx90 kort vill ha något som är överlag likadant som deras nuvarande men med bättre prestanda. Alltså, de vill ha mer effektiv prestanda, inte bara mer prestanda.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Skrivet av Shiprat:

Menar du att ingen uppgraderar för prestanda/watt eller att ingen tillverkare uppgraderar den ration?

För det är stor skillnad mellan kort och generationer.

https://tpucdn.com/review/nvidia-geforce-rtx-4080-super-founders-edition/images/energy-efficiency.png

Du generaliserar din upplevelse till alla låter det som, jag har gjort flertalet byten/uppgraderingar för att få bättre energieffektivitet/kylning, mindre totalt storlek, eller skruva på andra parametrar som inte har att göra med absolut prestanda.

Jag har bytt ner mig i prestanda flera gånger, antingen för att ett kort behövt säljas och det ens är värt mer än det andra, eller när jag ville testa RTX och bara ville ha tag i något rimligt i motsvarande prisklass mot mitt dåvarande, eller för att bästa prestandan kom i kort som vara instabila/kokheta och det inte funkade bra med den setup jag ville ha.

Mjo, har man byggt några sff eller itx så vet man värdet av kort som kan gå effektivt. Att byta från till exempel ett 3090Ti till ett 4070 Ti Super är ju en liten nedgradering i absolut prestanda (en stor nedgradering i namn )men med enormt bättre energieffektivitet. Kör man i ett tight chassi kan man ganska sannolikt lättare få ut mer prestanda ur 4070 Ti Super än ur 3090Ti i det bygget när man väl har allt på plats.

Har också en lite lös effekbudget, inte en särskild watt i sig men efter jag gjorde mig av med mina två 3090 så bestämde jag mig för helst något svalare än mitt 6800XT nästa gång. Något på nivån av 3090 kämns inte värt mödan att hålla det kallt nog för att faktiskt få ut prestandan som utlovas för en "daily driver" gamingrigg.

Allt du nämner här är ju inte uppgraderingar, utan enbart ändrade parametrar som gör att du måste byta.
Dessutom har du bytt inom samma generation och samma dåliga prestanda/watt...

Av alla människor som köper gpuer är du i 0.01% folket

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Av alla människor som köper gpuer är du i 0.01% folket

Tror också det är ungefär 0.01% av folket som skulle vara nöjda om prestanda och energiförbrukning ökade i samma takt generation efter generation.

Permalänk
Medlem
Skrivet av Swedishchef_90:

Allt du nämner här är ju inte uppgraderingar, utan enbart ändrade parametrar som gör att du måste byta.
Dessutom har du bytt inom samma generation och samma dåliga prestanda/watt...

Av alla människor som köper gpuer är du i 0.01% folket

Varför inte? Är det enbart en uppgradering om det är absolut prestanda som uppgraderas? Kan man inte uppgradera feature set eller effektivitet menar du?

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Skrivet av Squallie:

Tror också det är ungefär 0.01% av folket som skulle vara nöjda om prestanda och energiförbrukning ökade i samma takt generation efter generation.

Den har ju gått ned denna gen. Även om tdp gick upp på 4090

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Skrivet av Shiprat:

Varför inte? Är det enbart en uppgradering om det är absolut prestanda som uppgraderas? Kan man inte uppgradera feature set eller effektivitet menar du?

Du har ju mer eller mindre knappt side gradat. Jämför prestanda index mot tdp så ser du...

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Du har ju mer eller mindre knappt side gradat. Jämför prestanda index mot tdp så ser du...

Om du menar 4070Ti vs 3090 så var det bara ett exempel.

Om du menar 6800XT vs 3090 så behövde jag välja vad jag skulle köra, kunde som bäst få någonstans under 10k för 6800XT medan jag lyckades sälja båda 3090 för exakt vad jag köpte dem för, ett år senare (21190, 23499), och att jag noterat att i min gamingrigg fick jag inte ut någon enormt högre prestanda från 3090 medan 6800XT gick att få betydligt kallare.

Men min poäng med dessa var, igen, att absolut prestanda inte är enda faktorn i beslut om man bygger.

Känner att jag börjar upprepa mig men försöker förklara en sista gång - jag vill att prestanda/watt (och pris/prestanda) ska gå upp mellan generationer, annars känns det inte som en uppgradering.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Skrivet av Shiprat:

Om du menar 4070Ti vs 3090 så var det bara ett exempel.

Om du menar 6800XT vs 3090 så behövde jag välja vad jag skulle köra, kunde som bäst få någonstans under 10k för 6800XT medan jag lyckades sälja båda 3090 för exakt vad jag köpte dem för, ett år senare (21190, 23499), och att jag noterat att i min gamingrigg fick jag inte ut någon enormt högre prestanda från 3090 medan 6800XT gick att få betydligt kallare.

Men min poäng med dessa var, igen, att absolut prestanda inte är enda faktorn i beslut om man bygger.

Känner att jag börjar upprepa mig men försöker förklara en sista gång - jag vill att prestanda/watt (och pris/prestanda) ska gå upp mellan generationer, annars känns det inte som en uppgradering.

Pris prestanda har sjunkit mellan generationer samt effekt per fps har sjunkit. Bara det gått långsammare. Vissa har delar har haft +/- 0.

Bästa exemplet är 4070ti =3090ti I prestanda och msrp är ju 50%
Tdp är ju också typ 50%....

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Pris prestanda har sjunkit mellan generationer samt effekt per fps har sjunkit. Bara det gått långsammare. Vissa har delar har haft +/- 0.

Bästa exemplet är 4070ti =3090ti I prestanda och msrp är ju 50%
Tdp är ju också typ 50%....

Vilket är min poäng, det är det jag vill se. Vad jag inte vill se är att samtliga kategorier smyger upp i strömförbrukning hela tiden till den nivå att det blir nödvändigt att undervolta och ha sig för att få en rimlig produkt- hellre att man har alternativet att överklocka om man vill få ut bästa möjliga prestandan, på så vis är det mindre risk för problem med korten med. Mitt ASUS 3090 till exempel gick upp till 110C på VRAM och stannade där när jag körde cyberpunk, jag krånglade en hel del med power targets och 3dprintade fan brackets + kylflänsar på back plate för att få ner det till en nivå där det inte luktade bränt om kortet innan jag skaffade ett inno3D 3090 istället. Det var inte helt tydligt om eventuella problem från det faktiskt skulle upptäckas inom garantitiden. Det är inte en bra produkt- 3090 kunde ju uppebart gå bra mycket svalare än så och ändå vara överlägset allt annat på marknaden. Istället skulle det skruvas upp förbi avtagande avkastning för prestanda och vara kokhet i default. 4090 har 100W högre TDP än 3090 och 5090 låter som att det nu kommer ha ytterligare 50W högre. 4090 verkar vad jag läst också ligga långt över optimal profil.

Jag vill se bättre prestandaökning, inte att korten är snabbare men orimligare att driva varje generation. Det är inte något vansinnigt önskemål tycker jag, det är ju tydligt att det går att lösa, de flesta kort i senaste två generationerna kan ju köras mycket bättre än vad de är i default.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Skrivet av Shiprat:

Vilket är min poäng, det är det jag vill se. Vad jag inte vill se är att samtliga kategorier smyger upp i strömförbrukning hela tiden till den nivå att det blir nödvändigt att undervolta och ha sig för att få en rimlig produkt- hellre att man har alternativet att överklocka om man vill få ut bästa möjliga prestandan, på så vis är det mindre risk för problem med korten med. Mitt ASUS 3090 till exempel gick upp till 110C på VRAM och stannade där när jag körde cyberpunk, jag krånglade en hel del med power targets och 3dprintade fan brackets + kylflänsar på back plate för att få ner det till en nivå där det inte luktade bränt om kortet innan jag skaffade ett inno3D 3090 istället. Det var inte helt tydligt om eventuella problem från det faktiskt skulle upptäckas inom garantitiden. Det är inte en bra produkt- 3090 kunde ju uppebart gå bra mycket svalare än så och ändå vara överlägset allt annat på marknaden. Istället skulle det skruvas upp förbi avtagande avkastning för prestanda och vara kokhet i default. 4090 har 100W högre TDP än 3090 och 5090 låter som att det nu kommer ha ytterligare 50W högre. 4090 verkar vad jag läst också ligga långt över optimal profil.

Jag vill se bättre prestandaökning, inte att korten är snabbare men orimligare att driva varje generation. Det är inte något vansinnigt önskemål tycker jag, det är ju tydligt att det går att lösa, de flesta kort i senaste två generationerna kan ju köras mycket bättre än vad de är i default.

Problemet är att alla kort är olika och default är dem säkraste inställningar där all kort fungerar. Tyvärr om QC är dålig, som 3000 serien led av med kass pasta och pads, så fick man värmestrul. Med 110 memory så hade du kunnat reklamera då din delta temp var för hög

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Problemet är att alla kort är olika och default är dem säkraste inställningar där all kort fungerar. Tyvärr om QC är dålig, som 3000 serien led av med kass pasta och pads, så fick man värmestrul. Med 110 memory så hade du kunnat reklamera då din delta temp var för hög

Källa på att det går att reklamera? När jag sålde var vad som sas att GDDR6X klarade sig sålänge det inte översteg 110C där nvidia hade satt throttle, om jag minns rätt. Kan kanske hända att butiken jag köpte ifrån hade låtit mig reklamera ändå såklart. Var tydlig med beteendet och vad mina mer stabila inställningar var när jag sålde det, så det är vad det är.

Om att kort är olika och "säkraste inställningar" så kan man lika gärna vända på steken- pusha inte korten lika hårt utan lämna de sista procenten av prestandapotential till överklockare istället.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Skrivet av Shiprat:

Källa på att det går att reklamera? När jag sålde var vad som sas att GDDR6X klarade sig sålänge det inte översteg 110C där nvidia hade satt throttle, om jag minns rätt. Kan kanske hända att butiken jag köpte ifrån hade låtit mig reklamera ändå såklart. Var tydlig med beteendet och vad mina mer stabila inställningar var när jag sålde det, så det är vad det är.

Om att kort är olika och "säkraste inställningar" så kan man lika gärna vända på steken- pusha inte korten lika hårt utan lämna de sista procenten av prestandapotential till överklockare istället.

Normal temp är inte 110C
https://www.tomshardware.com/news/report-why-the-geforce-rtx-...

De flesta brukar säga runt 95C för att ge headroom för throttling. Micron själva säger det också om sitt vram
https://www.micron.com/products/memory/hbm/gddr6x

Har man stort delta så brukar något vad knas.
Delta borde vara <15C°mellan hotspot och gpu temp

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Normal temp är inte 110C
https://www.tomshardware.com/news/report-why-the-geforce-rtx-...

De flesta brukar säga runt 95C för att ge headroom för throttling. Micron själva säger det också om sitt vram
https://www.micron.com/products/memory/hbm/gddr6x

Har man stort delta så brukar något vad knas.
Delta borde vara <15C°mellan hotspot och gpu temp

Med "normal temp" menar du operating temp eller?

Från din länk:

For reference, Micron rates its GDDR5, GDDR5X and GDDR6 memory chips with a Maximum Junction Temperature (TJ Max or Tjunction Max) of 100C (degrees Celsius). The typical recommended operating temperatures ranges between 0C to 95C. The reading materials on Micron's GDDR6X don't reveal the TJ Max for the new memory chips so there's still a bit of mystery to the topic. According to Igor, the general consent is around 120C before the GDDR6X chips suffer damage. This would mean that the Tjunction value should be set at 105C or up to 110C.

Båda mina kort verkade throttla vid 110C. Givet bra flöde i chassit höll sig inno3D kortet gärna lägre typ 104-106C som värst vid gaming eller under 100 för spel som inte involverade kombon RT + DLSS. inno3D hade tydligt lagt möda på kylning av VRAM på baksida av kortet, det hade inte Asus men inte heller Nvidia FE vad jag minns (hade inget FE själv så kan inte säga säkert).

Är inte säker på vad du säger om delta- har enbart hört den beräkningen gällande core och core hotspot, inte VRAM. Det värde jag pratar om är alltså memory junction temp.

Och menar inte att 110C ska vara normalt, men om du googlar snabbt så kommer du se att jag var lååångt ifrån den enda som såg memory junction vid 110 eller iallafall över 100. Finns gott om dokumentation på Nvidias forum och reddit, en del fick svar från Nvidia att 110 var okej för VRAM.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem

Vi behöver en ATX 4.0 standard för de nya 800W GPU:erna. Jag föreslår ett gem och lite svart eltejp. Det klara av jobbet galant!

Permalänk
Medlem

Man får kanske skaffa sig en pool snart så man har någonstans att dumpa värmen...

Visa signatur

i9 10900k | RTX 3080 Strix OC | 32GB Dominator @3200 | Maximus XII Hero Z490
Samsung 49" C49RG90
Böjda rör med vatten i