Asus Geforce RTX 3090 TUF Gaming OC

Permalänk
Häxmästare ✨
Skrivet av dakke:

Lite förvånad att 3090 korten bara drar 5w mer en asus 3080 tuf vid max last

Skrivet av the squonk:

Drar nog betydligt mer om dom kör något som belastar hela minnet, 24GB är sannolikt knappt använt i vanliga Swec tester. Redan dom 10GB på 3080 drar ca 60W, så 3090 har potential att dra 90W till om minnet går för fullt.

Geforce RTX 3080 TUF OC har en förhöjd strömbudget ur kartong på 340 W, vilket är anledningen varför den landar nära Geforce RTX 3090 TUF OC som ligger kvar på standardnivån 350 W. Nämnvärt är att 350 W gäller för hela kortet inklusive grafikminne, så även vid minnesintensiva applikationer/spel kommer detta inte att överskridas, utan snarare då påverka hur stor del av strömbudgeten som tilldelas grafikkretsen kontra minnet.

Skrivet av ronz:

Jag förstår inte. Denna har 2st 8 pins kontakter. Medans 3080 Strix har 3st 8 pin kontakter.
Bör inte 3090 dra mer ström även om det är en TUF model?

I Strix-kortets fall finns det faktiskt en viss poäng med att säkra upp med tre 8-pinskontakter. Det har en strömbudget ur kartong på 380 W med möjlighet att vrida upp denna till 480 W. TUF OC-kortet har ett spann mellan 350 och 375 W.

Permalänk
Medlem
Skrivet av SCORPIUS:

Vore faktiskt intressant att höra någon som köpt RTX 3090 enbart och enbart för spel motivera varför det inte blir ett RTX 3080.
Gärna då med personliga screens på vilken fps personen får.

För att jag kan.

Permalänk
Medlem
Skrivet av Mordekai:

Hm.. Är osäker på vad du syftar på. Jag har inte lusläst sidan, men ser inget som motsäger mitt påstående. Möjliget att du tänker på den angivna max upplösningen vid 60Hz, men det är just det, begränsningen om du vill ha minst 60Hz.

Permalänk
Medlem
Skrivet av backlulund:

Exakt vad jag menar är det Nvidia skriver, men kanske bara säljargument.
"GeForce RTX 3090 är världens första grafikkort där du kan spela, spela in och titta i 8K HDR."
Men jag började mitt inlägg med har jag missförstått nånting för att jag vill argumentera, mest för att jag är förvirrad av allt det här nu.

Okej, då förstår jag vad du syftar på. Då får jag väl ställa den frågan till nvidia ist.
Jag tror ärligt talat att det bara är försäljningsargument.

Permalänk
Medlem
Skrivet av Querth:

Det där tycker jag är en tråkig utveckling med mycket i världen. När vi egentligen borde ha som mål att bli energieffektivare i allt vi gör så kan taket för energin ett kort slukar ändå slå nya rekord.

Visst energieffektiviteten kanske är likvärdig som föregående generation men det spelar ju ingen roll när man I slutändan använder mer energi i en rigg ändå. Varför är det så svårt att bryta mentaliteten inom elektronik (bland annat) att det inte spelar någon roll hur mycket ström något drar så länge man har råd och det fungerar. Vart är miljöaspekten? Det ifrågasätts inte ens vad jag Kan läsa/lyssna på här och på youtube.

Jag skulle ju inte bli ledsen av att en maxgräns sattes för strömförbrukning för icke professionellt bruk när det kommer till hårdvara. Men det är ju väldigt opopulärt att tycka så 🤷‍♂️

Går väl i cykler rätt som det är kommer det en serie som är mycket energisnålare än föregående. Exempel från nvidia gtx 580 till 680, och gtx 780ti till 980. Amd fick ju även till det med förbrukningen på sina Navi kort och de konkurrerade ju med bättre effektivitet än vad nvidia erbjöd under fermi korten.

Man kanske kan se Nvidias ampere serie som en modern fermi. Bra prestanda men med hög energiförbrukning.

Permalänk
Medlem

Videominnnet ett problem?

Ända anledningen att välja detta kortet är ju för Videominnnet på 24gb!
10gb känns på tok för lite för 4k gaming alternativt bredbildsskärmar!

ett bra exempel på att 4k gaming drar hela 10gb i videominne!
https://www.youtube.com/watch?v=jyZbArP-Y2w&t=546s&ab_channel...

Någon som håller med?

Permalänk
Medlem
Skrivet av swecop:

Ända anledningen att välja detta kortet är ju för Videominnnet på 24gb!
10gb känns på tok för lite för 4k gaming alternativt bredbildsskärmar!

Någon som håller med?

"Ända anledningen att välja detta kortet är ju för Videominnnet på 24gb!"
Håller med.

"10gb känns på tok för lite för 4k gaming alternativt bredbildsskärmar!"
Håller inte med.

Permalänk
Medlem
Skrivet av swecop:

Ända anledningen att välja detta kortet är ju för Videominnnet på 24gb!
10gb känns på tok för lite för 4k gaming alternativt bredbildsskärmar!

ett bra exempel på att 4k gaming drar hela 10gb i videominne!
https://www.youtube.com/watch?v=jyZbArP-Y2w&t=546s&ab_channel...

Någon som håller med?

att ett spel allokerar mycket videominne när det finns tillgängligt är inte detsamma som att det inte går att köra i stort sett lika bra på mindre mängd.

Permalänk
Medlem

Här är ett svar från en 3D grafikers sida:

Jag har spelat spel så länge jag kommer ihäg, är omkring 50+ år nu, och som evig gamer så vill man ju ha så hög prestanda man har råd med. Men å den annan sida, jag arbetar också med 3D grafik, då blir det en helt annan grej. För mig är Quadro korten för dyra då dom är mera riktad mod CAD folket, och inte så mycket visuell design.

Håller med gamers om att dom inte har behov för 3090 då 16-20K för 10% extra performance är helt löjligt och oförnuftig i mina ögon med. Har man däremot pengar att bränna och prisen inte betyr nåt, så är det ju ingen snack, bara att köpa, köra o tuta, men grät nu inte när nyare kort kommer och slår ihjäl 3090's inom spel, för dette kommer, och då vill det göra ondt i plånboken på dom som trodde dom skulle får det "bästa av det bästa" dom nästa 2 åren, nej så blir det inte, knappast! 10K kommer att förloras i plånboken direkt på under ett halvår, men har ni råd med det utan at bli ledsen sen, så go for it!

Jag har beställt ett 3090, varför då - det är ju helt galet, right? Well, saken är den - att i 3D grafikerns värld så är ram-minne guld värd, för att vi använder detta till textures FÖR dom komprimeras och exporteras till t.eks spel. Jag kan ladda upp stora okomprimerade texturer som jag arbetar med i 3D programmet, och då försvinner minnet snabbt, bara ett enkelt KÖK med alla grejor kostade 12 GB i en test, och då var det slut på minnet (1080ti har 11 GB) och då måste 3D mjukvaran börja och buffra ner till ram eller NVMe temp. swap minnesfil, och det är inte kul, då kan jag inte längre dra rundt med 3D objekten glidande i preview mode (altså där man ser texturerna och ljus effekterna som om dom vore färdig renderat utan att det hackar och blir förskräckligt långsamt)
Så för sånna som mig som BÅDE arbetar med 3D och gamer, är det rent guld, och "walk in the park" i förhållande till ett motsvarande Quadro kort.

För gamers kommer 10 GB textur minne hålla gott och väl i lång tid. Jag har haft et 1080ti sen starten, och spelar i 4K, oavsätt vad jag slänger på i Ultra/epic modes i stort sett alla spel, så maxar den kun omkring 6-7 GB och inte mera, genomsnittlig 4-5 GB.
4K spel kommer till att förbättras avsevärdigt med ett 3080 kort, så ni kan glädjas över att det inte blir mkt. mera än 7000-10K för kortet (det är ju mkt. pengar det med, isär bara för spel!)

Så 3080 räcker väl för 99 % av er.

Permalänk
Medlem
Skrivet av swecop:

Ända anledningen att välja detta kortet är ju för Videominnnet på 24gb!
10gb känns på tok för lite för 4k gaming alternativt bredbildsskärmar!

ett bra exempel på att 4k gaming drar hela 10gb i videominne!
https://www.youtube.com/watch?v=jyZbArP-Y2w&t=546s&ab_channel...

Någon som håller med?

Håller absolut inte med. Minnet måste vara allokerat i denna video. Jag spelar 4k 120hz på mitt 3080 och har inte i något spel, inkl Battlefield 5, upplev brist på Vram. FPSen ligger stadigt runt 120+ till största delen av tiden.

Permalänk
Medlem
Skrivet av swecop:

Ända anledningen att välja detta kortet är ju för Videominnnet på 24gb!
10gb känns på tok för lite för 4k gaming alternativt bredbildsskärmar!

ett bra exempel på att 4k gaming drar hela 10gb i videominne!
https://www.youtube.com/watch?v=jyZbArP-Y2w&t=546s&ab_channel...

Någon som håller med?

Håller inte med. Allokerat minne är inte detsamma som nyttjat minne. De flesta spel kommer allokera så mycket som möjligt om det finns tillgängligt, det är därför man kan luras och tro att ett spel använder ohyggliga mängder minne men det i själva verket glatt roffar åt sig av det som finns men använder bara en bråkdel. Så en annan person med mindre VRAM kan få en lika bra spelupplevelse men spelet kan inte allokera lika mycket minne. Minnesanvändningen kan vara samma för båda.

Så nej, 98% av alla spelare lär inte behöva mer än 10gb de närmaste åren. Och tills dess lär ett nyare bättre grafikkort finnas till hands...

Permalänk
Medlem
Skrivet av Rico01:

Så nej, 98% av alla spelare lär inte behöva mer än 10gb de närmaste åren. Och tills dess lär ett nyare bättre grafikkort finnas till hands...

Indeed. Jag kommer att ha uppgraderat mitt 3080 (ifall det blir lev. nån gång) innan jag saknar vram för 1440p. Roligare att köpa 3080 och ett hypotetiskt 4080 i framtiden än ett 3090 IMO.