Nvidia Geforce RTX 3090 Ti – snabbt, dyrt och läskigt effekttörstigt

Permalänk
Medlem

Känns som 3000 är en gammal serie nu. Bara de som måste byta kort gör det idag. om 6mån ser vi minst 30 mer prestanda i toppkorten. Kommande RT prestanda höjs mer troligt med +50-75% mot dagens nivå. Nvidia måste få in bra RT prestanda till alla segment om spelutvecklarna ska lyssna och införa tekniken på bred front.

Övrigt snart kommer även AMD med ett halo kort typ 6950XT men fortfarande "gamla" serien.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem

Är nu väldigt nöjd med RTX3070, räcker bra för mina behov, har preppat för RTX4*** med 12900-riggen i sig. Med PCIE5.0 och allt, samt dessutom garanterad uppgradering till Raptor Lake - ja blir kvar på DDR4 ett bra tag till

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Xbox och Playstation är ju oerhört prisvärda, trots det höga priset på dem... när man ser de här dyra g-korten.

Permalänk
Medlem
Skrivet av Thomas:

Klart man kan, men man kan inte få fullkomligt maxad prestanda och hög energieffektivitet.
Det går ju i princip alltid att få ännu högre prestanda till lägre effektivitet än vad man har just nu (överklockning med ökad power limit eller mods), till och med om man skaffar ett 3090 Ti.

Om NVIDIA hade släppt 3090 med standard-limit satt till 280 W istället för 350 W så skulle det sannolikt prestera inom 5%, men till 20% lägre effekt, så perf/W ökar med nästan 20% (18.75%). Man skulle ju fortfarande ha hög prestanda dock.

Precis så, det är alltid en kompromiss mellan absolut prestanda och effektivitet. 5% i lägre prestanda kan vara en dealbreaker. Men inget hindrar en köpare att klocka ner och köra med lägre spänningar. Samtidigt driver marknadskrafterna fram dessa extrema kort för de som vill klämma ut sista droppen.

Permalänk
Redaktion
Praktikant ✨
Skrivet av fragande:

Även det skulle ju efter effektförluster i nätaggregatet innebära att en 10900K och hela resten av systemet bara skulle dra 30-40W 60-70W om hela systemet drar 545W från väggen. Det går ju inte ihop. Antingen är Metro Exodus väldigt dåligt lämpat som test eller så är det något i Swec's testsystem som flaskhalsar ordentligt.

Speltester på andra sidor (bara grafikkort):

Techpowerup: 469W (MSI)
Gurur3d: 461W (Palit)
KitGuru: 463W (MSI)

Så ASUS-kortet borde ju ligga och tugga på 450W power limit.

Hoppas på en PCAT till nästa testsystem

EDIT: Okej, 90% effektivitet är för lågt tilltaget för ett Titanium-agg. Blir väl 60-70W snarare, men även det låter orimligt lågt.

Skrivet av Trihxeem:

Skulle det vara möjligt att dra fram en graf/jämförelse där ni ställer prestandaindexet mot effekten?
Så sätt 2070 super som bas med 100 som vanligt och om ett kort konsumerar 100% mer el så skulle det också behöva ha ett prestandaindex på 200 eller högre för att vara mer energieffektivt. Man behöver isf räkna bort bassystemet för att bara räkna på vad själva grafikkortet drar. Doable?

Tror att jag hinner med att dra igenom kortet med PCAT imorgon och komplettera med energieffektivitetsdiagram baserat på de siffrorna.

Vi brukar vanligtvis ha med PCAT-mätningar, men den här gången blev det dessvärre dåligt med tid.

Permalänk
Medlem

Asus RTX 3090ti TUF OC battlefield V Turning point 3840x2160 medelvärde 135. lägste värde 121

Geforce RTX 3080ti battlefield V Turning point 3840x2160 medelvärde 118 lägste värde 98

För detta prisskillnad

Meh

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Medlem
Skrivet av aliassund:

Du får välja, Du kan inte få både hög prestanda och hög energieffektivitet.

Varför inte? Det går ju bra inom alla andra industrier.

Permalänk
Medlem
Skrivet av JonasT:

Tror att jag hinner med att dra igenom kortet med PCAT imorgon och komplettera med energieffektivitetsdiagram baserat på de siffrorna.

Vi brukar vanligtvis ha med PCAT-mätningar, men den här gången blev det dessvärre dåligt med tid.

Awesome

Visa signatur

Att förespråka Mac på Swec är som att förespråka hybridbilar på en raggarträff i Mora.

Permalänk
Medlem
Skrivet av Kaspersky 0_o:

Varför inte? Det går ju bra inom alla andra industrier.

Inget i vår historia har haft den utveckling som elektronik har haft när det gäller energieffektivitet, dvs hur mycket arbete som utförs per energienhet. Men problemet är att folk klagar på att mänskligheten nu kan integrera ett system av >30 miljarder transistorer på ett chip som klockas med flera GHz och att det då drar 300-500W. Rätt komiskt.

Självklart utvecklas chipteknologier att vara så effektiva som det bara går samtidigt som det går att använda dom i rimlig hastighet. Effektförbrukning och värmeutveckling som följer är ju det största problemet.

Det är fritt fram att underklocka och undervolta för att nå en väsentligt bättre energieffektivitet. Men det sker till priset av sämre absolut prestanda.

Permalänk
Medlem

Dyra extra FPS, speciellt om man även tar in elkostnader.

Permalänk
Medlem
Skrivet av Kladdpapper:

Vad menas med ElementAsus? Att det alstrar värme som ett element eller?

Haha, såg den också. Tryckfelsnisse i den bilden som blev lite kul ändå.

Ping @JonasT

Fast det kan ju lika väl vara kvar så

Det är alltså i bilden i Raytracing-avsnittet som visar Battlefield V.

Visa signatur

Windows 11 Pro | Intel i7 8700 | ASUS Prime Z370-P | Corsair 16GB 3000MHz | ASUS GTX 1080 | Fractal Design Define S | Corsair RM750x | Hyper 212 EVO

Permalänk
Medlem
Skrivet av aliassund:

Inget i vår historia har haft den utveckling som elektronik har haft när det gäller energieffektivitet, dvs hur mycket arbete som utförs per energienhet. Men problemet är att folk klagar på att mänskligheten nu kan integrera ett system av >30 miljarder transistorer på ett chip som klockas med flera GHz och att det då drar 300-500W. Rätt komiskt.

Självklart utvecklas chipteknologier att vara så effektiva som det bara går samtidigt som det går att använda dom i rimlig hastighet. Effektförbrukning och värmeutveckling som följer är ju det största problemet.

Det är fritt fram att underklocka och undervolta för att nå en väsentligt bättre energieffektivitet. Men det sker till priset av sämre absolut prestanda.

Har du belägg för dina påståenden?

Tycker inte underklocka/volta är ett rimligt argument, så kan du säga om allt som är ineffektivt.

Permalänk
Medlem
Skrivet av Kaspersky 0_o:

Har du belägg för dina påståenden?

Tycker inte underklocka/volta är ett rimligt argument, så kan du säga om allt som är ineffektivt.

Behöver väl inget belägg för det där. Det är ju fullständigt korrekt, och logiskt.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem

Billigt ändå.

Visa signatur

RTX 4080 Super | Ryzen 5800X3D | B550 | 32GB 3600 MHz | 1000W | W.11

Permalänk
Redaktion
Praktikant ✨
Skrivet av Joppis:

Haha, såg den också. Tryckfelsnisse i den bilden som blev lite kul ändå.

Ping @JonasT

Fast det kan ju lika väl vara kvar så

Det är alltså i bilden i Raytracing-avsnittet som visar Battlefield V.

Haha, whoops!

Nu korrigerat! Diagrammen cachas av webbläsaren så kan behövas en hård refresh (CTRL+F5).

Permalänk
Medlem

Antingen mäter ni effekten fel eller så lyckas ni inte belasta grafikkortet ordentligt. Inte att det blir något positivt av det, men rätt skall vara rätt. Dessutom är nog inte spel som Battlefield ämnade alls för test av grafikkort då det är cpu/minne-bundet till och med i 4k i många tilfällen. HUB gör samma fel och använder titlar som Hitman 3 (hallå????)

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Skrivet av Triton242:

Eth mining vad brukar det ge i kronor per kilowatt el på 30 serien ungefär är det någon som vet.
Jag söker bara cirka svar för ett kul räkneexempel.

3090ti ger 130mhs och drar ca 330w eth/etc, med minnestemp på 65-70c....

Permalänk
Medlem
Skrivet av marcusOCZ:

Behöver väl inget belägg för det där. Det är ju fullständigt korrekt, och logiskt.

Tramsigt. Det är ett bruteforce-argument han gör. Jag kan slänga mer CPU på ett problem eller så kan jag effektivisera lösningen, det är precis samma sak här.

Jag har inte djupdykt i frågan, men det ser ut som att några av nvidias datacenter-kort har motsvarande mängd transistorer och beräkningskraft, men lyckas på nåt vis dra flera hundra watt mindre.

Permalänk
Medlem
Skrivet av Kaspersky 0_o:

Tramsigt. Det är ett bruteforce-argument han gör. Jag kan slänga mer CPU på ett problem eller så kan jag effektivisera lösningen, det är precis samma sak här.

Jag har inte djupdykt i frågan, men det ser ut som att några av nvidias datacenter-kort har motsvarande mängd transistorer och beräkningskraft, men lyckas på nåt vis dra flera hundra watt mindre.

GDDR6X verkar vara en del av problemet. Kolla det stora hoppet i effekt på 3070 till 3070ti.
Tror inte heller nvidias datacenter kort kör med GDDR6X.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem

Kan detta bli en valfråga för miljöpartiet?
Folkets hemmabyggda kärnkraftsverks slukare 😅

Sluta dammsuga slogan kanske kommer tillbaka?.

Samt att sms-lånen för att betala elräkningarna kommer att öka 😂

Kul med nya prylar. Men när trenden på mindre el konsumtion plötsligt tvärvänder, samtidigt som politikerna pratar om grön el och el brist. Kommer det säkert nya regler gällande elslukande apparater. Gissar på en påhittad skatt? Vad som är lyx och nödvändigt

Visa signatur

Lightsaber - Black armour - and balls!

Permalänk
Medlem
Skrivet av Kaspersky 0_o:

Tramsigt. Det är ett bruteforce-argument han gör. Jag kan slänga mer CPU på ett problem eller så kan jag effektivisera lösningen, det är precis samma sak här.

30XX har blivit mer energieffektiva så förstår inte vad du menar.
Kolla ex 1080Ti max effekt ca: 250-280W sen tar du ett 3060Ti som ger runt 20-30% mer prestanda men drar ca: 200W.
Så det är både mer energieffektivt och samtidigt mer prestanda.

Permalänk
Medlem
Skrivet av Clasito:

GDDR6X verkar vara en del av problemet. Kolla det stora hoppet i effekt på 3070 till 3070ti.
Tror inte heller nvidias datacenter kort kör med GDDR6X.

Du har rätt. En sammanfattning av techpowerups data när det kommer till A40 vs 3090TI:

3090

A40

Klockhastighet (boost)

1560MHz (1860MHz)

1305MHz (1740MHz

CUDA-kärnor

10752

10752

RT-kärnor

82

82

Tensor-kärnor

334

334

Minnestyp

GDDR6X

GDDR6 ECC

Minnesmängd

24GB

48GB

Minnesbandbredd

1008GB/s

696GB/s

Strömförbrukning

450W

300W

Den stora skillnaden är nog framförallt att det är olika minnestyper. 3090TI är klockad aningen högre, vilket även bidrar en del, men 150W är en betyande skillnad.

Permalänk
Medlem
Skrivet av Johnny K:

30XX har blivit mer energieffektiva så förstår inte vad du menar.
Kolla ex 1080Ti max effekt ca: 250-280W sen tar du ett 3060Ti som ger runt 20-30% mer prestanda men drar ca: 200W.
Så det är både mer energieffektivt och samtidigt mer prestanda.

Fast nu handlar diskussionen om 3090TI, inte de grafikkorten du nämner.

Permalänk
Medlem

Så, ett 3090ti eller en toppklassad gamingdator med 3070ti? Hahaha

Visa signatur

AMD Ryzen 5 5600X | ASUS GeForce RTX 2080 8GB DUAL OC | Corsair Vengeance LPX Black 16GB (2x8GB) / 3200MHz | MSI B450 TOMAHAWK - ATX / B450 | Fractal Design Define C - Svart | Corsair RM750X V2 750W 80+ Gold | Noctua NH-D15 |

Permalänk

Det var inte någon dålig effekt i de kortet men ändå inte något kort jag är intresserad av. Med den effekten så kanske det inte är så långsökt att den ryktade effekten om 600 W på nästa generations toppkort inte är så överdriven ändå. Ska bli skoj att se vad både RX 7000 samt RTX 4000 serie kommer att dra i effekt.

Visa signatur

Låda: Fractal Design Torrent PSU:Corsair RM 1000x Moderkort: Asus ROG Strix B550-F. CPU: Ryzen 5 5600X @Stock. Minne: DDR4-3600 mhz. GPU: PowerColor Radeon Rx 7900 XTX Limited. Skärm: Samsung Odyssey G9. OS: Manjaro.

Permalänk
Redaktion
Praktikant ✨

@fragande @Trihxeem

Nu finns PCAT-mätningar samt ett diagram för energieffektivitet i recensionen på sidan 7.

Permalänk
Medlem

Grymt!

Visa signatur

i9 11900k ||32GB 4000MHz CL15||ASUS ROG STRIX Z590-E||Noctua NH-D15s
Intel Arc a750 ||Samsung 980 pro|| EVGA Supernova G3 850W
Asus xonar essence STX|| Lian-Li O11 Dynamic XL
Asus VG27AQ 165Hz IPS, Sennheiser HD650, Logitech g502 Hero, fUnc f30r, Vortex TAB90M, Audio-Technicha ATR2500x-USB
Server: x10SL7-F, Xeon E3 1230v3, 32GB Samsung ECC ram, 6x3TB WD RED, FD Node 804.

Permalänk
Medlem
Skrivet av JonasT:

@fragande @Trihxeem
Nu finns PCAT-mätningar samt ett diagram för energieffektivitet i recensionen på sidan 7.

Tack, intressant!

Visa signatur

Att förespråka Mac på Swec är som att förespråka hybridbilar på en raggarträff i Mora.

Permalänk
Medlem

Jag sällar mig till LTT's åsikt i fråga om det här kortet. https://www.youtube.com/watch?v=DDcA0c-Ahq0

TLDR; kortet är ett hån mot pc-gaming och borde inte finnas.

Visa signatur

h170i-plus i5 6600 2x8gb ddr3l 850 pro 256gb
Don't argue with an idiot. He will drag you down to his level, and beat you with experience.

Permalänk
Medlem

Det talas i olika sammanhang om k*kförlängare, jag ser denna produkt som en sådan.