Rykte: Nvidia Geforce RTX 4090 slukar 600 watt

Permalänk
Medlem

Blir inga problem. AX1600i här.

Visa signatur

GTX 260 SC | GTX 280 SLI | GTX 280 Tri SLi | GTX 590 Quad SLi | GTX 980 ti | RTX 2080 Ti Strix OC | RTX 3090 Strix OC | RTX 4090 Strix OC
The Way It's Meant to be Played|NVIDIA

ASUS MAXIMUS Z790 APEX Encore | i9-14900KS (delidded/direct-die) | 2x24GB G.Skill 8000 M-die | Corsair AX1600i | Samsung 990 PRO 4TB | Corsair 7000D Airflow | 15x Corsair ML Pros (8x ML120 Pro, 7x ML140 Pro) | Rads 360+360+420 | LG C3 48" 120Hz

Permalänk
Medlem
Skrivet av andreas_dock:

Och elen är dyrare än någonsin... detta bådar ju gott 🙄

Kommer dock fortfarande vara ett av de mindre utgifterna på den genomsnittliga elräkningen.

Skrivet av Knotvillage:

Hoppas verkligen inte detta kom som en nyhet för någon att grafikkorten drar mer ström…

Ett 3080 drar runt 440 idag, 3090 över 500. Därför kan jag inte förstå folk som köper under 850 psu till sina datorer om dom uppgradera med tiden. Skulle gissa att inom Intel 14900 och RTX 5080 kommer utan problem kommer dra 1000w. Är ju bara gilla läget, spel är ju en hobby och det kostar pengar. Så länge datorn inte drar över 2400w så proppen går så ser jag inget problem med förbrukningen.

Enligt Sweclockers mätningar så drog hela datorn 415W direkt ur väggen. Så hur du får det till att 3080 drar 440 kan man ju undra med tanke på att det skulle vara mer än hela Sweclockers testrigg drog under load.

Skrivet av BergEr:

Flesta säger nog det med glimten i ögat.

Men tar vi högsta spotpriset och väldigt grov räkning.

1KW dator, 2KW AC = 3kWh = 30kr/h.

6h gaming per dag = 180kr, en månad 5400 kr (mer än hyran!).

Över 60k om året i el för bara gaming då

Förutsätter ju att datorn ligger under load konstant och inte går ned idle.

Skrivet av Herr Kantarell:

Man har ju jobbar i flera år på att få ner förbrukningen och så börjar de öka istället.

Det är ju nästan som det är tekniska svårigheter som sätter förutsättningarna.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | AMD R7 9800X3D | MSI MAG X870 Tomahawk WIFI | 64 GB Corsair DDR5 6000 MHz CL30 | Asus Prime RTX 5070 Ti OC 16GB GDDR7 | 512 GB Samsung Pro 850 SSD + 2TB WD Black + SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk

Vill man ha det bästa så kostar det så är det inom allt. 4090 precis som 3090 är inte riktad till medel-gamern. Nvidia vet också nu genom priserna folk betalar för 3000 serien så finns det efterfrågan, varför inte tjäna pengar om det går, dom är ju ett företag som alla andra med målet att göra så mkt vinst som möjligt åt sina aktieägare. Folk betalar 15k för en mobil ju och hur många är det som maxxar det? Surfa ta lite bilder o glo på insta kräver inte mkt, eller betala 10k för par Balenciaga skor. Att det blir varmt med 600w, får väl köpa AC till rummet då 😉 Ni som tycker det är för mkt får väl vänta o se specs för 4070/4050 typ.

Permalänk
Medlem
Skrivet av Dorkchicken:

Vill man ha det bästa så kostar det så är det inom allt. 4090 precis som 3090 är inte riktad till medel-gamern. Nvidia vet också nu genom priserna folk betalar för 3000 serien så finns det efterfrågan, varför inte tjäna pengar om det går, dom är ju ett företag som alla andra med målet att göra så mkt vinst som möjligt åt sina aktieägare. Folk betalar 15k för en mobil ju och hur många är det som maxxar det? Surfa ta lite bilder o glo på insta kräver inte mkt, eller betala 10k för par Balenciaga skor. Att det blir varmt med 600w, får väl köpa AC till rummet då 😉 Ni som tycker det är för mkt får väl vänta o se specs för 4070/4050 typ.

Nä såklart. Det är absolut inget problem att priserna ökar och korten drar massor med ström. Blir det för dyrt går det säkert att hitta GTX 970 billigt på Blocket.

Permalänk
Skrivet av DasIch:

Nä såklart. Det är absolut inget problem att priserna ökar och korten drar massor med ström. Blir det för dyrt går det säkert att hitta GTX 970 billigt på Blocket.

Det är bara bläddra lite i *hur mkt har ni i lön* tråden här på sweclokers, många har väldigt bra inkomster och ordnad ekonomi/investerar så pengar finns för konsumtion.

Permalänk
Medlem
Skrivet av Xinpei:

Förutsätter ju att datorn ligger under load konstant och inte går ned idle.

Många spel saknar ju inställning för att spärra fps i background t.ex. Så även fast spelet inte är i fokus körs det i 100%.
Vissa saknar sen även spärrar i menyerna så när man öppnar en meny för att pausa spelet så får man mitt i allt 999+ fps för den kämpar fullt.

Men du ser ju också att jag räknade på 10kr/kWh vilket är enormt i överkant. SE3 och SE4 lär väl snarare hamna på 3-4kr som standard nästa år? Beror ju lite på hur kriget går.

Visa signatur

i9 11900k ||32GB 4000MHz CL15||ASUS ROG STRIX Z590-E||Noctua NH-D15s
Intel Arc a750 ||Samsung 980 pro|| EVGA Supernova G3 850W
Asus xonar essence STX|| Lian-Li O11 Dynamic XL
Asus VG27AQ 165Hz IPS, Sennheiser HD650, Logitech g502 Hero, fUnc f30r, Vortex TAB90M, Audio-Technicha ATR2500x-USB
Server: x10SL7-F, Xeon E3 1230v3, 32GB Samsung ECC ram, 6x3TB WD RED, FD Node 804.

Permalänk
Medlem
Skrivet av Dorkchicken:

Det är bara bläddra lite i *hur mkt har ni i lön* tråden här på sweclokers, många har väldigt bra inkomster och ordnad ekonomi/investerar så pengar finns för konsumtion.

Ingen av dessa kommer fortsätta ha hög lön om inflationen skenar iväg.

Permalänk
Medlem

Här är en passande kylare för grafikkort med 120mm fläkt.

Här är en med större fläkt

https://www.fischerelektronik.de/web_fischer/en_GB/heatsinks/...
https://www.fischerelektronik.de/web_fischer/en_GB/heatsinks/...

Permalänk
Skrivet av DasIch:

Ingen av dessa kommer fortsätta ha hög lön om inflationen skenar iväg.

Kanske köpa GPU fungerar som inflation - hedge 😂 Folk köper ju upp alla iPhones i Ryssland o Turkiet just pga skenande inflation. Datorkomponenter kan ju också fungera som hårdvaluta. Plus man kan spela på det under tiden den går upp i fiat värde. Win - win

Permalänk

Ska GPUs se ut så där kan man lika kalla dom för Asics....mina coins 24/7 och du kan spela på den om du vill😂😂

Permalänk
Medlem

"Vi är så duktiga och inte att folk ska mina med våra kort, så vi begränsar våra kort vilket leder till sämre hashrate men HÖGRE strömförbrukning eftersom miners fortfarande kommer att köpa dom."

Sedan släpper vi ett kort som det krävs separat PSU för att driva och ett eget personligt kärnkraftsverk.
Jag hoppas verkligen Intel eller Amd kan kontra, för jag är så less på ett så hycklande företag som dom, har själv ett nvidia kort tyvärr, men avskyr verkligen deras mentalitet.

Permalänk
Medlem
Skrivet av Semjonov:

Asså jag har svårt att se mig själv och många andra köpa en dator som totalt drar mer än 350-400W under belastning, man måste ju köpa ny ventilation till rummet, oavsett hur stort det är nästan.

Vad räknar man med att en människa "drar", typ 100 watt tror jag att jag hört? Om jag skulle ha en 1000W dator skulle det ju vara som att jag typ hade party med tio pers till i min håla i källaren, typ 5-6 kvadrat tror jag "mitt" rum är..

Tycket det låter rätt bra, sitter o fryser i lägenheten nu...

Permalänk
Medlem
Skrivet av BergEr:

Många spel saknar ju inställning för att spärra fps i background t.ex. Så även fast spelet inte är i fokus körs det i 100%.
Vissa saknar sen även spärrar i menyerna så när man öppnar en meny för att pausa spelet så får man mitt i allt 999+ fps för den kämpar fullt.

Men du ser ju också att jag räknade på 10kr/kWh vilket är enormt i överkant. SE3 och SE4 lär väl snarare hamna på 3-4kr som standard nästa år? Beror ju lite på hur kriget går.

Det kan du spärra direkt i nvidia kontrollpanelen.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* MSI X670E Tomahawk* AMD 7800X3D* 32GB G-Skill DDR5 6000Mhz* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Medlem

Så länge det är 600W i belastning tycker jag det är bra, det kommer göra mining, för att tjäna pengar, meningslöst på dem.
Spelare kan ju köpa dem och komma väsentligt billigare undan än att gå till arkadhallen.

Visa signatur

*5800X|B550M|64GB|RX7800XT|GX750W|Core V21|280AIO|2TB+2TB|1440p 240Hz

AMD Ryzen 7 @4,95GHz|Gigabyte Aorus Elite(rev1.3)|Corsair 2x32 LPX Vengeance 2666C16 @3600C20|Asus DUAL OC @990mV, 3,2/2,6GHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 4.0x4 Samsung 980 Pro 7000/5100 + 2,5" HDD Toshiba 1TB & Seagate 1TB i RAID 0|Acer Nitro XV272Uz 27" IPS 270Hz @240Hz.

Permalänk
Skrivet av Fenrisulvfan:

Så länge det är 600W i belastning tycker jag det är bra, det kommer göra mining, för att tjäna pengar, meningslöst på dem.
Spelare kan ju köpa dem och komma väsentligt billigare undan än att gå till arkadhallen.

Betta inte på det, varje generation av kort har gett mer Mhs per watt än föregående. Dessutom efter ETH 2.0 så kommer miners gå till andra algos och där finns det flera som är lönsam men GPU intensiv ist för ETH som mest använder minnet och hashrate beror på bandbredden. 4000 serien kommer förmodligen vara grymt. Stor del av försäljningen av 3000 serien har ju gått till miners. Nvidia tackar aldrig nej till pengar

Permalänk
Medlem
Skrivet av IKEA Billy Bokhylla:

Hur kyler man 600W utan exotisk kylning och AC på sommaren?

Ja det kan man undra. Specielt då jag inte vet hur många år sedan jag slog på elementet i detta rum. Två datorer 24/7 en projektor ibland som kan dra en del. Några hundra watt till lär inte hjälpa till att få ner tempen under 25c.

Något säger mig att jag vill ha kortet i alla fall även om jag inte har pengarna. Sen om det smakar bra eller dåligt lär nog några polare berätta. Men de som just skaffat 3080 Ti lär hoppa 4000 serien så blir nog här jag får läsa om hur det fungerar. Samt en skaffade 3090 då det släpptes samt två annan 3080.

Summa sumarum:
De som lagt ner så mycket pengar på 3000 serien lär antingen ha så mycket så de beställer 4000 på en gång eller väntar till 6000 eller kollar på vad AMD kommer med nästnästa generation.

I datacenter 600w om det är minst 4ggr prestandan mot de 300w eller om det är 350w som de drar nu så skulle man kunna dubblera prestandan till halva effekten. Men då måste man nog ändra på en hel del annat också. Inte saker som jag kan.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av OSkar000:

Snart är det dags att koppla ihop grafikkortets vattenkylning med värmen i huset och stänga av bergvärmen på vintetn.

Sommartid kan man alltid värma bergvärmehålet med grafikkortet

Kanske dags att sätta en begränsning i hur mycket grafikkort får dra? Det börjar bli smått absurda nivåer nu på toppmodellerna. För min egen del är det intressantare hur mycket prestanda man kan få ut på runt 150w istället för att bränna en massa el på några extra fps som inte spelar så stor roll i slutändan.

Det har de ju. Därav att man kopplar ut fläktarna och den .... RGB belysningen för att få de sista 0-2% i 3DMark.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av rewoX:

Varför vill man undervolta? tappar man inte kraft då? Är det för att man tycker den presterar tillräckligt ändå?

Är väl ofta tvärtom. Undervolt ger samma prestanda för lägre spänning, dvs mer energieffektiv drift, vilket då kan ge marginal för att öka frekvenserna ytterligare (eller hålla dem uppe längre) om man är begränsad av kylning och/eller effektuttag.

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Så länge det är 600W i belastning tycker jag det är bra, det kommer göra mining, för att tjäna pengar, meningslöst på dem.
Spelare kan ju köpa dem och komma väsentligt billigare undan än att gå till arkadhallen.

Antagligen går prestanda per W upp.
Välj mellan 2st kort på 300W för x prestanda, eller 1st kort på 600W för >x prestanda. Mer prestanda, samma effekt. Varför skulle det vara meningslöst för mining?

Förstår att detta ger fel signaler om förbrukning av jordens resurser, men annars är det väl inga problem alls att ett kort drar 600W? Tycker man det kostar för mycket i el, eller blir för svårkylt, så köp ett kort som drar 300W istället. Samma 300W-kort hade lanserats ändå, det kommer bara heta 4070 istället för 4090 för nu finns det utrymme för ett 4080 på 450W och 4090 på 600W ovanför den gamla gränsen. Detta 300W-kort kommer ju garanterat prestera bättre än nuvarande 300W-kort, som det brukar när det kommer en ny generation.

Permalänk
Skrivet av ajp_anton:

Antagligen går prestanda per W upp.
Välj mellan 2st kort på 300W för x prestanda, eller 1st kort på 600W för >x prestanda. Mer prestanda, samma effekt. Varför skulle det vara meningslöst för mining?

Förstår att detta ger fel signaler om förbrukning av jordens resurser, men annars är det väl inga problem alls att ett kort drar 600W? Tycker man det kostar för mycket i el, eller blir för svårkylt, så köp ett kort som drar 300W istället. Samma 300W-kort hade lanserats ändå, det kommer bara heta 4070 istället för 4090 för nu finns det utrymme för ett 4080 på 450W och 4090 på 600W ovanför den gamla gränsen.

Fattar inte allt detta hat mot mining, gillar folk inte pengar? Hade man minat BTC på sin burk när man låg o sov för 10år sen hade man kunnat köpa en ö nu Om man nu bryr sig så mkt om miljön donera bort isf alla miljoner till projekt som räddar miljön idag. Varför inte detta hat mot guldgruvor? Majoriteten av allt guld är smycken eller så står dom i ett valv o samlar damm.

Permalänk
Skrivet av Fenrisulvfan:

Så länge det är 600W i belastning tycker jag det är bra, det kommer göra mining, för att tjäna pengar, meningslöst på dem.
Spelare kan ju köpa dem och komma väsentligt billigare undan än att gå till arkadhallen.

Gaming är bättre för miljön / mer meningsfullt enligt dig? Sitta framför en skärm o trycka på knappar i en virtuell värld medan man förbrukar massa el. 😂 Finns mkt meningslöst människor gör idag som man kunde varit utan.

Permalänk
Medlem

"Everybody sing this song, doodah, doodah.
Well everybody sing this song all the doodah day"

1337 remixen lyder:

Its going to be a paper launch doodah, doodah 🎶

Visa signatur

NZXT H400i Black N Blue | ASUS ROG STRIX B350-I GAMING | AMD Ryzen 7 1700 @ 4.0GHz | G.Skill 16GB DDR4 3200MHz CL14 Trident Z RGB | Palit GeForce GTX 1080 Ti 11GB GameRock Premium Edition | Fractal Design Celsius S24 240mm | Samsung 850-Series EVO 500GB | Seagate Firecuda 2TB 7200rpm 64MB | Samsung 960 EVO 250GB | Acer 32" Predator XZ321QU Curved 144Hz

Permalänk
Medlem

Okej, detta är vad jag skulle vilja se:

Olika energiprofiler för grafikkort som likt vanliga processorer stryper energiförbrukningen vid vissa värden. Det borde i detta fall gå att välja mellan 3 effektlägen för grafikkort.

Performance: Full eller maximal effekt som kretsen klarar av
Balanced: Ett mellanläge för de flesta vanliga människor
Energy optimized: För extra låg ljudnivå från kylningen och låg effekt. Skulle teoretiskt även kunna användas vid mining och andra långdragna beräkningsoperationer.

Problemet kring galen energiåtgång hos GPUer anser jag har skapats av tillverkarnas vilja att respektive kort ska prestera så högt som möjligt i benchmark, vilket numera skruvats upp till absurda nivåer Detta skulle lösa problemet då recensenterna kan använda performanceläget.

Permalänk

Äh tycker alla ska bara lägga ner gaming, ist för det så använder alla gamers runt om i världen den tiden att gå ut o plocka skräp/hjälpa en medmänniska etc. Tänk va meningsfullt det hade varit, samt en bättre värld för alla. Nvidia/AMD gör bara i fortsättning gpus i icke vinstdrivande syfte för datacenter/forskning inom olika fält som gynnar mänskligheten. Samtidigt så får grisar vingar o börjar flyga

Permalänk
Avstängd

Har tidigare sagt att det här är en bedrövlig utveckling. Nu får jag hoppas att folk kan låta bli att köpa dem, det är enda signalen Nvidia / AMD kommer förstå.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem

Känns snart inte så överdrivet med ett 1200w PSU🤣

Visa signatur

| Lian-Li O11 Dynamic XL | AMD Ryzen 9 5900X | EVGA GeForce RTX 3080 Ti 12GB FTW3 ULTRA | ASUS ROG Crosshair VIII DARK HERO | 32GB G.Skill TridentZ Neo 3600MHz CL16-16-16-36 | be quiet! Dark Power Pro 12 1200W | 32" Acer Predator XB323UGX QHD IPS 270 Hz | 27" Acer Predator XB271HU IPS 165 Hz |

Permalänk
Medlem
Skrivet av Dorkchicken:

Fattar inte allt detta hat mot mining, gillar folk inte pengar?

När jorden är förstörd kvittar det hur mycket pengar du har.

Visa signatur

5700x3D | RTX 3080 | 2 TB M.2 | 32 GB RAM

Permalänk
Skrivet av headphoneninja:

hmm 600w, det låter bekant...
https://v2.pxl.se/i/sih.jpg
ah juste, samma som min j**** kotatsu värmare under bordet.

Snacka om att slänga pengar i sjön.

On Topic: Ryktas om att Lovelace kommer ha nästan två gånger prestandan av Nvidia Ampere iallafall för de tre högst presterade modellerna. Först ryktades det om 800W men det är förmodeligen ett kort för datacenter. 600W kan vara minst ett RTX 4090 ett Ti kanske? RTX 4070 lägger sig förmodligen runt 250-300W.

Nvidia känner på sig att MCM-kortet från AMD dvs värstingen i RDNA3 kommer vara stark. Nvidia försöker bara gardera sig inget annat.

Permalänk
Avstängd
Skrivet av DasIch:

Man tappar inte nödvändigtvis någon prestanda alls av att undervolta. Det finns lite marginaler att spela på så du får ett tystare och svalare kort med bibehållen prestanda.

I och med det där så ställer jag mig frågan vad sjutton bövlars bajskorvar i duschen är det som pågår hos NVIDIA:s ingenjörer?!

Ta fram ett grafikkort vars energikonsumtion är högst ineffektivt med tanke på att du kan sänka både temperaturen och energiförbrukningen - via undervolting - och bibehålla mer eller mindre samma prestanda?

Det är nästan som om Watt-talet i grafikkort har blivit ett nytt marknadsjippo i sig:
- "Detta kort slukar 1000W!"
- "ÖrhMörhGörd, De betyder 1000 mer fps för mig!!!"

Visa signatur

"Företagsboendeförmedlare" | Min Überkill Dator: Processor: Intel Pentium P5 66 Mhz OC | Moderkort: ASRock P4I65G | Minnen: 2st Samsung 128MB PC133 | Grafikkort: Canopus GeForce 256 DDR | Lagring: IBM 350 4,4 MB | Operativsystem: DOS/360 | Chassi: Mercury Full-Tower ATX Chassis |

Permalänk
Avstängd
Skrivet av AplAy:

I och med det där så ställer jag mig frågan vad sjutton bövlars bajskorvar i duschen är det som pågår hos NVIDIA:s ingenjörer?!

Ta fram ett grafikkort vars energikonsumtion är högst ineffektivt med tanke på att du kan sänka både temperaturen och energiförbrukningen - via undervolting - och bibehålla mer eller mindre samma prestanda?

Det är nästan som om Watt-talet i grafikkort har blivit ett nytt marknadsjippo i sig:
- "Detta kort slukar 1000W!"
- "ÖrhMörhGörd, De betyder 1000 mer fps för mig!!!"

Helt enkelt så tävlar AMD och Nvidia om att ha bästa prestandan. Nvidia kände flåset i nacken efter AMD kom med i matchen igen med 6900xt

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR