Rykte: Nvidia Geforce RTX 4090 slukar 600 watt

Permalänk
Medlem
Skrivet av dbxxx:

Blir inga problem. AX1600i här.

Samma här.

Permalänk
Medlem
Skrivet av Xrac:

Om den kommer dra 600W undrar hur mycket snabbare det är mot ett 3090

Upp till x2 snabbare ryktas det om.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem
Skrivet av Ecchi-BANZAII!!!:

600W? De menar 6 löner för kortet, och 3 löner för elen om det fortsätter upp så här fram till lansering.

Du behöver en löneförhöjning...

Permalänk
Medlem

Om de fortsätter så kommer vi mäta i kilowatt om några år?

GTX 480 skrattades ut för den var het som en grill. Med sina 250W framstår den som nästan energisnål idag.

Nvidia hade så effektiva kort förut speciellt Pascal 1000 serien var ruskigt effektiva när de kom. Även Maxwell 900 serien var imponerande speciellt då de hade samma 28nm Som 700 serien.

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Avstängd
Skrivet av Kaleid:

Helt enkelt så tävlar AMD och Nvidia om att ha bästa prestandan. Nvidia kände flåset i nacken efter AMD kom med i matchen igen med 6900xt

Bästa prestanda till varje pris, ja. Inte precis bästa prestanda per krona ur konsumentens perspektiv.

Visa signatur

"Företagsboendeförmedlare" | Min Überkill Dator: Processor: Intel Pentium P5 66 Mhz OC | Moderkort: ASRock P4I65G | Minnen: 2st Samsung 128MB PC133 | Grafikkort: Canopus GeForce 256 DDR | Lagring: IBM 350 4,4 MB | Operativsystem: DOS/360 | Chassi: Mercury Full-Tower ATX Chassis |

Permalänk
Medlem

Bara att skaffa ett eget kraftverk nu om man ska hänga med

Visa signatur

Låda thermaltake view 91 M-kort ASUS X399 ROG Zenith Extreme CPU AMD Ryzen Threadripper 1920X 3.5 GHz Kylning Hemma byggd vattenkylning 2 x 480mm + 1 x 420mm radiatorer Minne 8 X 16Gb DDR4 HD SSD 240GB OCZ Trion 100 Grafik Gigabyte Geforce RTX 3080 10GB GAMING OC WATERFORCE WB AGG Corsair RM 1000w 80+ Gold Skärm ASUS 43" ROG Strix XG438QR 4K VA HDR 120 Hz

Permalänk
Skrivet av anon201296:

Ni som pratar om att inte ha råd att spela pga. elpriset är ju verkligen clueless. Även om speldatorn drog en kilowatt är det ju ingenting i pengaväg utan vi talar ju en par kronor per timme gaming max

Det rörliga elpriset var uppe i 9.5 förra helgen.

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
Medlem
Skrivet av Dinkefing:

Nvidia känner på sig att MCM-kortet från AMD dvs värstingen i RDNA3 kommer vara stark. Nvidia försöker bara gardera sig inget annat.

Det är inte för prestandans skull AMD går till chiplets utan för kostnadens. Utmaningen jämfört med en monolitisk design är att koppla ihop saker utan att drabbas av latenserna som uppstår när vissa ledningsbanor blir mycket längre.

En rimligare förhoppning är att första generationen blir såpass lyckad att den klarar hålla jämna steg med Nvidia, såvida inte Nvidia sätter decenniets fummel på kommande release.

Förhoppningsvis leder det hela till ökade marginaler för AMD på sikt, vilket är vad de behöver för att ha en chans att stänga det enorma gap i utvecklingsbudget för GPU som råder mellan företagen sedan länge.

Skrivet av Kaleid:

Helt enkelt så tävlar AMD och Nvidia om att ha bästa prestandan. Nvidia kände flåset i nacken efter AMD kom med i matchen igen med 6900xt

Men så är frågan vad RX 6900XT har för spridning på marknaden också. RX 6000-serien tycks ju vara första generationen de fått ut på länge som verkar ha blivit ett mer gångbart alternativ i genomsnitt däremot.

Minns fortfarande hur RTX 3080 slog hela mellanklassen med RX 5600/5700, uttryckt som andel av Steam-användarna, så gott som direkt efter releasen. Där har de något att jobba på, och då duger det inte att bara stå framför en PowerPoint och säga att korten är snabbast.

Permalänk
Medlem

Detta är som sagt rykten. Kanske Nvidia drar till ordentligt på just 4090 men 4070 som de flesta kommer köpa lär dra betydligt mindre. Så chilla lite, speciellt eftersom detta är lösa rykten.

Permalänk
Medlem
Skrivet av Dorkchicken:

Fattar inte allt detta hat mot mining, gillar folk inte pengar? Hade man minat BTC på sin burk när man låg o sov för 10år sen hade man kunnat köpa en ö nu Om man nu bryr sig så mkt om miljön donera bort isf alla miljoner till projekt som räddar miljön idag. Varför inte detta hat mot guldgruvor? Majoriteten av allt guld är smycken eller så står dom i ett valv o samlar damm.

Kanske för att enda settet att tjäna pengar på mining är att se till så de som säljer/köper förlorar pengar, förutom elförbrukning mm.
Men visst. Lägg ut 100000000000000000000000000000000kr och sedan då ingen är intresserad sälj dem för 0,1kr.
Tillgång och efterfrågan?

Edit:
Iden med en internationell valuta köper jag men "Ju fler kockar, desto sämre soppa"

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem

Nu kom jag äntligen på vad det här känns som: Pentium 4! Mer prestanda men framförallt mer effekt, de var ju första datorprylarna som jag minns som exploderade jämfört med tidigare generationer. Minns framförallt hur moderkorten till socket 478 poppade kondensatorer som popcorn när HT kom och man klockade utan att tänka så mycket

Nästa besläktade sak är 4870X2 eller andra dual-gpu-kort. De drog ju uppåt 500W de med

Finns några exempel historiskt, men trodde nog helt ärligt att den tiden var förbi

Permalänk
Medlem
Skrivet av AplAy:

I och med det där så ställer jag mig frågan vad sjutton bövlars bajskorvar i duschen är det som pågår hos NVIDIA:s ingenjörer?!

Ta fram ett grafikkort vars energikonsumtion är högst ineffektivt med tanke på att du kan sänka både temperaturen och energiförbrukningen - via undervolting - och bibehålla mer eller mindre samma prestanda?

Det är nästan som om Watt-talet i grafikkort har blivit ett nytt marknadsjippo i sig:
- "Detta kort slukar 1000W!"
- "ÖrhMörhGörd, De betyder 1000 mer fps för mig!!!"

Det handlar ju om att alla kort ska klara samma nivå, oavsett turen eller oturen i kisellotteriet.

Permalänk
Medlem
Skrivet av anon201296:

Ni som pratar om att inte ha råd att spela pga. elpriset är ju verkligen clueless. Även om speldatorn drog en kilowatt är det ju ingenting i pengaväg utan vi talar ju en par kronor per timme gaming max

800W (200W CPU)
3 timmar per dag
4 kr / kwh (...som om detta inte kommer gå upp närmaste tiden)

3500kr per år

300W (150W GPU + 150W CPU)
3 timmar per dag
4 kr / kwh

1300 kr per år.

Det är 2200kr som man kan lägga på annat, och i slutändan får man fråga sig själv om 140fps konstra 300fps är värt 2200kr per år (eller en ny, rätt okej GPU var tredje år)

Visa signatur

Krusidullen är stulen

Permalänk
Medlem

Om detta stämmer kan det ha något bra med sig...inte många kryptobrytare som attraheras av en sådan strömförbrukning...

Permalänk
Medlem
Skrivet av SuperSverker:

Köper du ett 4090 har du råd att betala elen...

Med tanke på hur en del tar lån för allt möjligt, så är det inte säkert att de har råd med elen.

Visa signatur

JJ2 Multiplayer
JJ2 ZStats

[1] Ryzen 5800X | 5500XT | Kingston A2000 | Lenovo G24-10 144Hz [2] Ryzen 5700G | RX 560 | WD Blue SN550 [3] Ryzen 5600G | Kingston A2000 [4] Ryzen 3600 | GT 740 | 850 EVO [5] Ryzen 3600 | Geforce 405 | 850 EVO (alla är i bruk)

Permalänk
Medlem

600 på kurvan, men kurvor varierar ju, så hoppas på peak 524W.
Vore ju kul om kurvan vände.. lagom 300W tack.. kom igen nvidia.

Permalänk
Medlem
Skrivet av SuperSverker:

Det är 2200kr som man kan lägga på annat, och i slutändan får man fråga sig själv om 140fps konstra 300fps är värt 2200kr per år (eller en ny, rätt okej GPU var tredje år)

Var får man 140-300 fps i nya spel? Jag får ungefär 45-50fps med det mesta påslaget i Dying Light 2 vid 4K. Skulle helst vilja ha 60fps plus. Just nu kör jag med vissa effekter avstängda istället. Däremot kan jag tänka mig att 4K räcker som max upplösning ett bra tag framöver för min del. Skulle jag nu mot förmodan ha en 8K skärm i nära framtid, kan jag tänka mig använda en efektiv uppskalning 4K->8K för spel.

Permalänk
Medlem
Skrivet av Sveklockarn:

Förhoppningsvis leder det hela till ökade marginaler för AMD på sikt, vilket är vad de behöver för att ha en chans att stänga det enorma gap i utvecklingsbudget för GPU som råder mellan företagen sedan länge.
Men så är frågan vad RX 6900XT har för spridning på marknaden också. RX 6000-serien tycks ju vara första generationen de fått ut på länge som verkar ha blivit ett mer gångbart alternativ i genomsnitt däremot.

Minns fortfarande hur RTX 3080 slog hela mellanklassen med RX 5600/5700, uttryckt som andel av Steam-användarna, så gott som direkt efter releasen. Där har de något att jobba på, och då duger det inte att bara stå framför en PowerPoint och säga att korten är snabbast.

Verkligen, RDNA2 är imponerande i sig men AMDs oförmåga att kunna leverera kort är tragiskt. Är på ett sätt en bortkastad generation då de har sålt extremt lite i förhållande till Ampere.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem
Skrivet av dbxxx:

Blir inga problem. AX1600i här.

Du känner väl snarare "finally a worthy opponent".

Visa signatur

Ryzen 7800X3D, be quiet! pure rock 2, RTX 4070 Ti Super, Corsair 32GB 6000MHz CL36, Corsair TX850M

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Om detta stämmer kan det ha något bra med sig...inte många kryptobrytare som attraheras av en sådan strömförbrukning...

Beror ju på hur mycket man lyckas bryta såklart. 3080 kommer ju upp i nästan 100MH/s på runt 220W. Får man 500MH/s för 600W är det ju fortfarande vinst.

Permalänk
Medlem
Skrivet av Clasito:

Verkligen, RDNA2 är imponerande i sig men AMDs oförmåga att kunna leverera kort är tragiskt. Är på ett sätt en bortkastad generation då de har sålt extremt lite i förhållande till Ampere.

Succé eller ej så avgörs framförallt inte framgången av att man lyckas släppa en (1) bra generation, utan att man klarar fortsätta släppa bättre gång efter annan.

Permalänk
Medlem

Är nog absolut möjligt att kyla. Spännande att se vilken lösning det får bara. Uteslutande känns det som vattenkylning.

Permalänk
Medlem
Skrivet av ajp_anton:

Antagligen går prestanda per W upp.
Välj mellan 2st kort på 300W för x prestanda, eller 1st kort på 600W för >x prestanda. Mer prestanda, samma effekt. Varför skulle det vara meningslöst för mining?

Förstår att detta ger fel signaler om förbrukning av jordens resurser, men annars är det väl inga problem alls att ett kort drar 600W? Tycker man det kostar för mycket i el, eller blir för svårkylt, så köp ett kort som drar 300W istället. Samma 300W-kort hade lanserats ändå, det kommer bara heta 4070 istället för 4090 för nu finns det utrymme för ett 4080 på 450W och 4090 på 600W ovanför den gamla gränsen. Detta 300W-kort kommer ju garanterat prestera bättre än nuvarande 300W-kort, som det brukar när det kommer en ny generation.

Om man inte kan tjäna så mycket på mining, så blir det inte värt besväret för den stora massan, det blir lite som att odla egna tomater när det är billigare att köpa tomater i affären.

Skrivet av Dorkchicken:

Gaming är bättre för miljön / mer meningsfullt enligt dig? Sitta framför en skärm o trycka på knappar i en virtuell värld medan man förbrukar massa el. 😂 Finns mkt meningslöst människor gör idag som man kunde varit utan.

Gaming för miljön, haha endast en kryptogrävling skulle komma på något så dumt.
Mining är lite som att köra runt med en moto-cross på golfbanan, säkert jättekul och lika meningslöst som golf, men man förstör någon annans hobby med sin egen.

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Medlem
Skrivet av SuperSverker:

800W (200W CPU)
3 timmar per dag
4 kr / kwh (...som om detta inte kommer gå upp närmaste tiden)

3500kr per år

300W (150W GPU + 150W CPU)
3 timmar per dag
4 kr / kwh

1300 kr per år.

Det är 2200kr som man kan lägga på annat, och i slutändan får man fråga sig själv om 140fps konstra 300fps är värt 2200kr per år (eller en ny, rätt okej GPU var tredje år)

Dessa 2200kr ska dock ställas i relation till att köpa kortet från första början för kanske 20000kr varannat år eller så... detta är alltså knappt 20% av GPU-kostnaden

Visst är det en kostnad, men verkligen inte hela världen vid dagens priser

Permalänk
Medlem
Skrivet av SuperSverker:

Köper du ett 4090 har du råd att betala elen...

Ska bli intressant och se hur man löser kylningen.. Kör man fortfarande monolitiska kretsar på Lovelace? Måste vara ett j....a monster I så fall...

Eller så har de inte det för de tog ett lån för att köpa kortet. 🤣

Permalänk
Medlem
Skrivet av IKEA Billy Bokhylla:

Hur kyler man 600W utan exotisk kylning och AC på sommaren?

Datorn avstängd på sommaren.
Fönstret öppet på vintern.

Permalänk
Medlem
Skrivet av Knotvillage:

Det rörliga elpriset var uppe i 9.5 förra helgen.

Och? Toppar spelar ingen som helst roll, de flesta har inte timdebitering. De få som har kanske inte bör köra diskmaskinen, tekokaren, tvättmaskinen, osv samtidigt under den timmen. Och även om de nu gör det, så skall krävas en riktigt dålig ekonomi för att det skulle sätta dem på ruinens brant.

Permalänk
Medlem

Finns inga pengar att tjäna i "Big Oil" i framtiden så alla med stora dollartecken i ögonen har switchat över till "Big Power" istället. Energihungern i de senaste kullarna av hårdvara är resultatet av lobbying från dessa pengastinna individer.
/Tinfoil hat off

Permalänk
Medlem
Skrivet av Xinpei:

Kommer dock fortfarande vara ett av de mindre utgifterna på den genomsnittliga elräkningen.

Enligt Sweclockers mätningar så drog hela datorn 415W direkt ur väggen. Så hur du får det till att 3080 drar 440 kan man ju undra med tanke på att det skulle vara mer än hela Sweclockers testrigg drog under load.

Förutsätter ju att datorn ligger under load konstant och inte går ned idle.

Det är ju nästan som det är tekniska svårigheter som sätter förutsättningarna.

Men det känns ändå som om både AMD och nVidia har haft effekt/värme-riktlinjer tidigare.
Toppkort: ca 300W (single gpu)
Mid: ca 200W
Low end mid: 150W
Low end: 50-100W
Osv.

Som redan sagt så är det inte kul att ha 600W i spelrummet. (men vi vet ju fortfarande inte vad kortets medeleffekt är)

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Man får köpa en stuga i Alaska.
Sen köra kraftfull gaming dator.
Kan köra open world spel som utspelar sig i en varm sommar miljö så man kan drömma sig bort från kalla Alaska.