Rykte: Nvidia Geforce RTX 4090 slukar 600 watt

Permalänk
Medlem

Mycket snack om förbrukning och sånt.
Drar en parallell till nya Apple studio som verkar vara i närheten av ett 3090 i prestanda med mycket mindre förbrukning.
Om vi leker med tanken att det inte är uppdiktade siffror så är de här effekthungrande komponenterna dåliga i min bok.

Hela det systemet ligger på 370w.

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Om man inte kan tjäna så mycket på mining, så blir det inte värt besväret för den stora massan, det blir lite som att odla egna tomater när det är billigare att köpa tomater i affären.

Och just därför kommer detta kort, i drift, vara mer prisvärt för mining. Att ha prestandan av två kort i ett är redan i sig mer effektivt, då man behöver mindre kringutrustning i form av HEDT-plattform för att hantera en större mängd PCIe-slottar t.ex. Och som sagt, ny generation, så är så gott som garanterat att energieffektivitet går upp, så ännu mer prestanda.

Permalänk
Medlem
Skrivet av filbunke:

Och? Toppar spelar ingen som helst roll, de flesta har inte timdebitering. De få som har kanske inte bör köra diskmaskinen, tekokaren, tvättmaskinen, osv samtidigt under den timmen. Och även om de nu gör det, så skall krävas en riktigt dålig ekonomi för att det skulle sätta dem på ruinens brant.

Beror väl på hur man definierar topp. Det var alltså två hela dagar, inte en timme. Gällde priset bara en timme spelar det ingen roll men 48h när det var minusgrader ute så spelar det roll.

Visa signatur

AMD Ryzen 7 9800X3D 5.4Ghz +NH-D15 Chromax
MSI RTX 5080 Gaming Trio OC 3300mhz
Asus ROG Strix X870-F Gaming WIFI
Corsair Dominator Platinum 6200mhz 32GB CL36
Samsung G9 49”/240hz, NZXT H9 Flow, Corsair RM850X ATX 3.1

Permalänk
Medlem

Vad spelar det för roll, på riktigt?
Som någon tidigare nämnde så är ju detta en extremt billig hobby att ha.

Min hund är en dyrare månads kostnad..

Visa signatur

Laptop 1: MB Pro m1
Laptop 2: MSI GT73VR TITAN
PC: gtx 1070 - 4770k

Permalänk
Hedersmedlem
Skrivet av BadNewsBrod:

Vad spelar det för roll, på riktigt?
Som någon tidigare nämnde så är ju detta en extremt billig hobby att ha.

Utöver kostnaden så är det svårare att kyla, mer värme i både datorn och i rummet, mer oväsen från kylning och självklart dåligt för miljön.
Att high end-korten ökar i effekt lär ju ha relativt liten effekt för klimatet eftersom de är sällsynta jämfört mot t ex Geforce xx60 och nedåt samt konsoler, men utvecklingen går ju oavsett åt fel håll.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Toke:

Mycket snack om förbrukning och sånt.
Drar en parallell till nya Apple studio som verkar vara i närheten av ett 3090 i prestanda med mycket mindre förbrukning.
Om vi leker med tanken att det inte är uppdiktade siffror så är de här effekthungrande komponenterna dåliga i min bok.

Hela det systemet ligger på 370w.

De sa samma sak om M1 Max/3080 förra året. I spel är det halva prestandan ungefär. Apple är som många andra, de gillar visa "3x" i sina powerpoints men det är alltid vinklade siffror.

https://www.anandtech.com/show/17024/apple-m1-max-performance...

Dessutom är det en Apple produkt, det är ett helt annat ekosystem och inget man bara byter till hur som helst. Speciellt inte när det handlar om att datorspel. Apple vet också att ta enormt bra betalt för sina produkter.

Permalänk
Hedersmedlem
Skrivet av Fulci:

De sa samma sak om M1 Max/3080 förra året. I spel är det halva prestandan ungefär. Apple är som många andra, de gillar visa "3x" i sina powerpoints men det är alltid vinklade siffror.

https://www.anandtech.com/show/17024/apple-m1-max-performance...
https://images.anandtech.com/graphs/graph17024/126681.png

Den är ju inte gjord för spel dock, och det är ett DX12-spel på en dator som inte ens har DirectX. Och sannolikt som kör x86 på en dator som inte har x86. Inte direkt en rättvis jämförelse.

Det finns väl ganska få rättvisa tester, men i GFXBench vinner det fler tester än mobila RTX 3080 och RX 6800M:
https://www.tomshardware.com/news/apple-m1-max-catches-up-to-...
Detta trots skillnaden i TDP (160 W för 3080 och under 60 W för M1 Max inklusive CPU-delen).

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem

Enda möjligheten för Nvidia att kunna ta bra betalt för kortet är att det är ett extremt bra krypto gräva kort. Dessa köpare är inte i närheten av så priskänsliga som oss som bara spelar. Skulle kortet kräva +500W så kan ni räkna med minst 60-100% bättre spel prestanda mot dagens kort. (Som grävarkort mins +150-300% mot dagens kort)

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem

Ska bli spännande hur prestanda per watt står sig mellan de tre olika grafikkortstillverkarna och AIB.
Nvidia lär vara bäst i ray-tracing men frågan är hur övrig prestanda står sig och till vilken effekt.

Permalänk
Medlem
Skrivet av Kladdpapper:

Du känner väl snarare "finally a worthy opponent".

Lite så! Men jag hade under en period dubbla 3090 Strix OC. Då kunde faktiskt fläkten starta ibland, inte för att det märktes, men det syntes i Corsair iCUE. Nu är de dock tillbaks till single card igen och nätagget är helt passivt kylt.

Visa signatur

GTX 260 SC | GTX 280 SLI | GTX 280 Tri SLi | GTX 590 Quad SLi | GTX 980 ti | RTX 2080 Ti Strix OC | RTX 3090 Strix OC | RTX 4090 Strix OC
The Way It's Meant to be Played|NVIDIA

ASUS MAXIMUS Z790 APEX Encore | i9-14900KS (delidded/direct-die) | 2x24GB G.Skill 8000 M-die | Corsair AX1600i | Samsung 990 PRO 4TB | Corsair 7000D Airflow | 15x Corsair ML Pros (8x ML120 Pro, 7x ML140 Pro) | Rads 360+360+420 | LG C3 48" 120Hz

Permalänk
Medlem
Skrivet av Thomas:

Den är ju inte gjord för spel dock, och det är ett DX12-spel på en dator som inte ens har DirectX. Och sannolikt som kör x86 på en dator som inte har x86. Inte direkt en rättvis jämförelse.

Men tråden handlar om grafikkort inriktat på spel, varför ta upp det då i jämförelse?

Permalänk
Medlem
Skrivet av Dorkchicken:

Fattar inte allt detta hat mot mining, gillar folk inte pengar?

Mining bränner resurser i utbyte mot ”tokens of value”.
Ungefär som att man köper bensin, eldar upp den i fatet, och får mer pengar för det än man köpte bensinen för.

Det är riktigt, riktigt vidrigt.

Permalänk
Avstängd
Skrivet av rewoX:

Varför vill man undervolta? tappar man inte kraft då? Är det för att man tycker den presterar tillräckligt ändå?

Oftast tappar man inte rakt av 50% i prestanda för att man kapar strömbudgeten med 50%. Som exempel så kan jag undervolta mitt 2070 med 50% när jag minar ethereum på nicehasch och tappar kanske 1% i hashrate.
Spelprestandan sjunker däremot mycket mer, men jag skulle tippa på att tappet snarare ligger på 20-30%.

På samma sätt så får man allt som oftast inte 10% högre prestanda när man övervoltar 10% heller. Väldigt märkbart vid överklockning då enstaka 0,1 Ghz kan göra att strömmen skjuter i höjden så att internkylningen inte hinner med.

Permalänk
Medlem

Sjukt grafikkort kostar 10-20000 kr nu

Permalänk
Medlem
Skrivet av Ozeroun:

Sjukt grafikkort kostar 10-20000 kr nu

Ja men alla grafikkort är nu på väg ner finns många 6900XT under 15000kr. Nvidias likvärdiga kort RTX 3090 är också på väg ner men här är priserna 5-6000kr högre än för AMD kort. (Mining kunder som inte är priskänsliga driver fortfarande upp priserna på Nvidia kort)

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem

Förstår inte hur vissa är fine med det här, förmodligen folk som inte suttit med hårdvara som drar betydligt mer under längre tid.

Jämför det med exempelvis en elbil där någon vill ha flera hästar (tänk RTX4090); motorerna blir kraftigare och klämmer ut fler hästar, men drar därav mer ström och kräver större och dyrare batteri. Batteriet i sig ökar vikten på bilen, och med extra vikten försämrar man handling, behöver starkare däck, krängningshämmare och stötdämpare osv. Slitstarkare däck resulterar i högre vägljud/däckbuller...

Allt är en balansgång, ett 600-800w grafikkort är bara dumt.

Permalänk
Medlem
Skrivet av EntropyQ3:

Mining bränner resurser i utbyte mot ”tokens of value”.
Ungefär som att man köper bensin, eldar upp den i fatet, och får mer pengar för det än man köpte bensinen för.

Det är riktigt, riktigt vidrigt.

Ett klick på tummen upp räcker inte, mycket bra svar, att användningsområdet sedan nästan uteslutande är kriminell verksamhet gör ju inte saken bättre.

Permalänk
Medlem

Nätaggregatet säger ja, plånboken NEJ!!

Visa signatur

“When a clown moves into a palace he doesn’t become a king, the palace instead becomes a circus.”

Permalänk
Medlem

Blir som många sagt kul att se kylarlösningen, personligen hoppas jag på återkomsten av denna.

Permalänk
Medlem
Skrivet av SuperSverker:

Köper du ett 4090 har du råd att betala elen...

Ska bli intressant och se hur man löser kylningen.. Kör man fortfarande monolitiska kretsar på Lovelace? Måste vara ett j....a monster I så fall...

Finner alltid det här resonemanget intressant. Bara för att jag har råd med en Ferrari så innebär inte det att jag råd med en Lamborghini också.

Med det sagt kostar det knappast några stora pengar att driva en dator ett gäng timmar varje dag även om den skulle dra 1KW.

Visa signatur

Lätt som Paj

Permalänk
Medlem
Skrivet av ajp_anton:

Och just därför kommer detta kort, i drift, vara mer prisvärt för mining. Att ha prestandan av två kort i ett är redan i sig mer effektivt, då man behöver mindre kringutrustning i form av HEDT-plattform för att hantera en större mängd PCIe-slottar t.ex. Och som sagt, ny generation, så är så gott som garanterat att energieffektivitet går upp, så ännu mer prestanda.

Så en stor tomatodling är alltså mer lönsam än att odla i en liten låda på balkongen? -Javisst. Det är ju precis ifrån stora odlingar som butikerna får sina tomater ifrån som man kan köpa, istället för att odla egna.
Den stora frågan är väl om energieffektiviteten kommer öka för mining, för gaming, för bägge eller för ingen av dem.

Visa signatur

*5800X|B550M|64GB|RX7800XT|GX750W|Core V21|280AIO|2TB+2TB|1440p 240Hz

AMD Ryzen 7 @4,95GHz|Gigabyte Aorus Elite(rev1.3)|Corsair 2x32 LPX Vengeance 2666C16 @3600C20|Asus DUAL OC @990mV, 3,2/2,6GHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 4.0x4 Samsung 980 Pro 7000/5100 + 2,5" HDD Toshiba 1TB & Seagate 1TB i RAID 0|Acer Nitro XV272Uz 27" IPS 270Hz @240Hz.

Permalänk
Hedersmedlem
Skrivet av Fulci:

Men tråden handlar om grafikkort inriktat på spel, varför ta upp det då i jämförelse?

Oklart, men det var inte jag som gjorde det.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem

Det känns som att det är något som inte verkar helt rätt med 4000-serien det kanske är som en del säger en Ampere Next skapelse vilket då skulle kunna förklara de skyhöga energikraven för att få ut mer effekt. Kommer hoppa den här generationen och vänta tills 2024 för uppgradering istället det system jag har räcker gott och väl säkerligen flera år till med spelande i 2560x1440 men det ska bli intressant att följa recensioner och rapporter från användare ändå.

Visa signatur

[AMD Ryzen 9 9950X][Gigabyte X870E Aorus Elite][G.Skill Trident Z5 NEO DDR5 6400Mhz 32GB CL-32-39-39-102][ASUS GeForce RTX 3090 ROG Strix OC][Samsung 990 PRO M.2 NVMe SSD 2TB, Seagate FireCuda Gaming Hub 16TB][Noctua NH-D15 chromax.black][Corsair AX1600i][Xigmatek Elysium][Samsung S27B970D]

Permalänk
Medlem

Som hindu tro jag på karma och återfödelse. Jag vet att klimatet är på skitvägen och över konsumtion av onödiga prylar är dålig.........men jag är en hindu, så.

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Medlem
Skrivet av LeonHart:

Finner alltid det här resonemanget intressant. Bara för att jag har råd med en Ferrari så innebär inte det att jag råd med en Lamborghini också.

Med det sagt kostar det knappast några stora pengar att driva en dator ett gäng timmar varje dag även om den skulle dra 1KW.

Fast... Det är väl mer rimligt med den jämförelsen, om man tar ner den ett snäpp till lite mer verklighet

Du har inte råd med en Ferrari om du inte har råd att tanka den

Bara för att du har råd att köpa ett hus så innebär det inte att du har råd att äga ett hus osv.

Det var ju lite av ett skämt också, men argumentet är väl fullt rimligt i dagens läge när det ska lånas till allt hit och dit

Visa signatur

Krusidullen är stulen

Permalänk
Medlem
Skrivet av Clasito:

Verkligen, RDNA2 är imponerande i sig men AMDs oförmåga att kunna leverera kort är tragiskt. Är på ett sätt en bortkastad generation då de har sålt extremt lite i förhållande till Ampere.

Ja fast du får ju räkna in PS5 och XBOX också, ingen höjdare med tillgång där heller men några enheter där också.

Sen får vi se hur många Samsung telefoner som säljas med det. Misstänker vi kommer få se RDNA2 ganska många år i olika utförande. Jag hade t.ex. inte tackat nej till en variant av RasberyPI med det då de ändå nu delvis vet hur man sätter ihop ARM och RDNA2. Om nu inte Samsung har något copyright där ihop med AMD.

Snabbsökte bara.
https://www.videogameschronicle.com/news/ps5-sales-could-be-n...
Om de siffrorna stämmer någorlunda så såldes det 27,4 Miljoner konsoller med RDNA2 förra året. (2021). Så flopp skulle jag nog inte kalla det.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem

I snitt har ju Intel CPU gått upp 30w per serie. 9900K 250w, 12900K 340w. Ett 3090 drar närmre 500w och 4090 enligt rykte 600w. Inte jättekonstigt, kan förstå om vi det gick från 500 till 1000w men så länge temperaturen är bra ser jag inte problemet.

Visa signatur

AMD Ryzen 7 9800X3D 5.4Ghz +NH-D15 Chromax
MSI RTX 5080 Gaming Trio OC 3300mhz
Asus ROG Strix X870-F Gaming WIFI
Corsair Dominator Platinum 6200mhz 32GB CL36
Samsung G9 49”/240hz, NZXT H9 Flow, Corsair RM850X ATX 3.1

Permalänk
Medlem
Skrivet av hACmAn:

Ja fast du får ju räkna in PS5 och XBOX också, ingen höjdare med tillgång där heller men några enheter där också.

Sen får vi se hur många Samsung telefoner som säljas med det. Misstänker vi kommer få se RDNA2 ganska många år i olika utförande. Jag hade t.ex. inte tackat nej till en variant av RasberyPI med det då de ändå nu delvis vet hur man sätter ihop ARM och RDNA2. Om nu inte Samsung har något copyright där ihop med AMD.

Snabbsökte bara.
https://www.videogameschronicle.com/news/ps5-sales-could-be-n...
Om de siffrorna stämmer någorlunda så såldes det 27,4 Miljoner konsoller med RDNA2 förra året. (2021). Så flopp skulle jag nog inte kalla det.

Jag syftar specifikt på hur lite RDNA2 har sålt ställt mot Ampere. Att de har gjort många konsoler med RDNA2 och lyckats skeppa ut dem säger jag inget emot. Det är bara synd att mer inte kunde gå åt till GPU fronten på PC då man hade en bra arkitektur som är konkurrenskraftig.

Visa signatur

f0rest stan | Citera mera | Ryzen 9600X - ASUS Prime 9070 XT

Permalänk
Medlem
Skrivet av Knotvillage:

I snitt har ju Intel CPU gått upp 30w per serie. 9900K 250w, 12900K 340w. Ett 3090 drar närmre 500w och 4090 enligt rykte 600w. Inte jättekonstigt, kan förstå om vi det gick från 500 till 1000w men så länge temperaturen är bra ser jag inte problemet.

Det pratades för några år sedan att i dagens takt så skulle man behöva ett kärnkraftverk per dator hall. Hemma kanske det inte blir någon gigantisk skillnad men om man som jag inte trivs med 25c i rummet så lär det säkert göra en c till. Nu har jag i mitt fall ganska tjocka betongväggar här som sparar på värmen på gott och ont. Även solsida så svårt att få det kalt på denna sida av huset.

Det är svårt att få det svalt här. Tror det var varmare i rummet med mitt 980 TI och min andra 3770k än med 1080 Ti och 3600x som jag har nu. Hade visserligen hög OC på de gamla leksakerna.
Sen är det ju olika för alla då det kommer till rumstemeratur. Jag har bärande väggar och ett säkerhetsrum under mig så betongen brukar hålla värme länge.

Jaja. Välkommen till Undervolters.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av Clasito:

Jag syftar specifikt på hur lite RDNA2 har sålt ställt mot Ampere. Att de har gjort många konsoler med RDNA2 och lyckats skeppa ut dem säger jag inget emot. Det är bara synd att mer inte kunde gå åt till GPU fronten på PC då man hade en bra arkitektur som är konkurrenskraftig.

Det håller jag med om.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.