Geforce RTX 4090 får kylare och strömmatning för att klara 600 watt

Permalänk
Medlem
Skrivet av Sveklockarn:

Tror det är en ganska vanlig tankevurpa att tro att 8K är "dubbelt så mycket som 4K", när det i själva verket är fyra gånger så många pixlar som 4K, eller 16 gånger fler än 1080p.
https://i.imgur.com/rVvvuzq.png

Med tanke på att dagens bästa kort inte klarar att driva några tyngre spel i native 4K med hög detaljnivå och bildfrekvens så lär det dröja ett flertal generationer GPUer innan det går att driva 8K på något meningsfullt sätt.

DLSS 8K (dvs 4K uppskalat till 8K) borde nästa generation klara hyfsat fint, problemet är ju att det inte går att mata ut det från några av dagens kort, eller finns skärmar med vettiga priser heller för den delen...

Permalänk

Börjar kännas som en parodi..... typ snart är ett grafikkort mer konsumerande än att bastuaggregat...... känns inte som 2022....

Tänk om ffs...

Permalänk
Medlem
Skrivet av Aeig:

Varför behöver någon en Ferrari, pool på tomten, gasolgrill hemma, flera bilar, golvvärme, etc, finns ju extremt många onödiga lyxiga saker som egentligen är onödiga ur miljösynpunkt som påverkar avsevärt mycket mer än ett grafikkort.

Avskyr även djupt alla Youtubers och Influencers som bara förstör och slänger saker på sociala medier.

Mvh

Alltså jag förstår helt varför man köper det värsta. Dock förstår jag inte att man gnäller på effektuttaget. Det är väl vad det är. Köp eller låt bli har man råd med ett grafikkort för 25-30000 så har man råd med el. Gör knappast någon större skillnad på räkningen.

Desstu snabbare bil/mer hk, ju mer soppa dricker bilen. Är väl sen gammalt.

Visa signatur

|Asus Rog Strix Scar 16|i9 13980HX|32GB DDR5|1TB| RTX 4080|

Permalänk
Medlem
Skrivet av Sveklockarn:

Med tanke på att dagens bästa kort inte klarar att driva några tyngre spel i native 4K med hög detaljnivå och bildfrekvens så lär det dröja ett flertal generationer GPUer innan det går att driva 8K på något meningsfullt sätt.

En desktop monitor med 8K lär knappast vara 1:1 utan det handlar sannolikt om hög pixeltäthet och skalning istället. Vilket gör att möjligheten att se skillnad på detaljnivån mellan t.ex. 4K och 8K blir väldigt liten. Därför kommer sannolikt också uppskalning som DLSS, FSR och XESS på grafikkort användas i stor grad för spel i 8K.

Jag har en 27" 4K och kör 150%. Skärmen har en PPI på cirka 160. Jag ser gärna en PPI på 300 vilket kommer ge fantastisk textrendrering med skalning (typ tryckkvalité). Att kunna köra ett spel native 4K runt 100 fps och sen med DLSS uppskalning till 8K på en 300 PPI skärm vore väldigt trevligt för min del.

Permalänk
Medlem
Skrivet av palusa:

Alltså jag förstår helt varför man köper det värsta. Dock förstår jag inte att man gnäller på effektuttaget. Det är väl vad det är. Köp eller låt bli har man råd med ett grafikkort för 25-30000 så har man råd med el. Gör knappast någon större skillnad på räkningen.

Desstu snabbare bil/mer hk, ju mer soppa dricker bilen. Är väl sen gammalt.

Känns som fler tänker på ljudnivån o all värme som pumpas i rummet. Det är definitivt det större problemet i sammanhanget imo.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem

Jag kan tänka mig föreslå ett annat graderings system på grafikkorts marknaden:

Office:
Enkla grafikkort, som kan paras ihop med upp till 3 datorskärmar. Ok för att surfa på nätet, kolla video på Youtube, klara av enklare programvara Microsoft office och liknande. Prislappen upp till 2000kr. Och upp till 150watt.

Gaming:
Grafikkort som kommer att klara moderna dataspel på respektive grafik ställningar: lägsta, medium och ultra.
Typ 3 olika kort i varje generation. Vi kan kalla dem basic (likt Nvidia 3060 12gb), medium (likt Nvidia 3060ti 12gb) och advanced (likt Nvidia 3070 12gb). Med prislappar runt/upp till 4000kr, 4500kr och 5000kr.
Grafikkort som speltillverkarna skulle ha i åtanken. Och som skulle ha en strykt energi budget upp till 300-350 watt.

Professional:
Grafikkort som kommer att användas för video rendering och svåra beräkningar som inte behövs även för en avancerad gaming. Och som "speltillverkarna skulle INTE orientera sig på"
Typ 3 olika nivåer, typ 3080, 3090 och 3090ti med prislappar:

40.000kr , 50.000kr och 60.000kr minimum och med energiförbrukning utan tak. (Och urdåliga drivrutiner för dataspel)

Det är en utopi, men då skulle man kunna segmentera grafikkorts marknaden och göra det mer vänlig och enkelt att förstå för konsumenter.

Annars känns det som att man gör ingen framgång i utvecklingen, utan bara dubblar antal transistorer och energiförbrukning per generation. Varför inte tripplar det då, eller fyrdubbla? Eller sätta 2st grafikkorts processorer på samma kort och skrika över hela marknaden att "våra kort är bättre!" ?

Sorry if offtopic.

Permalänk
Inaktiv
Skrivet av lasseedsvik:

Börjar kännas som en parodi..... typ snart är ett grafikkort mer konsumerande än att bastuaggregat...... känns inte som 2022....

Tänk om ffs...

Du är väldigt snabb på att dra slutsatser på ett top of the line kort. Säger ingenting om resten.

4090 kommer vara high end, high end ska vara rå prestanda. Vad det drar ska vara skitsam så länge det finns kylning som kan hantera det.

Tycker det är lite som att gnälla på att en Ferrari drar mycket och trycka den slutsatsen på en Toyota Yaris. Köp inte high end om du tycker förbrukningen är ett problem med dom.

Dessutom är inte det som kommit fram något som helst bevis på att det faktiskt kommer att dra 650w

Skrivet av Hevin:

Prata om att folk overreagerar och gör vilda antaganden här...

Amen, gnällklockers™ är i farten igen xD

Permalänk
Medlem
Skrivet av OSkar000:

600w är perfekt för att värma ett mindre rum på vintern.

Seriöst, sätt en gräns på 150W för grafikkort till vanliga konsumenter. Det är knappast en linjär skala mellan grafikprestanda och effektförbrukning så uppoffringen är inte så illa som det kan låta.

Jag har ett litet rum, men med rutan öppen så pass att man kan stoppa ett finger igenom så gör mitt 3060ti + 5800x det varmt redan. drar jag igen rutan är det lätt 25+ här men resten av huset är 21 typ. Urk, dags att börja limit fps till 60 på sommaren antar jag.

Visa signatur

Ryzen 5800x @ 32gb 3200mhz @ 7tb ssd @ 3060ti Fractal r5 @ Arch
i5 4670k @ 24gb 1600mhz @ Fractal r3 @ 12tb ZFS @ Truenas Scale
Thinkpad T450 @ i5 5300u @ 16gb @ 512gb ssd @ 24+48wh batteri @ Debian

Permalänk
Medlem
Skrivet av Necrophor:

Mat som producerats, inte köps. Företag har en förmåga att slänga överflöd istället för att ge bort etc.

Visst, men:

Varje år slänger de svenska hushållen cirka 19 kilo fullt ätbar mat per person i soporna. Dessutom häller vi ut 26 kilo mat och dryck i vasken, enligt Livsmedelsverket.

https://svt.se/nyheter/lokalt/dalarna/sa-mycket-mat-slanger-h...

Skrivet av Necrophor:

71% är inte någon "discourage", det påvisar VART de största förändringarna måste ske. Räknar vi in x antal andra större företag/industrier så är den enskilda individens påverkan väldigt väldigt liten. Den absolut största, enskilda handling man kan göra för miljön är att inte skaffa barn t ex.

Har läst en del om argumentet att inte skaffa barn, men tycker ändå det är lite märkligt med tanke på hur liten miljöpåverkan exempelvis ett barn i bushen i Kenya har jämfört med den generella ungen i väst. Så visst är det sant, men hur vi lever våra liv kan justeras. Menar inte att vi ska leva som i bushen i Kenya, men visst skulle vi kunna tänka efter och anpassa oss lite?
Hade vi t.ex. sett till att all den mat som gick till användning hade det kanske varit en bra början, men är väl lättare sagt än gjort.

Skrivet av Necrophor:

"The oil giant British Petroleum (BP) actually hired PR professionals to invent a concept designed to blame individuals, not fossil fuel companies, for climate change. And it was BP that revealed the phrase "carbon footprint", along with a "carbon footprint calculator", in 2004."

Det där är intressant.
Samtidigt är det även individer som köper fossila bränslen. Är det verkligen så att vi måste transportera oss ensamma i sett till det som transporteras tunga fordon vars bränsle har så dålig verkningsgrad?

En bensinmotor har en verkningsgrad på cirka 30 procent och en dieselmotor på cirka 40 procent. Det betyder i praktiken att dessa motorer omvandlar mellan 30 och 40 procent av bränslets energiinnehåll till rörelseenergi. Resten blir till värme och ljud.

https://elhojsbloggen.se/elmotorn-vida-overlagsen-forbranning...

Men många har inget val sägs det – de måste ta förbränningmotorbilen. Så kan det säkert vara. Ibland …
Nä, men håller med om att det blir knasigt att peka för mycket på individerna gällande detta.

Skrivet av Necrophor:

Även återvinning innehåller en hel del lögner, t ex återvinning av plast där en majoritet av det begravs och återvinns inte alls trots att vi är duktiga och sorterar för fullt.

"Of the seven billion tonnes of plastic waste generated globally so far, less than 10 percent has been recycled."

I Sverige hamnar plasten som inte materialåtervinns knappast i marken, utan den förbränns. Men andelen som går att materialåtervinna ökar hela tiden. Här går att se statistik från FTI (Förpackningsinsamlingen):

https://www.ftiab.se/180.html

47% materialåtervunnet gällande plasten för år 2020 – år 2004 var det bara 20%. Så det blir bättre i takt med att teknik och kunskap gällande plaståtervinning ökar.

Skrivet av Necrophor:

Och för att inte vara helt off-topic... absolut inte rätt väg gå att hela tiden öka förbrukningen, fokus borde kanske istället ligga på att göra "skiten" mer effektivt och på så vis öka prestandan.

Håller med.

Visa signatur

• Fractal Design North | ASUS ROG Strix B650E-F | Ryzen 7 7800X3D | Radeon RX 7900 GRE | 64 GB RAM | Windows 11
• Mac Pro (Mid 2010) | 6-Core Intel Xeon ”Westmere” | Radeon RX 5700 XT | 32 GB RAM | macOS 12 Monterey | Windows 10
• MacBook Pro 14" | M2 Max | 96 GB RAM | macOS 14 Sonoma

Permalänk
Medlem

Undra hur mycket högre scalpers och miners kan få priserna? 🤔

Visa signatur

Processor: Intel i9 9900K @ 4,7Ghz kyld av Noctua NH-D15 | Moderkort: Gigabyte Z390 Aorus Ultra | RAM: G.Skill Trident Z 16GB 3200Mhz | Grafikkort: MSI RTX 2080 Gaming X Trio | Chassi: Fractal Design Define S2 | PSU: Corsair RM750x | Hdd: Samsung 970 Evo 500GB & Seagate Barracuda 2TB |

Permalänk
Skrivet av lillaankan_i_dammen:

Den slutsatsen kan man ej dra. Om alla grafikkort blir mer strömkrävande så är det inte bra på flera sätt och vis. Men om topp-prestande grafikkort blir mer strömkrävande men samtidigt presterar bättre så är detta bra.

Först oh främst är det en åsikt. Jag grundar den på siffrorna nedan. Visst blir korten bättre, även den relativa prestandan/energieffektiviteten förbättras och det är eftersträvansvärt.

TDP-värden:
960 ~120W
970 - 145W
980 - 165W
980 ti - 250W

3050 ~ 130W
3060 ~ 170W
3070 ~ 220W
3080 ti/3090 ~ 350W

Källor:
900-serien
3000-serien

Visa signatur

"What sharp little eyes you've got"

Permalänk
Inaktiv
Skrivet av SCORPIUS:

Jag köpte ett agg på 1000W för jag körde en AMD 1090T med två R9 290 i CF och sex hårddiskar.
Jag kommer inte att köpa mindre igen.

Det är lika dumt att snåla på nätagget som det är att snåla på skärmen.
Vet dina behov några år framöver och lägg dig ett bump över det vid köp.

Med det sagt så är detta en galen utveckling. Kanske oundviklig i dagsläget med nuvarande teknologi, men galet japp.

Angående 4000 serien. Fördelen för mig som jag ser det är att kort i dom lägre segmenten kommer vara bra mycket snabbare än mitt 1080TI och klara RT om jag vill ha det. Så om världen inte går helt åt helvete så kanske jag kan byta till ett sådant när det är dags.

Problematiken med 3xxx-serien är att de tidigare nätaggen har en tendens att stänga av sig när GPUn belastas pga överströmsskyddet / derivataskyddet löser ut. Nu vann jag ett Seasonic 850W för ett tag sen.

Permalänk
Skrivet av Beginner:

Följer det med en minireaktor för att driva allt?

Ja, men det kommer bli lika dålig tillgång som på 3000-serien eftersom ingen vill importera uran från Ryssland längre.

Visa signatur

"What sharp little eyes you've got"

Permalänk
Medlem
Skrivet av Pepsin:

Finns väl risk att även den drar betydligt mer än tidigare. RTX 3080 drar 320W medan 2080 drog 215W och GTX 1080 bara 165W. Så det börjar dra iväg även i lägre segmenten.

Vet inte om jag hade kallat 3080 för "lägre segmenten". 3060 är mer relevant att jämföra på, även om vi såg i nyhetsartikel rätt nyligen att majoriteten av korten inte är ens på den nivån.

Permalänk
Medlem
Skrivet av SCORPIUS:

Jag köpte ett agg på 1000W för jag körde en AMD 1090T med två R9 290 i CF och sex hårddiskar.
Jag kommer inte att köpa mindre igen.

Det är lika dumt att snåla på nätagget som det är att snåla på skärmen.
Vet dina behov några år framöver och lägg dig ett bump över det vid köp.

Med det sagt så är detta en galen utveckling. Kanske oundviklig i dagsläget med nuvarande teknologi, men galet japp.

Angående 4000 serien. Fördelen för mig som jag ser det är att kort i dom lägre segmenten kommer vara bra mycket snabbare än mitt 1080TI och klara RT om jag vill ha det. Så om världen inte går helt åt helvete så kanske jag kan byta till ett sådant när det är dags.

Snåla på nätaggregat är en dum idé som ingen ska följa. Man behöver inte ha den bästa på marknaden men en bra och som kan leverera under press. Ligga ett snäpp över det man behöver för framtida uppgraderingar är alltid smart.

Permalänk
Hedersmedlem
Skrivet av Chrisj:

Vet inte om jag hade kallat 3080 för "lägre segmenten". 3060 är mer relevant att jämföra på, även om vi såg i nyhetsartikel rätt nyligen att majoriteten av korten inte är ens på den nivån.

Det går ju uppåt även där.

GTX 960: 120 W
GTX 1060: 120 W
RTX 2060: 160 W (184 W för 12 GB)
RTX 3060: 170 W

Inte lika drastiskt dock. 1080 -> 3080 ökade från 180 W till 320 W (77.77...%) medan 1060 -> 3060 ökade 41.66...%.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem

Min fråga i allt detta är om man behöver nya kablar från cablemods eller om folk kan använda de de redan har med adapter. Tänkte på så det inte säger boom! för att kabeln är för klen

Permalänk
Medlem
Skrivet av Fulci:

En desktop monitor med 8K lär knappast vara 1:1 utan det handlar sannolikt om hög pixeltäthet och skalning istället. Vilket gör att möjligheten att se skillnad på detaljnivån mellan t.ex. 4K och 8K blir väldigt liten. Därför kommer sannolikt också uppskalning som DLSS, FSR och XESS på grafikkort användas i stor grad för spel i 8K.

Jag har en 27" 4K och kör 150%. Skärmen har en PPI på cirka 160. Jag ser gärna en PPI på 300 vilket kommer ge fantastisk textrendrering med skalning (typ tryckkvalité). Att kunna köra ett spel native 4K runt 100 fps och sen med DLSS uppskalning till 8K på en 300 PPI skärm vore väldigt trevligt för min del.

Det du beskriver hade varit fantastiskt fint. Då blir inte antalet pixlar i sig det som är viktigt utan hur dessa pixlar presenteras. Det kan heltalsskalas till 4K eller med olika uppskalningsalgoritmer till "8K". Som du är inne på så påminner det om tryck. Och det är bara positivt.

Om några generationer börjar vi nog hamna där. Skärmarna kommer nog vara det som begränsar mest snart.

Permalänk
Medlem

Om man redan sitter på ett 3090/3080/6900 så ser jag inte varför man springer och har bråttom till ett nytt kort. Däremot om man bygger nytt kan jag förstå. Sitter själv på 6900 i mitt bygge med maxad överclockning och watt moddning och det flyger fram.

https://www.sweclockers.com/galleri/15529-cyberpunk-2077-proj...

Permalänk
Medlem
Skrivet av Siimuliize:

Alltså jag förstår helt varför man köper det värsta. Dock förstår jag inte att man gnäller på effektuttaget. Det är väl vad det är. Köp eller låt bli har man råd med ett grafikkort för 25-30000 så har man råd med el. Gör knappast någon större skillnad på räkningen.

https://www.sweclockers.com/galleri/15529-cyberpunk-2077-proj...

Inge skönt att spela i en bastu. 600w + en cpu på 225w. Det blir väldigt varmt i rummet och man får spela med korsdrag Tycker mina 350w med 3080 skapar problem med värmen. Positiva är att tvätten torkar snabbt

Permalänk
Medlem
Skrivet av Thomas:

Det går ju uppåt även där.

GTX 960: 120 W
GTX 1060: 120 W
RTX 2060: 160 W (184 W för 12 GB)
RTX 3060: 170 W

Inte lika drastiskt dock. 1080 -> 3080 ökade från 180 W till 320 W (77.77...%) medan 1060 -> 3060 ökade 41.66...%.

Prestandan har ju dock ökat med mer än 41,66%, så 3060 är ett effektivare kort per FPS i samma spel.

Mvh

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Medlem

Får man någon prestandaförlust med riser-kabel? För snart får man väl modda chassit så grafikkortet får en separat kammare eller placeras i en mindre låda utanför chassit så inte CPU, Nvme, minnen etc blir lidande av värme...

Visa signatur

Windows 11 Pro | Intel i7 8700 | ASUS Prime Z370-P | Corsair 16GB 3000MHz | ASUS GTX 1080 | Fractal Design Define S | Corsair RM750x | Hyper 212 EVO

Permalänk
Medlem

Är det postbottar från Miljöpartiet här inne?
Så mycket pepega var det länge sedan jag såg.

4090 kommer knappast kräva dessa effekttal det talas om. Det finns det noll anledning till.
Att det kan komma ett KingPin med ett 800W bios, är ingen omöjlighet. Men det är for dom som vill det, helt valfritt.
Och vem sitter och spelar spel som maxar både cpu och grafikkort? Finns det ens spel som gör det?

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av skosnore:

Tycker mina 350w med 3080 skapar problem med värmen. Positiva är att tvätten torkar snabbt

Med afterburner så drar 3080 ~150w med samma prestanda men lägre värmeutveckling (tystare fläktar)

Visa signatur

Om du vill att jag ska se ditt svar så tryck på Citera.

Permalänk
Medlem
Skrivet av zeagan:

Med afterburner så drar 3080 ~150w med samma prestanda men lägre värmeutveckling (tystare fläktar)

Om du verkligen har ett undervoltat 3080 som bara drar 150W och presterar samma som stock så har du ett guldexemplar utan dess like. Jag får gratulera!

Permalänk
Medlem

Går prestandan I relation med watten?
Är det 100% mer watt men bara 10-15% bättre prestanda är det något galet.

Permalänk
Medlem
Skrivet av jehuty:

Går prestandan I relation med watten?
Är det 100% mer watt men bara 10-15% bättre prestanda är det något galet.

Enligt spekulationer är 4000 dubbel prestanda över 3000 serien så vi får se 😊

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av OSkar000:

600w är perfekt för att värma ett mindre rum på vintern.

Seriöst, sätt en gräns på 150W för grafikkort till vanliga konsumenter. Det är knappast en linjär skala mellan grafikprestanda och effektförbrukning så uppoffringen är inte så illa som det kan låta.

Gissa...

...Denna vintern satt jag i mitt vardagsrum och spelade på min 16 kärniga dator med ett 3090 kort. Och det var värmt som en sommars dag hela tiden.

Sen upptäckte jag att pelletsen var tagit slut och det fanns inga värme i hela huset, hela dagen (det var minus och snö utanför), men jag hade 25c i vardagsrummet.

Än hur tragikomisk det låter, så finns det en gnutta sanning i det du säger.

Permalänk
Medlem
Skrivet av Clasito:

Det blir iaf en spelfri sommar för 4090 användarna

Det var redan min sommar 2021 med 3090, det blev STEKHETT även med vattenkylning, alla sidopanelen av, kombinationen av 3090 + AMD 16 kärning processor blev hårdsmälta och fläktarna löd som ett flygplan.

Permalänk

Tror inte (läs: hoppas inte) att de andra segmenten med 50/60/70-kort drar så mycket mer än 30xx och även om de skulle öka lite gissar jag att de fortfarande är mer effektiva som många sagt redan. Vad är "regeln" för ökning per generation med Nvidia föresten? Typ att, mycket grovt, en ny generations xx60 kan (typ) matcha kortet ett snäpp upp i föregående? Inte för att jag tror att det finns en faktisk regel på så vis då.

(inte för att dra det off-topic nu) Jag hoppas att de satsat på mycket väl spelbar prestanda i 4k, inte för att det inte går att spela i 4k idag men hade varit mycket intressant om de kunde pressa i godtycklig/väldigt bra 4k-prestanda i t.ex 4070, utan några större kompromisser. Självklart är det ju så att vissa titlar är mycket tungdrivna ändå, särskilt om inställningar bara måste maxas.

Visa signatur

Mobo: MSI B550 Gaming Edge Wifi | CPU: R5 5600X / Noctua NH-U12S | GPU: XFX RX 6700 XT QICK 319 | RAM: 16GB 3600MHz CL16 Ballistix | Chassi: Fractal Design Define S | PSU: Corsair RM750X V2