Rykte: Nvidia testar grafikkort som slukar 900 watt

Permalänk
Medlem
Skrivet av Livako:

Fast det är ju inte ett grafikkort som kommer passar dessa personer. Det kommer ju grafikkort med mindre prestanda och lägre energiförbrukning. Dessa kort som inte drar så mycket passar jättebra till folk som inte vill höra dessa anpassningar.

Om det är omöjligt att nå den prestandan dessa kort kan ge utan att höja effekten, är det då bättre att korten inte kommer alls? Allternativet är ju inte samma höga prestanda vid lägre effekt…..för der är omöjligt i nuläget. Det är svårt att förbättra nanoteknik för topprestanda!

Möjligen, men nu frågade du varför folk är pressimistiskt inställda till högre watt och jag svarade på den frågan

Visa signatur

| Corsair Crystal 460X | Z390-F | 9700K | ROG Ryujn 360mm | RTX 3080Ti | ROG Thor 850W | Vengeance Pro 3200mhz 16cl 16GB (2x8) | 970 Pro 2TB + 2xWD Black 4TB | ROG SWIFT PG279Q | Arctis 7 Pro Wireless | ROG Scope Deluxe red silent | ROG Chakram |

Permalänk
Medlem

Trevligt med "lite" värme och när elräkningen kommer blir det Nudlar och vatten ......

Visa signatur

AMD Ryzen 3950X, G.SKill Trident Z Neo 128GB / 3600MHz C16
Gigabyte X570 AORUS MASTER
Gigabyte AORUS M.2 NVMe Gen4 SSD / 1TB
Samsung 970 EVO Plus series SSD 2TB M.2, Samsung SSD 860 QVO 4TB
Operativsystem är - OpenSuse Thumbelweed Linux!!!

Permalänk
Medlem
Skrivet av Syttz:

Så sli är tillbaka, fast nu för PSU!

Nvidia psli "The way it's meant to be powered"

Haha! Ett 1000W till grafikkortet och ett 850W för resten utav datorn

Permalänk
Medlem
Skrivet av Mithras:

Möjligen, men nu frågade du varför folk är pressimistiskt inställda till högre watt och jag svarade på den frågan

Absolut, det är klar ingen vill ha högre effekt om man inte kännar något på det men är ganska säker på att folk skulle tycka att det var häftigt om man kunde slänga på 300 watt extra strömförbrukning på ett 3090 och få 15 % extra prestanda. Man kan ju också sänka spänningen på de framtida korten. Det är ju inte så att de kommer bli mindre energieffektiva. Man kan ju see möjligheter istället för problem!

Permalänk
Medlem
Skrivet av Livako:

Absolut, det är klar ingen vill ha högre effekt om man inte kännar något på det men är ganska säker på att folk skulle tycka att det var häftigt om man kunde slänga på 300 watt extra strömförbrukning på ett 3090 och få 15 % extra prestanda.

Bortsett från benching och rekord så är det exemplet inte häftigt, utan mest bara ett slöseri. Nästan dubbla effekten för 15% prestanda?

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem

Jag ställer mig bland de som inte riktigt förstår varför det här är ett problem. Det finns väl ingenting som än så länge pekar på att de strömsnåla och energieffektiva korten försvinner från marknaden, utan det här är väl mer en utvidgning av prestanda och strömförbrukning uppåt pga att Nvidia känner press på att AMD för första gången på forever faktiskt har något att konkurrera med (och att Nvidia eventuellt tappar prestandakronan om de inte ökar prestandan och därmed strömförbrukningen rejält)?

De som vill köpa kort i 100-300W kategorin kommer väl fortfarande att kunna göra det? Och de kommer med största sannolikhet ha bättre prestanda per watt än dagens kort.

Permalänk
Medlem
Skrivet av PatrickP:

Jag ställer mig bland de som inte riktigt förstår varför det här är ett problem. Det finns väl ingenting som än så länge pekar på att de strömsnåla och energieffektiva korten försvinner från marknaden, utan det här är väl mer en utvidgning av prestanda och strömförbrukning uppåt pga att Nvidia känner press på att AMD för första gången på forever faktiskt har något att konkurrera med (och att Nvidia eventuellt tappar prestandakronan om de inte ökar prestandan och därmed strömförbrukningen rejält)?

De som vill köpa kort i 100-300W kategorin kommer väl fortfarande att kunna göra det? Och de kommer med största sannolikhet ha bättre prestanda per watt än dagens kort.

Det blir en fråga om vad nuvarande kort ersätt av och vad marknaden anpassar sig till. Vad uppgraderar jag t.ex. mitt 3080 till när den nya generationen kommer? Blir det en infravärmare i datorn? Kommer spel anpassas efter de nya toppkorten som kräver ett eget kärnkraftverk?

Nu tror jag för all del att dessa rykten främst tjänar till att skapa rubriker. Nvidia kan säkert testa 900W grafikkort men det är knappast troligt att vi ser det på marknaden (i varje fall inte för vanliga konsumenter).

Permalänk
Medlem
Skrivet av Livako:

Absolut, det är klar ingen vill ha högre effekt om man inte kännar något på det men är ganska säker på att folk skulle tycka att det var häftigt om man kunde slänga på 300 watt extra strömförbrukning på ett 3090 och få 15 % extra prestanda. Man kan ju också sänka spänningen på de framtida korten. Det är ju inte så att de kommer bli mindre energieffektiva. Man kan ju see möjligheter istället för problem!

Nu vet jag inte vilka dessa "folk" är,

kan ju säga att jag som ägt 1080Ti, 2080Ti och nu 3080Ti kommer absolut inte köpa ett kort som trycker på 900W från fabrik.

Någon måtta får det vara och den gränsen går definitivt innan 900W, det tror jag de flesta är överens om.

Däremot tror jag inte heller att detta är ett kort som kommer bli 4080Ti eller ens ett 4090, låter snarare som ett enterprise Titan.

Smart money ligger på att 4080Ti kommer dra 350-500W

Visa signatur

| Corsair Crystal 460X | Z390-F | 9700K | ROG Ryujn 360mm | RTX 3080Ti | ROG Thor 850W | Vengeance Pro 3200mhz 16cl 16GB (2x8) | 970 Pro 2TB + 2xWD Black 4TB | ROG SWIFT PG279Q | Arctis 7 Pro Wireless | ROG Scope Deluxe red silent | ROG Chakram |

Permalänk
Medlem
Skrivet av DasIch:

Det blir en fråga om vad nuvarande kort ersätt av och vad marknaden anpassar sig till. Vad uppgraderar jag t.ex. mitt 3080 till när den nya generationen kommer? Blir det en infravärmare i datorn? Kommer spel anpassas efter de nya toppkorten som kräver ett eget kärnkraftverk?

Nu tror jag för all del att dessa rykten främst tjänar till att skapa rubriker. Nvidia kan säkert testa 900W grafikkort men det är knappast troligt att vi ser det på marknaden (i varje fall inte för vanliga konsumenter).

Ett 3080 har en TDP på 320W. Det jag säger är att nästa generations grafikkort från Nvidia som också ligger på 320W kommer med allra största sannolikhet ha bättre prestanda än ditt 3080, oavsett om de kallar det 4050, 4060, 4070 eller 4080. Man kan ju faktiskt göra en uppgradering prestandamässigt även fast man går ner en "klass" (dvs från ett XX80-kort till ett XX70 kort osv).

Det är ju inte så att ens 3080 får bättre absolut prestanda bara för att 4080 kommer med en 350W TDP istället för en 600W TDP, så jag ser inte problemet

Permalänk
Medlem
Skrivet av PatrickP:

Ett 3080 har en TDP på 320W. Det jag säger är att nästa generations grafikkort från Nvidia som också ligger på 320W kommer med allra största sannolikhet ha bättre prestanda än ditt 3080, oavsett om de kallar det 4050, 4060, 4070 eller 4080. Man kan ju faktiskt göra en uppgradering prestandamässigt även fast man går ner en "klass" (dvs från ett XX80-kort till ett XX70 kort osv).

Det är ju inte så att ens 3080 får bättre absolut prestanda bara för att 4080 kommer med en 350W TDP istället för en 600W TDP, så jag ser inte problemet

De kommer ju sätta in flaskhalsar på de som ligger under xx80, kanske endast 8GB eller smalare minnesbuss, dom kommer att se till att du ska upp till nästa xx80 för att vara nöjd.

Permalänk
Medlem
Skrivet av PatrickP:

Jag ställer mig bland de som inte riktigt förstår varför det här är ett problem. Det finns väl ingenting som än så länge pekar på att de strömsnåla och energieffektiva korten försvinner från marknaden, utan det här är väl mer en utvidgning av prestanda och strömförbrukning uppåt pga att Nvidia känner press på att AMD för första gången på forever faktiskt har något att konkurrera med (och att Nvidia eventuellt tappar prestandakronan om de inte ökar prestandan och därmed strömförbrukningen rejält)?

De som vill köpa kort i 100-300W kategorin kommer väl fortfarande att kunna göra det? Och de kommer med största sannolikhet ha bättre prestanda per watt än dagens kort.

I princip har du rätt. Så länge det finns bra kort med liten förbrukning så är det OK. Men ur ett mer globalt perspektiv tycker jag det är fel att släppa produkter som drar massor med ström. Alltså, 900W värmer en hel sommarstuga. Och detta bara för att feta grodor ska hoppa runt på din skärm?

Personligen skulle jag tycka det vore bra om det fanns en maxgräns för en dator, säg 300W för en komplett dator med skärm. Eller någon form av skattereduktion för snåla varianter, som med EU-regler för bilar.

Med dagens (rusande) energipriser kommer detta iofs regleras automatiskt, vem vill betala 5:- i timmen för sin speldator?

/ B

Permalänk
Medlem
Skrivet av PatrickP:

Ett 3080 har en TDP på 320W. Det jag säger är att nästa generations grafikkort från Nvidia som också ligger på 320W kommer med allra största sannolikhet ha bättre prestanda än ditt 3080, oavsett om de kallar det 4050, 4060, 4070 eller 4080. Man kan ju faktiskt göra en uppgradering prestandamässigt även fast man går ner en "klass" (dvs från ett XX80-kort till ett XX70 kort osv).

Det är ju inte så att ens 3080 får bättre absolut prestanda bara för att 4080 kommer med en 350W TDP istället för en 600W TDP, så jag ser inte problemet

Grejen är ju att alla spel osv anpassar sig ju också efter prestandan på grafikkorten! Det är i princip ett nollsummespel om man spelar färska AAA spel.

(Och maxar man toppkorten så är nog risken rätt stor det drar med sig korten under i viss mån - och speltillverkarna anpassar prestandakrav därefter)

Dessutom blir norm-upplösningen högre år efter år vilket drar upp kraven, vilket till stor del cancellerar ut den förbättrade effektiviteten.

Det som spelar roll på elräkningen och miljön o slutändan är strömförbrukningen - inte prestanda per watt. Genom att höja förbrukningstaket så ökar vi miljöbelastningen helt enkelt. (Givet man kör ocappad framerate då förstås…)

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem
Skrivet av Dalton Sleeper:

De kommer ju sätta in flaskhalsar på de som ligger under xx80, kanske endast 8GB eller smalare minnesbuss, dom kommer att se till att du ska upp till nästa xx80 för att vara nöjd.

Fast om man inte tycker det är värt det så uppgraderar man ju inte (många har ju valt att inte uppgradera på väldigt länge pga priserna t.ex) eller så går man till en konkurrent som försöker göra kunderna nöjda. Så länge vi har minst två företag som konkurrerar och inte bildar kartell så löser det ju sig själv tycker jag

Skrivet av Bill50x:

I princip har du rätt. Så länge det finns bra kort med liten förbrukning så är det OK. Men ur ett mer globalt perspektiv tycker jag det är fel att släppa produkter som drar massor med ström. Alltså, 900W värmer en hel sommarstuga. Och detta bara för att feta grodor ska hoppa runt på din skärm?

Personligen skulle jag tycka det vore bra om det fanns en maxgräns för en dator, säg 300W för en komplett dator med skärm. Eller någon form av skattereduktion för snåla varianter, som med EU-regler för bilar.

Med dagens (rusande) energipriser kommer detta iofs regleras automatiskt, vem vill betala 5:- i timmen för sin speldator?

/ B

Om detta nu blir en konsumentprodukt, hur stor andel av gamers kommer köpa den? De allra allra flesta kommer inte göra det, dels pga energiförbrukningen, men även pga priset. Och precis som du säger är det ju självreglerande även pga energipriser är

Permalänk
Medlem
Skrivet av Roger W:

Grejen är ju att alla spel osv anpassar sig ju också efter prestandan på grafikkorten! Det är i princip ett nollsummespel om man spelar färska AAA spel.

(Och maxar man toppkorten så är nog risken rätt stor det drar med sig korten under i viss mån - och speltillverkarna anpassar prestandakrav därefter)

Dessutom blir norm-upplösningen högre år efter år vilket drar upp kraven, vilket till stor del cancellerar ut den förbättrade effektiviteten.

Det som spelar roll på elräkningen och miljön o slutändan är strömförbrukningen - inte prestanda per watt. Genom att höja förbrukningstaket så ökar vi miljöbelastningen helt enkelt. (Givet man kör ocappad framerate då förstås…)

Fast som sagt, ens absoluta prestanda på ett äldre kort är helt opåverkat av vad nyare kort presterar. Man behöver inte spela med allting maxat i maxad upplösning

Det dessa kort är att de möjliggör ännu finare grafik och/eller högre framerate än vad som hade varit möjligt utan dem, det gör inte att de andra korten blir sämre.

Jag håller dock helt med om att det som spelar roll för elräkningen och miljön är strömförbrukningen och inte prestanda per watt, men som sagt så kommer alternativen självklart finnas för de som vill att köpa kort som presterar sämre och drar mindre ström, så som det alltid har varit

Permalänk

Precis som vi sitter nu och tänker tillbaka när man kunde köpa det bästa grafikkortet för 7000kr kommer vi sitta om några år att tänka när grafikkortet bara drog 500w. Så länge man kan driva datorn på 10A så har det inget betydelse. Jag har 3 datorer kopplade till samma uttag så vi får väl spela i omgångar.

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
AKA AudioBamse
Skrivet av THB:

Så höstens uppgradering blir: 13900K, 128GB DDR5, RTX 4090 Ti, 4KW PSU

GPU-uppgraderingen är väl ändå lite blygsam? Gör en ordentlig uppgradering istället med x2 (sli) RTX 4090 Ti

Permalänk
Medlem
Skrivet av Roger W:

Bortsett från benching och rekord så är det exemplet inte häftigt, utan mest bara ett slöseri. Nästan dubbla effekten för 15% prestanda?

All överklockning är väll orimligt energipåslag för medioker prestanda vinst. Det är så transistorer fungerar.
Så länge värmen kan ledas bort så ser jag en möjlighet att använda det till vardags och för mig är det i alla fall intressant men om överklockning inte är intressant så kanske swec ska börja testa undervolt på grafikkortstesterna istället för överklock?

Permalänk
Medlem

Vill inte vara den men shuntmodda ett 3090 så kommer man upp runt den effekten också, är säkerligen något dom tar fram så dom kan ha en "release" så dom kan påstå att dom har det bästa gamingkortet i Världen, lite som 3090 ti..

Visa signatur

here we go!

Permalänk
Medlem
Skrivet av Livako:

All överklockning är väll orimligt energipåslag för medioker prestanda vinst. Det är så transistorer fungerar.

Vet inte om du förväntade dig något annat, men japp jag håller generellt med
Speciellt nuförtiden när chippen är pressade så hårt direkt från fabrik. (men se nedan...)

Skrivet av Livako:

men om överklockning inte är intressant så kanske swec ska börja testa undervolt på grafikkortstesterna istället för överklock?

Gärna för mig! En underklockning är väl också en klockning?
Men helst båda förstås - det finns ju några få tillfällen då och då där kretsar svarar på klock utan att förbrukningen drar iväg alldeles uppåt väggarna.

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem

Effektivitet är inget som är aktuellt. Det vore faktiskt kul med en generation som sa samma prestanda till hälften av effekten. Men det kräver ju lite mer av tillverkarna och det är helt enkelt enklare att bara fläska på med mer effekt.

Vad är den vanligaste upplösning på Steam? 1080? Det är väl där lejonparten av spelarna finns, att då faktiskt göra ett kort som är effektivt till den upplösningen med låg förbrukning vore en tanke.

Det är ju ändå gameplay som gör ett spel riktigt bra...

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5600X, LPX 64GB 3600, GT730

Permalänk
Medlem

Patetiskt av Nvidia ännu en gång!

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Medlem
Skrivet av PatrickP:

Ett 3080 har en TDP på 320W. Det jag säger är att nästa generations grafikkort från Nvidia som också ligger på 320W kommer med allra största sannolikhet ha bättre prestanda än ditt 3080, oavsett om de kallar det 4050, 4060, 4070 eller 4080. Man kan ju faktiskt göra en uppgradering prestandamässigt även fast man går ner en "klass" (dvs från ett XX80-kort till ett XX70 kort osv).

Det är ju inte så att ens 3080 får bättre absolut prestanda bara för att 4080 kommer med en 350W TDP istället för en 600W TDP, så jag ser inte problemet

Bättre prestanda som samtidigt är värt att betala för och med mer VRAM? Hur stora prestandaökningar ska vi då inte se hos korten i kilowatt-klassen? Sen är det ju som nämnts tidigare att grafikkorten har en viss normerande effekt. Med ett mellanklasskort kan du räkna med mellanklass-prestanda i nya titlar. Typ.

Nota bene, jag tror inte på ryktena som säger att nya korten kommer bli strömslukande bestar. Kanske om Nvidia snickrar på ett nytt Titan-kort med dual-GPU, men annars tror jag korten kommer bli betydligt mer sansade än vad ryktena gör gällande.

Permalänk
Medlem
Skrivet av Mithras:

Nu vet jag inte vilka dessa "folk" är,

kan ju säga att jag som ägt 1080Ti, 2080Ti och nu 3080Ti kommer absolut inte köpa ett kort som trycker på 900W från fabrik.

Någon måtta får det vara och den gränsen går definitivt innan 900W, det tror jag de flesta är överens om.

Däremot tror jag inte heller att detta är ett kort som kommer bli 4080Ti eller ens ett 4090, låter snarare som ett enterprise Titan.

Smart money ligger på att 4080Ti kommer dra 350-500W

Kanske bara är jag som tycker överklockning är trevligt. All överklockning är dålig prestanda vinst för mycket effekt påslag. Framtidens kort kommer vara mer energieffektiva än dagens. Klockar man ner detta 900w kortet så det presterar som dagens top kort så skulle det vara mer energieffektivt. Men möjligheten att trycka på finns. Och om de testar att köra ett kort i 900w så kommer det vara yttersta överklockningsgränsen inte nödvändigtvis vad det kommer ha som standard effekt men va fan kanske är dåligt att de pressar prestandan mot topen vad vet jag?

Och som du säger detta kommer inte nå markaden i första taget så det är mer en fråga om vad man kan göra och om det är intressant vilket jag personligen tycker att det är men kul att åsikterna är delade!

Permalänk
Medlem
Skrivet av DasIch:

Bättre prestanda som samtidigt är värt att betala för och med mer VRAM? Hur stora prestandaökningar ska vi då inte se hos korten i kilowatt-klassen? Sen är det ju som nämnts tidigare att grafikkorten har en viss normerande effekt. Med ett mellanklasskort kan du räkna med mellanklass-prestanda i nya titlar. Typ.

Nota bene, jag tror inte på ryktena som säger att nya korten kommer bli strömslukande bestar. Kanske om Nvidia snickrar på ett nytt Titan-kort med dual-GPU, men annars tror jag korten kommer bli betydligt mer sansade än vad ryktena gör gällande.

Ja asså om Nvidia har gjort en så brutalt dålig arkitektur att de ger sämre prestanda, mindre VRAM, högre strömförbrukning och ändå vill ta ett högre pris så kommer ju väldigt få köpa de nya korten, medan folk kommer flockas till den äldre generationen och framförallt korten från AMD och Intel. Man får ju komma ihåg att Nvidia utöver att konkurrera med AMD och Intel även konkurrerar med sina äldre kort. Så ja, det ska mycket till för att vi ska ha sämre energieffektivitet än nuvarande generation i samma effektklass.

Ryktena pekar ju på att vi kommer få ganska rejäla prestandaökningar från både AMD och Nvidia den här gången, men som alltid så krävs det ju exponentiellt mer energi för att pressa ut den sista prestandan. Det har vi ju sett tydligt med 3090 TI som drar typ 30% mer energi än 3090 men presterar typ 10% bättre, så förmodligen kommer de sista 100W eller så inte ge så jättemycket mer prestanda, utan det handlar nog som sagt mer om att Nvidia har fått signaler om att de har stor risk att tappa prestandakronan om de inte skrämmer upp prestandan (och därmed energiförbrukningen) rejält.

Det här med att grafikkorten ska ha en viss normerande effekt. Både ja och nej skulle jag säga. Absolut lägger spelutvecklarna på så mycket effekter och ögongodis att det ska finnas en poäng med det dyraste grafikkortet, men eftersom den absoluta majoriteten av gamers inte kör the best of the best (det är bara att kolla på steams hardware survey) så försöker de ju göra spelen spelbara med lägre detaljinställningar och upplösningar också. Som sagt, ens nuvarande grafikkort får inte sämre absolut prestanda bara för att nästa generation tar ett större (eller mindre) hopp än vanligt

Jag tror inte heller på att vi får se konsument-GPU:er på 900W, men uppemot 500-600 för värstingmodellerna kan nog ske.

Permalänk
Medlem
Skrivet av Livako:

Kanske bara är jag som tycker överklockning är trevligt. All överklockning är dålig prestanda vinst för mycket effekt påslag. Framtidens kort kommer vara mer energieffektiva än dagens. Klockar man ner detta 900w kortet så det presterar som dagens top kort så skulle det vara mer energieffektivt. Men möjligheten att trycka på finns. Och om de testar att köra ett kort i 900w så kommer det vara yttersta överklockningsgränsen inte nödvändigtvis vad det kommer ha som standard effekt men va fan kanske är dåligt att de pressar prestandan mot topen vad vet jag?

Och som du säger detta kommer inte nå markaden i första taget så det är mer en fråga om vad man kan göra och om det är intressant vilket jag personligen tycker att det är men kul att åsikterna är delade!

Från den synvinkeln har du ju såklart helt rätt, och jag håller med dig helt där. Om 900W är vad den maximalt kan ta, vid maximal överklockning och optimala förhållanden, då är det en femma.

Frågan från början var ju varför vanligt folk är emot ett grafikkort med TDP 900W, vilket är något helt annat.

Självklart är det intressant att se var gränserna går och vad man kan uppnå om man överdriver allt till sin gräns, nu är dock insinuationerna att 900W är det som ska bli TDP på t.ex. en 4080Ti, och det är i den kontexten som vi diskuterar.

Visa signatur

| Corsair Crystal 460X | Z390-F | 9700K | ROG Ryujn 360mm | RTX 3080Ti | ROG Thor 850W | Vengeance Pro 3200mhz 16cl 16GB (2x8) | 970 Pro 2TB + 2xWD Black 4TB | ROG SWIFT PG279Q | Arctis 7 Pro Wireless | ROG Scope Deluxe red silent | ROG Chakram |

Permalänk
Medlem
Skrivet av Mithras:

Från den synvinkeln har du ju såklart helt rätt, och jag håller med dig helt där. Om 900W är vad den maximalt kan ta, vid maximal överklockning och optimala förhållanden, då är det en femma.

Frågan från början var ju varför vanligt folk är emot ett grafikkort med TDP 900W, vilket är något helt annat.

Självklart är det intressant att se var gränserna går och vad man kan uppnå om man överdriver allt till sin gräns, nu är dock insinuationerna att 900W är det som ska bli TDP på t.ex. en 4080Ti, och det är i den kontexten som vi diskuterar.

Fast låter 48 Gig Vram och 900w TDP som ersättaren till 3080ti. Snarare ett mer obskyrt kort än titan Z var… kostar detta kort samma som msrp för 3080ti så köper jag omedelbart. Bara att klocka ner så den drar vad man tycker är rimligt…. En varm sommardag kanske 300w räcker men på vintern så kanske man behöver ett extra värme element. Ännu en funktion, fantastiskt!