Nvidia Geforce RTX 4000-serien påstås debutera i sommar

Permalänk
Medlem

Ja vad ska man säga... Vilka skärmar ska nästa generation rtx4000 serien dra? 4k skärmar blir nog för klen för topp korten är de dax att gå till 6 eller 8k skärmar.

Permalänk
Medlem
Skrivet av Jygge:

Ja vad ska man säga... Vilka skärmar ska nästa generation rtx4000 serien dra? 4k skärmar blir nog för klen för topp korten är de dax att gå till 6 eller 8k skärmar.

4/5k 240 Hz

Permalänk
Medlem

Troligtvis blir det inte roligare än att man gör på sig

4000 serien
Titan = Kan de ens bygga chippet GPU som är lika bra som en monolit för spel? +600w
4090 = 3090+50% (400-500w TDP)
4080 = 3090+25-35% (350w TDP)
4070 = 3090 (275w TDP)
4060 = 3080 (225w TDP)

Siktar Nvidia på 50%+ i prestanda på 90 kortet så lär det dra ström. Vi får se vad övergången till annan nod gör men det lär inte vara något revolutionerande. 15% ur det? Resten måste komma ur arkitektoniska förbättringar (15%?) och mer mos genom kretsen. Orkar man trixa lite i ett Excel så kan man nog gissa ganska bra var vi hamnar.

Permalänk
Medlem
Skrivet av sKRUVARN:

Fast i verkligen så har inte 400W+ korten överlägsen effektivitet eller prestanda per krona... Så jag förstår inte poängen med ditt inlägg. Eller ja, förutom då kanske low-end korten som inte brukar vara någon höjdare på den fronten.

Liksom vad menar du att det inte finns alternativ att rösta på? Ett 3070 har brutalt mycke bättre prestanda/krona än 3090/Ti, och bättre effektivtet för den delen. Och 3050 både presterar, drar och kostar runt hälften mot ett 3070, så vad är problemet?

Det är främst för att påvisa att argumentet med att "Rösta med plånboken" bygger på att det finns produkter utefter ett linjärt samband - Vilket sällan eller aldrig är fallet.
Det finns alltid något som väger tyngre eller som skiljer mer, som kan resultera i skeva slutsatser om vad man "bör satsa på" nästa generation.

Dvs, Folk som söker energieffektiva grafikkort är mindre än de som köper kort baserat på ren prestanda utan hänsyn till värmeutveckling -> Nästa generation finns inga energieffektiva grafikkkort för den kundemografin köpte inte tillräckligt med kort, och vips så kommer alla följande iterationer visa att effektivitet inte spelar någon roll.

Permalänk
Medlem

Som sagt, vilken verkningsgrad har grafikkorten egentligen? Med tanke på hur mycket energi de gör av med i form av värme direkt ut i luften.

Permalänk
Medlem
Skrivet av Galvanizer:

Som sagt, vilken verkningsgrad har grafikkorten egentligen? Med tanke på hur mycket energi de gör av med i form av värme direkt ut i luften.

0% borde det vara då du inte får ut något annat än värme.

Permalänk
Medlem

Jag skulle bli förvånad om det redan blir en Juli lansering. Speciellt med någon nämnvärd tillgänglighet. Men visst kan de pumpa ut hyfsade volymer kort redan i sommar så är det väl bra.

Jag hoppas att de nya korten ger både bättre prestanda per watt och prestanda per krona än nuvarande generation.
Jag tror jag hade varit nöjd med någonstans runt 3060Ti-3070 prestanda.
Säg om det kommer ett RTX 4060 som presterar bättre än ett RTX 3070 och drar mindre effekt och är billigare låter det intressant.
Eller kanske räcker med ett RTX 4050 för att ge 3060Ti prestanda ?

Ska bli spännande att se vad de har att komma med när det väl är dags för lansering och recensioner.

Permalänk
Medlem
Skrivet av Trigger:

Siktar Nvidia på 50%+ i prestanda på 90 kortet så lär det dra ström. Vi får se vad övergången till annan nod gör men det lär inte vara något revolutionerande. 15% ur det?

Dom gör dock ett rätt stort kliv om dom går från Samsung 8nm till 5nm TSMC, det blir typ dubbla densiteten* Sen är det såklart en prisfråga beroende på kostnaden för den noden, är det väldigt mycket dyrare sett till area kommer ju kretsarna bli en del mindre. Men potentialen för att göra ordentligt mycket snabbare kretsar finns där.

*Apple ökade densiteten med över 50% på sina kretsar när dom gick från 7nm till 5nm (A13 ligger på 86Mtr/mm2 och A14 134 Mtr/mm2), GA100 som idag tillverkas på 7nm ligger på 65Mtr/mm2, GA102 på 45Mtr/mm2 som ligger på Samsung 8nm. Så dom nya gpuerna borde ligga runt 100Mtr/mm2.

Permalänk
Medlem
Skrivet av sKRUVARN:

Dom gör dock ett rätt stort kliv om dom går från Samsung 8nm till 5nm TSMC, det blir typ dubbla densiteten* Sen är det såklart en prisfråga beroende på kostnaden för den noden, är det väldigt mycket dyrare kommer ju kretsarna bli en de mindre. Men potentialen för att göra ordentligt mycket snabbare kretsar finns där.

*Apple ökade densiteten med över 50% på sina kretsar när dom gick från 7nm till 5nm (A13 ligger på 86Mtr/mm2 och A14 134 Mtr/mm2), GA100 som idag tillverkas på 7nm ligger på 65Mtr/mm2, GA102 på 45Mtr/mm2 som ligger på Samsung 8nm. Så dom nya gpuerna borde ligga runt 100Mtr/mm2.

Det ska man ha i åtanke helt klart. Precis det jag menar, vi har ganska mycket data redan så det går att göra en ganska god gissning om var vi hamnar med allt sammantaget. Lite excel pill…

Permalänk
Medlem
Skrivet av Kallamamran:

Well... Komplett.se

Acer Nitro N50-610
GeForce RTX 3060 Ti, Core i5-11400F, 16GB RAM, 512GB SSD, WiFi, Windows 10 Home
Art. nr: 1202375 / Prodnr: DG.E2DEQ.003
Ord. pris 13 990:-
NU 11 490:-
FLEX 328:- /månad

Generellt sett skulle jag inte råda någon till att månadsbetala, men är man desperat, så 328kr/mån är ju inte massor 😬

Tanken är ju god, påminner lite om hempc. Fast skillnaden är att hempc gick via arbetsgivaren som var skattefritt utan bruttolöneavdrag. Gav runt 450 kr i månaden men fick då också top of the line dator som annars hade kostat 20-30k.

Permalänk
Medlem
Skrivet av Jygge:

Ja vad ska man säga... Vilka skärmar ska nästa generation rtx4000 serien dra? 4k skärmar blir nog för klen för topp korten är de dax att gå till 6 eller 8k skärmar.

Vad menar du? Inte ens ett 3090 klarar av 4k120. Förhoppningsvis kan dom nya toppkorten leverera det så man slipper använda sig utav VRR.

Permalänk
Medlem
Skrivet av perost:

Vilket är orsaken till att miners ofta underklockar sina kort, så det är inte nödvändigtvis något problem. Den nya generationen kommer säkert som alltid vara mer energieffektiv, även om individuella möjligtvis inte är det p.g.a. höga klockfrekvenser (vilket vi egentligen inte vet något om, ryktena om 600W-kort säger inget om hur mycket de vanliga korten faktiskt kommer dra).

Det är sant, men Nvidia lägger nog inte så mycket resurser på att minska strömförbrukningen, utan skruvar hellre upp prestandan och lägger till fler hjälpmedel som tensor-kärnor.

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Det är sant, men Nvidia lägger nog inte så mycket resurser på att minska strömförbrukningen, utan skruvar hellre upp prestandan och lägger till fler hjälpmedel som tensor-kärnor.

De gör nog allt de kan för att öka energieffektiviteten, eftersom det påverkar hur många kärnor och/eller hög klockfrekvens de kan använda. Och det är väl i stort sett det enda miners bryr sig om, strömförbrukningen går alltid att justera. Tensor-kärnor och annat har de förstås kanske inte så stor användning för, men sånt drar ändå inte mycket ström när det inte används.

Permalänk
Medlem

Jag var emot 400+ watt kort men sen kom jag ihåg att sli är dött.
Välkomnar 600watt kort om de presterar som man kan tänka sig SLI med 2 kort gör.
Upp till bevis att 600w korten presterar med råge.

Permalänk
Medlem
Skrivet av Trigger:

Troligtvis blir det inte roligare än att man gör på sig

4000 serien
Titan = Kan de ens bygga chippet GPU som är lika bra som en monolit för spel? +600w
4090 = 3090+50% (400-500w TDP)
4080 = 3090+25-35% (350w TDP)
4070 = 3090 (275w TDP)
4060 = 3080 (225w TDP)

Siktar Nvidia på 50%+ i prestanda på 90 kortet så lär det dra ström. Vi får se vad övergången till annan nod gör men det lär inte vara något revolutionerande. 15% ur det? Resten måste komma ur arkitektoniska förbättringar (15%?) och mer mos genom kretsen. Orkar man trixa lite i ett Excel så kan man nog gissa ganska bra var vi hamnar.

De kör ju tester på ett 900w kort med *svettigt värre*

https://www.tomshardware.com/news/900w-rtx-40-series-gpu

Permalänk
Medlem
Skrivet av Zeroastic:

Känns inte hållbart med denna strömförbrukning, tycker mitt 3080 drar alldeles för mycket. Att se hoppet på ytterligare 250-550 watt känns ju helt galet. Det behövs ett steg där elförbrukningen tar fokus och pressar ner denna trend.

Hur många sitter idag med 1000w+ PSU i sina burkar?

Håller helt med. Som en konsument vill jag se lägre elförbrukning. Bättre prestanda är alltid trevligt men det måste balanseras.

Permalänk
Medlem
Skrivet av BengaBang:

0% borde det vara då du inte får ut något annat än värme.

Isåfall vore det ju tämligen meningslöst att använda grafikkort istället för helt vanliga små elradiatorer?

Permalänk
Skrivet av Fenrisulvfan:

Det är sant, men Nvidia lägger nog inte så mycket resurser på att minska strömförbrukningen, utan skruvar hellre upp prestandan och lägger till fler hjälpmedel som tensor-kärnor.

Det är just värmeutvecklingen (strömförbrukningen) som sätter stopp för bättre prestanda, så de går hand i hand. Du kan inte få bättre prestanda utan att de förbättrar värmeutvecklingen och därmed strömförbrukningen.

Permalänk

Vad är en rimlig tidslinje för laptop-linjen? En ok gaminglaptop med ett 3060~kan hamna på över 20tkr beroende på modell vilket känns väl tilltaget. Min förhoppning är att 30xx serien på laptops blir mer vettigt prissatt.

Permalänk
Medlem

Kalla mig surgubbe eller vad som helst men är inte alls intresserad av kort som drar så mycket ström, eller har lösningar där det ska till nya kontakter bara för att kunna mata dem.

Permalänk
Medlem

3 platser, absurd strömförbrukning, nu har NVidia gjort en rejäl tankevurpa, aldrig i livet att denna kommer innanför min dörr.

Ni som ändå köper den, hur motiverar ni ert köp?
Är det värt att du underhålls oavsett vad?

Permalänk
Medlem

Här i sverige har jag svårt att se varför folk klagar på hög strömförbrukning.

Halva året vill man ha värmen på hemma. Bor man i villa kan man skruva ner elementen medans man spelar, om inte annat sköter luftvärmepumpen det automatiskt när datorn genererar värme.

Även om det kommer luta åt att jag bara tjänar en krona eller två om dagen i vinter på att mina på nicehash med mitt 2070 kommer jag låta det snurra på ändå, för det är trevligt med billig/gratis värme i sovrummet.
Hade jag bara spelat och det hade legat på 600W för hela riggen, ja då är det värt det ändå. Värmen behövs faktiskt här i norden, så det är lika braatt man gör något nyttigt eller roligt med energin innan den ändå blir till värme, istället för att köra elpatron eller elradiator.

Skulle jag ha villa skulle jag inte ha något emot grafikkort på 1-3 kW.
Då leder man lätt spillvärmen ner i källaren. Där kan den först passera en stor radiator med lågt luftflöde, där radiatorn kopplas på kallvattenledningen innan varmvattenberedaren. Resten av värmen får värma upp huset underifrån.

Permalänk
Medlem
Skrivet av Dem8n:

3 platser, absurd strömförbrukning, nu har NVidia gjort en rejäl tankevurpa, aldrig i livet att denna kommer innanför min dörr.

Ni som ändå köper den, hur motiverar ni ert köp?
Är det värt att du underhålls oavsett vad?

För det första finns det ju ingen bild på något kort ur RTX 40-serien än.
För det andra är strömförbrukningssiffrorna 100% navelskåderi tills det finns officiella siffror.
För det tredje har högpresterande kort tagit 3 slots i anspråk en längre tid, det är bara att I/O-plåten ofta bara är 2 slots på moderna kort p.g.a. att den inte behöver vara större.

Datorhobbyn är fortfarande otroligt billig i jämförelse med så mycket annat.

Permalänk
Medlem

När det väl släpps 4000 serien så kommer der väl 2kort i vanlig ordning. Så till dom som säger att man inte skall köpa ett 3000 serie kort nu utan vänta på 4000 serien. Nvidia sa innan 3000 släppet att kort skulle finnas vilket det inte gjorde. Kommer bli samma skit med 4000 serien. Så har man hittat sitt 3000 serie kort för bra pris slå till du vet aldrig när du väl får tag i ett 4000 kort

Permalänk
Medlem

Edit
Fel tråd..