Rykte: Geforce RTX 4000-serien får specifikationer

Permalänk
Melding Plague

Rykte: Geforce RTX 4000-serien får specifikationer

Nya rykten om Geforce RTX 4000-serien cirkulerar på Twitter, där tre av modellerna får specifikationer.

Läs hela artikeln här

Permalänk
Medlem

RTX 4080 skulle alltså få sämre specs än 3080Ti? Alltså, antingen är dessa rykten tagna direkt ur röven eller så laddar Ada för ett magnifikt magplask.

Permalänk
Medlem

3080 CUDA kärnor: 8960 / 8704
3080 TI: 10240

Ser ju lite skumt ut med typ samma specs.

Permalänk
Medlem

Känns jäkligt fel. Att inte ens få 12gb ram på 192 bitar minnesbuss låter snålt för 4070.

Permalänk
Medlem

Det luktar bullshit om denna läcka.

Permalänk
Medlem

Njae...skepsismen inom en vaknar.

Permalänk
Medlem

RTX 4070 med 10 GB GDDR6X vram men på en 160 bitars minnesbus? Hmm... har svårt att se att Nvidia skulle snåla så mycket och riskera en flaskhals på ett kort som ändå är så pass högt upp i hierarkin som xx70 serien.

Skrivet av Clasito:

Känns jäkligt fel. Att inte ens få 12gb ram på 192 bitar minnesbuss låter snålt för 4070.

Man är inte ens nära. 10 GB GDDR6X på en 160 bitars minnesbus är enormt snål. Vilket får en att börja undra om detta verkligen stämmer.

Permalänk
Medlem
Skrivet av Gender Bender:

Det luktar bullshit om denna läcka.

Precis som med alla "läckor" och rykten kring 40-serien. Skulle inte bli förvånad om Nvidia trollar ryktesspridarna.

Permalänk
Medlem
Skrivet av Xinpei:

RTX 4070 med 10 GB GDDR6X vram men på en 160 bitars minnesbus? Hmm... har svårt att se att Nvidia skulle snåla så mycket och riskera en flaskhals på ett kort som ändå är så pass högt upp i hierarkin som xx70 serien.

Till en 80(!) Watt högre TDP dessutom. Seriöst, vadfan ska de ens med en ny generation till om detta stämmer?

"Jo tjena hej! Jens här. Kolla in den här schyssta skinpajen - läcker va? Huromhelst, här är vår nya grafikkortsserie. Den är superdupergrym - namngiven efter Lord Byrons dotter och en gammal porrskådis. Lovelace kommer suga er torra på el och ta alla era pengar. Kommer bli skitgrymt. Tänk bara mindre bandbredd till högre effektuttag. Säg efter mig nu: "Desto fler du köper desto snabbare blir du fattig!"

Jag menar, antingen stämmer det här eller så trollar Nvidia alla läckare. För egen del lutar jag åt att det här är ren tjurskit.

Permalänk
Medlem

Inte imponerande ifall det stämmer.

Permalänk
Medlem
Skrivet av Sarg:

Inte imponerande ifall det stämmer.

Är inte prestandan det viktigaste?

Permalänk
Medlem

4070 som presterar typ lika eller sämre än ett 3080 med samma förbrukning.
Bara priset som betyder något om det faktiskt kostar nere mot 7000....tvek.

Permalänk
Medlem
Skrivet av landahl:

Är inte prestandan det viktigaste?

Jovisst. Om du sitter på ett 3080 idag kan du få uppgradera till något som motsvarar ett 3080Ti, fast med sämre minnesbandbredd och högre effektförbrukning. Du lär dessutom få betala mer eftersom det är en ny serie.

Jag menar, antingen är det här ett skämt eller så har Nvidia helt tappat bollen.

Permalänk
Medlem

Mindre CUDA kärnor bör inte betyda sämre prestanda.

Permalänk
Konsolpleb 🕹
Skrivet av DasIch:

Jovisst. Om du sitter på ett 3080 idag kan du få uppgradera till något som motsvarar ett 3080Ti, fast med sämre minnesbandbredd och högre effektförbrukning. Du lär dessutom få betala mer eftersom det är en ny serie.

Jag menar, antingen är det här ett skämt eller så har Nvidia helt tappat bollen.

Tänker att man får hålla sig i kragen till korten testas.
Bland annat har det ju ryktats om väsentligt större cache och vi vet ju inte vilka arkitektoniska fördelar kärnorna har.

Menar inte att det nödvändigtvis blir kalas men att det är för tidigt att skriva av det bara på den här specen om den nu stämmer.

Permalänk
Medlem
Skrivet av UndaC:

Tänker att man får hålla sig i kragen till korten testas.
Bland annat har det ju ryktats om väsentligt större cache och vi vet ju inte vilka arkitektoniska fördelar kärnorna har.

Menar inte att det nödvändigtvis blir kalas men att det är för tidigt att skriva av det bara på den här specen om den nu stämmer.

10000 cuda kärnor??

Permalänk
Medlem
Skrivet av UndaC:

Tänker att man får hålla sig i kragen till korten testas.
Bland annat har det ju ryktats om väsentligt större cache och vi vet ju inte vilka arkitektoniska fördelar kärnorna har.

Menar inte att det nödvändigtvis blir kalas men att det är för tidigt att skriva av det bara på den här specen om den nu stämmer.

Visst, man kan inte bara gå på specifikationerna men såhär långt ser det ju ut att vara sämsta generationen Nvidia någonsin lanserat. Jag kanske har fel men jag kan inte minnas någon generation som på papperet sett sämre ut än föregående. Då var ändå Turing rätt "meh".

Permalänk
Medlem
Skrivet av DasIch:

Jovisst. Om du sitter på ett 3080 idag kan du få uppgradera till något som motsvarar ett 3080Ti, fast med sämre minnesbandbredd och högre effektförbrukning. Du lär dessutom få betala mer eftersom det är en ny serie.

Jag menar, antingen är det här ett skämt eller så har Nvidia helt tappat bollen.

Antalet kärnor ökar inte alltid varje generation bara för att prestandan ökar. Samma gäller minnesbandbredd etc.

Viktigare att kolla på prestandan och nvidia vet nog vad dom gör.

Kolla bara på nuvarande generation där 3070 TI och neråt använder 8GB grafikminne medan AMD använder 16GB i många fall och där hamnar knappast nvidia efter för det.

Och sen finns ett annat bra exempel som är AMDs kort med HBM vram som har runt 1TB/s bandbredd men som inte presterar i närheten lika bra som de nyaste korten där 6900XT "bara" har 512GB/s.

Permalänk
Medlem

Aldrig hört talas om 160 bit förut. Brukar vara 64,128,192,256, osv. Fast 160 är delbart med 8 så det är ju möjligt.

4000 serien ser ut att bli en värdig efterträdare till GTX 400 seriens Fermi. Perfekt för värma stugan på vintern och grilla på sommaren.

Jag väntar nog till generationen efter. Använder knappt mitt grafikkort ändå. Klarar de spel jag har och finns inga krävande spel jag ser fram emot närmaste tiden. Spelar mer på konsol ändå just nu.

Men som det nämnts så betyder inte specsen att det kommer vara sämre. Inte första gången som Nvidia kapar ner CUDA i ny generation. T.ex 980 har ca 2000 kärnor mot 780 som har ca 2300. 900 serien ökade dock effektiviteten också. GTX 980 har TDP på bara 165W. Inte illa för ett x80 kort och ca hälften mot vad 4070 ser ut kräva. Och det var utan en krympning av processen. Fortfarande 28nm på Maxwell. 900 serien var verkligen imponerande i den bemärkelsen. Bland den största prestanda per watt ökningen i någon generation speciellt i en generation som bygger på samma nm.

Permalänk
Medlem

Är lite besviken på bara 10GB för 4070, skulle ha varit 12GB imo

Permalänk
Medlem
Skrivet av dagas:

Aldrig hört talas om 160 bit förut. Brukar vara 64,128,192,256, osv. Fast 160 är delbart med 8 så det är ju möjligt.

4000 serien ser ut att bli en värdig efterträdare till GTX 400 seriens Fermi. Perfekt för värma stugan på vintern och grilla på sommaren.

Jag väntar nog till generationen efter. Använder knappt mitt grafikkort ändå. Klarar de spel jag har och finns inga krävande spel jag ser fram emot närmaste tiden. Spelar mer på konsol ändå just nu.

Men som det nämnts så betyder inte specsen att det kommer vara sämre. Inte första gången som Nvidia kapar ner CUDA i ny generation. T.ex 980 har ca 2000 kärnor mot 780 som har ca 2300. 900 serien ökade dock effektiviteten också. GTX 980 har TDP på bara 165W. Inte illa för ett x80 kort och ca hälften mot vad 4070 ser ut kräva. Och det var utan en krympning av processen. Fortfarande 28nm på Maxwell. 900 serien var verkligen imponerande i den bemärkelsen. Bland den största prestanda per watt ökningen i någon generation speciellt i en generation som bygger på samma nm.

GTX 1060 hade det.

Permalänk
Medlem
Skrivet av Cerd Moyen:

GTX 1060 hade det.

GTX 1060 har inte 160 bit bus om det var det du syftade på. Den hade 192 med 6/3GB.

Edit: Attans obskyra 1060 kort Glömde fan bort att den fanns med 160 bit 5GB i vissa regioner.

Permalänk
Medlem
Skrivet av dagas:

Aldrig hört talas om 160 bit förut. Brukar vara 64,128,192,256, osv. Fast 160 är delbart med 8 så det är ju möjligt.

Det är fullt möjligt. GDDR6-kretsar är 32 bitar breda, så 160 bitar innebär att det är fem kanaler. Det är inte vanligt, men det händer - nylanserade Radeon 6700 har det, och en av de sju(!) varianterna av 1060 hade det också.

Permalänk
Medlem

Har dessa kort +20% högre MHz så får vi bra prestanda ökning ändå. Men vi skulle behöva minst 50% ökad RT prestanda om spel med RT ska slå igenom på bred front. (AMD +100% RT i kommande serie om det ska vara bra)

Permalänk
Medlem

Nja dax att beställa en last salt änså länge än bara spekulationer kan vara stypta test kort dom vill inte visa vad dom går för än.
Men en sak kan man vara säker på att priset kommer att rusa upp om det inte finns volymer på korten när dom släpper dom.

Permalänk
Medlem

För mig lutar det åt ett RTX 4070, men jag väntar not till Ti versionerna.

Permalänk
Medlem
Skrivet av Xinpei:

RTX 4070 med 10 GB GDDR6X vram men på en 160 bitars minnesbus? Hmm... har svårt att se att Nvidia skulle snåla så mycket och riskera en flaskhals på ett kort som ändå är så pass högt upp i hierarkin som xx70 serien.

Man är inte ens nära. 10 GB GDDR6X på en 160 bitars minnesbus är enormt snål. Vilket får en att börja undra om detta verkligen stämmer.

GDDR6 enligt artikeln, inte GDDR6X!

Permalänk
Medlem
Skrivet av reaperishere:

Antalet kärnor ökar inte alltid varje generation bara för att prestandan ökar. Samma gäller minnesbandbredd etc.

Viktigare att kolla på prestandan och nvidia vet nog vad dom gör.

Kolla bara på nuvarande generation där 3070 TI och neråt använder 8GB grafikminne medan AMD använder 16GB i många fall och där hamnar knappast nvidia efter för det.

Och sen finns ett annat bra exempel som är AMDs kort med HBM vram som har runt 1TB/s bandbredd men som inte presterar i närheten lika bra som de nyaste korten där 6900XT "bara" har 512GB/s.

I de flesta fall har antalet kärnor ökat med varje ny generation. Det är få undantag, som mellan 7- och 9-serien som istället hade ett ordentligt kliv upp i klockfrekvens. TDP höll sig dock på samma nivå.
Något större hopp i klockfrekvens är inte direkt att räkna med. Vad har Nvidia sen gjort med den ökade transistortätheten? Minnesbandbredden på Ampere gör också nytta, så inte riktigt jämförbart med AMD.

Mängden VRAM har ingenting med saken att göra. Korten blir inte snabbare med mer VRAM såvida du inte slår i taket.

Alla dessa läckor pekar mot att antingen kommer Lovelace suga riktigt hårt eller så har alla läckare blivit trollade.

Permalänk
Medlem

Om AMD håller vad de lovar med multikipp så kommer Nvidia få det jobbigt att ha prestanda kronan. Smolket i bägaren är RT prestandan då AMD har en stor uppförsbacke för att nå prestanda tronen här.

Permalänk
Medlem
Skrivet av ChristofferC:

GDDR6 enligt artikeln, inte GDDR6X!

Korrekt. Slarvläste en aning men poängen kvarstår.