Rykte: Geforce RTX 4000-serien får specifikationer

Permalänk
Melding Plague

Rykte: Geforce RTX 4000-serien får specifikationer

Nya rykten om Geforce RTX 4000-serien cirkulerar på Twitter, där tre av modellerna får specifikationer.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

RTX 4080 skulle alltså få sämre specs än 3080Ti? Alltså, antingen är dessa rykten tagna direkt ur röven eller så laddar Ada för ett magnifikt magplask.

Permalänk
Medlem

3080 CUDA kärnor: 8960 / 8704
3080 TI: 10240

Ser ju lite skumt ut med typ samma specs.

Visa signatur

i9 11900k ||32GB 4000MHz CL15||ASUS ROG STRIX Z590-E||Noctua NH-D15s
Intel Arc a750 ||Samsung 980 pro|| EVGA Supernova G3 850W
Asus xonar essence STX|| Lian-Li O11 Dynamic XL
Asus VG27AQ 165Hz IPS, Sennheiser HD650, Logitech g502 Hero, fUnc f30r, Vortex TAB90M, Audio-Technicha ATR2500x-USB
Server: x10SL7-F, Xeon E3 1230v3, 32GB Samsung ECC ram, 6x3TB WD RED, FD Node 804.

Permalänk
Medlem

Känns jäkligt fel. Att inte ens få 12gb ram på 192 bitar minnesbuss låter snålt för 4070.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem

Det luktar bullshit om denna läcka.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem

Njae...skepsismen inom en vaknar.

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Medlem

RTX 4070 med 10 GB GDDR6X vram men på en 160 bitars minnesbus? Hmm... har svårt att se att Nvidia skulle snåla så mycket och riskera en flaskhals på ett kort som ändå är så pass högt upp i hierarkin som xx70 serien.

Skrivet av Clasito:

Känns jäkligt fel. Att inte ens få 12gb ram på 192 bitar minnesbuss låter snålt för 4070.

Man är inte ens nära. 10 GB GDDR6X på en 160 bitars minnesbus är enormt snål. Vilket får en att börja undra om detta verkligen stämmer.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av Gender Bender:

Det luktar bullshit om denna läcka.

Precis som med alla "läckor" och rykten kring 40-serien. Skulle inte bli förvånad om Nvidia trollar ryktesspridarna.

Permalänk
Medlem
Skrivet av Xinpei:

RTX 4070 med 10 GB GDDR6X vram men på en 160 bitars minnesbus? Hmm... har svårt att se att Nvidia skulle snåla så mycket och riskera en flaskhals på ett kort som ändå är så pass högt upp i hierarkin som xx70 serien.

Till en 80(!) Watt högre TDP dessutom. Seriöst, vadfan ska de ens med en ny generation till om detta stämmer?

"Jo tjena hej! Jens här. Kolla in den här schyssta skinpajen - läcker va? Huromhelst, här är vår nya grafikkortsserie. Den är superdupergrym - namngiven efter Lord Byrons dotter och en gammal porrskådis. Lovelace kommer suga er torra på el och ta alla era pengar. Kommer bli skitgrymt. Tänk bara mindre bandbredd till högre effektuttag. Säg efter mig nu: "Desto fler du köper desto snabbare blir du fattig!"

Jag menar, antingen stämmer det här eller så trollar Nvidia alla läckare. För egen del lutar jag åt att det här är ren tjurskit.

Permalänk
Medlem

Inte imponerande ifall det stämmer.

Visa signatur

Nada.

Permalänk
Medlem
Skrivet av Sarg:

Inte imponerande ifall det stämmer.

Är inte prestandan det viktigaste?

Permalänk
Medlem

4070 som presterar typ lika eller sämre än ett 3080 med samma förbrukning.
Bara priset som betyder något om det faktiskt kostar nere mot 7000....tvek.

Visa signatur

Speldator: Ryzen 5800x3d | Asus B550m TUF Gaming Wi-Fi | G.Skill TridentZ Neo 2x16GB 3600MHz CL16 (hynix djr) | In Win 301 | Scythe Fuma 2 I Asus RTX 3070 Dual OC | Seasonic GX750 | Lots of unicorn vomit Laptop: Thinkpad E14 G2 4700U Kringutrustning: Cooler master Quickfire TK MX-Brown | Sennheiser HD598cs | Sony WH1000XM3 | Logitech G900 | ASUS PB278QR | Rift CV1 | Audio Pro Addon T14

Permalänk
Medlem
Skrivet av landahl:

Är inte prestandan det viktigaste?

Jovisst. Om du sitter på ett 3080 idag kan du få uppgradera till något som motsvarar ett 3080Ti, fast med sämre minnesbandbredd och högre effektförbrukning. Du lär dessutom få betala mer eftersom det är en ny serie.

Jag menar, antingen är det här ett skämt eller så har Nvidia helt tappat bollen.

Permalänk
Medlem

Mindre CUDA kärnor bör inte betyda sämre prestanda.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Konsolpleb 🕹
Skrivet av DasIch:

Jovisst. Om du sitter på ett 3080 idag kan du få uppgradera till något som motsvarar ett 3080Ti, fast med sämre minnesbandbredd och högre effektförbrukning. Du lär dessutom få betala mer eftersom det är en ny serie.

Jag menar, antingen är det här ett skämt eller så har Nvidia helt tappat bollen.

Tänker att man får hålla sig i kragen till korten testas.
Bland annat har det ju ryktats om väsentligt större cache och vi vet ju inte vilka arkitektoniska fördelar kärnorna har.

Menar inte att det nödvändigtvis blir kalas men att det är för tidigt att skriva av det bara på den här specen om den nu stämmer.

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av UndaC:

Tänker att man får hålla sig i kragen till korten testas.
Bland annat har det ju ryktats om väsentligt större cache och vi vet ju inte vilka arkitektoniska fördelar kärnorna har.

Menar inte att det nödvändigtvis blir kalas men att det är för tidigt att skriva av det bara på den här specen om den nu stämmer.

10000 cuda kärnor??

Permalänk
Medlem
Skrivet av UndaC:

Tänker att man får hålla sig i kragen till korten testas.
Bland annat har det ju ryktats om väsentligt större cache och vi vet ju inte vilka arkitektoniska fördelar kärnorna har.

Menar inte att det nödvändigtvis blir kalas men att det är för tidigt att skriva av det bara på den här specen om den nu stämmer.

Visst, man kan inte bara gå på specifikationerna men såhär långt ser det ju ut att vara sämsta generationen Nvidia någonsin lanserat. Jag kanske har fel men jag kan inte minnas någon generation som på papperet sett sämre ut än föregående. Då var ändå Turing rätt "meh".

Permalänk
Medlem
Skrivet av DasIch:

Jovisst. Om du sitter på ett 3080 idag kan du få uppgradera till något som motsvarar ett 3080Ti, fast med sämre minnesbandbredd och högre effektförbrukning. Du lär dessutom få betala mer eftersom det är en ny serie.

Jag menar, antingen är det här ett skämt eller så har Nvidia helt tappat bollen.

Antalet kärnor ökar inte alltid varje generation bara för att prestandan ökar. Samma gäller minnesbandbredd etc.

Viktigare att kolla på prestandan och nvidia vet nog vad dom gör.

Kolla bara på nuvarande generation där 3070 TI och neråt använder 8GB grafikminne medan AMD använder 16GB i många fall och där hamnar knappast nvidia efter för det.

Och sen finns ett annat bra exempel som är AMDs kort med HBM vram som har runt 1TB/s bandbredd men som inte presterar i närheten lika bra som de nyaste korten där 6900XT "bara" har 512GB/s.

Visa signatur

AMD Ryzen 7 5800X3D | Arctic Liquid Freezer II 420 | G.Skill Trident Z Neo 32GB 3600Mhz CL16 | Kingston KC2500 2TB x2 | ASUS ROG STRIX B550-F Gaming Wifi | ASUS ROG STRIX RTX 4090 OC | Corsair RM750x | Fractal Design Torrent | 6x Noctua NF-A14 PWM

Permalänk
Medlem

Aldrig hört talas om 160 bit förut. Brukar vara 64,128,192,256, osv. Fast 160 är delbart med 8 så det är ju möjligt.

4000 serien ser ut att bli en värdig efterträdare till GTX 400 seriens Fermi. Perfekt för värma stugan på vintern och grilla på sommaren.

Jag väntar nog till generationen efter. Använder knappt mitt grafikkort ändå. Klarar de spel jag har och finns inga krävande spel jag ser fram emot närmaste tiden. Spelar mer på konsol ändå just nu.

Men som det nämnts så betyder inte specsen att det kommer vara sämre. Inte första gången som Nvidia kapar ner CUDA i ny generation. T.ex 980 har ca 2000 kärnor mot 780 som har ca 2300. 900 serien ökade dock effektiviteten också. GTX 980 har TDP på bara 165W. Inte illa för ett x80 kort och ca hälften mot vad 4070 ser ut kräva. Och det var utan en krympning av processen. Fortfarande 28nm på Maxwell. 900 serien var verkligen imponerande i den bemärkelsen. Bland den största prestanda per watt ökningen i någon generation speciellt i en generation som bygger på samma nm.

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Medlem

Är lite besviken på bara 10GB för 4070, skulle ha varit 12GB imo

Visa signatur

Intel® Core i7-13700K @ 5.7/5.6GHz | ASRock Z690 Extreme | G.Skill Trident Z 32GB @ DDR4-3400 CL14 | Samsung EVO series M.2 + Sata SSDs 2TB | Intel Arc A750 | SuperFlower Titanium 1000W | Gigabyte M32Q 32"/1440p 165Hz | Arctic Freezer II 360 AIO | Phanteks P500A D-RGB | Windows 10 & 11 x64 Professional

Permalänk
Medlem
Skrivet av dagas:

Aldrig hört talas om 160 bit förut. Brukar vara 64,128,192,256, osv. Fast 160 är delbart med 8 så det är ju möjligt.

4000 serien ser ut att bli en värdig efterträdare till GTX 400 seriens Fermi. Perfekt för värma stugan på vintern och grilla på sommaren.

Jag väntar nog till generationen efter. Använder knappt mitt grafikkort ändå. Klarar de spel jag har och finns inga krävande spel jag ser fram emot närmaste tiden. Spelar mer på konsol ändå just nu.

Men som det nämnts så betyder inte specsen att det kommer vara sämre. Inte första gången som Nvidia kapar ner CUDA i ny generation. T.ex 980 har ca 2000 kärnor mot 780 som har ca 2300. 900 serien ökade dock effektiviteten också. GTX 980 har TDP på bara 165W. Inte illa för ett x80 kort och ca hälften mot vad 4070 ser ut kräva. Och det var utan en krympning av processen. Fortfarande 28nm på Maxwell. 900 serien var verkligen imponerande i den bemärkelsen. Bland den största prestanda per watt ökningen i någon generation speciellt i en generation som bygger på samma nm.

GTX 1060 hade det.

Permalänk
Medlem
Skrivet av Cerd Moyen:

GTX 1060 hade det.

GTX 1060 har inte 160 bit bus om det var det du syftade på. Den hade 192 med 6/3GB.

Edit: Attans obskyra 1060 kort Glömde fan bort att den fanns med 160 bit 5GB i vissa regioner.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem
Skrivet av dagas:

Aldrig hört talas om 160 bit förut. Brukar vara 64,128,192,256, osv. Fast 160 är delbart med 8 så det är ju möjligt.

Det är fullt möjligt. GDDR6-kretsar är 32 bitar breda, så 160 bitar innebär att det är fem kanaler. Det är inte vanligt, men det händer - nylanserade Radeon 6700 har det, och en av de sju(!) varianterna av 1060 hade det också.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Har dessa kort +20% högre MHz så får vi bra prestanda ökning ändå. Men vi skulle behöva minst 50% ökad RT prestanda om spel med RT ska slå igenom på bred front. (AMD +100% RT i kommande serie om det ska vara bra)

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem

Nja dax att beställa en last salt änså länge än bara spekulationer kan vara stypta test kort dom vill inte visa vad dom går för än.
Men en sak kan man vara säker på att priset kommer att rusa upp om det inte finns volymer på korten när dom släpper dom.

Visa signatur

Låda thermaltake view 91 M-kort ASUS X399 ROG Zenith Extreme CPU AMD Ryzen Threadripper 1920X 3.5 GHz Kylning Hemma byggd vattenkylning 2 x 480mm + 1 x 420mm radiatorer Minne 8 X 16Gb DDR4 HD SSD 240GB OCZ Trion 100 Grafik Gigabyte Geforce RTX 3080 10GB GAMING OC WATERFORCE WB AGG Corsair RM 1000w 80+ Gold Skärm ASUS 43" ROG Strix XG438QR 4K VA HDR 120 Hz

Permalänk
Medlem

För mig lutar det åt ett RTX 4070, men jag väntar not till Ti versionerna.

Visa signatur

AMD Ryzen 7 5700X 3,4GHz
Asus GeForce RTX 4070 Dual OC 12GB
Asus ROG Strix X570-E Gaming
G.Skill Trident Z Neo DDR4 3600MHz 32GB
Samsung 980 Pro Series 1TB

Permalänk
Medlem
Skrivet av Xinpei:

RTX 4070 med 10 GB GDDR6X vram men på en 160 bitars minnesbus? Hmm... har svårt att se att Nvidia skulle snåla så mycket och riskera en flaskhals på ett kort som ändå är så pass högt upp i hierarkin som xx70 serien.

Man är inte ens nära. 10 GB GDDR6X på en 160 bitars minnesbus är enormt snål. Vilket får en att börja undra om detta verkligen stämmer.

GDDR6 enligt artikeln, inte GDDR6X!

Permalänk
Medlem
Skrivet av reaperishere:

Antalet kärnor ökar inte alltid varje generation bara för att prestandan ökar. Samma gäller minnesbandbredd etc.

Viktigare att kolla på prestandan och nvidia vet nog vad dom gör.

Kolla bara på nuvarande generation där 3070 TI och neråt använder 8GB grafikminne medan AMD använder 16GB i många fall och där hamnar knappast nvidia efter för det.

Och sen finns ett annat bra exempel som är AMDs kort med HBM vram som har runt 1TB/s bandbredd men som inte presterar i närheten lika bra som de nyaste korten där 6900XT "bara" har 512GB/s.

I de flesta fall har antalet kärnor ökat med varje ny generation. Det är få undantag, som mellan 7- och 9-serien som istället hade ett ordentligt kliv upp i klockfrekvens. TDP höll sig dock på samma nivå.
Något större hopp i klockfrekvens är inte direkt att räkna med. Vad har Nvidia sen gjort med den ökade transistortätheten? Minnesbandbredden på Ampere gör också nytta, så inte riktigt jämförbart med AMD.

Mängden VRAM har ingenting med saken att göra. Korten blir inte snabbare med mer VRAM såvida du inte slår i taket.

Alla dessa läckor pekar mot att antingen kommer Lovelace suga riktigt hårt eller så har alla läckare blivit trollade.

Permalänk
Medlem

Om AMD håller vad de lovar med multikipp så kommer Nvidia få det jobbigt att ha prestanda kronan. Smolket i bägaren är RT prestandan då AMD har en stor uppförsbacke för att nå prestanda tronen här.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av ChristofferC:

GDDR6 enligt artikeln, inte GDDR6X!

Korrekt. Slarvläste en aning men poängen kvarstår.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |