Premiär! Fyndchans i SweClockers Månadens Drop

Nvidia avtäcker Geforce RTX 4000 och arkitekturen "Ada Lovelace"

Permalänk
Medlem
Skrivet av ipac:

1080 kostade vid release $740 med inflation inräknat, enl bild tidigare i tråden. Baserad på ett 104-chip byggd på förhållandevis billig TSMC 16 nm pricess.

Så att om 3080 12 GB baserad på ett 104-chip byggd på snordyr TSMC N4 process kostar $699 får i sammanhanget betraktas som rimligt ja.

Att det sen idag är väldigt dyrt i EU/Sverige är sant men det var väl inte rimligheten i valutakurser vi diskuterade?

Omöjligt att dra in inflation så specifikt som den grafen försöker göra, därför bortser jag mer eller mindre från inflation.
Jag tittar relativ prestanda/pris mellan olika kort modeller 20xx, 30xx, 40xx, och sedan prestanda/pris mellan generationer.
Där har vi exakta priser och prestanda att räkna på och jämföra.

Ex. 3080 10Gb 699$ vs 3090 Ti 1999$, 185% i prisskillnad, för vad? 21% mera prestanda enligt SCPI i 4K. Detta är ren idioti, och den som köpte 3090Ti har antingen mera pengar än vett, eller behövde 24gb Vram för arbete och därmed tjänade pengar på köpet.

Att sedan använda 3090 TI som en grund för att jämföra med 4000, är ren marknadsföringsknep, som mycket möjligt planerades av Nvidia. Nu tänker en hel del , "wow, titta, 4080 12gb 899$, samma prestanda som ett 3090 Ti för 1999$, Vilket KAP!

Skulle man använda 3080 som grund istället, skulle det visa en heeelt annan historia. Även med inflation inräknat.

Visa signatur

[FD R5]--- [B550-E Strix] ---[Ryzen 5900X]--- [Noctua NH-U14S]---[RTX 3080 TUF OC]---[Corsair RM850X V2]---[WD SN850x 1TB]---[TridentZ 2x8gb 3800mhz CL16]---[Predator XB271HU]---[HyperX Cloud Alpha]---[Steelseries Rival]---[Logitech G710 ]----> Win10

Permalänk
Medlem

Beställde ett 3090 igår för 13200kr. Hoppas inte det var allt för dumt. Men sitter på GTX1080 idag med 34” UW och vill kunna lira sim-racing på Quest 2.
4080 16GB blir för dyrt. 4080 12GB känns osäkert om det ens blir märkbart snabbare än 3090 i spel utan DLS, kanske blir dyrare än vad jag fick ge för 3090, samt osäkert när det kommer.
Dessutom slipper jag byta nätagg (kanske hade klarat sig ändå?)

Hoppas som sagt att jag inte gjort något allt för dumt 🥺

Visa signatur

[ P4 3.2HTI 1024 PC3200 I 2x 200gb S-ATA Barracuda IV @ RAID0, 200gb Barra IV S-ATA 80gb barra IV IDE I NEC3510A I Gainward 7.1 I 9700 Pro I Samsung 17" 757DFX]

Permalänk
Medlem
Skrivet av ipac:

Att de har kunnat kapa ner bussbredden beror högst troligt på rejält förstorade cache minnen, likt AMD gjorde redan med RX6000.

Jag antar att det även gör kortet mer lämpat för spel, och mindre lämpat för mining?

Permalänk
Medlem
Skrivet av ronz:

Kan knappt lira Cyberpunk 2077 med 3840x1600 utan att dra ned inställningar och köra Balanced DLSS.

3840x1600 är rätt nära 4k, och max på alla inställningar är inget man skall ta för givet inställningarna finns där för att man skall använda dom

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Hedersmedlem
Skrivet av Rotten:

Du ger dem allt för mycket cred

Det har jag svårt att tro, eftersom jag inte kommer rekommendera 4080 till någon person någonsin, om inte priserna näst intill halveras.
Tycker även att detta är bland det fulaste de gjort, och det säger väl en hel del?
Har även svårt att tro att 4060/4070 blir något jag kan rekommendera heller eftersom de måste skäras ner långt mer.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av the squonk:

3840x1600 är rätt nära 4k, och max på alla inställningar är inget man skall ta för givet inställningarna finns där för att man skall använda dom

Ja och det är knappt ett bra flyt med lägre inställningar.
Elden Ring kan dippa till 55fps.
Behöver bättre än 3080 😁

Visa signatur

hellre mer fps på skärmen än pengar på banken

Permalänk
Medlem
Skrivet av Exydia:

Vad gäller DLSS3 & DLSS2:
Jag tyder det som att om ett spel har DLSS3 så har det också DLSS2? I så fall är det ju inget att gråta över att 3an är låst till en ny arkitetur.

Grejen är ju också att nVidia har inte sagt ngt om att DLSS 2.x ens kommer byggas ut mer. Lägger man bara resurser på 3.0 betyder det ju att DLSS 2.x i stort sett är dött. Och vi alla känner väl att nVidia inte är ett företag som tar hand eller bryr sig om kunder med äldre generationer kort.

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Medlem
Skrivet av Gambit_2K:

Grejen är ju också att nVidia har inte sagt ngt om att DLSS 2.x ens kommer byggas ut mer. Lägger man bara resurser på 3.0 betyder det ju att DLSS 2.x i stort sett är dött. Och vi alla känner väl att nVidia inte är ett företag som tar hand eller bryr sig om kunder med äldre generationer kort.

DLSS 3.0 kommer att fungera på äldre RTX men utan den extra funktionaliteten som kräver ny hårdvara. De andra delarna i DLSS 2.0 är en del av 3.0 och kommer fortsätta utvecklas.
Kan dock hålla med om att de kunde varit betydligt tydligare med detta.

Permalänk
Medlem
Skrivet av Fulci:

Verkar inte som nya korten stöder Displayport 2.0. Kanske noterat tidigare, bara jag som missat det.
https://twitter.com/SadlyItsBradley/status/157231835738655948...

https://pbs.twimg.com/media/FdH_NndXkAMfsYe?format=jpg&name=large

Nvidia måste ju ha någon finess kvar som de kan sälja på 4080 Superduper!

Märkligt val att ligga kvar på 1.4a för ett kort som släpps 2022/2023.

Permalänk
Musikälskare
Skrivet av viceman:

Beställde ett 3090 igår för 13200kr. Hoppas inte det var allt för dumt. Men sitter på GTX1080 idag med 34” UW och vill kunna lira sim-racing på Quest 2.
4080 16GB blir för dyrt. 4080 12GB känns osäkert om det ens blir märkbart snabbare än 3090 i spel utan DLS, kanske blir dyrare än vad jag fick ge för 3090, samt osäkert när det kommer.
Dessutom slipper jag byta nätagg (kanske hade klarat sig ändå?)

Hoppas som sagt att jag inte gjort något allt för dumt 🥺

Du har gjort precis vad Nvidia vill du ska göra köpa loss deras 3-serie, nej men du blir säkert jättenöjd jag kommer använda mitt 3080 Ti i många år framöver

Visa signatur

❀ Monitor: ASUS Swift 27" @ 1440p/165Hz ❀ CPU: Ryzen 7700X ❀ Cooling: Corsair H170i ELITE 420mm ❀ GPU: MSI 3080 Ti SUPRIM X ❀ Memory: Corsair 32GB DDR5 Vengeance ❀ Motherboard: ASUS Crosshair X670E Hero ❀ M.2: Samsung 980 Pro ❀ PSU: Corsair HX1200 ❀ Chassi: Corsair 7000X ❀ Time Spy: 19 340

📷 Mina fotografier
🎧 Vad lyssnar du på just nu?

Permalänk
Keeper of The Nvidia Drivers

Själv tycker jag det ska bli grymt kul att byta ut mitt 3090 mot ett 4090 så fort det bara går att beställa

Visa signatur

AMD FX53 939 | MSI nForce4 939 | Ati Radeon x1800XT OC PE | 2*1024mb G-Skill 1-2-3-2-5 | Comhem 10/1 | Frölunda Indians SM GULD!!!
In Hoc Signo Vinces!

Permalänk
Medlem

Bryr mig inte så mycket om spelprestandan, men ska bli väldigt intressant att se hur Optix i t.ex Blender beter sig med påstådd "4 gånger bättre ray tracing-prestanda". Om det skalar linjärt från 30-serien så kommer det bli riktigt bra vid 3D-arbete.

Permalänk
Medlem

Med DLSS3 så skapas det ju massa fake frames, därav högre FPS, det funkar nog bra i MSFS men eftersom man får högre latenser så är det inget man vill ha i något som är competitive typ alla fps spel.

Permalänk
Medlem
Skrivet av viceman:

Beställde ett 3090 igår för 13200kr. Hoppas inte det var allt för dumt. Men sitter på GTX1080 idag med 34” UW och vill kunna lira sim-racing på Quest 2.
4080 16GB blir för dyrt. 4080 12GB känns osäkert om det ens blir märkbart snabbare än 3090 i spel utan DLS, kanske blir dyrare än vad jag fick ge för 3090, samt osäkert när det kommer.
Dessutom slipper jag byta nätagg (kanske hade klarat sig ändå?)

Hoppas som sagt att jag inte gjort något allt för dumt 🥺

Köpte ett begagnat 3090 för 9500:- precis efter Nvidias presskonferens och kom tidigare från ett 1080 Ti. Sitter också på en 34" UW på 3440x1440p, äger också ett Quest 2.
Kan säga att det blev en rejäl skillnad jämfört med mitt 1080 Ti så du kommer bli jättenöjd!

Visa signatur

5800X3D @Kombo Strike 3 / 32GB DR RAM @3800MHz,CL16 / 3090 Turbo @1695MHz,0.750V

Permalänk
Medlem
Skrivet av Ricerunner:

Totala idiotpriser.

Jensen kan gott sätta sig på en glasburk och låta den stanna där inne.

För 4080 är priset sänkt med $400 mot 3090 Ti till $1599. Du får då ett kort som dessutom är på pappret dubbelt så snabbt.
Jag skulle kalla det för en positiv utveckling.

Visa signatur

Zenith Extreme Alpha | Threadripper 2950X | 3080 Ti TUF OC | 64GB DDR4 3200MHz | 970 EVO Plus 1TB | 3x Red Pro 10 TB @ raid0 | OLED42C2 + 2x U3014

Permalänk
Medlem

Alltså, dom gör ju fantastiska produkter. Men kunde dom inte gjort bara en liten ansträngning för att inte göra det fullt lika uppenbart att dom skiter ett långt stycke i vad man tycker om deras sätt att behandla både kunder och partnertillverkare?

Hade ju varit trevligt om dom råkade ut för samma sak som intel, att bli tagna helt offguard och att RDNA3 är 8-10X snabbare än Ada Lovelace.

Visa signatur

__________________
Stationär: | NZXT H510 Flow | Corsair RM850x | GIGABYTE Z790 AORUS Elite AX | Intel Core i7 13700K | 32GB 6400Mhz CL32 DDR5 | MSI RTX 380 | 1TB Seagate FireCuda 530 + 1TB Kingston KC3000 | LG OLED 42C2 120Hz 4K | Bärbar: MacBook Pro 14"

NAS: Synology DS1815+ 8X 4TB WD RED
Server: Esxi 6.5 | i5 4690K | 32GB DDR3 | 1TB SSD + iSCSI SATA [/B]

Permalänk
Skrivet av Ragnarok:

Själv tycker jag det ska bli grymt kul att byta ut mitt 3090 mot ett 4090 så fort det bara går att beställa

Varför välja nvidia när amd kommer pulvrisera både i prestanda, energieffektivet & pris. Du får se om några veckor:)

Permalänk
Medlem
Skrivet av atschoo81:

Varför välja nvidia när amd kommer pulvrisera både i prestanda, energieffektivet & pris. Du får se om några veckor:)

Än så länge har ju AMD inte presterat bättre än NVIDIA i 4K och då är det utan DLSS och Raytracing. Blandar man in det har dom ju ingen chans att prestera bäst.

Energieffektivitet samt pris är en annan sak men jag vill ha bästa prestandan med bästa grafiken, oavsett pris.

Permalänk
Medlem
Skrivet av flashen:

Du har gjort precis vad Nvidia vill du ska göra köpa loss deras 3-serie, nej men du blir säkert jättenöjd jag kommer använda mitt 3080 Ti i många år framöver

Haha jo, så är det jo. Känns dock samtidigt som att jag väntat på att byta sen 3000-släpptes

Skrivet av Exydia:

Köpte ett begagnat 3090 för 9500:- precis efter Nvidias presskonferens och kom tidigare från ett 1080 Ti. Sitter också på en 34" UW på 3440x1440p, äger också ett Quest 2.
Kan säga att det blev en rejäl skillnad jämfört med mitt 1080 Ti så du kommer bli jättenöjd!

Skönt att höra! Såg att man ändå inte kommer kunna maxa Autmobilista 2 med Quest 2, men blir nog "bra nog". Och med 3440x1440 / Quest 2 är det nog inte min 2700X som kommer flaska heller, så då kan den få vara kvar lite till.

Visa signatur

[ P4 3.2HTI 1024 PC3200 I 2x 200gb S-ATA Barracuda IV @ RAID0, 200gb Barra IV S-ATA 80gb barra IV IDE I NEC3510A I Gainward 7.1 I 9700 Pro I Samsung 17" 757DFX]

Permalänk
Medlem
Skrivet av Aje:

För 4080 är priset sänkt med $400 mot 3090 Ti till $1599. Du får då ett kort som dessutom är på pappret dubbelt så snabbt.
Jag skulle kalla det för en positiv utveckling.

Så kan man ju inte tänka? Om 6 generationer kommer du då sitta där och säga att 50000kr känns ok för det är ju snabbare än förra generationen. Du jämför ju 2 helt olika tier av kort.

3090 vs 4090 = 1500 vs 1500 dollar MSRP
3080 vs 3080 16GB = 700 vs 1200 dollar MSRP
3070 vs 3080 12GB = 500 vs 900 dollar MSRP

Du betalar i stort sett dubbelt och får dubbel prestanda på alla kort utom 4090, i min bok är det inte utveckling öht. Då är det bara MSRP, vi i Sverige får lägga på ännu större prisskillnad då kronan har tappat typ 20% i värde mot dollarn på 1 år.

3080 12GB är ett XX70 klass kort, Nvidia kan kalla det vad de vill men att använda "4080" så folk inte ska klaga på det höga priset verkar funka för Svenssons för de flesta tror bara det är mängden VRAM som skiljer.

Permalänk
Medlem
Skrivet av atschoo81:

Varför välja nvidia när amd kommer pulvrisera både i prestanda, energieffektivet & pris. Du får se om några veckor:)

Pulverisera? Knappast. Att matcha prestandan till ett förhoppningsvis bättre pris, ja det känns iaf rimligare.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Avstängd

Det verkar mest som att alla som känt sig coola för att de köpt ett dyrt grafikkort förr, nu blir besvärade när de inte längre har råd att ha det bästa. Kanske dags att skaffa fler intressen och inse att datorkomponenter bara är hårdvara, det är inget som definierar en.

Permalänk
Keeper of The Nvidia Drivers
Skrivet av atschoo81:

Varför välja nvidia när amd kommer pulvrisera både i prestanda, energieffektivet & pris. Du får se om några veckor:)

Jag tror inte på AMD´s grafikkort, det är som vanligt innan de släpper något så är det helt fantastiskt och "titan dödare" och sedan blir det aldrig så. Energieffektivitet spelar ingen roll för mig. Så jag kommer välja Nvidia den här gången med.

Visa signatur

AMD FX53 939 | MSI nForce4 939 | Ati Radeon x1800XT OC PE | 2*1024mb G-Skill 1-2-3-2-5 | Comhem 10/1 | Frölunda Indians SM GULD!!!
In Hoc Signo Vinces!

Permalänk
Medlem
Skrivet av first:

Det verkar mest som att alla som känt sig coola för att de köpt ett dyrt grafikkort förr, nu blir besvärade när de inte längre har råd att ha det bästa. Kanske dags att skaffa fler intressen och inse att datorkomponenter bara är hårdvara, det är inget som definierar en.

Oh jo, alla som har sämre än xx80 är ju bönder som borde skaffa konsol istället!

Skämt åsido så är datorhobbyn fortfarande billig utslaget över tiden man lägger ner om man verkligen gejmar, men hinner man å andra sidan bara köra ett par timmar varannan-var tredje vecka så förstår jag att det tar emot att lägga ut 35k på en skaplig speldator var tredje år.

Sen är det ju sällan eller aldrig som det sker såna framsteg på mjukvarusidan att förra generationens toppsegment av grafikkort plötsligt är odugliga. Bland de kunder som byter varje generation är det nog snarare ett stort teknikintresse som är drivkraften snarare än behovet av att hävda sig med den senaste modellen med hög siffra i modellbeteckningen.

Permalänk
Medlem

AD102: 608 mm² die, 76.3B transistors
AD103: 378.6 mm² die, 45.9B transistors
AD104: 294.5 mm² die, 35.8B transistors*

3:an och 4:an är rätt små. More like AD104 resp AD105.

*Fler transistorer än GA102 (3090Ti). Men många transistorer går åt till större cache.

Vidare, de kör med TSMC 4N processnode (N5 med 6% die shrink). Inte TSMC N4. Jag skämtar inte...

Permalänk
Avstängd
Skrivet av Aje:

För 4080 är priset sänkt med $400 mot 3090 Ti till $1599. Du får då ett kort som dessutom är på pappret dubbelt så snabbt.
Jag skulle kalla det för en positiv utveckling.

Nu tycker jag det är rimligare att jämföra mot ett normalt 3080, eftersom Ti modellerna har en tendens att vara lite bättre och mycket dyrare, med vissa undantag.

Om vi för enkelhetens skull antar att vi i den här generationen ser samma hopp som mellan 2080 och 3080, vilket var ungefär 50% prestandaökning (i praktiken, av de spel jag kollade genom tester på).

Prisökningen på MSRP mellan 3080 och 4080 16GB är ungefär 70%.
50% prestandaökning även den här generationen vore riktigt starkt gjort, men det är då fortfarande totalt orimligt med ett 70% högre pris när det är ett två år gammalt kort man jämför mot.

Ser vi exakt 70% eller högre prestanda vid exakt samma effektuttag, då kan jag tycka att prisökningen åtminstone inte är helt obefogad.
Men för att det ens nästan ska anses rimligt vill jag se minst 100% prestandaökning vid samma effekt och normala användarscenarion.

Permalänk
Moderator
Testpilot
Skrivet av Svensktiger:

Alltså. En ganska säker gissning men imponerande ändock.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av ipac:

AD102: 608 mm² die, 76.3B transistors
AD103: 378.6 mm² die, 45.9B transistors
AD104: 294.5 mm² die, 35.8B transistors*

3:an och 4:an är rätt små. More like AD104 resp AD105.

*Fler transistorer än GA102 (3090Ti). Men många transistorer går åt till större cache.

Vidare, de kör med TSMC 4N processnode (N5 med 6% die shrink). Inte TSMC N4. Jag skämtar inte...

Intressant att AD103 är typ lika stor som GA104. Mindre kisel för mer pengar faktiskt. Bådar inte så gott för GPUerna längre ner heller.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem

Corsair har annonserat 600W PCIe 5.0 12VHPWR Type-4 PSU Power Cable som ska fungera på alla Type 4 nätagg.
https://www.corsair.com/eu/en/Categories/Products/Accessories...

Edit: OBS! Kolla in videos om potentiella problem och risker med adaptrar till PSU som inte är ATX 3.0 spec.
JayzTwoCents https://www.youtube.com/watch?v=K6FiGEAp928

Enligt bilderna hos Corsair är sladden enbart två "Type 4" till nya 12VHPWR 600W kontakten. Deras Type 4 8-pin ska alltså klara 300W eller mer per anslutning. Corsair ska väl ha koll på sin spec, men värt dubbelkolla att erat Corsair nätagg fungerar med denna kabel och eventuell ny GPU och inte riskera något.

Nedan är pressreleasen med lite mer information.
https://www.corsair.com/newsroom/press-release/ready-to-go-be...

Permalänk
Medlem
Skrivet av Clasito:

Intressant att AD103 är typ lika stor som GA104. Mindre kisel för mer pengar faktiskt. Bådar inte så gott för GPUerna längre ner heller.

Skulle inte förvåna om AD106 är det minsta chipet de kommer göra. Lönar sig kanske inte med budgetchip.