Micron bekräftar GDDR6X för Geforce RTX 3090 – upp till 1 TB/s minnesbandbredd

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Aug 2011
Skrivet av sarlucic:

Sänk upplösningen, sitt 20 cm längre ifrån skärmen, köp ett 3070, drick glögg.

Varför inte gå full circle och bara köpa en spelkonsol istället då?

Skrivet av Dalton Sleeper:

Känns som Nvidia sätter in en bromskloss för att någon ska vilja köra 4k-serien när den kommer... snåla på minne är det idiotiska man kan göra.

Vad behövde folk sina 8 GB VRAM till på Radeon R9 290X år 2013, och hur relevant är det kortet idag?

Trädvy Permalänk
Medlem
Plats
127.0.0.1
Registrerad
Sep 2003
Skrivet av Sveklockarn:

Vad behövde folk sina 8 GB VRAM till på Radeon R9 290X år 2013, och hur relevant är det kortet idag?

Vi ligger mitt i ett generationsskifte, mycket iom konsollerna. Tänk också på att ökning av texturstorlekar ofta fyrdubblar minnesmängden, från 1024 till 2048 eller från 2048 till 4k. Konsollerna siktar på högre upplösning samt högre bilduppdatering, med högre upplösning så behöver också texturerna ökas på, möjligen en LOD-nivå till. Snabbare kort kan också hantera mer komplexa material, lägg till en enda textur på objekt på nära håll, låt oss säga en blendtextur, eller kanske en blendtextur samt en rosttextur, det blir en del. Kanske vill vi ha mer detaljer längre bort nu när folk sitter på 30-80" på 4K.

Snabbare diskar är ju rätt bra, men det kommer ta ett tag innan alla PC hänger med konsollerna, och även fast man kan streama så sätter minnet stopp för hur mycket som kan visas på skärmen på varje frame. Förmodligen så streamar man smådelar av kartan och då blir det alla objekt på skärmen som får dela på minnet (färre unika material eller lägre upplösning).

PBR material har ju hängt med ett tag nu, men det är långt ifrån alla objekt som använder dom. Kör man riktiga materialen en bit längre bort så ökar minnesmängden drastiskt, ofta kör man upp till fem texturer på ett PBR material. Det vore ju lite kul om man kunde köra 8k texturer, typ dagens cinematic när man spelar.

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Aug 2011
Skrivet av Dalton Sleeper:

Vi ligger mitt i ett generationsskifte, mycket iom konsollerna. Tänk också på att ökning av texturstorlekar ofta fyrdubblar minnesmängden, från 1024 till 2048 eller från 2048 till 4k. Konsollerna siktar på högre upplösning samt högre bilduppdatering, med högre upplösning så behöver också texturerna ökas på, möjligen en LOD-nivå till. Snabbare kort kan också hantera mer komplexa material, lägg till en enda textur på objekt på nära håll, låt oss säga en blendtextur, eller kanske en blendtextur samt en rosttextur, det blir en del. Kanske vill vi ha mer detaljer längre bort nu när folk sitter på 30-80" på 4K.

Jag tror inte på idén att köpa "framtidssäkra" lösningar, det är mest därför jag vänder mig emot onödiga minnesmängder. Nu kör jag visserligen bara 1440p, något jag förutser att jag kommer fortsätta med några år till i alla fall, men kan konstatera att jag inte stött på ett scenario ännu där 8 GB VRAM inte varit tillräckligt.

Precis som de är inne på i fredagspanelen så hamnar man lätt i sitationer där minnesmängden inte spelar någon roll eftersom prestandan ändå är inne på avdelningen "blädderblock". Om man kikar på SweClockers testsvit i höstas så kämpar ett 2080 Ti med att ens komma upp i 60 FPS @ 4K utan att ha detaljnivån på max, och om de har klarat sig på 11 GB så lär inte nästa generation behöva nära dubbla minnesmängden i de allra flesta scenarion.

Skrivet av Dalton Sleeper:

Snabbare diskar är ju rätt bra, men det kommer ta ett tag innan alla PC hänger med konsollerna, och även fast man kan streama så sätter minnet stopp för hur mycket som kan visas på skärmen på varje frame. Förmodligen så streamar man smådelar av kartan och då blir det alla objekt på skärmen som får dela på minnet (färre unika material eller lägre upplösning).

PBR material har ju hängt med ett tag nu, men det är långt ifrån alla objekt som använder dom. Kör man riktiga materialen en bit längre bort så ökar minnesmängden drastiskt, ofta kör man upp till fem texturer på ett PBR material. Det vore ju lite kul om man kunde köra 8k texturer, typ dagens cinematic när man spelar.

Jag gjorde nyligen en tråd om lagringstekniken på de nya konsolerna och vad det innebär för PC-spelare. Med ledning av vad jag har upptäckt så säger jag att PC-plattformen inte kommer att lyckas kompensera på något kostnadseffektivt sätt genom att bara ha mer VRAM. Samtidigt kommer det antagligen att ta flera år innan det kommer titlar som drar nytta av den nya konsoltekniken med att strömma resurser direkt mellan SSD och GPU.

Tills dess tror och hoppas jag att PC-plattformen får en motsvarande lösning. Sen är det såklart bra ju mer minne man har tillgängligt, men inte till vilket pris som helst. Om korten ska fördyras med flera tusen, alternativt äta upp marginalerna hos tillverkarna, för något som ytterst få använder, så är det ett mycket bättre alternativ att ha någon specialmodell för dem med dessa utökade krav.

Trädvy Permalänk
Medlem
Plats
Umeå
Registrerad
Aug 2008

@Sveklockarn: Jo om konsolerna hade klarat 1080p med 120 hz på "ultra" så absolut, eller liknande på 2k upplösning, men icke!

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Aug 2011
Skrivet av sarlucic:

@Sveklockarn: Jo om konsolerna hade klarat 1080p med 120 hz på "ultra" så absolut, eller liknande på 2k upplösning, men icke!

Jag vet inte om du kollat den länkade tråden, men den nya teknologin är att GPU kan hämta data direkt från SSD utan att gå via CPU, vilket ökar I/O-prestandan till en sån nivå att SSDn i praktiken kan fungera som ett utökat VRAM. Vad RDNA2-GPUn presterar i sig att svårt att förutsäga nu, men de kommer ha en betydande teknisk fördel över PC på den punkten för en tid framöver.

Trädvy Permalänk
Medlem
Plats
127.0.0.1
Registrerad
Sep 2003
Skrivet av Sveklockarn:

Jag tror inte på idén att köpa "framtidssäkra" lösningar...

OK

Skrivet av Sveklockarn:

...men kan konstatera att jag inte stött på ett scenario ännu där 8 GB VRAM inte varit tillräckligt...

Varför är det så tror du?
Samt, hur länge vill du sitta med ditt kort?

Du skulle bara se hur mycket tweakande de gör för att få ut det sista lilla i prestanda samt minnesanvändning hur de paketerar datan i texturer samt vilket bitdjup de kör (normalmappar körs ibland med reducerat bitdjup samt två vektorer per pixel, tredje beräknas med kryssprodukten i shadern). Avståndet mellan uv-areor (användbar texturarea), återanvändning av textur samt hur texturdensiteten utnyttjas på olika ställen på asseten. Geometrin reducerar de i princip sönder till den graden där en box inte längre är en box, det finns inga trianglar kvar. Det är optimering i hästlängder vi pratar om, och detta ska ske på så extremt kort tid som möjligt (mantimmar). Red Dead Redemption samt Assassing Creed Odyssey är inget man pysslar ihop på ett par dagar. Ofta använder man loddar närmare skärmen än vad man borde göra, måna spel idag har synliga geometri samt texturpoppar.

Alla AAA studios tokoptimerar så mycket det går, varför? För att de vill att eländet ska se så bra ut samt flyta så bra som möjligt på dagens hårdvara, samt konsoller. Oftast bakas allt ihop till en mesh samt ett material där det är en textur per materialkanal, upplösningen är så låg de kommer undan med, ibland 512-1024 per textur på lite avstånd för en hel karaktär.

Vi får se en hel del ooptimerade assets som är hästlängder från gameready, dock vet studiona mycket väl vad de vill åstadkomma, de känner sin hårdvara och försöker punga ut så pass bra kvalite som möjligt utifrån spec. Ofta kommer assets direkt från 3d artisten, från 3ds Max eller Maya i råformat med alla högupplösta mesher samt material (komplexa HLSL shaders). Också UE4 men Unity börjar användas mer och mer, samt Blender.

Minne är inte heller helt relaterat till prestanda, vill du inte öka texturupplösningen så kan du lägga till flera texturer, dvs flera objekt som ser unika ut. Kanske några fler variationer på löv, gräs, sten eller brädor på huset? Alla krukor behöver inte se likadana ut, alla träd behöver inte ha samma texturer. All publik i FIFA, NHL eller F1 behöver inte se likadana ut.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jun 2008
Skrivet av pytonOrm:

dessutom kommer inte rtx 3080 ti på tal om nu rtx 3090 blir namnet

Nvidias namngivning har redan förvirrat konsumenten, och produkten är inte ens släppt!

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Aug 2011
Skrivet av Dalton Sleeper:

Varför är det så tror du?

En del av förklaringen är att det inte finns hårdvara som klarar att dra runt spel i den detaljnivån och upplösningen med någon meningsfull framerate. När man kollar aktuell Steam-statistik så sitter 94,88% på 1440p eller lägre, där den dominerande upplösningen fortfarande är 1080p (65.48%) med väldigt god marginal.

Skrivet av Dalton Sleeper:

Samt, hur länge vill du sitta med ditt kort?

Jag byter grafikkort allt oftare, även om den här generationen slog något slags rekord då jag inte hann ha mitt RTX 2080 i 1½ år ens, så byter jag efter senast 3 år med dagens utvecklingstakt. Tänk på de jag nämnde tidigare med sina R9 290X 8 GB som i de allra flesta fall inte haft någon som helst nytta av "övertaget" med mer VRAM, framförallt inte idag när kortet är sju år gammalt.

Skrivet av Dalton Sleeper:

För att de vill att eländet ska se så bra ut samt flyta så bra som möjligt på dagens hårdvara, samt konsoller.

Nu är det ju dock betydande skillnader mellan dagens konsolgeneration och en gaming-PC av någorlunda modernt snitt. Det positiva om något är att kunna skruva upp inställningarna på PC, tack vare att det inte är några portningar per se längre, men det ska ju fortfarande renderas med någon slags fart på skärmen. Om vi befann oss i en värld där toppgrafikkorten sprutade ur sig frames i 4K och högre upplösningar så kunde jag köpa att PC-spel förenklats för mycket... men nu är det ju inte så.

Skrivet av Dalton Sleeper:

Minne är inte heller helt relaterat till prestanda, vill du inte öka texturupplösningen så kan du lägga till flera texturer, dvs flera objekt som ser unika ut. Kanske några fler variationer på löv, gräs, sten eller brädor på huset? Alla krukor behöver inte se likadana ut, alla träd behöver inte ha samma texturer. All publik i FIFA, NHL eller F1 behöver inte se likadana ut.

Vad har du själv för gamingdator idag och vilken upplösning spelar du i?

Ju längre utvecklingen går, desto mer sannolikt är det att det kommer effektivare teknologier för att skapa skillnaderna du efterfrågar. Minnesmängden på grafikkorten kommer helt säkert att ha kommit ikapp innan vi är, särskilt där med tanke på att konsolerna som släpps i höst kommer påverka detaljnivån även för PC under en lång tid framöver. I det här fallet blir det till PC-plattformens fördel att det tar lite tid innan ny teknologi implementeras. Kolla bara på DX12 som exempel på hur lång tid det tar att rulla ut ny teknik i spel.

Trädvy Permalänk
Medlem
Plats
ˈvɔ̂kstɔrp
Registrerad
Nov 2013

Länken till Micron fungerar inte, den riktiga till "The Demand for High-Performance Memory" White Paper (PDF) - 3.23.2020 är denna. OBS! PDF...

Lägg märke till datumet, informationen har varit tillgänglig i nästan 5 månader

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Trädvy Permalänk
Medlem
Plats
sverige
Registrerad
Apr 2003
Skrivet av Harddrive:

Nvidias namngivning har redan förvirrat konsumenten, och produkten är inte ens släppt!

är inte förvirrad av namnen på korten utan mängden minnen som floreras hela tiden bättre vänta tills dom släpps så man får exakta informationen vad dom har

själv sitter jag på gtx 970 med 4gb så ett rtx 3080/3090 eller nya rtx titan "ampere" kort blir fin uppgradering i min burk just nu.

[Intel Core i9 9980XE@4,2Ghz][ASUS ROG X299-E GAMING IIModerkort][HyperX Fury RGB DDR4 3200MHz 64GB][1TB NvMe][2TB spel disk][RTX 3070TI 16GB, RTX 3080TI 16GB Vram ?][LG 38" Curved gamingskärm UltraGear 38GL950G][Windows 10][1000/1000Mbits Telia fiber][Razer Ornata Tangentbord

Gamer Dator på gång
[Intel Core i9 10980XE@ ?][Asus Rog Rampage VI Extreme Encore Moderkort][64Gb HyperX RGB 3200Mhz Minnen][2st MSI GeForce RTX 3090 GAMING X TRIO 24GB][Asus 43 Inch 4K Gaming 144hz skärm][32TB Hårddisk][Razer Cyonosa Tangentbord

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Nov 2018
Skrivet av Chibariku:

Finns det RTX Titan med mindre minne? Annars är det ju svårt att avgöra hur mycket dyrare ett kort med 24 kontra 12 GB Vram skulle vara.

I princip är 2080 Ti ett RTX Titan med 11 GB VRAM. Visst, det är säkert en viss skillnad i yield för "felfria" kretsar som gör att Titan-kortet kan ha full uppsättning SM:s - 72 - jämfört med 68 för 2080 Ti, men i stort sett är det samma kort förutom minnet.

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 3900X | CPU-kylare: Corsair iCue H150i RGB PRO XT | RAM: Corsair Vengeance 32 GB (4x8) DDR4-3000 CL15 LPX | GPU: Palit RTX 2080 Ti 11 GB GamingPro OC | SSD: Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: be quiet! Silent Base 801 | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Nov 2018
Skrivet av Sveklockarn:

Jag tror inte på idén att köpa "framtidssäkra" lösningar, det är mest därför jag vänder mig emot onödiga minnesmängder.

Många använder grafikkort till mer än spel. Om man sysslar med VRAM-krävande saker är det synd att behöva vara hänvisad till de enormt mycket dyrare specialkorten Nvidia säljer. Nvidia prissätter ju dessa kort för företagskunder, där 50 000 kr är en piss i Mississippi, men har man en hobby som inte generererar inkomst, men ändå innebär att 11-12 GB är begränsande, är det surt. Därför anser jag att toppkorten, som ändå har en vettig prisnivå för en hobbyist, borde ha mycket mer VRAM. Jag hade tyckt att 16 GB vore minimum för en 2080 Ti-ersättare.

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 3900X | CPU-kylare: Corsair iCue H150i RGB PRO XT | RAM: Corsair Vengeance 32 GB (4x8) DDR4-3000 CL15 LPX | GPU: Palit RTX 2080 Ti 11 GB GamingPro OC | SSD: Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: be quiet! Silent Base 801 | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Aug 2011
Skrivet av cyklonen:

Många använder grafikkort till mer än spel. Om man sysslar med VRAM-krävande saker är det synd att behöva vara hänvisad till de enormt mycket dyrare specialkorten Nvidia säljer. Nvidia prissätter ju dessa kort för företagskunder, där 50 000 kr är en piss i Mississippi, men har man en hobby som inte generererar inkomst, men ändå innebär att 11-12 GB är begränsande, är det surt. Därför anser jag att toppkorten, som ändå har en vettig prisnivå för en hobbyist, borde ha mycket mer VRAM. Jag hade tyckt att 16 GB vore minimum för en 2080 Ti-ersättare.

Vad är det för sysslor "många" använder sina grafikkort till förutom spel, där det behövs stora mängder VRAM? Jag är inte insatt.

AMD kommer säkert ha någon prisriktigare Radeon-modell med 16 GB VRAM inom en snar framtid, annars är det Titan som gäller hos Nvidia. Det är ju trots allt väldigt mycket vettigare att gamingprodukter är anpassade för just gaming, än att gamingkunderna ska betala ett premium för något de aldrig använder.

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Nov 2018
Skrivet av Sveklockarn:

Vad är det för sysslor "många" använder sina grafikkort till förutom spel, där det behövs stora mängder VRAM? Jag är inte insatt.

Bl a 3D-rendering, viss videoredigering, förmodligen en hel rad saker jag inte har koll på.

Skrivet av Sveklockarn:

AMD kommer säkert ha någon prisriktigare Radeon-modell med 16 GB VRAM inom en snar framtid, annars är det Titan som gäller hos Nvidia. Det är ju trots allt väldigt mycket vettigare att gamingprodukter är anpassade för just gaming, än att gamingkunderna ska betala ett premium för något de aldrig använder.

AMD är helt ointressant eftersom de inte har CUDA.

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 3900X | CPU-kylare: Corsair iCue H150i RGB PRO XT | RAM: Corsair Vengeance 32 GB (4x8) DDR4-3000 CL15 LPX | GPU: Palit RTX 2080 Ti 11 GB GamingPro OC | SSD: Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: be quiet! Silent Base 801 | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jul 2008
Skrivet av cyklonen:

Bl a 3D-rendering, viss videoredigering, förmodligen en hel rad saker jag inte har koll på.

AMD är helt ointressant eftersom de inte har CUDA.

Jag kan mycket väl ha fel men jag känner mig rätt övertygad om att de allra flesta som köper ett gamingkort inte har CUDA som huvudmål. Ser de det som en bonus? Absolut, men knappast till den grad att de vill betala ett saftigt premium för den funktionen. Det vore svårförsvarat ens om 50% av de som köpt ett x80Ti kort hade det som huvudmål.

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jul 2004
Skrivet av Kenneth:

Är inte så säker på att det kommer bli billigare. Troligen så kostar GDDR6X ganska mycket och skulle faktiskt inte bli förvånad om RTX 3090 kostar uppemot 20K, även om det skulle vara väldigt tråkigt

Skrivet av AplAy:

Första april 2021 kom tidigt i år, men jag hoppas att du har rätt!

...än de 20GB som det snackades om tidigare Borde vart tydligare att jag menade jämförelsen mellan 12GB och 20GB.

Ang 20k priset, ingen kommer ju att köpa kortet då Smärtgränsen är redan nådd, 2080Ti blev ingen storsäljare direkt, varför göra ett kort med ett ännu mindre attraktivt pris? Var ju dessutom någon sida som antydde att toppmodellen kommer att bli billigare än 2080Ti, däremot skulle resterande kort bli dyrare än nuvarande modellerna vilket låter vettigt på ett sätt. nVidia säljer ju mest mellanklass modeller varför dessa om något blir dyrare. 2080Ti priset var nog ett experiment som inte gick så bra.

AMD Ryzen 7 3800X | Gigabyte X570 Aorus Elite | G.Skill 32GB 3600MHz CL16 Trident Z Neo C | MSI 3080 Gaming X Trio | BeQuiet! Dark Rock 4 Pro | EVGA Supernova G2 850W | Phanteks P500A D-RGB | Acer X34A | Corsair Strafe RGB MX Silent | Corsair Ironclaw RGB | HyperX Cloud II

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Aug 2011
Skrivet av Mocka:

Smärtgränsen är redan nådd, 2080Ti blev ingen storsäljare direkt,

Om man kollar på Mindfactorys siffror (med försäljnings-/RMA-statistik) så har de sålt nästan lika många 2080 Ti (11,65%) som de sålt 2080/2080S (13%), så priset verkar inte ha varit något större hinder.

Skrivet av Mocka:

Var ju dessutom någon sida som antydde att toppmodellen kommer att bli billigare än 2080Ti, däremot skulle resterande kort bli dyrare än nuvarande modellerna vilket låter vettigt på ett sätt.

Det faktum som folk gillar att förbise är att toppmodellen alltid får en rejält saltad prislapp i Sverige.

Jag köpte två kort ur 900-serien vid respektive korts release, först GTX 980 (MSRP $549) för 5595 kr och sen GTX 980 Ti (MSRP $649) som plötsligt kostade 8200 kr... istället för ca 6615 kr som det borde ha kostat om man tillämpat samma "dollarkurs".

Problemet, om vi uttrycker det så, är att folk både har råd och vill betala för att få det bästa... priserna blir därefter.

Trädvy Permalänk
Medlem
Registrerad
Nov 2004

Priserna har nog varit ganska konstanta i genomsnitt justerat för inflation, men dollarkurs varierar kraftigt och på sista tiden har den varit väldigt hög. Inflation är inte samma i USA och EU heller, och korten prisätts i USD.

Nvidia är varken elaka eller snälla, de gör affärer. När de haft överlägsna produkter, har de tagit ut höga priser (8800GTX, 2080ti tex), och när AMD utpresterat dem har de satt låga priser. (geforce 200 och 400 tex).
Ser man på grafen ovan, så har priserna varierat med prestandakonkurrens, men över hela nvidias historia varit ganska jämn - gamla geforce 2 kostade lika mycket som 1080ti justerat för inflation och dollarkurs.

Skall man vara arg på någon för svag svensk köpkraft så skall man nog se på ~50 år+ av odugliga regeringar. En så enkel sak som att binda kronan till euron, som danmark gjort (± 2.25%), hade gett 30-50% starkare krona. Personligen hade jag velat ha sverige ur eu, men om man skall vara med kan man ju göra det ordentligt och inte ha ett minikrig mot euron.

Trädvy Permalänk
Medlem
Plats
Sverige
Registrerad
Jun 2006
Skrivet av Sveklockarn:

.Det faktum som folk gillar att förbise är att toppmodellen alltid får en rejält saltad prislapp i Sverige.

Jag köpte två kort ur 900-serien vid respektive korts release, först GTX 980 (MSRP $549) för 5595 kr och sen GTX 980 Ti (MSRP $649) som plötsligt kostade 8200 kr... istället för ca 6615 kr som det borde ha kostat om man tillämpat samma "dollarkurs".

Problemet, om vi uttrycker det så, är att folk både har råd och vill betala för att få det bästa... priserna blir därefter.

Varför skulle de tillämpat samma dollarkurs vad två helt olika tidpunkter?

Kronan sjönk som en sten under denna period.

Trädvy Permalänk
Medlem
Plats
Tullinge
Registrerad
Jun 2005
Skrivet av Mocka:

...än de 20GB som det snackades om tidigare Borde vart tydligare att jag menade jämförelsen mellan 12GB och 20GB.

Ang 20k priset, ingen kommer ju att köpa kortet då Smärtgränsen är redan nådd, 2080Ti blev ingen storsäljare direkt, varför göra ett kort med ett ännu mindre attraktivt pris? Var ju dessutom någon sida som antydde att toppmodellen kommer att bli billigare än 2080Ti, däremot skulle resterande kort bli dyrare än nuvarande modellerna vilket låter vettigt på ett sätt. nVidia säljer ju mest mellanklass modeller varför dessa om något blir dyrare. 2080Ti priset var nog ett experiment som inte gick så bra.

Flaggskepp brukar inte vara storsäljare eller där dom får in mest pengar. Flaggskepp bär "flaggan" som säger vi är bäst. Möjlig slogan för billigare kort: "köp 3050ti idag av nvidia som gör världens snabbaste kort och krossar motståndet"
Bara vi nurds som köper flaggskepp i de flesta fall.

Ryzen 3700x @ auto, Palit GTX 1080 GR Premium

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Aug 2011
Skrivet av ipac:

Varför skulle de tillämpat samma dollarkurs vad två helt olika tidpunkter?

Kronan sjönk som en sten under denna period.

Om man tar hänsyn till förändringen i den faktiska dollarkursen och kör samma påslag som för GTX 980 så borde 980 Ti-kortet ha kostat 7000 kr, men det var ett räkneexempel för att illustrera att toppmodellens prislapp saltas extra i Sverige. Samma fenomen kunde observeras med 20-serien, där 2080 ($699) kunde köpas för 8000 kr samtidigt som 2080 Ti ($999) kostade över 13000 kr.

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jul 2004
Skrivet av Sveklockarn:

Om man kollar på Mindfactorys siffror (med försäljnings-/RMA-statistik) så har de sålt nästan lika många 2080 Ti (11,65%) som de sålt 2080/2080S (13%), så priset verkar inte ha varit något större hinder.

Jo men var det inte så att det var några procent sälda 2080Ti och resten låg på alla modeller som trots allt har en prislapp under 10k istället för 14-15k?

Skrivet av Sveklockarn:

Det faktum som folk gillar att förbise är att toppmodellen alltid får en rejält saltad prislapp i Sverige.

Jag köpte två kort ur 900-serien vid respektive korts release, först GTX 980 (MSRP $549) för 5595 kr och sen GTX 980 Ti (MSRP $649) som plötsligt kostade 8200 kr... istället för ca 6615 kr som det borde ha kostat om man tillämpat samma "dollarkurs".

Problemet, om vi uttrycker det så, är att folk både har råd och vill betala för att få det bästa... priserna blir därefter.

Jag tycker inte att de 8200kr jag betalade för 1080Ti var SÅ mycket. Iaf jämfört med 980Ti jag köpt generationen tidigare. Denna gången fick jag betala 14350kr vilket är 6150kr mer och nu säger folk att 3090 ska kosta 20k vilket är 5650kr mer. Är det inte lite väl stora hopp...flaggskepp eller inte?

Skrivet av Aka_The_Barf:

Flaggskepp brukar inte vara storsäljare eller där dom får in mest pengar. Flaggskepp bär "flaggan" som säger vi är bäst. Möjlig slogan för billigare kort: "köp 3050ti idag av nvidia som gör världens snabbaste kort och krossar motståndet"
Bara vi nurds som köper flaggskepp i de flesta fall.

Samtidigt måste det vara ett skäligt pris då 2080Ti inte marknadsförs som någon lyxprodukt eller premiumprodukt utan just bara som ett flaggskepp i en gamingserie. Titan är väl just lyxprodukten som väldigt få har råd med.

AMD Ryzen 7 3800X | Gigabyte X570 Aorus Elite | G.Skill 32GB 3600MHz CL16 Trident Z Neo C | MSI 3080 Gaming X Trio | BeQuiet! Dark Rock 4 Pro | EVGA Supernova G2 850W | Phanteks P500A D-RGB | Acer X34A | Corsair Strafe RGB MX Silent | Corsair Ironclaw RGB | HyperX Cloud II

Trädvy Permalänk
Medlem
Plats
Tullinge
Registrerad
Jun 2005
Skrivet av Mocka:

Samtidigt måste det vara ett skäligt pris då 2080Ti inte marknadsförs som någon lyxprodukt eller premiumprodukt utan just bara som ett flaggskepp i en gamingserie. Titan är väl just lyxprodukten som väldigt få har råd med.

2080ti är premium i gaming segmentet och det näst bästa du kan få tag i idag. titan är marginellt snabbare MEN har massiva mängder vram som få som spelar behöver idag.

Ryzen 3700x @ auto, Palit GTX 1080 GR Premium

Trädvy Permalänk
Medlem
Plats
Någonstans i förorten
Registrerad
Jan 2010

Micron-minnen? Var det inte något strul med dessa förr? Minns iaf att man ville ha Samsung på 1070 back in the good old days men det är ju så klart 4 år sedan nu iof. Har Micron fixat "problemet" sen dess? Helt out-of-date här känner jag.

CPU i7 8700K 4.88GHz MB ASUS TUF Z370 GPU GTX 1070 8GB RAM Corsair Vengeance LPX 2x8GB 3200MHz SSD 120/256/ 1TB HDD PSU Corsair RM850i W10 Pro N/ Linux Mint Kattmat#3788

Trädvy Permalänk
Medlem
Registrerad
Sep 2004
Skrivet av JonasT:

Vi diskuterade på kontoret idag kring varför det inte finns någon som helst information kring GDDR6X utöver RTX 3000-läckorna. Kul att det äntligen bekräftades och det ska bli oerhört intressant att se det in action i höst!

Tur att du fick en lång och lugn semester denna sommar. Något säger mig att det kommer bli långa dagar inom kort.

Trädvy Permalänk
Häxmästare ✨
Jonas Thörnqvist
Plats
Stockholm
Registrerad
Apr 2002
Skrivet av m0rk:

Tur att du fick en lång och lugn semester denna sommar. Något säger mig att det kommer bli långa dagar inom kort.

Ser helt klart ut att bli en galen höst/vinter!

Trädvy Permalänk
Medlem
Registrerad
Aug 2015
Skrivet av Dalton Sleeper:

OK

Varför är det så tror du?
Samt, hur länge vill du sitta med ditt kort?

Du skulle bara se hur mycket tweakande de gör för att få ut det sista lilla i prestanda samt minnesanvändning hur de paketerar datan i texturer samt vilket bitdjup de kör (normalmappar körs ibland med reducerat bitdjup samt två vektorer per pixel, tredje beräknas med kryssprodukten i shadern). Avståndet mellan uv-areor (användbar texturarea), återanvändning av textur samt hur texturdensiteten utnyttjas på olika ställen på asseten. Geometrin reducerar de i princip sönder till den graden där en box inte längre är en box, det finns inga trianglar kvar. Det är optimering i hästlängder vi pratar om, och detta ska ske på så extremt kort tid som möjligt (mantimmar). Red Dead Redemption samt Assassing Creed Odyssey är inget man pysslar ihop på ett par dagar. Ofta använder man loddar närmare skärmen än vad man borde göra, måna spel idag har synliga geometri samt texturpoppar.

Alla AAA studios tokoptimerar så mycket det går, varför? För att de vill att eländet ska se så bra ut samt flyta så bra som möjligt på dagens hårdvara, samt konsoller. Oftast bakas allt ihop till en mesh samt ett material där det är en textur per materialkanal, upplösningen är så låg de kommer undan med, ibland 512-1024 per textur på lite avstånd för en hel karaktär.

Vi får se en hel del ooptimerade assets som är hästlängder från gameready, dock vet studiona mycket väl vad de vill åstadkomma, de känner sin hårdvara och försöker punga ut så pass bra kvalite som möjligt utifrån spec. Ofta kommer assets direkt från 3d artisten, från 3ds Max eller Maya i råformat med alla högupplösta mesher samt material (komplexa HLSL shaders). Också UE4 men Unity börjar användas mer och mer, samt Blender.

Minne är inte heller helt relaterat till prestanda, vill du inte öka texturupplösningen så kan du lägga till flera texturer, dvs flera objekt som ser unika ut. Kanske några fler variationer på löv, gräs, sten eller brädor på huset? Alla krukor behöver inte se likadana ut, alla träd behöver inte ha samma texturer. All publik i FIFA, NHL eller F1 behöver inte se likadana ut.

Var på ett föredrag för ett tag sen med en av de som jobbat med filmen Hitta Nemo. Han trodde inte att realtidsanimering av film skulle komma på bra länge. Bara texturen på själva Nemo var runt 10 GB. Tiden för att rendera en bild skulle helst inte överskrida 8 timmar för då kunde man starta renderingen när man gick hem för dagen och sen var resultatet färdigt på morgonen dagen efter så man kunde se hur det blev utan extra väntan på att det skulle blir klart.

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Aug 2011
Skrivet av Mocka:

Jag tycker inte att de 8200kr jag betalade för 1080Ti var SÅ mycket. Iaf jämfört med 980Ti jag köpt generationen tidigare. Denna gången fick jag betala 14350kr vilket är 6150kr mer och nu säger folk att 3090 ska kosta 20k vilket är 5650kr mer. Är det inte lite väl stora hopp...flaggskepp eller inte?

Detta har sagts före de senaste Nvidia-releaserna, men jag tvivlar väldigt starkt på den prisnivån.

Inte ens AdoredTV tror på något massivt prishopp.

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Jan 2011

Skall nvidia chansa med micron igen, kommer ju ihåg hur det blev på 2XXX serien när de lanserades

8700k @ 5.3GHz || Asus Maximus X Hero || Custom Loop || EK-CoolStream RAD XE 360 + EK Coolstream RAD SE 360 || EK Supremacy EVO || EK XRES 140 D5 || Nvidia FE RTX 2080 Super || 32GB G.skill Trident-Z RGB CL17 @ 4000MHz || 1TB Samsung 970 EVO Plus || Modded NZXT H700i || Seasonic Focus PX || Asus PG27VQ ||