Geforce RTX 3080 Ti får högre bandbredd – tappar 8 GB grafikminne

Permalänk
Medlem
Skrivet av SockerfriKetchup:

Inte nytt.. Nvidia försökte med denna teknik när AMD spöade dem med 79XX-serien, men då hade tekniken inget namn utan Nvidia gjorde bara texturerna suddigare och därmed mer FPS..

Folket reagerade rejält, och Nvidia tog bort ''tekniken''

Idag har de satt namn på det och folket sväljer det med hull och hår

och nej, jag har absolut inget emot nytt.. nytt är bra om det verkligen ger nåt.

Väldigt imponerande att de satt på en ganska avancerad uppskalningsalgoritm gjort med neural network och deep learning redan för ca 15 år sedan

Visa signatur

Processor: R7 5800X3D @ CO -30 · Moderkort: Gigabyte X570S Aorus Pro AX
Grafikkort: GB RTX 3080 GOC @ 1800 @ 812mV · Ram: 32GB @ ¯⁠\⁠_⁠(⁠ツ⁠)⁠_⁠/⁠¯

NVENC-PC: i5-4430S · Quadro P600 · 16GB 1600MHz · 28TB HDD
"Budget"-VR: R7 3700X · RTX 3060 12GB · 32GB 3600MHz · ~1TB SSD

Permalänk
Medlem
Skrivet av Cloudstone:

DLSS är en superb teknologi. Om en teknik erbjuder bra bildkvalité och använder mindre VRAM (vilket DLSS faktiskt gör), vad är problemet?

Det blir väl annat ljud i skällan när AMD släpper sin variant av DLSS.
Då är tekniken det bästa som hänt sedan skivat bröd

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Medlem
Skrivet av Clasito:

10 var snålt men 12 är nästan perfekt. Den högre bandbredden hjälper också till. 16 gb hade inte varit en möjlighet med minnesbussarna. Hade det varit 20 gb istället för 12 hade säkert priset skenat iväg, något som hade varit onödigt imo.

Tror också att 12GB kommer att räcka, men det perfekta hade nog varit 24GB GDDR6, utan X. 16Ghz 384-bitars minne är nästan exakt samma bandbredd som 19GHz 320-bitars, och hade placerat kortet som något som är direkt bättre än AMDs motsvarighet på alla punkter. Det här ser bara ut som ett mining-kort ur min synvinkel.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Detta rykte känns rimligt.
Något färre Cuda, RT och Tensor kärnor än RTX 3090, så den som verkligen vill ha "den fulla upplevelsen" fortfarande får punga ut för toppkortet.
Samt att det kan gå att använda vissa GPUer som inte hade kunnat användas till 3090.
Men att det ligger betydligt närmare 3090 än vanliga 3080, så det finns en mening med att köpa det.

Ang minnet så verkar 8GB vara lite gränsfall för den som vill köra Ultra inställningar.
Som 3060 12GB vs 3060Ti 8GB blir en lite konstig situation där man får välja mellan mer minner eller mer GPU kraft.

Nu blir det ändå inget Nvidia konsumentkort förutom 3090 som har mer VRAM än 3080Ti.
AMD har mer VRAM, men verkar också använda mer.
Exempelvis:

12GB verkar ändå vara en vettig minnesmängd för denna generationen.
Kommer säkert finns de som kör grafikmods som fyller det.
Men annars så kommer nog i de flesta fall GPUn att vara utdaterad innan 12GB är för lite.

Permalänk
Medlem
Skrivet av mpat:

Tror också att 12GB kommer att räcka, men det perfekta hade nog varit 24GB GDDR6, utan X. 16Ghz 384-bitars minne är nästan exakt samma bandbredd som 19GHz 320-bitars, och hade placerat kortet som något som är direkt bättre än AMDs motsvarighet på alla punkter. Det här ser bara ut som ett mining-kort ur min synvinkel.

Intressant resonemang, att Nvidia har utgått utifrån en mining synvinkel hade inte förvånat mig Och andra sidan lär detta släppas när mining boomen är över (hoppas jag)!

Edit: Hade också isåfall varit 20GB GDDR6, dock spelar väl 4GB knappt någon roll på dessa VRAM nivåer så håller nog med dig om att mer GDDR6 på 320 bit hade varit bättre.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem
Skrivet av _Merc_:

Ynka 12gb vram. 16+ är ett måste för ett topp kort nu.

Det är väl ingen som hindrar dig från att köpa ett RTX 3090 om du har råd och verkligen vill?
Då får du 24GB VRAM. Borde väl räcka tills nästa generation kort kommer?

Permalänk
Medlem
Skrivet av GuessWho:

Det är väl ingen som hindrar dig från att köpa ett RTX 3090 om du har råd och verkligen vill?
Då får du 24GB VRAM. Borde väl räcka tills nästa generation kort kommer?

Felet med RTX 3090 är att det inte är ett AMD-kort skulle jag tro om jag tolkar tidigare inlägg av _Merc_.

Permalänk
Medlem
Skrivet av dblade:

Överlag känns kortet välbalanserat i förhållande till prestanda/grafikminne! De dunkade i lite i överkant på 3090 och det gjorde väl att priset skenade iväg. Detta ligger ju i rätt nivå med upp till 20% bättre prestanda mot 3080 över hela området.

Ja, du har helt rätt där! c:a 120MH/s. Det kommer förmodligen bli en väldigt begränsad mängd grafikkort som når ut till konsumenter, precis som för 3080-korten. Ska vi hoppas på 2022?

Yup, kortet har nära nog spec och snabba nog minnen att sannolikt prestera exakt som ett 3090 i mining.
MEN, mycket billigare så mycket säkrare köp för miners. Och om det alltså är hälften så många minnesmoduler så kan man gissa att de alla sitter på ovansidan alltså mot kylflänsen och därmed inte har problemen med överhettning som 3090 har med modulerna på baksidan. Lägg till det till att med hälften så många moduler kan man tänka sig att minnet drar hälften så mycket, och på 3090 så drar enbart VRAM ~170w vid överklockad mining så...

3080 hade mining-tronen, nu petar 3080 ner 3060Ti till plats 3 och 3080Ti tar plats 1?

Sjukt trist för 3080 var redan jävligt nice som det var ärligt talat, om de hade kunnit skicka ut en version med 20GB eller ärligt talat bara kunna börja ha kortfan i lager så hade det varit nice, detta har odds att bli ytterligare ett kort som existerar kortare än någon hinner klicka köp.

Dock kan det vara så att de börjat planera detta kort igen just för att de har en del lagervara på väg in och känners sig säkra att lansera mer då det kommer finnas nog för alla Man kan hoppas iallafall!

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem

Aja det heter alltså inte grafikkort längre

Visa signatur

i5 10400f | asus b460-f | 2x8gb kingston 2666 | zotac 3060ti | corsair mp510 960gb (OS) + samsung 860 evo 1tb + 2x kingston a400 480gb | corsair vx450 | tr true black | fractal r3 | asus mg279q + lg w2363d | dt 880 | win 10 x64 | deathadder chroma | glorious 3xl | tb impact 600 | oculus quest 2

Permalänk
Medlem
Skrivet av Shiprat:

Dock kan det vara så att de börjat planera detta kort igen just för att de har en del lagervara på väg in och känners sig säkra att lansera mer då det kommer finnas nog för alla Man kan hoppas iallafall!

Man kan iaf hoppas att leveranserna blir bättre efter Februari.
(Tror inte det blir bättre under Februari)
Men hur många kort som kommer gå till miners, scalpers, gamers, content creators, etc.
Det är svårt att sia om.

Permalänk
Keeper of the Bamse
Skrivet av SockerfriKetchup:

Trodde PC Masterrace ville ha äkta vara, inte upscale konsol ''wannabe''

1440P=1080P med DLSS..

Skrivet av SockerfriKetchup:

Inte nytt.. Nvidia försökte med denna teknik när AMD spöade dem med 79XX-serien, men då hade tekniken inget namn utan Nvidia gjorde bara texturerna suddigare och därmed mer FPS..

Folket reagerade rejält, och Nvidia tog bort ''tekniken''

Idag har de satt namn på det och folket sväljer det med hull och hår

och nej, jag har absolut inget emot nytt.. nytt är bra om det verkligen ger nåt.

Jag antar att du totalvägrar kantutjämning då, eftersom det också är en "approximering" av hur det ska se ut?
"AA är fusk, man ska spela i 8K, annars ser man jaggies"

DLSS är ju helt nytt, det är ingenting som gick att göra med vad som gick att göra på 680, den direkta motsvarigheten till 7970.

Får jag gissa att du inte har speciellt många timmar i stolen framför DLSS? Tänker att du kör väl ett rx5700, som inte har tekniken. Jag har nog över 100 timmar i spel som har körts med DLSS aktiverat. Jag var tidigt ute med både 2080Super och 3080.

Visa signatur

i7 10770K, NH-D15. 16GB corsair. RTX 3080. 3TB nvme. Samsung G9. Fractal Torrent Compact. Corsair RM850.
Logitech G pro wireless mouse. Logitech TKL915 wireless. Logitech Pro X Wireless.
Macbook pro M1 (16GB, 512GB). HP Reverb G2.
www.bamseclockers.com

Permalänk
Medlem

kör själv med rtx 3080 och kört mkt med dlss och ja bra med mer fps men nej bildkvalitet går ner, aldrig någonsin sett den bli bättre. aa går abslout inte att jämföra med dlss!

Visa signatur

In science we trust!

Permalänk
Medlem
Skrivet av Cloudstone:

Äsch, jag är 34 år gammal. PC Masterrace vs konsoll-"debatten" är ointressant och meningslös. Det som är intressant är teknologi, hur det implementeras, hur det används osv. NVIDIA har redan visat med DLSS 2.0 att deras teknologi är mogen och mer än bara en gimmick. Nu kommer AMD snart att svara med likvärdig teknologi (eller förhoppningsvis ännu bättre). Jag håller med Jonätän ovan att en DLSS-variant som är tillverkaragnostisk med öppen källkod är drömmen, men tills dess har vi DLSS, och snart har vi AMD's svar på det.

Enkel side-by-side mellan Native 4K och DLSS:
https://www.youtube.com/watch?v=IMi3JpNBQeM&feature=youtu.be

Jag har väldigt svårt för att förstå er på andra sidan av denna diskussionen. Dvs, vad är det som är "fake" med DLSS? För mig är det avancerad och effektiv användning av hårdvara. I optimala förhållanden får man ut både högre bildkvalitet och högre bildfrekvens. I värsta fall ser det något sämre ut än native (något man kan se om man vet vad man ska leta efter, eller pausar och analyserar varje frame), dvs inget man gör om man faktiskt spelar för att spela och inte i forskningssyfte.

Gjorde ett snabbt blindtest med cyberpunks olika DLSS lägen. En användare skickade flera screenshots som jag fick sitta och kolla på och helt enkelt säga vilken skärmdump jag tyckte såg bäst ut, utan att veta om DLSS hade använts. När jag valde vilken bild jag tyckte såg bäst ut såg jag vilket DLSS läge det tillhörde, eller om de var native. Slutsatsen blev att jag inte konsistent kunde välja native resolution, utan ibland tyckte jag DLSS performance såg bäst ut, andra bilder tyckte jag native såg värst ut etc. Det tyder på att skillnaden mellan native och DLSS inte är så stor. Jag är ganska säker på att om man satte folk i blindtest, och lät de spela ett spel som cyberpunk, i maxad kvalite med olika DLSS inställningar bara, , på liknande sätt som jag gjorde, så hade de flesta också levererat inkonsistenta svar. Sen är de ännu lägre chans att du faktiskt märker något när du bara spelar som du säger. Då är man ju mer fokuserad på story och gameplay, vilket kommer kännas bättre med lite högre fps, tack vare DLSS

Permalänk
Medlem
Skrivet av Cloudstone:

Jag har väldigt svårt för att förstå er på andra sidan av denna diskussionen. Dvs, vad är det som är "fake" med DLSS? För mig är det avancerad och effektiv användning av hårdvara. I optimala förhållanden får man ut både högre bildkvalitet och högre bildfrekvens. I värsta fall ser det något sämre ut än native (något man kan se om man vet vad man ska leta efter, eller pausar och analyserar varje frame), dvs inget man gör om man faktiskt spelar för att spela och inte i forskningssyfte.

DLSS som det kan vara optimalt är väldigt nice och det finns verkligen ingen anledning jag kan se att inte använda det om man har det, MEN i de fall där jag behövt använda det, vilket specifikt var i Control och och cyberpunk på 2080 Super så såg det betydligt sämre ut för mig- inte skitfult alls men med en rak jämförelse mot native så såg det bara inte lika bra ut. I control var det framförallt de "krypande" texturerna som störde mig och i cyberpunk var det hur DLSS förstärkte TAA "auror" runt allt som rörde sig så det såg ut som att kantera på bilar osv typ lyser när de rör sig.
Sedan är det det där med att de presenterar som att spelen blir spelbara magiskt när de inte skulle vara det innan- typ som 2060 skulle kunna köra BFV med RT och DLSS och det skulle vara spelbart. Meanwhile tyckte jag inte att det var spelbart ens på 2080S ingen av mina polare med 2080/2080Ti/3070 spelar med RT i BFV på då det är för instabilt, DLSS or no DLSS.

Tror också att med hårdvaruagnostisk implementering så kommer detta bli bättre, jag är inte förtjust i att spelutvecklare ska behöva bygga två olika versioner av sin grafik för det två olika utvecklarna så som utvecklare nu måste använda nvidias custom TAA för att kunna ha DLSS och då måste välja att implementera båda "vanlig" och nvidias smak av det hela.

TL;DR är väl att precis som med raytracing så är det inte teknologin som är problemet utan presentationen, oftast.

Skrivet av Cloudstone:

dvs inget man gör om man faktiskt spelar för att spela och inte i forskningssyfte.

Detta är ju svårt att ta seriöst som du uttrycker det dock- visst för gemene man som inte är intresserad av teknologi och av hur grafiken i ett spel fungerar så kanske det inte är något man tänker på, men när man redan är insatt och intresserad och man i ett spel har artefakter som man genast känner igen och vet att man kan slippa om man kör utan DLSS så är det rätt irriterande. Precis den interna diskussionen jag hade i cyberpunk- RT med DLSS såg verkligen inte bra upp på mitt 2080S men jag kände ändå att jag ville köra det för det är så de "tänkte att spelet skulle se ut" och att jag skulle förlora en del av upplevelsen. När jag bytte till ett kort som inte hade stöd för varken DLSS eller RT och fick fullt upplöst knivskarpa texturer, mininmal ghosting runt kanter och stabila frames så vart dock spelupplevelsen mycket bättre trots att jag i teorin inte ser hela den kreative visionen, och spelet såg subjektivt bättre ut då det inte hade alla irriterande småproblem som förstörde immersion. (grafiskt iallafall; bilen sprängdes fortfarande 1/5 gånger man gick fram till den, sop-påsar fick panik om man kom för nära och karaktären stod fortfarande som en naken mast upp genom biltaket när man korsade zoner i spelet.)

Skrivet av GuessWho:

Man kan iaf hoppas att leveranserna blir bättre efter Februari.
(Tror inte det blir bättre under Februari)
Men hur många kort som kommer gå till miners, scalpers, gamers, content creators, etc.
Det är svårt att sia om.

Well, tekniskt sätt så går nog de flesta till gamers för eller senare- de ska bara arbeta av sig i en mine först
Om nvidia kan få ut 10x mängd per vecka de fått ut hittills så löser det sig nog, om det alternativt typ inför ett kort per person avkollat av bank-id eller något så skulle det också hjälpa mot både miners och scalpers. Alternativt kanske kryptomarknaden äntligen visar sig vara en bubbla som de har sagt ska hända när som helst ända sedan 2011.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Inaktiv

Alltid facinerande med folk som tror ironi är ett strykjärn. 😄

Permalänk
Medlem

Hmmm, intressant teoretiskt problem?

Permalänk
Medlem

Nyheter om grafikkort som kanske går att köpa nästa år känns rätt ointressanta tyvärr

Visa signatur

Moderkort: MSI MPG X570 Gaming plus CPU: Ryzen 7 5700X3D
RAM: Crucial Ballistix 16GB DDR4 3600 MHz Kylning: Noctua NH-D15 chromax.black Lagring: 4 x Samsung 840 Pro 500GB
Grafikkort :Sapphire Radeon™ RX 6950 XT PURE NITRO+ Nätaggregat: EVGA SuperNOVA 750 G2
Chassi: Fractal Design Define Vision S2 Blackout Monitor: HP OMEN 27 & Acer XF270HUC
Tangentbord: Corsair Gaming Strafe RGB MX SILENT Mus: SteelSeries Rival 700

Permalänk
Medlem

ja den som väntar på nåt gott....

kan lika gärna köpa nästa generation

Permalänk
Medlem

Antar att dom vill att folk som behöver grafikminne ska köra på 3090 istället för att gå in på spelkortsmarknaden.

Permalänk
Medlem
Skrivet av Cloudstone:

Ja, det är kritik jag håller med om. En likvärdig tillverkaragnostisk teknologi vore bättre för alla konsumenter.

Problemet är ju att AMD laggar efter och/eller struntar i att implementera ny teknologi i samma takt som Nvidia, sen verkar delar av deras kundbas förvänta sig att AMD fritt ska få tillgång till Nvidia-innovationer, vilket är ganska absurt när man tänker på det.

Permalänk
Medlem
Skrivet av SuperSverker:

Det råkar även vara perfekt för miners som kräver snabbare minne. Frågan är vem som har högt köpkraft och därmed möjligheter att få tag i enheter..?

Det handlar inte om försäljning till konsumenter längre, det är anpassat för miners eftersom det är där pengarna ligger i nuläget..

Fast varför skulle de köpa 12gig versionen över 10 när den extra prestanda minnesbussen ser ut att ge troligen inte kommer vara i relation till prisökningen?

Permalänk
Medlem

Det finns ju någon ljusa sidor här...

...ni som redan har haft tur och anskaffat ett 3080 - lär ju inte få någon problem med att sälja era kort, njut av dom nu medan ni har dom, sälj till samma pris och pröjsa ett 3080 ti när det kommer?

Permalänk
Medlem
Skrivet av JoOngle:

Det finns ju någon ljusa sidor här...

...ni som redan har haft tur och anskaffat ett 3080 - lär ju inte få någon problem med att sälja era kort, njut av dom nu medan ni har dom, sälj till samma pris och pröjsa ett 3080 ti när det kommer?

Glöm inte att begagnade kort likt 2080Ti följer med upp till sitt rätta värde och inte dom skamliga låga fantasipriser vissa ville få det till bara för 3070 hade fantasipris när det lanserades. Nu är loppet kört att få ett begagnat 2080Ti till dessa låga priser också. Tur man höll ut och inte sålde iväg det för tidigt.

Permalänk
Medlem
Skrivet av Triton242:

Fast varför skulle de köpa 12gig versionen över 10 när den extra prestanda minnesbussen ser ut att ge troligen inte kommer vara i relation till prisökningen?

Slut tänk konsument, börja tänk bulk. Prisökningen är knappast linjär när du köper direkt från tillverkare. Nvidia säljer hellre 30000 kort direkt med marginal än att krångla med återförsäljare för 70000 över ett år

Visa signatur

Krusidullen är stulen

Permalänk
Medlem
Skrivet av JoOngle:

Det finns ju någon ljusa sidor här...

...ni som redan har haft tur och anskaffat ett 3080 - lär ju inte få någon problem med att sälja era kort, njut av dom nu medan ni har dom, sälj till samma pris och pröjsa ett 3080 ti när det kommer?

Prestandaökningen lär ju dock vara försumbar samtidigt som det kortet kommer ha en rejäl merkostnad. Jag känner mig nöjd med mitt Asus 3080 TUF Gaming OC som jag betalade 7990 kr för och fick i mitten av oktober. Vad är realistiskt att förvänta sig med 3080 Ti, 5% mer prestanda för 5000 kr ytterligare?

Nä, bättre att spara pengarna till nästa generation.

Permalänk
Skrivet av Nautilus011:

Det blir väl annat ljud i skällan när AMD släpper sin variant av DLSS.
Då är tekniken det bästa som hänt sedan skivat bröd

Helt ärligt så är det en bra teknik, när den fungerar som det är tänkt, dlss2.0 är ett steg i rätt riktning.

Kvittar om det hade stått AMD, Nvidia eller Intel.

Men det är i princip samma uppskalning som när gör om en 1080 bild till 2160, en algoritm gissar sig till hur bilden borde se ut, ibland blir det fantastiskt resultat, ibland ser det lite knepigt ut, dlss 1.0 visade det "dåliga".

Det behöver finslipas lite till då det fortfarande inte känns helt moget, men det tycker jag förvisso också om raytracing, det är dock inte kvalitén utan prestanda tappet där blir.

Nvidia har gjort något bra, mer support och mer finslipning så står jag bakom det 100%!

Permalänk
Medlem
Skrivet av SuperSverker:

Slut tänk konsument, börja tänk bulk. Prisökningen är knappast linjär när du köper direkt från tillverkare. Nvidia säljer hellre 30000 kort direkt med marginal än att krångla med återförsäljare för 70000 över ett år

Men då lär de ändå välja 10gig varianten då den iafall kommer vara billigare.

Permalänk
Medlem
Skrivet av _Merc_:

16+ är ett måste för ett topp kort nu.

Eftersom?

Permalänk
Medlem
Skrivet av dblade:

Orkar inte riktigt göra en förklaring men man kan balansera grafikminnet i hur mycket data som kan hämtas per sekund. Har man långsamt minne spelar det knappt ingen som helst roll för om du har 10GB eller 100GB. GPU:n hinner så att säga inte hämta och bearbeta så stora texturer..

Detta testet visar att beräkningskraft, minnesbandbredd och minnesmängd ligger hyfsat balanserat fortfarande:

https://www.sweclockers.com/test/31128-vi-testar-hur-mycket-g...

Det kommer kanske ett 3060 med 12GB. Många väljer nog det före 3060ti med endast 8GB för det ser ut att ha mer minne även om priset är detsamma.

Vi får ju PCIe 5 så vi kan använda Direct Storage. Vem bryr sig om minne på GPU? Det är mer som CPU cache. Man lagrar inte hela spelet på cache/minne direkt.

Visa signatur

AMD FX8320 | MSI Gaming X Trio 3080 10GB | Oculus Rift

Permalänk
Medlem
Skrivet av Triton242:

Men då lär de ändå välja 10gig varianten då den iafall kommer vara billigare.

Inte om prestandan är högre med 12g?

Visa signatur

Krusidullen är stulen