Nvidia Geforce RTX 2080 och RTX 2080 Ti

Permalänk
Medlem

Ler lite när jag ser alla naiva "högt pris? Köp inte då" resonemang. Och sen dras det jämförelser till ferraris. Vänta nu.
2080 sjunker i värde varje år. En Ferrari sjunker och ökar sedan. Viss skillnad.
Men ska vi intala oss själva att ökade priser bara är ett problem för den fattige så får dom gärna höja er hyra med 45-50% också. Har ni inte råd så flytta ut. C'mon nu. Någon logik besitter nog varje person. Att Nvidia ökar priserna till 14000-15000 är bara för att dom kan. Men rättfärdiga det gör så

Visa signatur

Star Citizen ❤

Permalänk
Medlem
Skrivet av Prophet^:

jag undrar var många i tråden får sina siffror ifrån? swecs egna test säger ju 36% i 1440p

Nu räknar du fel, 2080Ti får 164poäng och 1080Ti 128poäng.
164/128= 28%

Nu har jag tittat på gott som alla tester och det pendlar mellan 24-28% i skillnad i 1440P. (2080Ti vs 1080Ti)

Visa signatur

7800X3D | 7900XTX Merc 310 Alphacool | ASUS B650E-F | G.Skill 6000Mhz 32GB CL30 | SN850X | EK Quantum custom loop | Be Quiet 900 Dremel Edition | ASUS Xonar STX + Sennheiser HD650 | Corsair RM1000x | Monitor: LG C2 42 | Nintendo Switch | TV: LG C1 65

Permalänk
Medlem
Skrivet av X-TroNiC:

Nu räknar du fel, 2080Ti får 164poäng och 1080Ti 128poäng.
164/128= 28%

Nu har jag tittat på gott som alla tester och det pendlar mellan 24-28% i skillnad i 1440P. (2080Ti vs 1080Ti)

skyller på för lite sömn
och förmodligen inte fattat prestandaindexen helt /facepalm

Visa signatur

7800x3d - asus x670e hero - 32gb corsair dominator @ 6000mhz - kfa2 rtx 4090 - 2tb kingston kc3000 - 1tb wd black sn850 - wd 4tb - corsair hx1200 - acer predator x34gs - lg 27gl850-b

Permalänk
Medlem
Skrivet av Neroth:

Oinformerad kan du vara själv. Du har ingen aning om vad jag baserar mina påståenden på. Hade inte sagt något om jag inte bildat mig en informerad uppfattning först.

Låter på dig som att det verkligen inte är okej att ha "fel" åsikter. Upprörd much?

Om du försöker få mig att ändra uppfattning eller se det från en annan vinkel, förresten, så går du heeelt fel fram.

Ha en fin dag.

Om någon verkar upprörd verkar det snarare vara du, istället för att läsa det jag föreslog blir du upprörd att jag påpekar hur fel allt du skrev var. Så låt mig bryta ner det så du förstår varför det du skrev är helt åt skogen fel.

"Absolut inget nyskapande eller köpvärt här."
Halva kretsen här är nyskapande, RT-kärnor och Tensor-kärnor. Du kan inte påstå att detta inte är något nytt och har funnits tidigare, för det har det inte.

"Bara dyra gimmickar och marginella prestandaökningar."
Ray Tracing är ingen gimmick som Nvidia hittat på, det är en metod att skapa fotorealistisk grafik och har använts sjukt länge, enda problemet är att det krävts grym brute prestanda för att lösa det. Nu har Nvidia skapat en hårdvarulösning som gör att istället för att rendera något över extrem lång tid kan vi till och med lägga in det i spel och få snyggare grafik som aldrig tidigare varit möjlig.

Marginella ökningar gäller givetvis för äldre spel, men det finns helt enkelt inte plats på kretsen, den är redan mycket större än vad man trodde det var möjligt.

"Tippar på att raytracing läggs till i Gameworks som ytterligare ett sätt att sätta käppar i hjulet för AMD."
RTX implementerar sig mot DirectX Ray Tracing och vad det nu heter i Vulcan, det är fullt öppet för andra att implementera mot detta och det är därför till exempel Pascal kan köra RT, bara att det inte finns något hårdvarustöd för det.

Så med detta sagt så har du skapat ett hatinlägg mot Nvidia över något du inte verkar förstått eller så har du läst information som är helt åt skogen felaktig.

Att man tycker att korten är utanför sin prisklass får man tycka, bara att inte köpa. Pajkastning om att folk är korkade, dumma etc för att de köper är obefogade och rent ut sagt ganska barnsligt, vi sitter faktiskt på ett teknikforum. Att Nvidia kör fulspel och mjölkar sina kunder utan att göra något nytt är felaktigt då de uppenbarligen gjort väldigt mycket nytt.

Permalänk
Medlem

Jag skulle vilja se tester i DOOM och nya Wolfenstien Vulkan också

edit, såg att TH har gjort tester. Rätt bra prestanda med Vulkan helt klart.

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Relik 📜
Skrivet av DevilsDad:

@emilakered:
Blev inte riktigt klok på hur DLSS är tänkt att användas baserat på artikeln. Är det tänkt att användas som en kantutjämningsmetod? Altså skala upp bilden för att sedan använda den uppskalade bilden som underlag för en msaa liknande kantutjämning? (Dvs skalar upp bilden ist för att rendera extra punkter)

Eller kan det faktiskt användas för att rendera en lägre upplösning än skärmens upplösning men få bättre kvalite jämfört med att låta skärmen sköta uppskalningen? Eller finns båda alternativen beroende på prestandakrav?

Tror @JonasT är bättre att svara på den, han har läst på och skrivit texten!

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem

Skulle också ha velat se vulkan tester i t.ex Doom.

Med priser på mellan 13.999 - 16.000SEK så finns det ingen chans att man ens tittar på ett highend kort i denna serie.

Permalänk
Redaktion
Praktikant ✨
Skrivet av DevilsDad:

@emilakered:
Blev inte riktigt klok på hur DLSS är tänkt att användas baserat på artikeln. Är det tänkt att användas som en kantutjämningsmetod? Altså skala upp bilden för att sedan använda den uppskalade bilden som underlag för en msaa liknande kantutjämning? (Dvs skalar upp bilden ist för att rendera extra punkter)

Eller kan det faktiskt användas för att rendera en lägre upplösning än skärmens upplösning men få bättre kvalite jämfört med att låta skärmen sköta uppskalningen? Eller finns båda alternativen beroende på prestandakrav?

Förstår att det är förvirrande, då Nvidias dokumentation inte är helt självklar heller. DLSS kan användas på flera sätt, men det Nvidia pushar för mest är möjligheten att köra exempelvis en hög upplösning (t.e.x. 4K UHD) utan att åka på de extrema prestandastraff som det pixelskyfflandet innebär. I det fallet kommer DLSS att rendera specifika delar i lägre kvalitet för att sedan använda sig av modellen från maskininlärningen och fylla i detaljer för i största utsträckning efterlikna en scen som renderats i full upplösning.

Exakt vilken kvalitet själva grundrenderingen sker i ihop med DLSS är dock oklart, då detta inte finns specificerat i någon dokumentation jag hittat. Kort och gott en svart låda i dagsläget.

Därtill finns det även ett DLSS 2X-läge som ska ge "supersamplad" bildkvalitet vid exempelvis 4K UHD utan att för den delen rendera scenen i exempelvis dubbla upplösningen (vilket är galet prestandatungt och ohållbart på dagens grafikhårdvara). Tillvägagångssättet liknande som vanliga DLSS, bara att den utgår från upplösningen som är inställd i spelet och försöker fylla i detaljer.

Så för att sammanfatta är det primärt en teknik för att vinna prestanda (bildfrekvens) i tunga scenarion (4K UHD med höga grafikinställningar exempelvis) där grafikkortet har svårt annars att hänga med. Kantutjämning får man dock på köpet då modellen från maskininlärningen strävar efter att efterlikna en bild som är renderad i extrem upplösning.

Permalänk
Benchmaskin 🍞
Skrivet av Oneone:

Jag skulle vilja se tester i DOOM och nya Wolfenstien Vulkan också

edit, såg att TH har gjort tester. Rätt bra prestanda med Vulkan helt klart.

Skrivet av m0rk:

Skulle också ha velat se vulkan tester i t.ex Doom.

Med priser på mellan 13.999 - 16.000SEK så finns det ingen chans att man ens tittar på ett highend kort i denna serie.

Vi försökte med DOOM men tyvärr (för vår del) flyter det för bra och har ett FPS-lås på 200 FPS vilka många kort slår i väldigt enkelt. MEN om något vet någon slinga som kan köras om flera gånger så shoot!

Wolfenstein kanske vi kan kika på framöver. Oklart om det har ett FPS-lås men det verkar vara tyngre oavsett så kan nog funka.

Permalänk
Master of Overkill
Skrivet av Lifooz:

Tack för bilden min vän.
Det var minst sagt en rejäl skillnad mellan 2x2080 och 2x2080Ti.
Nog för att de sistnämnda tillsammans springer iväg i pris men med den prestandan så hade man kunnat hoppas på att NV-link faktiskt skulle bli populärare än det verkar att bli.
14K extra för att spela "guldåder" i ett mindre antal spel känns lite B faktiskt.
Skulle det dock ta storm och tillagt stöd görs lätt för speltillverkare att lägga in så är det däremot en annan saga.

/Lifooz

Vadå 8K surround kör alla?

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av Kenneth:

Vi försökte med DOOM men tyvärr (för vår del) flyter det för bra och har ett FPS-lås på 200 FPS vilka många kort slår i väldigt enkelt. MEN om något vet någon slinga som kan köras om flera gånger så shoot!

Wolfenstein kanske vi kan kika på framöver. Oklart om det har ett FPS-lås men det verkar vara tyngre oavsett så kan nog funka.

Intressant! slog den i taket för 4K också? slå på stora trumman och kör DSR med 8K istället då

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Datavetare

@JonasT: som jag förstått DLSS finns det ingen definitiv specifikation för vad det betyder mer än man använder "machine learning inference" (processen att använda en redan tränat neuronnätverk för att dra slutsatser om ny indata) för att förbättra bildkvalitén.

Ett sådant fall som nämnts är att kombinera checker-board rendering med DLSS. Checker-board rendering kan i vissa lägen ge den här typen av artefakter

DLSS skulle då användas för att gå från bild #3 till något som ligger väsentligt närmare bild #4 (äkta 4k).

Tanken är att DLSS steget kan utföras mer eller mindre "gratis" då det utförs av tensor-kärnorna och inte på SMs.

Ett annan variant jag sett nämnas är att hantera ljussättning via strålföljning i halva upplösningen (för att kunna hantera det på ett rimligt sätt på något under RTX2080Ti) och sedan använda DLSS för att skala upp det till full upplösning. Egentligen inget konstigt alls då många spel redan idag kör SSAO (screen space ambient occlusion) i halv upplösning just för att prestandapåverkan är för hög annars.

Ovan tas dock med en nypa salt då det är var jag hört/läst, har inte sett något konkret så här långt.

Edit: MLSS -> DLSS

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Tomika:

Ler lite när jag ser alla naiva "högt pris? Köp inte då" resonemang. Och sen dras det jämförelser till ferraris. Vänta nu.
2080 sjunker i värde varje år. En Ferrari sjunker och ökar sedan. Viss skillnad.
Men ska vi intala oss själva att ökade priser bara är ett problem för den fattige så får dom gärna höja er hyra med 45-50% också. Har ni inte råd så flytta ut. C'mon nu. Någon logik besitter nog varje person. Att Nvidia ökar priserna till 14000-15000 är bara för att dom kan. Men rättfärdiga det gör så

Väl talat. Dock tror jag att vi får ta med i ekvationen att medelåldern sjunkit ganska mkt på Sweclockers de senaste åren. Åtminstone känns det så rent generellt i diskussioner.

Personligen kommer jag att hoppa över den här generationen och hoppas på att Nvidia tar sitt förnuft till fånga eller att AMD kan komma och konkurrera med 7nm.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Avstängd
Skrivet av X-TroNiC:

Jag har nu avbokat mitt 2080Ti Trio X, kan bara inte motivera 6k för 25% bättre prestanda vs 1080Ti i 1440P. Är ju rent vansinne nu när 7nm snart är här..

Tack för att du gjorde din röst hörd som kund! Jag hoppas att fler hoppar på samma tåg för att visa NVIDIA att prismissbruk inte tillåts trots att "pengar finns".

Visa signatur

"Företagsboendeförmedlare" | Min Überkill Dator: Processor: Intel Pentium P5 66 Mhz OC | Moderkort: ASRock P4I65G | Minnen: 2st Samsung 128MB PC133 | Grafikkort: Canopus GeForce 256 DDR | Lagring: IBM 350 4,4 MB | Operativsystem: DOS/360 | Chassi: Mercury Full-Tower ATX Chassis |

Permalänk
Medlem

@AplAy: Tyvärr gav jag ju nvidia pengar iaf, köpte ett 1080Ti för 7500kr istället

Visa signatur

7800X3D | 7900XTX Merc 310 Alphacool | ASUS B650E-F | G.Skill 6000Mhz 32GB CL30 | SN850X | EK Quantum custom loop | Be Quiet 900 Dremel Edition | ASUS Xonar STX + Sennheiser HD650 | Corsair RM1000x | Monitor: LG C2 42 | Nintendo Switch | TV: LG C1 65

Permalänk
Medlem
Skrivet av wargreymon:

Om någon verkar upprörd verkar det snarare vara du, istället för att läsa det jag föreslog blir du upprörd att jag påpekar hur fel allt du skrev var. Så låt mig bryta ner det så du förstår varför det du skrev är helt åt skogen fel.

"Absolut inget nyskapande eller köpvärt här."
Halva kretsen här är nyskapande, RT-kärnor och Tensor-kärnor. Du kan inte påstå att detta inte är något nytt och har funnits tidigare, för det har det inte.

"Bara dyra gimmickar och marginella prestandaökningar."
Ray Tracing är ingen gimmick som Nvidia hittat på, det är en metod att skapa fotorealistisk grafik och har använts sjukt länge, enda problemet är att det krävts grym brute prestanda för att lösa det. Nu har Nvidia skapat en hårdvarulösning som gör att istället för att rendera något över extrem lång tid kan vi till och med lägga in det i spel och få snyggare grafik som aldrig tidigare varit möjlig.

Marginella ökningar gäller givetvis för äldre spel, men det finns helt enkelt inte plats på kretsen, den är redan mycket större än vad man trodde det var möjligt.

"Tippar på att raytracing läggs till i Gameworks som ytterligare ett sätt att sätta käppar i hjulet för AMD."
RTX implementerar sig mot DirectX Ray Tracing och vad det nu heter i Vulcan, det är fullt öppet för andra att implementera mot detta och det är därför till exempel Pascal kan köra RT, bara att det inte finns något hårdvarustöd för det.

Så med detta sagt så har du skapat ett hatinlägg mot Nvidia över något du inte verkar förstått eller så har du läst information som är helt åt skogen felaktig.

Att man tycker att korten är utanför sin prisklass får man tycka, bara att inte köpa. Pajkastning om att folk är korkade, dumma etc för att de köper är obefogade och rent ut sagt ganska barnsligt, vi sitter faktiskt på ett teknikforum. Att Nvidia kör fulspel och mjölkar sina kunder utan att göra något nytt är felaktigt då de uppenbarligen gjort väldigt mycket nytt.

Man kan ju uttrycka sig lite mer civiliserat helt klart. Men oftast bättre att bara säga rakt ut att detta är helt åt skogen, att folk väljer att stödja Nvidia genom att köpa deras nu överprisade kort.

Permalänk
Hjälpsam

DLSS verkar ha en del nackdelar, när mycket rör sig.
Nvidia Turing Product Reviews and Previews: 2080TI, 2080, 2070, 2060

Vi får lite av den känslan man får när man ser fotboll i digitalteven, gräset blir en grön massa när kameran rör sig för att sedan bli skarpt när kameran står stilla.
Kör man racerbil spelar det kanske inte så stor roll, det blir lite av motionblur av omgivningen , i andra fall irriterar man kanske sig på effekten.

edit Nu skall det sägas att ingen teknik för AA är perfekt.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Tack för en djupgående recension!
Skulle ni vilja lägga till ett testfall till, "prestanda vid samma klockfrekvens"?
Jag vill minnas att någon gjorde ett sådant test med 1000-serien och kom fram till att prestandan motsvarade Maxwell, dvs IPC/FPS var den samma.
För Turing ser det dock ut att vara annorlunda då klockfrekvenserna inte skiljer sig så mycket medan FPS gör det.

Permalänk
Medlem
Skrivet av Yoshman:

@JonasT: som jag förstått MLSS finns det ingen definitiv specifikation för vad det betyder mer än man använder "machine learning inference" (processen att använda en redan tränat neuronnätverk för att dra slutsatser om ny indata) för att förbättra bildkvalitén.

Ett sådant fall som nämnts är att kombinera checker-board rendering med MSLL. Checker-board rendering kan i vissa lägen ge den här typen av artefakter
https://1.bp.blogspot.com/-ao6zGFNNItc/WF181OrcU8I/AAAAAAAAArk/d5U4pXkZdMU7_OpW1SPMcvbLAz25msO_ACEw/s1600/1080p_4k_comparison_1.png
MLSS skulle då användas för att gå från bild #3 till något som ligger väsentligt närmare bild #4 (äkta 4k).

Tanken är att MLSS steget kan utföras mer eller mindre "gratis" då det utförs av tensor-kärnorna och inte på SMs.

Ett annan variant jag sett nämnas är att hantera ljussättning via strålföljning i halva upplösningen (för att kunna hantera det på ett rimligt sätt på något under RTX2080Ti) och sedan använda MLSS för att skala upp det till full upplösning. Egentligen inget konstigt alls då många spel redan idag kör SSAO (screen space ambient occlusion) i halv upplösning just för att prestandapåverkan är för hög annars.

Ovan tas dock med en nypa salt då det är var jag hört/läst, har inte sett något konkret så här långt.

Det är fint att ni använder alla dessa quad-förkortningar, men vad betyder de? DLSS står väl för Deep Learning Super-Sampling. Men vad står MSLL för? MLSS betyder väl (machine learning super sampling)? Ibland är det bra att skriva ut förklaringen en gång i början av en text när förkortningen uppkommer.

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Medlem

@Söderbäck:

En annan observation om hela debatten pris vs prestanda är att om man kollar på Sweclockers egna test när 1080 kom så var hoppet från 980TI till 1080 ungefär samma som du nu ser från 1080Ti till 2080Ti.

Hoppet från 980Ti till 1070 var ungefär samma som hoppet från 1080Ti till 2080, alltså väldigt litet när man jämförde FE mot FE.

Det ger mig känslan av att de ville kunna släppa RTX i den högre prisklassen omedelbart så de flyttade helt enkelt upp korten en modell jämfört med tidigare praxis. Alltså, 2080Ti borde varit 2080, 2080 borde varit 2070.

Sedan det faktum att jämförelsen mellan 1080Ti FE och 2080 FE är från ett kort med den gamla referenskylaren med en fläkt till den nya, och ett kort med base-spec frekvens till ett som går över base-spec, tyder ju på att om de gjort Founders Edition på samma sätt som tidigare så hade klivet upp varit ännu mindre än det var ens 980Ti - 1070.

Andra saker som 108Ti 3584 Cuda cores med 11GB Vram - 2080 FE med 2944 Cuda cores och 8GB Vram ger ju också känslan att 2080 egentligen är ett mellanklasskort.

Jag vet inte varför Nvidia möjligen skulle känna sig stressade att tvinga fram högre priser ur marknaden just nu när de ligger på topp- men undrar om de vet något vi inte vet som motiverar dem att ta bästa möjliga marginal nu medan de fortfarande kan.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Ratatosk:

DLSS verkar ha en del nackdelar, när mycket rör sig.
Nvidia Turing Product Reviews and Previews: 2080TI, 2080, 2070, 2060

Vi får lite av den känslan man får när man ser fotboll i digitalteven, gräset blir en grön massa när kameran rör sig för att sedan bli skarpt när kameran står stilla.
Kör man racerbil spelar det kanske inte så stor roll, det blir lite av motionblur av omgivningen , i andra fall irriterar man kanske sig på effekten.

edit Nu skall det sägas att ingen teknik för AA är perfekt.

Påminner lite om ett jobb jag hade på 90-talet med de första digitalboxarna för satellit-tv. Sitta och titta på sändningar och notera alla artefakter som uppkommer i bilden. Det var svårt att komprimera och skicka ut en komplicerad och rörlig bild i direktsändning då (typ fotbollsmatch eller vågor på vatten) och liknande problem verkar fortfarande bestå idag när man ska göra digital behandling i realtid.

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Medlem
Skrivet av Kaine_Uro:

Man kan ju uttrycka sig lite mer civiliserat helt klart. Men oftast bättre att bara säga rakt ut att detta är helt åt skogen, att folk väljer att stödja Nvidia genom att köpa deras nu överprisade kort.

Överprisat enligt vad? Hur sätter man ett pris på RT och Tensor-kärnor/AI som ingen annan har gjort tidigare?

Är en bil för 1.5m men med vingar och kan flyga och går i 180km/h överprisad för att det finns en liknande bil utan vingar som går i 150km/h och kostar 800k?

Permalänk
Medlem
Skrivet av Shiprat:

@Söderbäck:

En annan observation om hela debatten pris vs prestanda är att om man kollar på Sweclockers egna test när 1080 kom så var hoppet från 980TI till 1080 ungefär samma som du nu ser från 1080Ti till 2080Ti.

Hoppet från 980Ti till 1070 var ungefär samma som hoppet från 1080Ti till 2080, alltså väldigt litet när man jämförde FE mot FE.

Det ger mig känslan av att de ville kunna släppa RTX i den högre prisklassen omedelbart så de flyttade helt enkelt upp korten en modell jämfört med tidigare praxis. Alltså, 2080Ti borde varit 2080, 2080 borde varit 2070.

Sedan det faktum att jämförelsen mellan 1080Ti FE och 2080 FE är från ett kort med den gamla referenskylaren med en fläkt till den nya, och ett kort med base-spec frekvens till ett som går över base-spec, tyder ju på att om de gjort Founders Edition på samma sätt som tidigare så hade klivet upp varit ännu mindre än det var ens 980Ti - 1070.

Andra saker som 108Ti 3584 Cuda cores med 11GB Vram - 2080 FE med 2944 Cuda cores och 8GB Vram ger ju också känslan att 2080 egentligen är ett mellanklasskort.

Jag vet inte varför Nvidia möjligen skulle känna sig stressade att tvinga fram högre priser ur marknaden just nu när de ligger på topp- men undrar om de vet något vi inte vet som motiverar dem att ta bästa möjliga marginal nu medan de fortfarande kan.

Du besvarade ju din egen fråga. Ligger man på topp utan konkurrens kan man ta ut premiumpriser. Att tro att AMD skulle dra ut något magiskt ur sin trollerihatt gällande GPU är nog lite naivt, de fokuserar nog mer på andra områden just nu.

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Medlem

Till er som väntar på ASUS RTX 2080 Ti Strix
Nu börjar det bli dyrt på riktigt 16 499:-
https://www.inet.se/produkt/5406789/asus-geforce-rtx-2080-ti-...

Visa signatur

MoBo: Asus Maximus XI Hero
CPU: Intel Core i9 9900K @ 5.1GHz + Asus Ryujin 360
RAM: Corsair Vengeance LPX DDR4 32GB @ 3600MHz
GPU: PowerColor RX 7800 XT Red Devil Ltd Edition | Monitor: Acer X38S
Chassi: Phanteks Evolv X + 3st Noctua NF-A14 iPPC | PSU: Corsair AX1200i

Permalänk
Hjälpsam
Skrivet av UniMatrixZ:

Till er som väntar på ASUS RTX 2080 Ti Strix
Nu börjar det bli dyrt på riktigt 16 499:-
https://www.inet.se/produkt/5406789/asus-geforce-rtx-2080-ti-...

Dyrt? nja det är i alla fall fri frakt.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare
Skrivet av cyprus:

Det är fint att ni använder alla dessa quad-förkortningar, men vad betyder de? DLSS står väl för Deep Learning Super-Sampling. Men vad står MSLL för? MLSS betyder väl (machine learning super sampling)? Ibland är det bra att skriva ut förklaringen en gång i början av en text när förkortningen uppkommer.

Du har helt rätt, ska stå DLSS! Läser en massa om machine-learning för tillfället, så blev en tankevurpa. Har redigerat inlägget.

Rent generellt verkar DLSS vara ett samlingsnamn för en rad olika tekniker där gemensam nämnare är att man gör något med lägre inställningar och använder maskininlärningsteknik för att rätta till de artefakter som en människa kan se p.g.a. av den lägre kvalitén.

Känns inte alls osannolikt att tensor-kärnorna i slutändan visar sig mer användbara jämfört med RT-kärnorna. Detta då maskininlärning kan användas på så pass många sätt.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Tror som sagt inte att siktet ligger på att få dessa RTX-kort sålda med stor kvantitet, det är nog mer fokus på psykologi. Helt plötsligt är kanske inte 10xx-korten så dyra(även om man upplevde detta innan). Anar att det kommer skyfflas en hel del 10xx-kort. Smart av Nvidia.

stava* Nviidididiidiiaia, Nividia eller kanske Nvidia? :)
Visa signatur

Chassi: Corsair Obsidian 500 RGB SE / Systemdisk Samsung 980 PRO SSD: Samsung 850 PRO 250GB / SSD: Samsung 850 EVO 250GB / SSD: Crucial MX300 1TB / CPU: Ryzen 7 3800X @ 4,2 Ghz / Kylning: Noctua NH-D15S push/pull / GPU: MSI 3080Ti SUPRIM X / PSU: Corsair RM1200i / MB: ASUS X470-f Gaming / RAM: HyperX Fury 2x16GB 3600 mhz / OS: W10 / Mus: Logitech G903 / TB: Logitech G915 TKL Wireless / Ljud: Sound BlasterX Pro-Gaming AE-9, Blue Yeti , Sennheiser HD660S, Skärm: Acer Predator X34P @3440x1440 UltraWide

Permalänk
Medlem
Skrivet av dakke:

Förvånadsvärt höga siffror för FE kortet faktiskt, vad tror ni man kan ådstakomma i överklockningsväg på tredjepartstillverkade TI korten? Kan man ens komma i närheten av FE prestandan?

FE är antagligen binnade så jag skulle bli förvånad om så vore fallet.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Inofficiell ambassadör
Skrivet av Lifooz:

Tack för bilden min vän.
Det var minst sagt en rejäl skillnad mellan 2x2080 och 2x2080Ti.
Nog för att de sistnämnda tillsammans springer iväg i pris men med den prestandan så hade man kunnat hoppas på att NV-link faktiskt skulle bli populärare än det verkar att bli.
14K extra för att spela "guldåder" i ett mindre antal spel känns lite B faktiskt.
Skulle det dock ta storm och tillagt stöd görs lätt för speltillverkare att lägga in så är det däremot en annan saga.

/Lifooz

Fast stopp nu. Vad är det de mäter? Det där är inte FPS. Det är ju typ maximal möjlig data throughput över Nvlink/SLI bryggan. Eller?

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5600X RAM Corsair Vengance 16GB @ 36000 MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Permalänk
Master of Overkill
Skrivet av Xyborg:

Fast stopp nu. Vad är det de mäter? Det där är inte FPS. Det är ju typ maximal möjlig throughput. Eller?

Korrekt.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240