nVidia RTX, därför galet pris?!

Permalänk
Medlem

Prestandajämförelse (F32P TFLOPS):

Visa signatur

12c/24t 4.0GHz (Zen2) • 2x16GiB 3200MHz C14 • RTX 2080 FE 1965MHz 7000MHz • X570 I PW • Ghost S1 MKII

Permalänk
Medlem

Ett 1080Ti med ETHlargementpill körandes pumpar ut ca 50mh/s om man minar ethereum. Titan V krossar det med runt 80mh/s eller högre, priset på Titan V resulterade dock i att det är en osannolik investering för mining.

Om nya RTXkorten är liknande nog för att man ska kunna räkna med runt 80mh/s på 2080Ti så ligger priset på det precis rätt för att både 1080Ti och 20xx ska vara värda att fortsätta köpa för ethereum miners- 2080Ti kan eventuellt vara en bättre långsiktig investering för mindre ström/mh men högre tillgänglighet, lägre investeringströskel, existerande stöd och optimeringar man får med 1080Ti gör att det förblir ett stabilt val det med.

Jag tror absolut att Nvidia såg följande faktorer:

  1. De kan ta upp till just dessa pris och fortfarande ha en bra kundbas i mining som hindrar priset från att falla för mycket

  2. Om de sätter priset rätt så kommer kundbasen i mining för 1080ti göra en stor prissänkning på 10xx serien osannolik och därav kan de få in mängder av pengar på den äldre serien och dominera marknaden för allt under 20xx serien utan att behöva stressa med att släppa billigare kort

  3. För gamers kan de motivera prisen på nya serien med features som ingen konkurrent har än och pusha märken i GPP att marknadsföra raytracing tills det blir en nödvändighet

  4. Om tidiga siffror på prestanda med ray tracing är något att gå efter så kommer effektiva FPS sannolikt hamna i det område där man drar nytta av G-Sync, vilka främjar Nvidia långsiktigt då det låser gamers ännu mer i deras trädgård

  5. Med denna dominans på alla sidor av marknaden är de perfekt placerade för att börja förstäka väggarna i sin "walled garden" så att det blir progressivt svårare för en en annan aktör att någonsin konkurrera med Nvidia på deras villkor

Det lär bara bli värre tills en konkurrent antingen tar prestandakronan eller gamers magiskt inser att de faktiskt kan ta ett AMD-kort om deras budget är ~3000-6000 och få bra prestanda- men mänsklig natur betyder att folk oftast kommer köpa något som är aningen över vad de egentligen har råd med, och då leder det till Nvidia ett tag framöver.

Miningfaktorn tror jag kommer lugna sig inom närmsta året, ju närmare Ethereum kommer till att köra proof-of-stake istället för proof-of-work och de som den näst största cryptovalutan plötsligt minskar behovet av hashrate enormt. Större delen av hashraten lär flytta över till ETC ett tag men tvivlar på att den består permanent.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av rozh99:

Nu råkar jag vara lite förvirrad här, hur kommer det sig att under streamen sa killen att priserna skulle vara 500, 699 och 999 men när jag tog en titt på deras sida så hade priserna ökats med 100-200 dollar? kommer det tillbaka till priserna han sa det skulle vara efter launch eller spottade han på mitt ansikte?

Nu har du förmodligen listat ut det redan, men det är nvidia's Founder's Edition som kostar extra än nämnt på Gamescom, så vitt jag förstår det.
Det vill säga, när andras grafikkort har etablerats på marknaden så förväntar jag mig att priserna på dem är mer i linje med vad som han nämnde.

Permalänk
Hjälpsam

@anon162230: Jag håller nog med dig i alla tre punkterna.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Icte:

Prestandajämförelse (F32P TFLOPS):
https://i.redd.it/eypw5ts1tih11.png

Med tanke på hur tysta Nvidia har varit så tror jag tyvärr denna är ungefär representativ för hur det ser ut i praktiken, vilket med tanke på priserna är... nånting jag inte vill skriva i text.

Jag har fortfarande ett *litet* hopp om att dom faktiskt trollat till Turing så mycket att ett kort med
~2500 Turing kärnor presterar lika bra som ~3500 Pascal kärnar.

Detta planterar ett RTX2070 strax under ett GTX1080Ti och de andra korten bara bättre förstås. Då skulle iaf priset på 2070 och 2080 kunna motiveras jämtemot nuvarande priser och ett 2080Ti vara ett totalt monster.

Men det känns som en dröm.

Permalänk
Moderator
Festpilot 2020, Antiallo
Skrivet av Icte:

Prestandajämförelse (F32P TFLOPS):
https://i.redd.it/eypw5ts1tih11.png

Prestandanskillnaden på 2080 Ti kontra 1080 Ti motsvarar drygt kvot som antalet kärnor i 2080 Ti kontra 1080 Ti. I runda slängar 20 %. Sedan kanske det finns andra skillnader, allt är ju inte flyttal men jag är skeptisk.

Ser vi 20-25% bättre prestanda på ett 2080 Ti vid generell spellast (där RTX-ops inte nyttjas) så är jag inte speciellt förvånad. Troligen närmre 20%-gränsen.

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Medlem
Skrivet av murklor:

Med tanke på hur tysta Nvidia har varit så tror jag tyvärr denna är ungefär representativ för hur det ser ut i praktiken, vilket med tanke på priserna är... nånting jag inte vill skriva i text.

Jag har fortfarande ett *litet* hopp om att dom faktiskt trollat till Turing så mycket att ett kort med
~2500 Turing kärnor presterar lika bra som ~3500 Pascal kärnar.

Detta planterar ett RTX2070 strax under ett GTX1080Ti och de andra korten bara bättre förstås. Då skulle iaf priset på 2070 och 2080 kunna motiveras jämtemot nuvarande priser och ett 2080Ti vara ett totalt monster.

Men det känns som en dröm.

Läste nånstans jag inte kan hitta nu att IPC ökningen på en CUDA kärna mellan Fermi som kom 2010, och Pascal var 2%, så det är nog rätt osannolikt att det är några stora skillnader om det stämmer.

Permalänk
Medlem

Helt sjuka priser. Minns när man fick en bra dator för 14k!

Skickades från m.sweclockers.com

Permalänk
Datavetare
Skrivet av Shiprat:

Ett 1080Ti med ETHlargementpill körandes pumpar ut ca 50mh/s om man minar ethereum. Titan V krossar det med runt 80mh/s eller högre, priset på Titan V resulterade dock i att det är en osannolik investering för mining.

Om nya RTXkorten är liknande nog för att man ska kunna räkna med runt 80mh/s på 2080Ti så ligger priset på det precis rätt för att både 1080Ti och 20xx ska vara värda att fortsätta köpa för ethereum miners- 2080Ti kan eventuellt vara en bättre långsiktig investering för mindre ström/mh men högre tillgänglighet, lägre investeringströskel, existerande stöd och optimeringar man får med 1080Ti gör att det förblir ett stabilt val det med.

Då Ethereum använder en algoritm som kräver 64 st 128 bitars läsningar per hash-beräkning så blir den teoretiska maxkapaciteten för 2080 Ti

616 GB/s / (128 * 64) * 1000 [G -> M] = 75 MH/s

Sedan är frågan om GDDR6 uppför sig mer likt GDDR5 eller GDDR5X. GDDR5X och Ethereum är ju inte riktigt polare så där hamnar man en bit från teoretisk max medan man kommer rätt nära med GDDR5 (och även med HBM).

Kikar man på vad man kan förvänta sig från generell prestanda hamnar man i ett getingbo... GTX 1080 Ti vs GTX 2080 Ti

SMs råkraft: 13,4 TFLOPS vs 11,3 TFLOPS (19 %)
RAM bandbredd: 616 GB/s vs 484 GB/s (27 %)
ROP kapacitet: 118 GP/s vs 130 GP/s (-10 %)

Så med detta kan det ju slå åt båda hållen! En sak som är värd att nämna här är att 2070 får en väldigt stor ökning i RAM-bandbredd över 1070, hela 75 %. Frågan är hur det översätts till faktiskt prestanda ökning?

Finns också saker som, beroende på effekten de har i praktiken, talar klart för 20-serien.
SMs i Turing verkar vara identiska med de i Volta. De är förbättrade över Pascal på flera sätt.

De saker som kan spela roll är att SMs har mycket högre bandbredd mot cache (gissar att det spelar större roll för GPGPU, förbättring i cache borde vara till fördel i fall där "CUDA-kärnor" måste dela data, något som är rätt ovanligt för rastrering).

Vidare kan nu SM köra heltal och flyttals beräkningar parallellt. Exakt vad det ger är extremt beroende på vad man gör, rimlig genomsnittlig förväntning är gissningsvis inom spannet 0-30 %.

Det som kanske mest talar för att 20-serien kan se en signifikant förbättring vid hög upplösning är DLSS (deep-learning super-sampling). Det var ju något man hade en demo på där 2080 Ti, enligt Nvidia, körde en UE4 demo >60 FPS som 1080 Ti klarade att dra runt i ungefär hälften.

Givet vad prestanda verkar ligga med raytracing i t.ex. SoTR så kanske det i praktiken kommer vara ett krav att kombinera DLSS och raytracing. Huvudpoängen med DLSS är ju att spelmotorn kan rendera i lägre upplösning för att sedan skalas upp med DLSS.

Här har man ställt till det namngivningsmässigt då "RTX" (programvaran) innefattar både raytracing men även DLSS (som använder tensor-cores, inte rt-cores)... I de spel som utannonserats få "RTX" stöd är det ju vissa som får ljuseffekter med raytracing, andra får DLSS medan ett par får båda (inget spel som får båda tror jag har testats någonstans än).

På sikt lär raytracing ta över helt för ljussättning. Det blir inte bara snyggare, det är även klart mindre jobb för spelutvecklarna så kommer finnas ett tryck därifrån. Men v1.0 av det mesta brukar ha problem + det går ju inte droppa stödet för "fuskljus" innan nära 100 % den tänka kundbasen kan använda raytracing.

En bieffekt av lansering av 20-serien borde i alla fall vara att DX12/Vulkan blir normen då varken DXR eller DLSS lär fungera med DX11.

Edit: DLAA -> DLSS

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Yoshman: Mycket bra punkter. För min del kör jag inte så mycket cinematiska spel så känner inget behov av RT, och kör i 1440p 144hz vilket jag oftast kan hålla i 100+ med ett 1080ti. Jag gissar på att Nvidias roadmap kommer vara att vänta tills lagren sinar på pascal innan prissänkningar och att i nästa generation slänga in fler RT / Tensor cores. Är skönt att känna att jag kan sitta ut denna generation either way och hoppa in när det väl finns spel jag vill spela som drar nytta av dess saker, samt eventuellt även konkurrerande hårdvara.

Är vansinnigt nyfiken på vad AMD kommer ge för respons, jag har två Vega 64 också och känner att de är mycket mer kapabla än vad man kan tro av att läsa recensioner. Och överklocking/undervoltning på Vega är så mycket mer underhållande än på Pascal

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av ddelin:

Läste nånstans jag inte kan hitta nu att IPC ökningen på en CUDA kärna mellan Fermi som kom 2010, och Pascal var 2%, så det är nog rätt osannolikt att det är några stora skillnader om det stämmer.

Dock är ju nyheten om att Turing kärnor är 50% snabbare än Pascal kärnor intressant... Och det räcker precis till för att bumpa upp RTX2070 till runt GTX1080Ti prestanda (förutom 8gb vs 11gb förstås).

Men visst, jag tror inte på det heller förren jag ser faktiska benchmarks och tester.

Permalänk
Medlem

För mig är 4000 kr max vad jag betalar för ett grafikkort, inte en 1 öring mer

Visa signatur

Coca Cola missbrukare Förbjuden dryck för mig pga diabetes
AMD älskare
Katt älskare

Permalänk
Moderator
Testpilot
Skrivet av murklor:

Dock är ju nyheten om att Turing kärnor är 50% snabbare än Pascal kärnor intressant... Och det räcker precis till för att bumpa upp RTX2070 till runt GTX1080Ti prestanda (förutom 8gb vs 11gb förstås).

Men visst, jag tror inte på det heller förren jag ser faktiska benchmarks och tester.

Det är för att Turing kan köra INT32 och FP32 shading parallellt. Som denna sliden visar.

Detta kräver ju såklart att funktionen är implementerad av utvecklaren av spelet. Så i det fallet är Turing 50% per "operation". Spel idag bygger på FP32 shading enbart. Eftersom det är den tekniken vi kommer ifrån.

Troligen har Nvidia utvecklat en SDK a la GameWorks Shader eller nåt som hjälper utvecklarna av spelet att utnyttja INT32 shading, aka Tensor Cores. (Vild spekulation)

Det är iaf så jag har förstått det.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Yes, tänker inte köpa. Om inte ett unket 2070 visar sig prestera som två 1080Tis eller något sånt galet då

Deltar dock fanimig i alla tävlingar från butiker som vill ha uppmärksamhet

Visa signatur

i7-2700K 5GHz | 32GB DDR3-1600 | ASUS Maximus V Gene | GTX 980

Permalänk
Medlem
Skrivet av Dinoman:

Detta kräver ju såklart att funktionen är implementerad av utvecklaren av spelet. Så i det fallet är Turing 50% per "operation". Spel idag bygger på FP32 shading enbart. Eftersom det är den tekniken vi kommer ifrån.

Troligen har Nvidia utvecklat en SDK a la GameWorks Shader eller nåt som hjälper utvecklarna av spelet att utnyttja INT32 shading, aka Tensor Cores. (Vild spekulation)

Går inte riktigt ihop eftersom det är spel som PUBG, Wolftenstein II, Hitman 2, Shadow of War etc som dom har jämfört med och claimar 50% per core improvement. Dessa är väl spel som finns idag?

Permalänk
Medlem

Har ingen anledning att byta ut mitt Asus 1070 Strix OC som jag köpte för 3300:- på komplett för något år sedan.

Alldeles för dyra kort i mitt tycke, hur bra dom än är
Max 4000:- på ett gpu för min del, så byter när jag kan få en bra uppgradering för dom pengarna ifrån mitt 1070.

Permalänk
Moderator
Testpilot
Skrivet av murklor:

Går inte riktigt ihop eftersom det är spel som PUBG, Wolftenstein II, Hitman 2, Shadow of War etc som dom har jämfört med och claimar 50% per core improvement. Dessa är väl spel som finns idag?

Det är sant.

Jaja jag ser med spänning fram emot Swecs tester.

Skickades från m.sweclockers.com

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Hjälpsam
Skrivet av murklor:

Går inte riktigt ihop eftersom det är spel som PUBG, Wolftenstein II, Hitman 2, Shadow of War etc som dom har jämfört med och claimar 50% per core improvement. Dessa är väl spel som finns idag?

Pascal suger inte i DX12 men det skiner inte heller, kanske Turing gör det?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam

En liten fundering.
Kommer det ett GTX2080Ti/2080/2070 i framtiden?
Utan RTX-delen, borde priset gå ned rejält, ett 2060 sägs ju vara i faggorna.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Inaktiv
Skrivet av Yoshman:

Då Ethereum använder en algoritm som kräver 64 st 128 bitars läsningar per hash-beräkning så blir den teoretiska maxkapaciteten för 2080 Ti

616 GB/s / (128 * 64) * 1000 [G -> M] = 75 MH/s

Sedan är frågan om GDDR6 uppför sig mer likt GDDR5 eller GDDR5X. GDDR5X och Ethereum är ju inte riktigt polare så där hamnar man en bit från teoretisk max medan man kommer rätt nära med GDDR5 (och även med HBM).

Kikar man på vad man kan förvänta sig från generell prestanda hamnar man i ett getingbo... GTX 1080 Ti vs GTX 2080 Ti

SMs råkraft: 13,4 TFLOPS vs 11,3 TFLOPS (19 %)
RAM bandbredd: 616 GB/s vs 484 GB/s (27 %)
ROP kapacitet: 118 GP/s vs 130 GP/s (-10 %)

Så med detta kan det ju slå åt båda hållen! En sak som är värd att nämna här är att 2070 får en väldigt stor ökning i RAM-bandbredd över 1070, hela 75 %. Frågan är hur det översätts till faktiskt prestanda ökning?

Finns också saker som, beroende på effekten de har i praktiken, talar klart för 20-serien.
SMs i Turing verkar vara identiska med de i Volta. De är förbättrade över Pascal på flera sätt.

De saker som kan spela roll är att SMs har mycket högre bandbredd mot cache (gissar att det spelar större roll för GPGPU, förbättring i cache borde vara till fördel i fall där "CUDA-kärnor" måste dela data, något som är rätt ovanligt för rastrering).

Vidare kan nu SM köra heltal och flyttals beräkningar parallellt. Exakt vad det ger är extremt beroende på vad man gör, rimlig genomsnittlig förväntning är gissningsvis inom spannet 0-30 %.

Det som kanske mest talar för att 20-serien kan se en signifikant förbättring vid hög upplösning är DLSS (deep-learning super-sampling). Det var ju något man hade en demo på där 2080 Ti, enligt Nvidia, körde en UE4 demo >60 FPS som 1080 Ti klarade att dra runt i ungefär hälften.

Givet vad prestanda verkar ligga med raytracing i t.ex. SoTR så kanske det i praktiken kommer vara ett krav att kombinera DLSS och raytracing. Huvudpoängen med DLSS är ju att spelmotorn kan rendera i lägre upplösning för att sedan skalas upp med DLSS.

Här har man ställt till det namngivningsmässigt då "RTX" (programvaran) innefattar både raytracing men även DLSS (som använder tensor-cores, inte rt-cores)... I de spel som utannonserats få "RTX" stöd är det ju vissa som får ljuseffekter med raytracing, andra får DLSS medan ett par får båda (inget spel som får båda tror jag har testats någonstans än).

På sikt lär raytracing ta över helt för ljussättning. Det blir inte bara snyggare, det är även klart mindre jobb för spelutvecklarna så kommer finnas ett tryck därifrån. Men v1.0 av det mesta brukar ha problem + det går ju inte droppa stödet för "fuskljus" innan nära 100 % den tänka kundbasen kan använda raytracing.

En bieffekt av lansering av 20-serien borde i alla fall vara att DX12/Vulkan blir normen då varken DXR eller DLSS lär fungera med DX11.

Edit: DLAA -> DLSS

DLSS är troligen lika värdelöst som Nvidias FXAA. Att köra på lägre upplösning och sedan skala upp med DLSS kommer troligen aldrig se lika bra ut som att köra i högre upplösningar. Bildkvaliteten kommer bli lidande som alltid när man skalar upp eller kör kantutjämning som tar genvägar.

Permalänk
Medlem

Saknar alternativet, köpa begagnat 1000-serien kort, antagligen GTX 1070 Ti eller GTX 1080. Sitter idag med ett GTX 970. Ska nog vänta lite till förrän jag slår till, dvs strax efter 2000 serien lanseringen så går det ej att pröjsa så mycket för ett begagnat 1000 kort. Alternativt GTX 2060 kunde vara ett alternativ bara det inte är någon rebranding av 1000 serien kort, 3500-4000 kr är ungefär vad jag vill betala som mest för ett grafikkort, inte för ekonomiska beskäl men för att jag tycker det är orimligt att betala mer i förhållande till liknande elektronikprylar (endast flaggskepp telefoner från exempelvis Apple eller Samsung har liknande absurda priser, speciellt då värdet har sjunkit med 50% på ett år)

Visa signatur

Intel® Core i7-13700K @ 5.7/5.6GHz | ASRock Z690 Extreme | G.Skill Trident Z 32GB @ DDR4-3400 CL14 | Samsung EVO series M.2 + Sata SSDs 2TB | Intel Arc A750 | SuperFlower Titanium 1000W | Gigabyte M32Q 32"/1440p 165Hz | Arctic Freezer II 360 AIO | Phanteks P500A D-RGB | Windows 10 & 11 x64 Professional

Permalänk

Jävla girighet, det bästa AMD skulle kunna göra är att släppa något som presenteras som tex 1080 TI för under 4000 kr.
Enda lösningen är att släppa något bra i mellanprisklassen.

Skickades från m.sweclockers.com

Visa signatur

Fractal Design Define C, ASUS PRIME Z370-A
Intel Core i7 8700K 3.7 GHz 12MB
HyperX Predator DDR4 3200MHz 16GB( PC4-25600 CL16 16-18-18 )
Palit GTX 1070 TI, Samsung NVMe SSD 960 EVO M2
Seasonic Focus+ 750W 85+ GOLD PSU

Permalänk
Medlem
Skrivet av Lalle-:

Jag köpte min första helt egna dator 2007. Jag slog till på värstingkortet Radeon 3870, vilket då kostade 2000kr.
På den tiden kostade en duglig speldator ca 7500kr, idag får man väl ge det dubbla.

Fast vad krävs för att få en duglig speldator idag? Ett GTX 1050 Ti kostar under 2000 kronor idag och det finns inte ett enda spel som det inte klarar av att driva i 1080p/30fps med höga inställningar. I många fall talar vi om 1080p/60+fps. Lägg på en i3-8xxx för en tusenlapp och du har fortfarande kvar 5000 kronor för moderkort, minne, lagring, chassi, nätagg etc innan du har nått upp till din budget på 7500 kr.

Permalänk
Avstängd
Skrivet av hakro807:

Fast vad krävs för att få en duglig speldator idag? Ett GTX 1050 Ti kostar under 2000 kronor idag och det finns inte ett enda spel som det inte klarar av att driva i 1080p/30fps med höga inställningar. I många fall talar vi om 1080p/60+fps. Lägg på en i3-8xxx för en tusenlapp och du har fortfarande kvar 5000 kronor för moderkort, minne, lagring, chassi, nätagg etc innan du har nått upp till din budget på 7500 kr.

Beror på om man uppgraderar eller köper allt nytt med.
inte behövt köpa allt helt nytt senare år, ryzen 2600x gick rakt in i det gamla moderkortet.
En m.2 ssd 250gb har det blivit med.
Den större uppgradering jag gjorde för 16 månader med ryzen, ca 4200 kr (ryzen 1600/mkort/minne) sen uppgraderat till endast en ny 2600x i år och det lär räcka att köpa enbart cpu ryzen 7nm nästa år.
så det är långt mellan helt nytt.

de spel jag spelar i 1440p drivs utmärkt med ett radeon 480.
att dubbla fps är ett kort i vega56/1080 nivå.
så jag väntar tills korten ligger på en rimlig pris nivå.

1500euro för ett 2080ti är liksom galet

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Medlem
Skrivet av Reiker:

Jag tycker det är en tråkig utveckling av kortens TDP-värde(och pris såklart) eftersom jag ska bygga ett ITX-system (Ghost S1) så vill man ju ha mycket "bang for the watt" så att säga... Här kommer en kort jämförelse:

Pascal:
GTX 1080Ti Beräkningskraft 11 334 GFLOPS, Strömförsörjning 8+6-pin, TDP 250 W = 45,3 GF/W.

GTX 1080 Beräkningskraft 8 873 GFLOPS, Strömförsörjning 8-pin, TDP 180 W = 49,3 GF/W.

GTX 1070 Beräkningskraft 6 463 GFLOPS, Strömförsörjning 8-pin, TDP 150 W = 43,1 GF/W.

GTX 1060 Beräkningskraft 4 372 GFLOPS, Strömförsörjning 6-pin, TDP 120 W = 36,4 GF/W.

Turing:
RTX 2080Ti Beräkningskraft 13 448 GFLOPS, Strömförsörjning 8+8-pin, TDP 250 W = 53,8 GF/W (+19% GF/W).

RTX 2080 Beräkningskraft 10 068 GFLOPS, Strömförsörjning 8+6-pin, TDP 215 W = 46,8 GF/W (-5,3% GF/W).

RTX 2070 Beräkningskraft 7 465 GFLOPS, Strömförsörjning 8-pin, TDP 185 W = 40,4 GF/W (-6,7% GF/W).

Som ni ser så är det enbart RTX 2080Ti som enligt specifikationerna har högre beräkningskraft per Watt jämfört med föregående generation Pascal-kort... mycket tråkig utveckling för oss med små chassin men beror väl med största sannolikhet på att de inte gjort någon (väsentlig) krympning av chip:et den här gången.

Vill man ha bättre GF/W så får man göra som med servrar etc, köp ett kraftigare kort och underklocka samt sänk spänningen. Grundmässigt (bortsett från läckage och liknande då) är ju effektförbrukningen för C-MOS proportionell mot frekvens och spänningen^2. Så kan man sänka frekvens och spänning med en faktor 2 så går prestanda ned en faktor 2 och effektförbrukningen en faktor 8. Så 4 ggr mer GF/W i så fall.

Nu vill man dock inte släppa nya kort med sämre prestanda än de gamla, så man klockar upp dem så det ska vara lagom mycket bättre, sen blir strömförbrukningen vad den blir.

Permalänk

Gamla riggen i min signatur har rätt många år på nacken nu, så en ny dator börjar bli på sin plats. Håller helt klart ögonen på RTX-serien, men jag är inte lojal till nvidia om amd släpper något mer intressant

Visa signatur

3570K, MSI Z77A-GD65, GTX670 WF3 OC, 16GB DDR3@1600MHz

2600x, ASUS ROG STRIX B450-F GAMING, GTX1070Ti, 16GB DDR4@ 2666MHz

Permalänk
Inaktiv
Skrivet av anon114264:

DLSS är troligen lika värdelöst som Nvidias FXAA. Att köra på lägre upplösning och sedan skala upp med DLSS kommer troligen aldrig se lika bra ut som att köra i högre upplösningar. Bildkvaliteten kommer bli lidande som alltid när man skalar upp eller kör kantutjämning som tar genvägar.

Det är antagligen det enda sättet just nu att få acceptabla fps.
Inte bara bildkvaliteten som korrigeras utan även den raytracing som inte når spelarens ögon som räknas bort.
Enligt Nvidia är DLSS ett självlärande program som kommer bli bättre och bättre med tiden. Ska bli spännande att se hur detta fungerar i verkligheten.

Permalänk
Medlem

Jag köpte ett gtx980ti för 7777kr som jag tyckte var alldeles för mycket pengar då egentligen och nu begär de i princip det dubbla för nutidens likvärdiga kort. Det är faktiskt helt sjuka priser, man får hoppas att 1080ti kommer sjunka något både nytt och beg. Men jag har inga problem att maxa några spel på min 1080p skärm i vilket fall så känner inget jättebehov av uppgradering heller men priserna är ändå sjuka.

Visa signatur

Corsair 4000D Airflow | Asus ROG Maximus Z690 Hero | Intel I9 12900K | DDR5 32Gb Corsair 5200Mhz | M2. WD SN850 2TB | Corsair HX1200W | Asus RTX 3090 ROG Strix OC | Corsair iCUE H150i Elite Capellix | 34" Alienware QD-OLED 3423DW

Permalänk
Hjälpsam
Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk

Varför är de nya grafikkorten så otroligt dyra ?!?!?

Jag blir riktigt förbannad över priserna på grafikkorten... Hur i hela friten kan det kosta hela 15.500kr för ett 2080 TI när det knappt kostar 8000kr i USA alltså okej, dom får stå för frakten för att få hit dem till sverige men jag tvivlar starkt på att det är så dyrt så att de måste höja priserna med hela 7000kr ????? WHAT?!

Ska man beställa från Amazon istället och stå för frakten, jag slår vad om att det är biligare än att köpa korten i en svensk butik. Det är helt oacceptabelt. När 1080 TI släpptes så kostade den ca 8000kr men nu så säljer man RTX 2080 TI för 15500kr som startpris.

Varför håller butikerna på såhär? Hur kan de ens komma undan med det? Hur många tror ni köper dessa korten för dessa priserna?