Ampere är här – Geforce RTX 3080 dubblerar prestandan hos RTX 2080

Permalänk
Medlem

Då återstår bara att se vad det blir för pris på svenska marknaden

Visa signatur

#framtiden

Permalänk
Medlem

Verkar finnas förutsättning för priserna ska bli hyfsade även i Sverige. Blir nog 3070 eller 3060 nästa år istället för en next gen konsol.

Permalänk
Medlem
Skrivet av KKay:

Då återstår bara att se vad det blir för pris på svenska marknaden

Om man ska gissa på de gamla priserna för 2080 Super
$700 https://www.nvidia.com/en-us/geforce/graphics-cards/rtx-2080-...
8400kr https://www.nvidia.com/sv-se/geforce/graphics-cards/rtx-2080-...

Eftersom ett RTX 3080 också la sig på $700 borde priset bli cirka 8400kr? Men vem vet, det kanske kommer en magisk "Sverige-höjning" av priset på nya korten.

Edit: Priserna finns nu längst ner på svenska sidan här. Som darkshippo sa har dollarn gått ner en hel del mot svenska kronor och priset är lägre än tidigare 2000-serie jag länka till innan.
https://www.nvidia.com/sv-se/geforce/graphics-cards/30-series...

GeForce RTX 3090
Founders Edition
16 800 kr

GeForce RTX 3080
Founders Edition
7 825 kr

GeForce RTX 3070
Founders Edition
5 625 kr

Permalänk
Medlem
Skrivet av nocebo:

får man ett 3070 för 6000 nytt så borde väl 2080ti gå för ca 4000 begagnat? tror snarare att 2070 lär hamna runt 3000 begagnat då.

men det återstår ju att se.

Jag hoppas att jag kan få ut någon tusenlapp iaf. Återstår att se vart priserna hamnar men MSRP är detsamma för 3070 och 2070 så runt 6000kr i Sverige känns inte orimligt.

Permalänk
Medlem
Skrivet av BeardedRobot:

Hmm här är det betydligt högre antal Cuda kärnor än det som rapporterats tidigare

https://www.nvidia.com/en-us/geforce/graphics-cards/30-series...

10496 kärnor för 3090, jisses!

Verkar som de dubblerat antalet FP32. KatCorgi var första som pratade om det på Twitter redan i mars. Såg någon som spekulerade att de helt enkelt bytt ut FP64 kärnorna som Ampere A100 (HPC) har mot 2xFP32. Kanske därför det inte kommer ett Titan kort eftersom det inte längre har några FP64 att aktivera jämfört med vanliga RTX korten.

Ampere A100 SM architecture
https://developer.nvidia.com/blog/nvidia-ampere-architecture-...

Permalänk
Medlem
Skrivet av BeardedRobot:

Jag funderade hela tiden om jag skulle sälja eller ej men hade inga andra grafikkort att använda i över en månad så jag sa äh, kan lägga in 2080 Ti:n i min planerade andra dator för mediaredigering istället.

Köpte mitt 2080Ti för just videoredigering och ska bli spännande att läsa på Davinci Resolves forum när folk testat de nya korten. Mindre men snabbare grafikminne i 3080 och om det ändå kapar några sekunder när man renderar 4K?

Visa signatur

[AMD Ryzen 9 3900X] [ASUS GeForce RTX 2080 Ti] [LG OLED 55 C9 som skärm] [Samsung HW-Q96R till ljudet]

Permalänk
Inaktiv
Skrivet av eXeem:

Känns som det kommer ett 3080ti om några månader med 12gb istället för 24 och 95% cuda cores.
Pris 999 dolleros.

Detta, samt lägre TDP och 7nm TSMC hade varit fint.

Skrivet av makatech:

Haha åt h-vete med andrahandsvärdet för alla 1XXX och 2XXX ägare.

Galet att se vad folk budar på gamla 2080Ti i forumet. Känns smartare att invänta 3070-korten om man ändå nöjer sig med den prestandanivån. Och då nya kort och garanti på köpet.

Permalänk
Medlem
Skrivet av Fulci:

Eftersom ett RTX 3080 också la sig på $700 borde priset bli cirka 8400kr? Men vem vet, det kanske kommer en magisk "Sverige-höjning" av priset på nya korten.

Hade du missat priserna på hemsidan? 3080 går för 7 825 kr

Permalänk
Medlem

Ett 3080 blir det till vardagsrummet spelburk. Undra bara om chassit pallar värmen ganska hög tdp 320w..får invänta recensioner. Ändå imponerad av prestandan även om jag inväntar opartisk recension som testar i spel man själv kör. 4k spelande verkar nu bli mer verklighet.

Visa signatur

CPU: 5600X| Mobo: AORUS X570 itx|Minne: 32GB Corsair Vengeance PRO 4000Mhz|GPU: Asus TUF 3080 OC |Chassi: CM NR200P|SSD: Samsung 850 EVO 500GB, 2xSamsung 970 EVO 1TB|PSU: NZXT 650W
Mus: Razer Basilisk|Tangentbord: Corsair K70|Skärm: LG27GP850

Permalänk
Medlem

Någon som läst ifall man måste ha en PCIe4 kompatibel rig för att få den prestandan?

Visa signatur

~May the cores be with you~

Permalänk
Medlem
Skrivet av headphoneninja:

Hade du missat priserna på hemsidan? 3080 går för 7 825 kr

Såg inte att de lagt upp priserna tidigare när jag kollade. Missade att de gjort det senare.

Permalänk
Medlem
Skrivet av korvOlle:

3070 då 😉

Mja. Det var 3070 jag syftade på men jag tar för givet att de grafer som Nvidia visade upp var med DLSS aktiverat. Så det blir en rätt skev bild. Jag älskar DLSS men känns missvisande att använda de siffrorna ändå. Om 3070 slår 2080 TI i traditionella tester blir jag mäkta imponerad och glad, men jag tvivlar.

Visa signatur

Råd tas på eget ansvar.

Permalänk
Medlem
Skrivet av Pål1337:

Någon som läst ifall man måste ha en PCIe4 kompatibel rig för att få den prestandan?

Det har diskuterats i tråden och svaret är nej som jag förstår det. Man tror inte att 3090 blir flaskhalsat av PCIe3. Men läs i tråden så får du en egen uppfattning.

Visa signatur

Råd tas på eget ansvar.

Permalänk

Se där! Det kliar i köptarmen Gäller att hitta ett 3070/3080 som är max två slots högt så det får plats i mitt Ghost S1 bara.

Någon som vet om FE-kylaren är semi-passiv? Det var en anledning till att jag bytte mitt tidigare 2070FE mot ett partnerkort - FE-kortet gick aldrig under 40% fläkthastighet vilket väsnades alldeles för mycket.

Visa signatur

Loque Ghost S1 Limestone | Ryzen 3900x | Alpenföhn Black Ridge | Evga 2070 Super | Corsair 32GB DDR4-3200 | Samsung 970 EVO 1TB | Corsair SF600

Permalänk
Medlem
Skrivet av norrby89:

Ni glömde skriva med på 3090 att det även går att använda som slagträ och gissar på att man lär behöva vapenlicens för att köpa den!

Och 3-fasanslutning.

Permalänk
Datavetare
Skrivet av scara:

Ja fast, nu var det inte TFLOPs, killen jag citerade hävdade prestanda ökar linjärt med CUDA-kärnor. Vilket är en omöjlighet om inte cache/bandbredd också ökar lika mycket samtidigt.

ISO-frekvens och samma kretsgeneration är underförstått i en sådan utsaga, annars är den rappakalja.

Om antalet CUDA-kärnor ökar från 1000 st till 2000 st samtidigt som frekvensen är densamma ökar kapacitet 100 % och höga upplösningar kommer man se kanske 90-95 % skalning i praktiken, d.v.s. i praktiken linjärt.

Om man dubblar frekvensen men håller antal CUDA-kärnor konstant på 1000 st ökar också kapaciteten med 100 %.

Nu ser vi inte alls så stora skillnader i frekvens på GPUer, spannet är ändå 20-25 % mellan de lägst klockade och högst klockade Turing-modellerna. Så man måste ta hänsyn till skillnad i frekvens, framförallt mellan 2080S (som jag tror är den högst klockade modellen) och 2080Ti (som är relativt lågt klockad).

Skrivet av MaxieTheHatter:

Hur översätter vi det här till estimerad prestanda?
Det här är inte min typ av databeräkning, tyvärr!

Vad jag kan få det till är (utgår från boost då bas inte är angiven):
3090 - 1,7Ghz * 10496 kärnor * 2 = 35 686 GFLOPS
2080ti - 1,545Ghz * 4352 kärnor * 2 = 13 447 GFLOPS
En ökning på 165%.

Känns inte rimligt att 3090 skulle ha upp till 165% mer prestanda, så jag har säkerligen missat något här.
Men vad?

Går bara att göra något vettig jämförelse enbart på antalet CUDA-kärnor om det man jämför bygger på samma mikroarkitektur.

Ställer du två lika klockade kort med 1000 CUDA-kärnor mot varandra skulle man få

  • Turing är snabbare än Pascal

  • Turing är också snabbare än Ampere

Mellan Turing och Ampere verkar endast antalet CUDA-kärnor ökat per SM, om det är fallet har ju saker som heltaskapacitet, texturkapacitet och rastreringskapacitet "bara" ökat ~80 % från 2080Ti till 3090. Vidare har bandbredden mot VRAM "bara" ökat med ~50 %.

I olika lägen är olika saker primär flaskhals. Bästa vi har att gå på nu är DF jämförelse mellan 3080 och 2080.

  • TFLOPS har ökat ~175 %

  • Övriga delar av SM har ökat ~85 %

  • VRAM bandbredd har ökat ~70 %

Rimlig förväntning är att 3090 kommer kanske vara 60-70 % snabbare än 2080Ti i spel med "RTX-off" (3080 var ju 70-80 % snabbare än 2080) och kanske 80-90 % med RTX-on (var ju ~95 % högre prestanda i Quake med 3080 jämfört med 2080 där allt är raytracat).

Skrivet av FredrikMH:

Vad definierar en CUDA-kärna?

En CUDA-kärna är en FMA-kapabel ALU. Är den definition som används sedan dag 1.

Är därför teoretisk kapacitet blir

FLOPS = antal CUDA-kärnor * frekvens * 2 (FMA -> två flyttalsoperationer)

Skrivet av FredrikMH:

Kan designen av en CUDA-kärna ändras mellan arkitekturer till den grad att de inte är jämförbara 1:1?

Mycket tyder på att enbart antalet CUDA-kärnor per SM har dubblats. Kapaciteten för heltal, texturhantering, etc är den samma som för Turing per MHz.

Elefanten här är väl: har antalet register per SM dubblats eller ej? Om ja så tycker jag det inte finns någon diskussionen om att antalet "kärnor" per SM ökats. Även om det inte gjort det kan man inte beskylla Nvidia för att ljuga då en "CUDA-kärna" just är antalet FP32 kapabla FMA, men i det läget (som känns rimligast) kommer CUDA-kärnorna i Ampere vara rätt mycket mindre effektiva än i Turing (vilket vi redan vet att de är).

Skrivet av Aleshi:

Tror att man ska räkna dubbleringen av FP32 och CUDA-kärnor som något som bara ger marginell boost. Man ska inte se det som 100% extra. De har ju runt 70% boost i RT-prestanda, och av någon anledning väljer de att fokusera på prestandaskillnader när RT är påslaget, och spelprestandan är då oftast runt 70% högre.

Alltså, det verkar som att ökningen i ren praktisk prestanda utan RT är mindre än 70% mellan generationerna. Även om man delar antalet CUDA-kärnor med hälften så är det ju rätt mycket högre teoretisk prestanda, så dubbleringen av CUDA-kärnor verkar ha gjort mycket lite i spelprestanda.

Just RT-prestanda känns lite lustig. Rå kapacitet har ökat ~70 % för motsvarande modell, det enda vi egentligen har att gå på är DF test och i Quake där allt är raytracat var ju den faktiskt prestandaökningen ~95 %, det var ju i titlar utan RTX-on DF såg ~70 % boost.

Så för RTX-on verkar det som man både ökat kapaciteten men också ökat effektiviteten en hel del.

För rastrering kommer självklart prestanda inte skala linjärt med CUDA-kapaciteten från Turing till Ampere då mycket pekar just på att antalet CUDA-kärnor per SM är det enda som dubblerat i kapacitet, kapacitet för övriga delar är densamma.

Personligen ser jag ändå positivt på det. Dels är jag själv långt mer intresserad i GPGPU än spelprestanda, fler CUDA-kärnor är långt viktigare där är fler ROPs och TMUs. Dels lär spelen med tiden anpassa sig till hur GPUerna fungerar, högre beräkningskapacitet betyder möjlighet till att spendera mer beräkningar per objekt/pixel etc -> mer avancerade effekter. Den klara minusposten är för de som primärt vill skruva upp upplösningen, för dem är fler ROPs och mer bandbredd det mest kritiska.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Pål1337:

Någon som läst ifall man måste ha en PCIe4 kompatibel rig för att få den prestandan?

Möjligen att det behövs för att nyttja RTX I/O till max.

Lär ta många år innan mjukvaran kommer ifatt här dock...

Permalänk
Inaktiv

Ni får inte glömma US-DOLLAR har fallit med 20% gentemot SEK på 4 månader. Elektronik prissätts i USD. Förmodligen kommer det ha genomslag fallit ifrån Telefoner till TVapparater.

Permalänk
Medlem
Skrivet av ehsnils:

Och 3-fasanslutning.

Ladda inte Teslan samtidigt som du spelar 😋

Visa signatur

CPU: 5600X | RAM: 2x8GB | GPU: RTX3080 | MOBO: ASUS B550-F | DISPLAY: Mi Curved Gaming Monitor 34"

PHONE: Samsung S21 Ultra 128GB | TV: Sony BRAVIA X93J 75" | CAR: BMW 330e Xdrive

*** Bättre att vara som man blev när man ändå inte blev som man borde ***

Permalänk
Medlem
Skrivet av Yoshman:

ISO-frekvens och samma kretsgeneration är underförstått i en sådan utsaga, annars är den rappakalja.

Om antalet CUDA-kärnor ökar från 1000 st till 2000 st samtidigt som frekvensen är densamma ökar kapacitet 100 % och höga upplösningar kommer man se kanske 90-95 % skalning i praktiken, d.v.s. i praktiken linjärt.

Om man dubblar frekvensen men håller antal CUDA-kärnor konstant på 1000 st ökar också kapaciteten med 100 %.

Nu ser vi inte alls så stora skillnader i frekvens på GPUer, spannet är ändå 20-25 % mellan de lägst klockade och högst klockade Turing-modellerna. Så man måste ta hänsyn till skillnad i frekvens, framförallt mellan 2080S (som jag tror är den högst klockade modellen) och 2080Ti (som är relativt lågt klockad).

Jag vet. Det är fortfarande ett felaktigt påstående. Prestanda skalar aldrig linjärt med antalet CUDA-kärnor. Sen kan man ha massor av addendum, bandbredd, cache och frekvens, uppsättningen av CUDA-kärnor etc etc. alltså saker som gör påståendet fel.

Permalänk
Medlem

Vad tror ni om ett 3070 istället för 1080gtx med 1440p 144jz skärm, kommer bli ett rejält lyft väl? Eller måste man gå på 3080?
CPU i7 8700, hoppas inte det flaskhalsar..? 👀
Spelar mest pubg och bf1...

Permalänk
Medlem

@Gilgamesh:

Finns ett flertal 3090 after market som enligt mått kommer gå in.

Visa signatur

Fips!

Permalänk
Medlem
Skrivet av Banco:

Det har diskuterats i tråden och svaret är nej som jag förstår det. Man tror inte att 3090 blir flaskhalsat av PCIe3. Men läs i tråden så får du en egen uppfattning.

Got it! Missade det lat som man är

Visa signatur

~May the cores be with you~

Permalänk
Medlem
Skrivet av Belgaar:

Är du möjligen inköpschef för NASA?

Du får 60 FPS i 8k gaming. säkerligen alla spel i 4k över 100 FPS.
vad är ditt behov egentligen med 3090?

RTX Titan kostar 30.000 detta är ungefär halva priset, inte dubbla.

60 FPS i DLSS8K (=4K + uppskalning)

Permalänk
Medlem
Skrivet av Yoshman:

ISO-frekvens och samma kretsgeneration är underförstått i en sådan utsaga, annars är den rappakalja.

Om antalet CUDA-kärnor ökar från 1000 st till 2000 st samtidigt som frekvensen är densamma ökar kapacitet 100 % och höga upplösningar kommer man se kanske 90-95 % skalning i praktiken, d.v.s. i praktiken linjärt.

Om man dubblar frekvensen men håller antal CUDA-kärnor konstant på 1000 st ökar också kapaciteten med 100 %.

Nu ser vi inte alls så stora skillnader i frekvens på GPUer, spannet är ändå 20-25 % mellan de lägst klockade och högst klockade Turing-modellerna. Så man måste ta hänsyn till skillnad i frekvens, framförallt mellan 2080S (som jag tror är den högst klockade modellen) och 2080Ti (som är relativt lågt klockad).

Går bara att göra något vettig jämförelse enbart på antalet CUDA-kärnor om det man jämför bygger på samma mikroarkitektur.

Ställer du två lika klockade kort med 1000 CUDA-kärnor mot varandra skulle man få

  • Turing är snabbare än Pascal

  • Turing är också snabbare än Ampere

Mellan Turing och Ampere verkar endast antalet CUDA-kärnor ökat per SM, om det är fallet har ju saker som heltaskapacitet, texturkapacitet och rastreringskapacitet "bara" ökat ~80 % från 2080Ti till 3090. Vidare har bandbredden mot VRAM "bara" ökat med ~50 %.

I olika lägen är olika saker primär flaskhals. Bästa vi har att gå på nu är DF jämförelse mellan 3080 och 2080.

  • TFLOPS har ökat ~175 %

  • Övriga delar av SM har ökat ~85 %

  • VRAM bandbredd har ökat ~70 %

Rimlig förväntning är att 3090 kommer kanske vara 60-70 % snabbare än 2080Ti i spel med "RTX-off" (3080 var ju 70-80 % snabbare än 2080) och kanske 80-90 % med RTX-on (var ju ~95 % högre prestanda i Quake med 3080 jämfört med 2080 där allt är raytracat).

En CUDA-kärna är en FMA-kapabel ALU. Är den definition som används sedan dag 1.

Är därför teoretisk kapacitet blir

FLOPS = antal CUDA-kärnor * frekvens * 2 (FMA -> två flyttalsoperationer)

Mycket tyder på att enbart antalet CUDA-kärnor per SM har dubblats. Kapaciteten för heltal, texturhantering, etc är den samma som för Turing per MHz.

Elefanten här är väl: har antalet register per SM dubblats eller ej? Om ja så tycker jag det inte finns någon diskussionen om att antalet "kärnor" per SM ökats. Även om det inte gjort det kan man inte beskylla Nvidia för att ljuga då en "CUDA-kärna" just är antalet FP32 kapabla FMA, men i det läget (som känns rimligast) kommer CUDA-kärnorna i Ampere vara rätt mycket mindre effektiva än i Turing (vilket vi redan vet att de är).

Just RT-prestanda känns lite lustig. Rå kapacitet har ökat ~70 % för motsvarande modell, det enda vi egentligen har att gå på är DF test och i Quake där allt är raytracat var ju den faktiskt prestandaökningen ~95 %, det var ju i titlar utan RTX-on DF såg ~70 % boost.

Så för RTX-on verkar det som man både ökat kapaciteten men också ökat effektiviteten en hel del.

För rastrering kommer självklart prestanda inte skala linjärt med CUDA-kapaciteten från Turing till Ampere då mycket pekar just på att antalet CUDA-kärnor per SM är det enda som dubblerat i kapacitet, kapacitet för övriga delar är densamma.

Personligen ser jag ändå positivt på det. Dels är jag själv långt mer intresserad i GPGPU än spelprestanda, fler CUDA-kärnor är långt viktigare där är fler ROPs och TMUs. Dels lär spelen med tiden anpassa sig till hur GPUerna fungerar, högre beräkningskapacitet betyder möjlighet till att spendera mer beräkningar per objekt/pixel etc -> mer avancerade effekter. Den klara minusposten är för de som primärt vill skruva upp upplösningen, för dem är fler ROPs och mer bandbredd det mest kritiska.

Tack!
Precis vad jag var ute efter, lite nördiga beräkningar.

Här påstås 3090 vara ~50% snabbare än rtx titan, vilket dina siffror verkar hålla med om till viss del.
https://www.tweaktown.com/news/74895/nvidias-new-geforce-rtx-...

Så i värsta fall borde jag se en liten boost (i de sällsynta fall med närmast perfekt sli skalning, shadow of the tomb raider t.ex) och i bästa fall se en ordentlig boost (när sli skalning är värdelöst, t.ex borderlands 3).

Imponerande, var nog ingen som hade gissat de här siffrorna efter alla rykten och läckor.

Visa signatur

Stationär: Core i9 13900k | Asus X790 ROG Strix Gaming-F | 32GB DDR5 | RX 7900 XT | Lian Li PC-O11 dynamic evo
Laptop: Macbook Air | Apple M1

Permalänk
Inaktiv

När kommer Sweclockers & övriga recensenter få släppa sina recensioner?
Hypad som fan & vill se riktiga siffror asap!

Permalänk
Datavetare
Skrivet av EvonS:

Enl Gamers Nexus menar Nvidia att 3080 är det nya toppkortet för konsumenter. 3090 är riktat mot profesionella marknaden, dvs Titanersättare. Så 3080ti kommer säkert om ett tag beroende på vad AMD kommer med.
Sen att 3070 är himla massa snabbare än 2080ti gäller väl med RTX. Ingen info om spelprestanda utan RTX.
Hursomhelst så har de väldigt aggressiv prissättning nu!
Mores Law is dead pratar mer "nyktert" om korten: https://www.youtube.com/watch?v=odvUvAae4hg

Just "Mores Law is dead" är ett typexempel på en techtuber som får >50 % av alla detaljer fel, men kanalen lever på att han säger så mycket att vissa saker bara måste bli rätt. Följarna kommer bara ihåg de delarna han råkar träffa rätt på.

Ett par axplock från den videon innan jag var tvungen att stänga av:

Att byte från Samsung 7 nm EUV till 8 nm DUV skulle varit ett panikbeslut på sluttampen. Dessa processer är inte kompatibla designmässigt, så om Nvidia lyckats med det har man lyckats med något ingen annan i historien fixat.

TSCM 12 nm hade högre densitet än TSCM 16 nm. De har exakt samma densitet, TSCM 12 nm är i praktiken deras 16 nm+ (eller kanske ++) och har enligt den information som finns identisk densitet.

Utbytet på Samsungs 8 nm är dåligt. Samsung har problem med deras 7 nm EUV process, finns inget som indikerar att Samsungs 10 nm skulle ha dåligt utbyte och prestanda/effektivitet har den legat helt i nivå med TSMCs 10 nm process. 8 nm är inte riktigt 10 nm++ (finns även en 11 nm som verkar vara optimerad för lägre pris) detta då 8 nm faktiskt har något högre densitet än deras 10 nm men det är i grunden samma process med samma designregler.

Han tjatade om att man inte testade BF5 med RTX-on. Varför skulle man det när RTX-stödet (och framförallt DLSS-stödet) är rätt uselt i den titeln? Det man istället visade är exakt det många gapat om: prestanda med RTX-off har ökat ~70 % mellan generationer, i detta fall 2080 till 3090.

Så håller inte helt med om med om "nyktert"...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av scara:

Jag vet. Det är fortfarande ett felaktigt påstående. Prestanda skalar aldrig linjärt med antalet CUDA-kärnor. Sen kan man ha massor av addendum, bandbredd, cache och frekvens, uppsättningen av CUDA-kärnor etc etc. alltså saker som gör påståendet fel.

Fast om man tar hänsyn till just skillnad i frekvens och använder SweClockers prestandaindex i 4k som referens är det just linjär skalning med antal CUDA-kärnor. Det ändå från 2060 till 2080Ti.

Notera att linjärt inte betyder att lutningen på kurvan är 1,0. Det är inte 100 % effektivitet, utan snarare runt 90-95 %.

Så formeln blir

Prestanda(CUDA-kärnor, frekvens) = 0.9 * CUDA-kärnor * frekvens

Det är ett linjärt samband ISO-frekvens (d.v.s. frekvens är en konstant)

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Hur brukar priserna stå sig efter ett år? I många andra branscher så är det ju alltid svettigast för early adpoters. Samma här?

Även om priserna är lägre än 20-serien och att marknaden börjar vänja sig så får vi ju inte glömma av att det är helt hysteriskt mycket för ett grafikkort.

Fuck it... jag skall ha ett 3090. Glöm vad jag skrev...

Visa signatur

i7 8700K | Asus STRIX 1080ti OC GAMING 11 Gb | Corsair 32 GB@3000Mhz

Permalänk
Medlem

@Yoshman: Tycker detta var ganska intressant:

Så blir intressant att se hur det påverkar prestandan.

Visa signatur

Samsung 77" S90C QD-OLED || LG OLED 42C2 || Sony 77" A80J OLED || Macbook Pro 16" M1 Max 1TB 32GB || Asus ROG Azoth med Black Ink V2s (205g0) + Asus ROG Harpe ACE