Nvidia Geforce RTX 4070 – energieffektiv och kompakt

Permalänk
Medlem

Är det helt vettigt att mäta effekt och energieffektivitet vid 1440p? Det beror så klart på scenario, men ett 4090 är ju ofta CPU-bunden även i den upplösningen och resultatet blir till dess nackdel.

Edit: T.ex i testet för F1 2021 är fps samma i 1080p och 1440p. Så någonstans mellan 1440p och 4K släpper CPU-flaskhalsen.

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem
Skrivet av Spawnbadboy:

Utmärk produkt? va fan sweclockers? vad har hänt med er?

Är det en dålig produkt bara för att du inte har råd med den? Märkligt

Permalänk
Medlem
Skrivet av CrispVanDahl:

Så är fallet!
Tyvärr har jag inte haft möjlighet att testa om med nyare drivrutiner då tillverkarna envisas med att släppa nya grafikkort och processorer stup i kvarten. Om det blir lite downtime framgent så är det på "att göra listan"

Skrivet av mpat:

Vet att detta har varit uppe i tidigare test, men just den här testsviten är lite missvisande. Specifikt spelen Chernobylite och Guardians of the Galaxy har usel prestanda på RDNA-korten, vilket drar ner deras medel rätt mycket. Bägge spelen lär gå mycket bättre idag, med modernare drivrutiner. Finns det någon möjlighet att testa om specifikt de spelen för en mer rättvisande bild?

Speciellt som

1) 6700XT går att få för närmare halva priset på det här kortet
2) prestanda-fördelen på rasterisering är ännu mindre än 30%.

Vi hade detta uppe i en annan tråd häromdan: Nvidia kan faktiskt inte göra så mycket åt den saken just nu utan att kostnaden går upp rejält. Ett GDDR6-chip är 32 bitar "brett", och de största idag är 2GB. Nvidia har en 192-bitars memory controller, vilket gör att de kan ha max 6 chip = 12GB. Sätten att få mer är
1) en dubbelmacka (chip på baksidan av kretskortet, som 3090), vilket är dyrt
2) att ha en bredare memory controller - 256-bitars för 16GB - men det blir dyrt eftersom memory controllers knappt krymper på nyare noder, samtidigt som kostnaden mer mm2 går upp. AMDs lösning är chiplets, men Nvidia har valt att inte gå den vägen.

Har sett lite rykten om att det kanske eventuellt är större GDDR-kretsar på väg, och då den lite lustiga storleken 3GB. Det skulle då bli 18GB för 4070. Det är dock synnerligen obekräftat. Samtidigt vet vi att GDDR7 är på gång till nästa generation, så att lägga ner pengar på att utveckla för återvändsgränden GDDR6/6X känns korkat.

Ja, själv körde jag innan påsken klart just Guardians of the Galaxy på mitt 6700 XT, 5600X och 16 GB DDR4 3200 MHz, så det här är i högsta grad påtagligt för mig, jag vet att testsvitens resultat är inaktuella. Jag testade då självklart det inbyggda benchmarktestet med samma inställningar som Sweclockers använder för att jämföra. Efter att ha ignorerat den första körningen varje gång efter att spelet startats (då det i princip i alla benchmark i alla spel ger konstiga värden), och sen göra ett medelvärde över flera körningar får jag ett mer pålitligt resultat. Resizable bar (SAM) var såklart på (kanske detta ger negativ skalning på Intels moderkort, det har ju hänt).

Hursomhelst, mina värden (1080p, Ultra, Raytracing Ultra) gav lägstavärden runt 33-35 fps och ett medel på 56.
Sweclockers test (6700 XT, 12900KS, 32 GB DDR5 6400 MHz) visar lägstavärde på 32 fps och ett medel på 50.
https://cdn.sweclockers.com/artikel/diagram/29049?key=f259de0...

Man kan ju anta att Sweclockers dator snarare bör prestera rejält mycket bättre... Värdena i testsviten för iaf GotG känns därför väldigt inaktuella att jämföra med idag, men jag har ju bara "en datapunkt" som visar på stora skillnader, men just GotG utgör ju faktiskt 1/8 av alla testvärdena (1/12 av rastreringen, 1/4 av raytracingen, dvs 2/16 tester). Det vore därför verkligen, verkligen välkommet med en omtest av alla grafikkort om det finns tid, kanske ett år efter att testsviten invigdes, så att inte de gamla värdena ligger kvar för länge. Kanske speciellt i de spel som vi vet har utvecklats med drivrutiner/patchar etc.

Här är en av mina körningar som "bildbevis" och argument om det skulle behövas:

Dold text

PS Tycker även Far Cry 6 skulle testats med HD Texture Pack och max raytracing, för att få med VRAM-aspekten

Permalänk
Medlem

kostar lika mycket som jag köpte mitt 2080 för 2019 och jag tyckte det var högt pris för ett xx80 kort.

4 år senare är den prissättningen för xx70 kort.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk

Kommer min 8700k flaskhalsa med denna GPU?

Permalänk
Medlem
Skrivet av myra:

Är det en dålig produkt bara för att du inte har råd med den? Märkligt

Utmärkt brukade betyda något mer än 20% mer prestanda för 20% högre pris.

Bara att den landar under 10.000 bör inte ses som en bedrift, särskilt när den får stryk av 6800XT

Edit*
Jag förstår utmärkelsen, och testlabbet har verkligen gjort ett MONSTERARBETE och bör hyllas med all rätt.

Men det betyder nödvändigtvis att jag kanske inte helt håller med ändå, och det bör man väl ändå ha rätt att göra

Visa signatur

Krusidullen är stulen

Permalänk

VAD FAN ÄR VITTSEN med att släppa ett kort som kostar lika mycket som 3080 (både vid lansering och nu i andra hand) och presterar lika bra / sämre i vissa titlar. Tror dem folk kommer gå lös på att den har 2GB mer VRAM? Tomtar

Visa signatur

| 7800X3D | RTX 3090 Ti | Custom Loop |

Permalänk
Medlem
Skrivet av myra:

Är det en dålig produkt bara för att du inte har råd med den? Märkligt

Det är samma prestanda som man fick för snart tre år sedan - till samma pris.
Det är en jagharramlatochkommerinteupp-produkt

Visa signatur

AMD R9 5900X | Asus Strix X470-F | 32GB G-Skill @ 3,6GHz | RTX 3090Ti

Permalänk
Medlem

En grej som hade varit gött med gpuer nuförtiden vore ju om en kunde testspela spel med tekniker som dlss3 o framtida fsr3 innan en köper. Är latensen accepterbar är det ju det enda som motiverar ett köp av 4070. Utan dlss 3 är det ju en rätt röten deal o mediokert grafikkort för 7790:-. Det är ju 0 gain per krona från tidigare generation.

Sedan ska en ju också hoppas som konsument att just spelen en själv spelar kommer få dlss3. Känns lite mycket grisen i säcken köp eller?

Visa signatur

Asus X470 gaming-f, 5800x, 7900xt, g.skill 32gb 3200 cl 14.

Permalänk
Medlem

Om du kollar vad den svenska kronan låg i förhållande till den amerikanska dollarn då och nu så förstår du nog mer. Hade den svenska kronan varit värd lika mycket som då så hade priset varit typ det samma.

Visa signatur

NZXT H7 Flow, ASUS Z390-E, Intel 9700K 3.6GHz, 16 GB Corsair Vengeance 3.2GHz, Samsung EVO 970 500GB, MSI RTX 2070 Gaming Z, Seagate Barracuda 4 TB, Corsair RM750X V2 750W, Noctua NH-D15, 1 st FD Venturi HF-14, 6 st Phantek M25 120mm, Dell S2721DGFA,

Permalänk

Mycket gnäll om pris. Ingen tvingar en att köpa. Inflation gör sitt, liksom marknaden (eller brist därav)

Sedan undrar jag om inte datorbranchen är lite speciell.

Som sportfiskare (flugfiskare) är hela prisdiskussionen märklig. Vi kan köpa spön och rullar utan problem i samma prisklass som vi pratar om här (40x0 serien) med skillnad att man inte får mer fisk med dyrare spön. Utan att knorra. Och då pratar vi en kolfiberpinne som inte innehåller annat än kolfiber. Golfare lägger samma pengar på klubbor men spelar (oftast) inte bättre för det.

Men så fort det handlar om GPU är det rena kravallerna. Märkligt

Permalänk
Medlem
Skrivet av FierceBrosnan:

En grej som hade varit gött med gpuer nuförtiden vore ju om en kunde testspela spel med tekniker som dlss3 o framtida fsr3 innan en köper. Är latensen accepterbar är det ju det enda som motiverar ett köp av 4070. Utan dlss 3 är det ju en rätt röten deal o mediokert grafikkort för 7790:-. Det är ju 0 gain per krona från tidigare generation.

Sedan ska en ju också hoppas som konsument att just spelen en själv spelar kommer få dlss3. Känns lite mycket grisen i säcken köp eller?

Den är ju 100$ lägre för samma prestanda. Så lite bättre är det

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av FierceBrosnan:

En grej som hade varit gött med gpuer nuförtiden vore ju om en kunde testspela spel med tekniker som dlss3 o framtida fsr3 innan en köper. Är latensen accepterbar är det ju det enda som motiverar ett köp av 4070. Utan dlss 3 är det ju en rätt röten deal o mediokert grafikkort för 7790:-. Det är ju 0 gain per krona från tidigare generation.

Sedan ska en ju också hoppas som konsument att just spelen en själv spelar kommer få dlss3. Känns lite mycket grisen i säcken köp eller?

Är fortfarande väldigt skeptisk till DLSS3. Som jag förstår det krävs det hyfsad bas-FPS för att latensen ska bli acceptabel och artefakter inte ska bli alltför uppenbara. D.v.s. det är jättenajs att slå på när man redan har typ 60-80+ FPS för att skapa en illusion av ännu bättre flyt, men det är ingen magic bullet som kommer framtidssäkra 4070 speciellt mycket jämfört med 3080. Sen ryktas det väl fortfarande om att FSR 3 kan komma att funka även på 3000-serien vilket i så fall skulle döda detta enda försäljningsargument.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem
Skrivet av Pepsin:

Är fortfarande väldigt skeptisk till DLSS3. Som jag förstår det krävs det hyfsad bas-FPS för att latensen ska bli acceptabel och artefakter inte ska bli alltför uppenbara. D.v.s. det är jättenajs att slå på när man redan har typ 60-80+ FPS för att skapa en illusion av ännu bättre flyt, men det är ingen magic bullet som kommer framtidssäkra 4070 speciellt mycket jämfört med 3080. Sen ryktas det väl fortfarande om att FSR 3 kan komma att funka även på 3000-serien vilket i så fall skulle döda detta enda försäljningsargument.

Fsr 3 ryktas att ha sjukt mycket latency dock.... Var väl på swec de skrev om det för någon vecka sedan

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

Tycker det här kortet borde hetat RTX 4060 istället. 12GB räcker väl till 1080 och 1440

Nästa kort blir lätt AMD.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av landmarks:

Det är lite aj, men å andra sidan var det väl extremt få och under väldigt kort tid det priset faktiskt var aktuellt. Blir intressant att se utvecklingen nu när Nvidia tillhandahåller FE-korten i egen regi, som "garanterat" ska hålla MSRP.

Köpte MSI GeForce GTX 970 4GB Gaming för ca 3500kr när det lanserades sep 2014.
En prisnivå som det låg kvar på under sin livstid.
9 år senare ligger sålunda Nvidia XX70 serien på väl över det dubbla priset.
Någon/några täljer guld, och vi betalar.

Permalänk
Avstängd

När säljs kortet ens?

Permalänk
Medlem
Skrivet av stege99:

Köpte MSI GeForce GTX 970 4GB Gaming för ca 3500kr när det lanserades sep 2014.
En prisnivå som det låg kvar på under sin livstid.
9 år senare ligger sålunda Nvidia XX70 serien på väl över det dubbla priset.
Någon/några täljer guld, och vi betalar.

Sitter ju bara 5ggr så mycket material i dem nya... För dubbla priset. Sen bör man inte mäta i SEK utan i dollar.
970 hade 327$ msrp
4070 599$

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av ziggemannen:

Mycket gnäll om pris. Ingen tvingar en att köpa. Inflation gör sitt, liksom marknaden (eller brist därav)

Sedan undrar jag om inte datorbranchen är lite speciell.

Som sportfiskare (flugfiskare) är hela prisdiskussionen märklig. Vi kan köpa spön och rullar utan problem i samma prisklass som vi pratar om här (40x0 serien) med skillnad att man inte får mer fisk med dyrare spön. Utan att knorra. Och då pratar vi en kolfiberpinne som inte innehåller annat än kolfiber. Golfare lägger samma pengar på klubbor men spelar (oftast) inte bättre för det.

Men så fort det handlar om GPU är det rena kravallerna. Märkligt

Det är bara Swec som är speciell, det har blivit en gnällforum för kretiochpleti istället för ett entusiastdrivet forum av kunniga och hjälpsamma "nördar".

Permalänk
Medlem
Skrivet av Dunde:

Det är bara Swec som är speciell, det har blivit en gnällforum för kretiochpleti istället för ett entusiastdrivet forum av kunniga och hjälpsamma "nördar".

Japp när det kommer till gnäll och negativitet så står SweClockers nästan högst upp på listan nu för tiden.
Enda som har ohotad plats är forumen på Steam, där kan vi snacka cesspit.

Permalänk
Medlem
Skrivet av Dunde:

Det är bara Swec som är speciell, det har blivit en gnällforum för kretiochpleti istället för ett entusiastdrivet forum av kunniga och hjälpsamma "nördar".

GPUers pristrend de senaste åren förtjänar en del gnäll.

W1zzard har en poäng som tål att repeteras som sista paragraf (du får ett PS5 för 1k SEK / 100USD mindre) https://www.techpowerup.com/review/nvidia-geforce-rtx-4070-fo...

Bra tester Swec! Intressant läsning. Bra effektivitet NVDA.

Visa signatur

| 212965 00 ] == :^D * ==)

Permalänk
Medlem
Skrivet av ziggemannen:

Mycket gnäll om pris. Ingen tvingar en att köpa. Inflation gör sitt, liksom marknaden (eller brist därav)

Sedan undrar jag om inte datorbranchen är lite speciell.

Som sportfiskare (flugfiskare) är hela prisdiskussionen märklig. Vi kan köpa spön och rullar utan problem i samma prisklass som vi pratar om här (40x0 serien) med skillnad att man inte får mer fisk med dyrare spön. Utan att knorra. Och då pratar vi en kolfiberpinne som inte innehåller annat än kolfiber. Golfare lägger samma pengar på klubbor men spelar (oftast) inte bättre för det.

Men så fort det handlar om GPU är det rena kravallerna. Märkligt

Att jämföra med andra hobbies känner jag är ett ganska dåligt argument, sportfiske är svinbilligt om man jämför med att samla på Ferraribilar, därför känns det helt rimligt att priserna på kolfiberspön borde ökas till 100-150 000:-, ändå jättebilligt ju!

Självklart är det inget tvång och inte heller någon slags rättighet att ha ett kraftfullt grafikkort, men om färre och färre känner att de har råd eller lust att hänga med eller ge sig in i ett PC-ägande leder det ju till tråkigheter för alla i längden.
Vad tror du exempelvis händer med PC som spelplattform om i stort sett alla förutom de mest entusiastiska överger den?

Visa signatur

AMD R9 5900X | Asus Strix X470-F | 32GB G-Skill @ 3,6GHz | RTX 3090Ti

Permalänk
Medlem
Skrivet av ziggemannen:

Mycket gnäll om pris. Ingen tvingar en att köpa. Inflation gör sitt, liksom marknaden (eller brist därav)

Sedan undrar jag om inte datorbranchen är lite speciell.

Som sportfiskare (flugfiskare) är hela prisdiskussionen märklig. Vi kan köpa spön och rullar utan problem i samma prisklass som vi pratar om här (40x0 serien) med skillnad att man inte får mer fisk med dyrare spön. Utan att knorra. Och då pratar vi en kolfiberpinne som inte innehåller annat än kolfiber. Golfare lägger samma pengar på klubbor men spelar (oftast) inte bättre för det.

Men så fort det handlar om GPU är det rena kravallerna. Märkligt

Du har aldrig lagt märke till att flugfiskare och golfare kanske inte är medelSvensson? Hur mycket kostar en veckas laxfiske i Norge numera?😀
Det klart att det finns folk med pengar som slipper att prioritera med dem, men lika självklart representerar de inte en majoritet i samhället. Kronor, (inte t.ex. kronor/frame) spelar roll. Det finns stora grupper som förvisades till åskådarläktaren under kryptoboomen - naturligtvis är de besvikna över att Nvidia ligger kvar på prisnivåer som de redan tidigare bedömt som orimliga. Kul/krona kvoten för ett nytt grafikkort var måttlig redan innan, men oavsett vad man tycker om det, spelar det ju ingen roll om kronorna helt enkelt inte är tillgängliga.

Sedan har branschen som helhet fundamentala problem. Litografiutvecklingen för att motivera gamla uppgraderingscykler finns inte. Detta är TSMC de närmaste 3-5 åren/ (Efterföljande 2N GAA är en försiktig nod) Skrolla ner till tabellen och jämför 4N vs. 5N och 3N vs. 5N. Skillnaden är väldigt måttlig! Och som sagt, efterföljande 2N nod kommer heller inte att kunna flytta nålen nämnvärt.

Nvidia säljer ju redan features, som de betalar mjukvaruutvecklare att implementera eftersom de når en för liten kundkrets för att vara meningsfulla att stödja för marknaden som helhet. Och det finns ingenting i litografikristallkulan som antyder att det som idag är förbehållet high-end kommer att vara tillgängligt för den breda allmänheten. Vad det innebär för framtiden, tja, alla är fria att gissa. Men för att diskussionen skall vara meningsfull kan den inte grunda sig på ”äsch det ordnar sig” eller ”fan vad snåla folk är då!”.

Permalänk
Medlem
Skrivet av Clasito:

Undrar om AMD ångrar valet att bara ha 8GB på Navi33. Beror ju på priset såklart men håller den sig i regionerna kring Navi23 tror jag många blir missnöjda med den mängden VRAM. Skulle de kunna lägga till en MCD inför desktop varianten för att på så vis komma upp till 192bitar?

Navi 33 är monolitisk, de kan inte lägga till några MCDer.

Jag tror - utan att veta, absolut - att AMD återanvände ett av sina gamla trick från när GCN var nytt: att återanvända en floorplan. Navi 10 blev Navi 22 - samma floorplan, men nyare CU (och Infinity cache) - och Navi 23 blev Navi 33. Navi 23 blev ju rejält mycket större än Navi 14 (som den ersatte), och nu är Navi 33 lika stor. Min tanke är att det var planen hela tiden att göra så här, så att Navi 23 blev lite större än vad den behövde vara, och Navi 33 lite för liten. Det var därför Navi 22 och 23 var så nära varandra i storlek.

Skrivet av CrispVanDahl:

En annan punkt som skiljer markant är energieffektivitet och i ray-tracing är tyvärr Radeon RX 6000-serien inte i närheten. Om det enbart är rastrering du är intresserad av så går det så klart att göra ordentliga klipp på äldre produktserier, kanske ännu mer framgent om de vankas prissänkning.

Rasteriseringsprestandan förklaras delvis av de där deltesterna (Chernobylite och Guardians of the Galaxy). Vad gäller energiförbrukningen så skiljer det 10W - 4% - i ert eget test.

https://cdn.sweclockers.com/artikel/diagram/29033?key=af830ee...

Den effektiviteten kommer sig av att prestanda är högre, och så är vi tillbaka på ruta ett.

Det här med raytracing är en poäng, absolut, men det är egentligen den enda poängen, och det är i dagsläget i princip dubbla priset för den funktionen.

(Angående energiförbrukningen: det är helt egalt vad kortet drar, det som spelar roll är vad datorn drar ur väggen. Om Nvidia designar sina kort så att processorn får jobba hårdare så att deras egna kort drar mindre är det inte en fördel för användaren.)

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Kaleid:

GDDR6 eller 7 i nästa generation, jag förväntar mig att Nvidia snålar med VRAM även kommande generationer. Man måste få köparna att köpa nytt och ofta. Måste framför allt göra aktieägarna nöjda

Definitivt annars skulle de ha gett 4070/4070Ti 16GB men nu när dom har 12GB kommer folk som köper 4070 idag vara tvungna att uppgradera om 2 år.

Visa signatur

AMD® RYZEN™ 5 5600X
Red Devil Ultimate RX 6900 XT 16GB
Asus Rog Strix F-GAMING B450
HyperX Fury 32GB DDR4 3200 MHZ
Mobil: Google Pixel 7 PRO

Permalänk
Medlem
Skrivet av Dinkefing:

I princip alla Nvidia kort tidigare generationer har x70-modellerna varit runt 10% snabbare än föregående generations x80-modell. Denna generation presterar den ett antal procent sämre. Den smala bussen gör sig verkligen påmind här i 4k upplösning trots mycket större cache. Folk har redan glömt att RTX 3070 slog RTX 2080 FE i Sweclockers recension med nästan 25% i 4k och ni tycker RTX 4070 som presterar flera procent sämre än 3080 kortet från föregående generation i samma upplösning är bra? Jag tycker inte det är bra.

Skrev inte det var ”bra” prestanda i jämförelse med tidigare xx80-kort, bara bäst pang för pengarna i 4000-serien. Säkerligen minst krona per frame i 4K/1440p.

Visa signatur

Chassi: Fractal Design R6 CPU: Ryzen 9 3900X med Noctua NH-D15 GPU: Asus TUF 3080 10GB OC RAM: 64GB G.Skill Trident Z Neo @ 3600Mhz CL 16-19-19-39 Moderkort:ASUS ROG Crosshair VIII DARK Hero SSD m.2: 2 x 2TB Seagate FireCuda 520 SSD 2.5: 2 x 480GB Kingston A400

Permalänk
Medlem

Hur kan kortet testats med Nvidia Geforce Drivers 531.42, då dom senaste är 531.41 och inga nyare finns varken via Nvidia GeForce Experience eller deras webb, var det beta-drivisar?

Permalänk
Medlem

Bra artikel och test som vanligt!
Kortet va faktiskt lite billigare än jag förväntat mig även om det fortfarande är dyrt. Men om det kommer gå att köpa för under 8k så tror jag det kommer va det 4000 kortet som säljer bäst, samtidigt så ska det blir intressant att se vad RTX 3080 kommer säljas för nu, borde säljas för max 7k framöver.

Jag hade nog kunnat tänka mig köpt ett 3080 om det varit en tusenlapp billigare än 4070

Permalänk
Medlem
Skrivet av TheSLASH:

Hur kan kortet testats med Nvidia Geforce Drivers 531.42, då dom senaste är 531.41 och inga nyare finns varken via Nvidia GeForce Experience eller deras webb, var det beta-drivisar?

De skickar med utvecklar drivers med recensions Gpun

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

Bra recension i övrigt men tål inte riktigt att ni till synes sväljer Nvidias DLSS3 rakt av med raka FPS-jämförelser mot utan frame-gen. Detta bör kompenseras med den andra kanske viktigare halvan av vad fördelen med högre fps är: Latens. Självklart med samma inställningar i övrigt. Det är meningslöst att jämföra DLSS3 frame-gen med native när DLSS2 är den enda rättvisa jämförelsen. Samma sak med Nvidia reflex såklart men det nämns inte i det kapitlet vad jag kan se.

Jag kan se anledningen till att ha dessa frame-gen grafer med, men då ska de kompletteras med latency grafer. Där kommer frame-gen hamna efter sina motsvarigheter (i inställningar). Detta kommer även vara en bra jämförelse punkt i framtiden när FSR3 kommer. Ingen aning om det är sant men vet att någon nämnde att FSR3 ryktas ha bra mycket sämre latency. Om FSR3 då jämförs rakt av mot DLSS3 i endast FPS så blir det också en dålig jämförelse.