Geforce RTX 4080 12 GB presterar i linje med RTX 3090 Ti

Permalänk
Medlem

Spelar ingen roll när den inte finns tillgänglig. 4090 är redan slut oavsett det helt absurda priset. Mardrömmen fortsätter...

Visa signatur

Intel Core i7 9700K 3.6 GHz 12MB - CM hyper 212 evo
970 EVO 500 Gb + Kingston NV2 M.2 NVMe Gen 4 2TB
MSI RTX 4080 SUPRIM X - Gigabyte M28u, Benq TK800M
Kingston HyperX 16GB (2x8GB) DDR4 3200MHz CL16
Gigabyte Z390 AORUS ELITE, EVGA BQ 850W, Övrigt: MX keys, Razer Viper Pro v2, Samsung S22 plus, Meta Quest 2&3

Permalänk
Medlem
Skrivet av Larri:

Spelar ingen roll när den inte finns tillgänglig. 4090 är redan slut oavsett det helt absurda priset. Mardrömmen fortsätter...

Det verkar finnas en hel del på komplett vad jag kan se.

Permalänk
Medlem
Skrivet av bobbish:

Haha PRISERNA! Jag dör..
14500kr för billigaste RTX 4080 12GB på Proshop.
18999kr för billigaste med 16GB. NICE.

Om jag prostituerar mig varje dag ett par timmar efter mitt heltidsjobb så kanske man har råd att ta upp gameandet igen om 6-12 månader.

Får öka ditt timpris om du inte drar in 22k snabbare än 6 mån, tror väl inte de brukar betala skatt heller.

Hobbyverksamhet på skatteverkets blanket

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Permalänk
Medlem

4070 för 15k - en levande mardröm.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem

Läser man hela artikeln så är det ju exakt vad Nvidia sade tidigare, det fungerar i teorin, men inte tillräckligt stabilt för att 4000-serien har nyare Tensor-kärnor än 2000/3000-serien.

Var ju självklart att detta skulle dyka upp.

Permalänk
Medlem

Efter att ha kollat diverse YT-videos i ämnet under kvällen så framgår två saker tydligt.

Det första är att det verkliga prestandahoppet av att gå från ett 3080 10 GB till ett 4080 16 GB generellt verkar vara runt 20%, med enstaka gynnsamma scenarion uppåt 25% högre prestanda, så vi kan anta att det handlar om 22,5% förbättring i snitt. Ordinariepriset för mitt Asus RTX 3080 TUF Gaming OC var 9100 SEK. Motsvarade efterföljande kort (4080 16 GB) ur samma serie från Asus kostar 20500 kr, eller 2,25x priset på föregångaren.

Om vi antar att 9100 SEK var värda 40% mer när jag köpte mitt kort så landar vi på 12740 SEK idag. Då vore det drygt 1,6x priset för ett svagt generationshopp i prestanda, ungefär samma prestandaökning som från 10-serien till 20-serien.

Det andra är att DLSS3 (som väntat) är en ren gimmick som funkar till långsamma singleplayerspel typ MS Flight Simulator, förutsatt att man bortser från artefakter på ögoncancer-nivå och att latenserna är samma eller sämre som vid den ursprungliga frameraten innan DLSS3 läggs på.

20-serien var åtminstone rimligt prissatt, men lanseringen av 40-serien är ju så usel att den saknar motstycke i GPU-historien sett till hur lite kunderna får för den massiva kostnadsökningen. Även om de skulle sänka priserna från 20500 kr till 12740 kr imorgon så skulle de fortfarande vara en för dålig uppgradering för att det skulle gå att rekommendera.

Att folk köper korten är nog mest en manifestation av hur allmänt usla mattekunskaper som figurerar ute i samhället.

Permalänk
Medlem
Skrivet av Sveklockarn:

Efter att ha kollat diverse YT-videos i ämnet under kvällen så framgår två saker tydligt.

Det första är att det verkliga prestandahoppet av att gå från ett 3080 10 GB till ett 4080 16 GB generellt verkar vara runt 20%, med enstaka gynnsamma scenarion uppåt 25% högre prestanda, så vi kan anta att det handlar om 22,5% förbättring i snitt. Ordinariepriset för mitt Asus RTX 3080 TUF Gaming OC var 9100 SEK (varav jag betalade 7990 kr). Motsvarade efterföljande kort (4080 16 GB) ur samma serie från Asus kostar 20500 kr, eller 225% mer än ordinariepriset på föregångaren.

Om vi antar att 9100 SEK var värda 40% mer när jag köpte mitt kort så landar vi på 12740 SEK idag. Då vore det bara 161% dyrare för ett svagt generationshopp i prestanda, ungefär samma som från 10-serien till 20-serien.

Det andra är att DLSS3 (som väntat) är en ren gimmick som funkar till långsamma singleplayerspel typ MS Flight Simulator, förutsatt att man bortser från artefakter på ögoncancer-nivå och att latenserna är samma eller sämre som vid den ursprungliga frameraten innan DLSS3 läggs på.

20-serien var åtminstone rimligt prissatt, men lanseringen av 40-serien är ju så usel att den saknar motstycke i GPU-historien sett till hur lite kunderna får för den massiva kostnadsökningen. Även om de skulle sänka priserna från 20500 kr till 12740 kr imorgon så skulle de fortfarande vara en för dålig uppgradering för att det skulle gå att rekommendera.

Att folk köper korten är nog mest en manifestation av hur allmänt usla mattekunskaper som figurerar ute i samhället.

7990kr till 20500kr är 156% ökning och inte 225%.

Permalänk
Medlem
Skrivet av smurfb:

7990kr till 20500kr är 156% ökning och inte 225%.

Ja du ser ändå att jag med mina usla mattekunskaper kan räkna ut att de som köper ett av tillgängliga 40-seriekort blir blåsta å det grövsta. 😜

Permalänk
Medlem

Här sat man och hoppades på en uppgradering från 1070 men är väl 4090 tuf som är best bang... Får se vad amd och xx60/70 ger

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av wargreymon:

Läser man hela artikeln så är det ju exakt vad Nvidia sade tidigare, det fungerar i teorin, men inte tillräckligt stabilt för att 4000-serien har nyare Tensor-kärnor än 2000/3000-serien.

Var ju självklart att detta skulle dyka upp.

Med tanke på hur dåligt det fungerar på 4090 enligt de videos man sett är det oklart för mig hur mycket sämre det kan bli. Det flimrar ju rättså friskt

Permalänk
Medlem

De kanske har prissatt 4080 & 4070 såpass högt för att sälja av 3000-serien och sänka priset sen på dem? Verkar vara det enda som är logiskt för inte fasen köper man t ex en 4080 strix istället för 4090 TUF till samma pris

Visa signatur

Vituð ér enn, eða hvað?

Permalänk
Skrivet av Swedishchef_90:

Här sat man och hoppades på en uppgradering från 1070 men är väl 4090 tuf som är best bang... Får se vad amd och xx60/70 ger

Hur kunde du hoppas på det? Vi fick ju se hur dåligt de presterade under presentationen av 40-serien. Vi fick inte veta fullt hur dyra de var (partnermodellerna) men vi fick veta att de var alldeles för dyra.

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk
Avstängd

I huvudsak så är det viktigt att prestandan fortsätter att öka. Det går alltid att vänta extra för att priserna ska sänkas.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem
Skrivet av Sveklockarn:

Efter att ha kollat diverse YT-videos i ämnet under kvällen så framgår två saker tydligt.

Det första är att det verkliga prestandahoppet av att gå från ett 3080 10 GB till ett 4080 16 GB generellt verkar vara runt 20%, med enstaka gynnsamma scenarion uppåt 25% högre prestanda, så vi kan anta att det handlar om 22,5% förbättring i snitt. Ordinariepriset för mitt Asus RTX 3080 TUF Gaming OC var 9100 SEK. Motsvarade efterföljande kort (4080 16 GB) ur samma serie från Asus kostar 20500 kr, eller 2,25x priset på föregångaren.

Om vi antar att 9100 SEK var värda 40% mer när jag köpte mitt kort så landar vi på 12740 SEK idag. Då vore det drygt 1,6x priset för ett svagt generationshopp i prestanda, ungefär samma prestandaökning som från 10-serien till 20-serien.

Det andra är att DLSS3 (som väntat) är en ren gimmick som funkar till långsamma singleplayerspel typ MS Flight Simulator, förutsatt att man bortser från artefakter på ögoncancer-nivå och att latenserna är samma eller sämre som vid den ursprungliga frameraten innan DLSS3 läggs på.

20-serien var åtminstone rimligt prissatt, men lanseringen av 40-serien är ju så usel att den saknar motstycke i GPU-historien sett till hur lite kunderna får för den massiva kostnadsökningen. Även om de skulle sänka priserna från 20500 kr till 12740 kr imorgon så skulle de fortfarande vara en för dålig uppgradering för att det skulle gå att rekommendera.

Att folk köper korten är nog mest en manifestation av hur allmänt usla mattekunskaper som figurerar ute i samhället.

Minns du inte att nästan alla (inkl jag) hissnade när 2080 ti kom för 14000kr nypris?
https://www.sweclockers.com/test/26250-nvidia-geforce-rtx-208...

Det då föregångaren 1080 ti kostade 8500kr (699USD) när det kom. Med just 10x0 serien så var den ju ett stort kliv i prestanda från Maxwell som inte var dålig men samtidigt inte superimponerande när den kom. 2000 serien var inte jättestort lyft i rasterisering men visst vi fick RT m.m.

https://www.sweclockers.com/test/23481-nvidia-geforce-gtx-108...

Edit: 14000 var det visst inte 13000
Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av Bakwetu:

De kanske har prissatt 4080 & 4070 såpass högt för att sälja av 3000-serien och sänka priset sen på dem? Verkar vara det enda som är logiskt för inte fasen köper man t ex en 4080 strix istället för 4090 TUF till samma pris

Så länge folk köper till utsatta priser, finns det ingen anledning att sänka priserna.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av Bakwetu:

De kanske har prissatt 4080 & 4070 såpass högt för att sälja av 3000-serien och sänka priset sen på dem? Verkar vara det enda som är logiskt för inte fasen köper man t ex en 4080 strix istället för 4090 TUF till samma pris

Jo, tror du är inne lite på rätt spår. Om den nya serien skulle ge bättre prestanda per krona än 3000-serien lär ju de återstående korten i 3000-serien bli svåra att sälja av.

Visa signatur

🏬: B550M DS3H 🔲: Ryzen 5 5600X ❄️: Freezer 34 eSports 🏴: RTX 3060 Ti Ventus 2X OC
🗄️: Stronghold 🔌: RM650 (2019) 🎞️: 32 GB DDR4 3200 MHz CL16 💾: CS3030 1 TB
⌨️: E9270P/MK730 (MX Red)/G80-3000N (MX Silent Red) 🖱️: Xlite V2 Mini/G603/MX Vertical
🎧: Edition XS/Astro A50/GSP 370/ATH-SR30BT/TAT2206 📶: Archer C6 📱: Pixel 6a
🖥️: OLED55BX/276E8VJSB

Permalänk
Medlem

Men rasterisationsprestandan säger något helt annat.

Visa signatur

AMD RYZEN 5 5600X | RTX 3060Ti | MSI B450 GAMING PRO CARBON AC

I ett tidigare liv:
AMD 2600X | AMD 8350 | AMD Phenom II X2 555 Black edition | AMD Athlon 64 3700+ | Intel® Pentium® II | Intel® 486DX2-66

Permalänk
Medlem
Skrivet av alebaler87:

Sitter och väntar på 4000 serien eftersom jag ska köpa ny dator. Undrar vilket kort som kommer ha tillräckligt bra prestanda för 1440p och ge mest prestanda/krona. Antar det blir 4060 ti eller möjligtvis 3060ti om det sänks ordentligt i pris

Rdna3 kommer ju om en månad. Kanske värt att vänta in. Då ser du ju helheten på ett annat sätt.

Visa signatur

AMD RYZEN 5 5600X | RTX 3060Ti | MSI B450 GAMING PRO CARBON AC

I ett tidigare liv:
AMD 2600X | AMD 8350 | AMD Phenom II X2 555 Black edition | AMD Athlon 64 3700+ | Intel® Pentium® II | Intel® 486DX2-66

Permalänk
Medlem
Skrivet av JBE:

Det blir inte suddigare utan tvärtom mycket bättre rörelseskärpa om du tex går från 60fps till 120 fps, eller 120fps till 240fps (dlss 3 verkar generellt ge ungefär dubbel fps, vilket är ganska logiskt om den lägger till en extra interpolerad frame varannan gång).
Latensen i tester ser ut att bli identisk med dlss off (du köar antagligen +1 frame men dubblar frameraten efter dlss2, och i tillägg lite snabbare rendering med dlss2), men sämre än enbart dlss 2, som ju faktiskt med gissningar renderar snabbare än dlss off och därmed sänker latens.

Se tex https://www.testufo.com/framerates-text för exempel på rörelseskärpa i olika multipliers av din monitors refresh.

Det skapar INTE suddiga frames, frågan är bara om det skapar artefakter, och alla jag sett som rescencerat det verkar positiva till det och flera säger att det är den bästa "realtids"-interpoleringen de sett även om det kan bli artefakter vid vissa förhållanden. Dlss 3 bygger ju på dlss 2, och vissa påstår sig inte tycka om dlss 2, så rimligen borde vissa människor trots allt inte gilla det, även om jag skulle vilja se slumpmässiga människor som inte ens vet vad dlss är välja mellan 60/120fps dlss off vs 120/240fps dlss 2.0/3.0 i ett blindtest i rörelse innan jag tror på det.

Såg även en video där någon isolerat endast de interpolerade framsen, och det såg väldigt bra och skarpt ut, inte på något sätt och vis suddigt ens då.
Men nu börjar ju folk få sina kort, så behövs inte spekuleras mer

Rörelseskärpa är bara intressant i filmklipp, inte när man faktiskt spelar, då vill man ha så exakt kontroll över vad man styr som möjligt annars blir det som att vara drogpåverkad. Hög FPS är helt ointressant om den är 2:1 till inmatningen.
DLSS1 &2 behåller fortfarande 1:1 FPS till inmatning, det drar istället ut bilden likt en lågupplöst skrivbordsbakgrund i Windows.
De gissade bildrutorna blir ju suddiga, vilket syns tydligt i låg FPS.

Nya spel kommer inte rulla i 60/120FPS eller 120/240FPS i framtiden på dessa korten utan snarare 30/60FPS och det förnimmar de flesta skillnaden på. Ser man inte skillnad på 60/120FPS vad är då poängen med att få 120FPS? Det blir ju bara en gimmik.

I dom klipp jag sett med bildrutegenerering på, så ser det ut som att markfordon slirar.

Kanske finns det dock fördelar i strömning och filmredigering, men inte för vanlig spel och film konsumtion.

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Medlem

Jag känner mig riktigt jäkla luttrad av den här releasen, jag hoppas verkligen marknaden klarar av att se igenom det här.
Jag har inga somhelst problem att casha ett 4090, men jag vägrar lägga så mycket pengar på ett grafikkort.
Det sjuka är att 4090 har typ mer prestanda per krona än 4080 ser det ut som om man går på proshops priser, vilket gör att jag vägrar ens fundera på 4080 av ren princip.
Är det något jag missar?

Permalänk

NAF är inte glad:

Skrivet av datoriserad:

Jag känner mig riktigt jäkla luttrad av den här releasen, jag hoppas verkligen marknaden klarar av att se igenom det här.
Jag har inga somhelst problem att casha ett 4090, men jag vägrar lägga så mycket pengar på ett grafikkort.
Det sjuka är att 4090 har typ mer prestanda per krona än 4080 ser det ut som om man går på proshops priser, vilket gör att jag vägrar ens fundera på 4080 av ren princip.
Är det något jag missar?

Ja du missar att Nvidia har en årsförbrukning av 30-serien kvar i lager och att 4080-korten, just nu, har som enda uppgift att få 30-serien och 4090:n att se ut som en bra deal.

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk
Medlem

En riktig Ding-Ding-Värld när ett grafikkort för ~22.000:- (RTX 4090) är "det mest prisvärda" i den nya generationen.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Rörelseskärpa är bara intressant i filmklipp, inte när man faktiskt spelar, då vill man ha så exakt kontroll över vad man styr som möjligt annars blir det som att vara drogpåverkad. Hög FPS är helt ointressant om den är 2:1 till inmatningen.

Fel. Så fungerar det inte. Om man tar onlinespel som exempel så är "1:1 FPS till inmatning" serverns tickrate, på i princip alla spel är den ca 10-66fps. Något enstaka spel har högre i tex LAN-tävlingar etc. Ingen sitter och spelar csgo i 64fps eller LOL i 30fps bara för att få 1:1 inmatning.
Högre interpolerad fps lokalt hos dig utan input från server kommer ge högre rörelseskärpa/flyt vilket gör det enklare att sikta/identifiera objekt, eller fortsätta panorera vidare mot info du redan har fått och även reagera snabbare om inte din hjärna kan instascanna 100% av all visuell information varje frame. (hint: det kan den inte).

Även om man utesluter det, och bara ser på dlss 3 vs dlss off i något offlinespel lokalt med en lokal simulering med tickrate som är = renderad fps, så är det återigen fel tänkt - dlss3 verkar ungefär dubbla framrate men köa en extra frame, dvs plus minus noll i latency. Tester visar ungefär samma latency med dlss3 som dlss off (medan dlss2 faktiskt har lägst latency av allt då den är effektivare än "verkligheten").

Skrivet av Fenrisulvfan:

DLSS1 &2 behåller fortfarande 1:1 FPS till inmatning, det drar istället ut bilden likt en lågupplöst skrivbordsbakgrund i Windows.
De gissade bildrutorna blir ju suddiga, vilket syns tydligt i låg FPS.

De har gjort videos för att testa vad som sker i låg fps och provocera fram artefakter, men hela meningen med tekniken i verkligheten är ju att nå hög fps där det inte märks. Jag har sett några videos om dlss 3 och generellt verkar det som du inte ser artefakter, om du inte sparar video, pausar och letar efter dem genom att analysera frames, eller provocerar fram dem med onaturligt låg fps.
De genererade bilderna är INTE suddiga, utan precis lika skarpa som de äkta, men KAN ha artefakter, vilka man generellt inte ser. Jag såg en video där man hade separerat ut och bara visade de interpolerade framsen, och den såg lika skarp ut som vilken video som helst, tyvärr har jag inte kvar länk då det var någon hög-kvalitets-fileshare då de ville visa det utan att youtube introducerade egna kompressions-artefakter.

Skrivet av Fenrisulvfan:

Nya spel kommer inte rulla i 60/120FPS eller 120/240FPS i framtiden på dessa korten utan snarare 30/60FPS och det förnimmar de flesta skillnaden på. Ser man inte skillnad på 60/120FPS vad är då poängen med att få 120FPS? Det blir ju bara en gimmik.

I dom klipp jag sett med bildrutegenerering på, så ser det ut som att markfordon slirar.

Kanske finns det dock fördelar i strömning och filmredigering, men inte för vanlig spel och film konsumtion.

I framtiden kommer det nog nya kort tror jag, jag antar att ingen köper dessa för prestandan de kommer ge om 6-10 år.
Ser man inte skillnad på 60/120FPS kan man nog tryggt skippa både dlss 3 och top-end-kort med gott samvete.

Permalänk
Medlem
Skrivet av Donnerstal:

Så det presterar bara ca 6% bättre än ett 3080 med DLSS 2, om dessa siffror stämmer?

Om man räknar på prestandan utan DLSS i Flight Simulator är det ändå ett hyfsat uppsving.

RTX 4080 12GB ~25% snabbare än RTX 3080
RTX 4080 16GB ~50% snabbare än RTX 3080

Jag tycker ändå att det ligger i linje med vad jag väntat mig. Det är två saker jag ser som negativt med 4000-serien. DLSS 3 som verkar vara mkt sämre vs DLSS 2. Och sedan det självklara - pris/prestandan är inte lika bra som RTX 3080s, som man kan köpa ganska "billigt" i jämförelse. Otroligt mycket värde i ett begagnat RTX 3080 i bra skick verkar det som.

Vi i Sverige har lite extra otur med svag krona och höga skatter, vilket gör att priserna sticker iväg och inte känns försvarbara. Men vänta 6-9 månader så kommer nog RTX 4080 16GB kanske vara en bättre affär, när alla 3080-kort är slutsålda. Och så får vi hoppas på att SEK återhämtar sig lite mot USD.

Detta kanske är en dum fråga - men kan man köra DLSS 2 på 4000-seriens grafikkort?

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Skrivet av JBE:

Fel. Så fungerar det inte. Om man tar onlinespel som exempel så är "1:1 FPS till inmatning" serverns tickrate, på i princip alla spel är den ca 10-66fps. Något enstaka spel har högre i tex LAN-tävlingar etc. Ingen sitter och spelar csgo i 64fps eller LOL i 30fps bara för att få 1:1 inmatning.
Högre interpolerad fps lokalt hos dig utan input från server kommer ge högre rörelseskärpa/flyt vilket gör det enklare att sikta/identifiera objekt, eller fortsätta panorera vidare mot info du redan har fått och även reagera snabbare om inte din hjärna kan instascanna 100% av all visuell information varje frame. (hint: det kan den inte).

Även om man utesluter det, och bara ser på dlss 3 vs dlss off i något offlinespel lokalt med en lokal simulering med tickrate som är = renderad fps, så är det återigen fel tänkt - dlss3 verkar ungefär dubbla framrate men köa en extra frame, dvs plus minus noll i latency. Tester visar ungefär samma latency med dlss3 som dlss off (medan dlss2 faktiskt har lägst latency av allt då den är effektivare än "verkligheten").

I onlinespel så spelar Ping högre roll än FPS om det är flaskhalsen, det är då meningslöst att ha högre FPS än vad Ping ger för hur väl man kan spela spelet, även om det säkert kan ge ögongodis via interpolering.
Om datorn bara klarar av att trycka ut 30FPS med 1:1 i inmatning så finns det ingen praktisk mening att köra i 60 FPS. Det ser både fult ut och personligen så skulle jag ha nära till att slå sönder kontroll/mus/TGB på grund av irriterande input-lagg i förhållande till min öga-hand koordination.
Ofta behöver man bara instascanna en liten del av skärmen, där man siktar eller styr sin karaktär, fordon etc.
Latensen blir såklart inte sämre än ~16,66667ms vid 60bildrutor om man baxar in 120 bildrutor på samma sekund, den blir dock inte ~8,3333ms som den borde.

Skrivet av JBE:

I framtiden kommer det nog nya kort tror jag, jag antar att ingen köper dessa för prestandan de kommer ge om 6-10 år.
Ser man inte skillnad på 60/120FPS kan man nog tryggt skippa både dlss 3 och top-end-kort med gott samvete.

Det gör ju eftermarknadsvärdet ganska dåligt, med tanke på priset och hur slött prestandautvecklingen går, så borde 4090-korten hålla i 20 år. Om 10 år hoppas jag inte ett 4090 kan trycka ut 4K120FPS i senaste spelen, det vore en ganska dyster utveckling.

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Medlem
Skrivet av aMp:

- men kan man köra DLSS 2 på 4000-seriens grafikkort?

Det går utmärkt.
i DLSS 3 ingår en extra del (frame generations) ovanpå DLSS 2 som man väljer att aktiverar eller inte.

Här visar Digital Foundry ett exempel på det
https://youtu.be/6pV93XhiC1Y?t=161

Permalänk
Medlem
Skrivet av Afra:

Det går utmärkt.
i DLSS 3 ingår en extra del ovanpå DLSS 2 som man väljer att aktiverar eller inte.

Tack för svar! Det är ju ändå bra. Då blir ju jämförelser mellan 3000- och 4000-serien med DLSS 2 på mycket intressant att se tester på imho.

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Skrivet av Fenrisulvfan:

I onlinespel så spelar Ping högre roll än FPS om det är flaskhalsen, det är då meningslöst att ha högre FPS än vad Ping ger för hur väl man kan spela spelet, även om det säkert kan ge ögongodis via interpolering.
Om datorn bara klarar av att trycka ut 30FPS med 1:1 i inmatning så finns det ingen praktisk mening att köra i 60 FPS. Det ser både fult ut och personligen så skulle jag ha nära till att slå sönder kontroll/mus/TGB på grund av irriterande input-lagg i förhållande till min öga-hand koordination.
Ofta behöver man bara instascanna en liten del av skärmen, där man siktar eller styr sin karaktär, fordon etc.
Latensen blir såklart inte sämre än ~16,66667ms vid 60bildrutor om man baxar in 120 bildrutor på samma sekund, den blir dock inte ~8,3333ms som den borde.

Återigen, tyvärr fel. Det är inte meningen att låta dryg men du behöver läsa om det jag skrev och förstå det.
Ping dvs nätverks-latens spelar varken mer roll än serverns tickrate (fps) eller din lokala interpolerade fps utan läggs bara på additivt i en kedja, men den kan ju bli en flaskhals om du har såpass hög ping att du inte hinner ta emot eller skicka ticks snabbt nog i förhållande till serverns tickrate.

Med en server tickrate på 50Hz och nätverkslatency på 10ms och en extremt effektiv renderingsmotor som tex cs:go på lowest på ca 10ms för enkelhetens skull, så blir renderingskedjan ungefär:

ms
0-20 serverberäkning av mottagen input och simulering
20-30 nätverk -> klient
30-40 klientrendering (din dator)
40-x Här är det lokal fps, monitorrefreshrate inklusive interpolering kommer in, men även tur.
Om du har 30fps så är detta ett 33.333ms långt intervall. När slumpmässigt nyanländ data anländer så kommer du i genomsnitt vara mitt i en frame, som måste visas färdigt i 33.333/2=16.667 ms till. I värsta fall 33.333ms om information anländer som mest olägligt.
Tex två identiskt perfekt precisa spelare med samma reaktionstid och samma ping möter varandra vid en dörröppning som de redan siktar på och kan döda varandra med ett skott.
Båda får samma info skickad från servern samtidigt. spelare1 har 30fps/monitor refresh, spelare 2 har 1000fps/monitor refreshrate. Även om allt annat är identiskt så har Spelare 1 har en genomsnittlig extra fördröjning på 16.667ms att vänta ut föregående frame, medan spelare2 har 0.5ms och vinner därmed nästan varje gång.
Högre fps-refreshrate sänker genomsnittlig inputlag även om den bara repeterar eller interpolerar info spelaren redan har. Detta är orsaken att extrem-seriösa fpsspelare och liknande gärna vill ha den absolut högsta framerate de kan få, även om de skulle tvingas spela på en monitor med lägre refresh.
(I tillägg till ovan nämna orelaterade fördelar med högre rörelseskärpa-precision-tracking-panorera till redan existerande info - tillgodogöra sig existerande info).
Sedan fortsätter kedjan:
40+x+120-250ms ca, mänsklig reaktion, bäst reaktion i världen på visuellt stimuli påstår vara ca 120ms, mer genomsnittligt 180-250ms.
40+x+127-257ms fysisk finger-rörelse och nedslag av musknapp - tar faktiskt förvånansvärt lång tid, mätte med 960fps kamera för något år sedan och IIRC var det ca 7ms i goda förhållanden. optiska sensorn är mycket snabbare att trigga, dvs du vänder dig om.
40+x+129-259ms muselektronik/usb med optimal mus
40+x+139-269ms - nätvärka data till server
repeat
Värdet på x kan alltså vara 0-33.333ms i 30fps och 0-1ms i 1000fps.

Inget av dessa additiva steg är viktigare än något annat, alla läggs bara ihop. En genomsnittlig människa med 10ms ping kommer nästan alltid slå den med världens snabbaste reaktioner om man ger honom 300ms ping i ett simpelt moment som att kampa en dörröppning.
Allt detta är helt separerat från de visuella fördelar man får med högre fps, dvs högre rörelseskärpa-precision-tracking-panorera till redan existerande info - tillgodogöra sig existerande info etc.

Skrivet av Fenrisulvfan:

Om datorn bara klarar av att trycka ut 30FPS med 1:1 i inmatning så finns det ingen praktisk mening att köra i 60 FPS. Det ser både fult ut och personligen så skulle jag ha nära till att slå sönder kontroll/mus/TGB på grund av irriterande input-lagg i förhållande till min öga-hand koordination.

Så för att förtydliga, det finns ingen relation mellan varken din fps, monitor refreshrate, input, network output, serverticks och dylikt.
Allt läggs bara på varannat som fördröjningar i en kedja. Skall din input vara 1:1 till dina 30fps så skall du ju sätta ned din mus refresh och USB polling till 30Hz också - det kommer bara ge dig ännu mer input lag.

Permalänk
Medlem
Skrivet av källarinvånare:

Hur kunde du hoppas på det? Vi fick ju se hur dåligt de presterade under presentationen av 40-serien. Vi fick inte veta fullt hur dyra de var (partnermodellerna) men vi fick veta att de var alldeles för dyra.

Jag hoppades från april 😁

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25