AMD siktar på dubblerad FPS med FSR 3

Permalänk
Medlem

AMD's FSR tycker jag ger mer prestanda om man kör i samma lägen som med DLSS.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem

I min tanke är inte dessa tekniker till for datormarknaden utan till alla handhållna enheter som steam deck och nvidia shield.

Jag tror att de använder datormarknaden som en beta test för att sedan pusha mer mot moln baserade spel än att köpa enskilda titlar, se xbox games pass osv.

Permalänk
Livsnjutare 😎

Är FSR något som skulle kunna implementeras på nuvarande konsolgenerationer ?

Visa signatur

Citera eller Svara för respons! •
• Life is a playground {|;^) •

Permalänk
Medlem
Skrivet av andreas_dock:

Är FSR något som skulle kunna implementeras på nuvarande konsolgenerationer ?

Ja. Speciellt eftersom spelen inte ens behöver korskompileras till vardera plattform. Det skulle behövas lite QA-testing i ett par veckor.

Cyberpunk 2077 verkar redan implementerat det för både Xbox och ps5

Cyberpunk 2077
Permalänk
Medlem

Dlss2 åker på i alla spel oavsett. Tycker sällan det gör det mycket sämre om det är bra implementerat. DLSS 3 har jag testat i Hogwarts och Dying light 2 samt spiderman och ser bara fördelar med det ärligt talat. Spelar bara singleplayer. Är nog för gammal för att ens se dessa artifakter alla pratar om 😆

Visa signatur

|Asus Rog Strix Scar 16|i9 13980HX|32GB DDR5|1TB| RTX 4080|

Permalänk
Medlem
Skrivet av anon132576:

Jag fattar inte varför både AMD och NV är så fixerade på att fejka bildrutor.

Varför skulle jag vilja ha det???? Datorn vet inte vad jag kommer att göra härnäst.

Sluta med det här skitfejkandet i jakt på mer max-FPS, det är inte där fokus ska vara. Satsa på att sänka fördröjningar, jämna ut fördröjningar och högre minumum-fps istället. Men det är klart, allt det där är svårare, och inte lika sexigt...

Fixeringen består väl ursprungligen i att Nvidia är fixerade vid att lägga till så mycket raytracing som möjligt så fort som möjligt. Och då måste man ta till alla knep man kan för att göra det spelbart, eftersom hårdvaran att räkna ut t ex path tracing på vanligt sätt i full önskad upplösning inte finns idag, och förmodligen inte kommer att finnas på ett bra tag än. Uppskalning och att tillverka bildrutor blir genvägar för att "fuska" sig till "ökad prestanda" och mata ut fler bilder på skärmen som tillräckligt hyfsat approximerar de riktiga bilderna i full upplösning som grafikkortet egentligen borde ha räknat ut, dvs riktig prestanda. Sedan måste såklart AMD/Intel följa efter.

Fejkrutorna är ju för övrigt inte predikterade, utan räknas ut från två redan befintliga bilder som producerats av grafikkortet, antingen i originalupplösning eller uppskalade med DLSS eller FSR, en före och en efter. Det är därför latensen ökar, datorn måste vänta på nästa bild innan fejkrutan kan beräknas.

Däremot försökte väl Google Stadia hävda att de kunde förutse vad du skulle göra härnäst? Det går ju att få ner latensen genom att presentera den mest sannolika bilden. Rent tekniskt kan jag tänka mig att det borde bli rätt ganska ofta. Om du t ex rör musen i en riktning kommer du allra mest sannolikt att röra den i samma riktning under nästa delta-t också, men det är när det blir fel i predikteringen som felet blir så mycket större i gengäld. Men kanske DLSS 4 och FSR 4 kommer att använda AI för att prediktera? Kom ihåg var du läste det först.

Permalänk
Medlem

Angående DLSS 2 och FSR 2 så ger båda en AA som är vida överlägsen alla mer eller mindre dåliga TAA eller MSAA-lösningar. Det är den största fördelen med teknikerna, sen får man lite ghosting på köpet, men det brukar jag ta om det inte är för illa.

Permalänk
Medlem
Skrivet av medbor:

Interpolerade frames borde gå att göra utan latens, skapa en från senaste med vektorer för att skapa en bild in i framtiden medan man väntar på nästa renderade bildruta

Troligen ger det dock artefakter när man panorerar för snabbt, kanske därför det skippas? Borde gå att skippa bildrutan de gånger de händer kanske

Mjo, interpolerade bilder behöver per definition skapa latens, men inte extrapolerade.

Interpolation betyder att man skapar något mellan två saker, t.ex. en extra frame mellan frame "1" & "2", låt oss kalla den "1.5". "1.5" kan inte skapas förens vi har både "1" och "2", så för att få en mjuk resultat behöver du fördröja "2" med en halv frame-tid + tiden det tar att beräkna fram "1.5".

Det ser du också i presentationen från AMD som finns inbäddad i artikeln. Den första "present" där kommer från att man beräknar fram just "1.5" från den nya framen och föregående. Den faktiskt framen som beräknats fram där visas sedan lite senare, när man håller på att rendera nästa frame etc.

Extrapolering vet jag inte om någon gör, men jag tyckte jag såg någon sådant på en slide från nVidia. Då tar man och utgår från senaste framen och extra info för att försöka lista ut vad nästa frame ska vara, och kan då visa den i förtid. Men det är en gissning, om det är rätt vet man inte fören en stund senare när "facit" kommer i form av nästa färdiga frame.

Men för personer som är intresserade av den här typen av teknik så spelar det väl mindre roll om bilden fördröjs en halv (+ lite till) frame. Vid 30fps som blir 60fps talar vi om kanske 4ms extra latens, inget jag bryr mig om det minsta.

Permalänk
Medlem
Skrivet av lunkwill:

Mjo, interpolerade bilder behöver per definition skapa latens, men inte extrapolerade.

Interpolation betyder att man skapar något mellan två saker, t.ex. en extra frame mellan frame "1" & "2", låt oss kalla den "1.5". "1.5" kan inte skapas förens vi har både "1" och "2", så för att få en mjuk resultat behöver du fördröja "2" med en halv frame-tid + tiden det tar att beräkna fram "1.5".

Det ser du också i presentationen från AMD som finns inbäddad i artikeln. Den första "present" där kommer från att man beräknar fram just "1.5" från den nya framen och föregående. Den faktiskt framen som beräknats fram där visas sedan lite senare, när man håller på att rendera nästa frame etc.

Extrapolering vet jag inte om någon gör, men jag tyckte jag såg någon sådant på en slide från nVidia. Då tar man och utgår från senaste framen och extra info för att försöka lista ut vad nästa frame ska vara, och kan då visa den i förtid. Men det är en gissning, om det är rätt vet man inte fören en stund senare när "facit" kommer i form av nästa färdiga frame.

Men för personer som är intresserade av den här typen av teknik så spelar det väl mindre roll om bilden fördröjs en halv (+ lite till) frame. Vid 30fps som blir 60fps talar vi om kanske 4ms extra latens, inget jag bryr mig om det minsta.

Såklart extrapolerade jag menade, vet ju båda orden så har inget att skylla på mer än att det var ett misstag

Fördelen med en sådan bildruta är att det inte blir någon latens, utan faktiskt minskar latensen (om det genererade är nära nog korrekt)

Varje renderad bildruta blir fördröjd med minst en halv cykels fördröjning, alltså hälften av 33ms vid 30FPS, plus lite beräkningsfördröjning

Alltså blir latensen från 33ms till 33+17+beräkning. Så det blir att spela på 60FPS men med samma fördröjning som att spela på under 20FPS

Det är inte 4ms skillnad i fördröjning, snarare 20ms. Det borde märkas i FPS och snabba spel

Permalänk
Datavetare

Förstår inte gnället med dessa tekniker. DLSS 1.x och FSR 1.x hade ett gäng problem, men redan då var det ju valfritt att använda tekniken och är fortfarande valfritt.

Tycker DLSS 2.x och FSR 2.x fungerar superbra i en klar majoriteten av fallen. Skulle inte så vara fallet går det att slå av.

Pratas väldigt mycket om ghosting. Visst kan detta synas i stillbilder, men i rörelse är det långt färre fall där det i praktiken är ett problem.

Tycker det egentligen bara finns ett återkommande problem hos FSR 2.x, det orsakat av något som AMD kallar Thin Feature Locking. FSR 2.x har en tendens att göra tunna linjer tjockare/mer synliga än de borde vara. Syns främst på elkablar i luften, men kan även uppträda på raka saker med stor kontrast som träpaneler.

Klicka för mer information
Visa mer

Dock verkar just ghosting kunna vara något som kommer vara extra utmanande med FSR 3.x om jag förstått AMD rätt (var på deras presentation kring detta på GDC). De tekniker man använder för att eliminera/minska denna artefakt hos FSR 2.x är inte möjliga i FSR 3.x. Vi lär få se hur bra/dåligt detta fungerar.

Angående DLSS 3.x så är sättet Nvidia implementerat det hela gjort på ett sätt som faktiskt utesluter GPUer som saknar HW-stöd för "Optical Flow Acceleration". Väldigt förenklat kan man se det som att DLSS/FSR 2.x jobbar på "vertex-shader" nivå, man tittar på geometrin hos objekt och hur de förflyttar sig mellan två bildrutor.

DLSS 3.x jobbar i stället på "fragment-shader" nivå, d.v.s. "Optical Flow" är att man räknar/uppskattar ut hur varje individuell pixel rör sig mellan två bildrutor för att på så sätt kunna bilda sig en uppfattning var respektive pixel då var halvvägs mellan dessa två bildrutor.

Här lär FSR 3.x behöva använda sig av någon annan teknik, så blir spännande att se hur bra/dåligt det fungerar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Förstår inte varför man inte vi är använda sig av fsr 2.1. Kör många spel i 4k med fsr på quality och märker väldigt lite skillnad i bildkvalite mot native 4k när ja jämför. Fördelarna att kunna köra många spel i smooth 60fps på en 4k tv för lite sämre bildkvalite är helt klart vinnare.

Permalänk
Medlem
Skrivet av Yoshman:

Förstår inte gnället med dessa tekniker. DLSS 1.x och FSR 1.x hade ett gäng problem, men redan då var det ju valfritt att använda tekniken och är fortfarande valfritt.

Tycker DLSS 2.x och FSR 2.x fungerar superbra i en klar majoriteten av fallen. Skulle inte så vara fallet går det att slå av.

Pratas väldigt mycket om ghosting. Visst kan detta synas i stillbilder, men i rörelse är det långt färre fall där det i praktiken är ett problem.

Tycker det egentligen bara finns ett återkommande problem hos FSR 2.x, det orsakat av något som AMD kallar Thin Feature Locking. FSR 2.x har en tendens att göra tunna linjer tjockare/mer synliga än de borde vara. Syns främst på elkablar i luften, men kan även uppträda på raka saker med stor kontrast som träpaneler.

Klicka för mer information

<Uppladdad bildlänk>
<Uppladdad bildlänk>

Visa mer

Dock verkar just ghosting kunna vara något som kommer vara extra utmanande med FSR 3.x om jag förstått AMD rätt (var på deras presentation kring detta på GDC). De tekniker man använder för att eliminera/minska denna artefakt hos FSR 2.x är inte möjliga i FSR 3.x. Vi lär få se hur bra/dåligt detta fungerar.

Angående DLSS 3.x så är sättet Nvidia implementerat det hela gjort på ett sätt som faktiskt utesluter GPUer som saknar HW-stöd för "Optical Flow Acceleration". Väldigt förenklat kan man se det som att DLSS/FSR 2.x jobbar på "vertex-shader" nivå, man tittar på geometrin hos objekt och hur de förflyttar sig mellan två bildrutor.

DLSS 3.x jobbar i stället på "fragment-shader" nivå, d.v.s. "Optical Flow" är att man räknar/uppskattar ut hur varje individuell pixel rör sig mellan två bildrutor för att på så sätt kunna bilda sig en uppfattning var respektive pixel då var halvvägs mellan dessa två bildrutor.

Här lär FSR 3.x behöva använda sig av någon annan teknik, så blir spännande att se hur bra/dåligt det fungerar.

Om jag förstått det rätt så går det att köra DLSS3 på övre 3000-serien, men det blir mer artefakter för algoritmerna kräver mer kraft i optical flow. Denna hårdvara fanns tidigare med men inte tillräckligt kraftfull

Permalänk
Medlem
Skrivet av medbor:

Det är inte 4ms skillnad i fördröjning, snarare 20ms. Det borde märkas i FPS och snabba spel

Helt rätt, jag borde inte räkna i huvudet idag märker jag.

Men cirka 20ms extra spelar mig inte så mycket roll det heller, om det ger mig trevligt flyt.

Dock förstår jag att de som vill ha snabba reaktioner hellre har riktig 60fps med 15ms fördröjning än 30->60fps med totalt kanske 50ms. Men det senare är betydligt billigare i plånboken.

Sedan finns det andra användningsområden också. Att tex aktivt slå på det bara i cut-scener då latens blir totalt oviktigt.

Permalänk
Medlem
Skrivet av lunkwill:

Helt rätt, jag borde inte räkna i huvudet idag märker jag.

Men cirka 20ms extra spelar mig inte så mycket roll det heller, om det ger mig trevligt flyt.

Dock förstår jag att de som vill ha snabba reaktioner hellre har riktig 60fps med 15ms fördröjning än 30->60fps med totalt kanske 50ms. Men det senare är betydligt billigare i plånboken.

Sedan finns det andra användningsområden också. Att tex aktivt slå på det bara i cut-scener då latens blir totalt oviktigt.

Jag håller med, inte en stor skillnad. Spelar man med handkontroll (t.ex bluetooth) eller på en TV utan spelläge, eller bara långsamma spel så spelar det inte så stor roll. Jag spelade ofta i 15FPS i min ungdom för att datorn var för seg, man kan anpassa sig ganska bra

Permalänk
Datavetare
Skrivet av medbor:

Om jag förstått det rätt så går det att köra DLSS3 på övre 3000-serien, men det blir mer artefakter för algoritmerna kräver mer kraft i optical flow. Denna hårdvara fanns tidigare med men inte tillräckligt kraftfull

Det var en rätt ordentligt förenkling kring flera saker jag skrev, inklusive DLSS 3.x.

DLSS 3.x går att "köra" lika bra som det går att "köra" saker med hårda realtidskrav på Windows/Linux. I praktiken: inte alls.

Logiskt sett går det att köra på vilken GPU som helst. Men en kritisk dimension för DLSS 3.x är att alla DLSS 3.x-relaterade operationer alltid kan slutföras på < 1/(2*FPS) sekunder, missar man den dead-line:en fungerar det inte.

Redan Turing fick en form av "HW Optical Flow Acceleration", men där saknas vissa "kernel-storlekar" som används av DLSS 3. Ampere har alla "kernel-storlekar" som Ada-har, men dels är råprestandan för låg och framförallt är latensen mellan "Tensor-kärnorna" (som utför alla DLSS 3 beräkningar asynkront mot CUDA-kärnorna) och CUDA-kärnorna (som behöver resultatet i slutändan) väsentligt högre pre-Ada.

Prestandakvoten (Tensor/CUDA) är därför 3-4 gånger högre hos Ada jämfört med motsvarande Ampere. Och är det i praktiken kvoten mellan GPUs övriga delar och Tensor-kärnorna som måste vara "tillräcklig". Även om 3090Ti har högre prestanda på sina Tensor-kärnor jämfört med t.ex. 3060, är det ungefär samma prestandakvot (Tensor/CUDA).

DLSS 3 / FSR 3 blir helt poänglöst om kostnaden att beräkna "mellanbilden" inte kan göras inom sin "dead-line" (precis som för dead-line schedulers är ett fel i algoritmen om dead-line missas, inte bara något som "ger sämre upplevelse").

Problemet/utmaningen för FSR 3 blir ju att beräkningarna kommer äta resurser från annat som också använder "de vanliga" grafikkärnorna (Tensor-kärnorna är separat från CUDA-kärnorna). Fördelen är att det fungerar på alla moderna GPUer.

TL;DR blir då i praktiken att pre-Ada saknar HW-stödet. Ampere kan fixa DLSS 3 i relativt låg upplösning om man också har relativt låg FPS. Men är ett sådan fall relevant?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Det var en rätt ordentligt förenkling kring flera saker jag skrev, inklusive DLSS 3.x.

DLSS 3.x går att "köra" lika bra som det går att "köra" saker med hårda realtidskrav på Windows/Linux. I praktiken: inte alls.

Logiskt sett går det att köra på vilken GPU som helst. Men en kritisk dimension för DLSS 3.x är att alla DLSS 3.x-relaterade operationer alltid kan slutföras på < 1/(2*FPS) sekunder, missar man den dead-line:en fungerar det inte.

Redan Turing fick en form av "HW Optical Flow Acceleration", men där saknas vissa "kernel-storlekar" som används av DLSS 3. Ampere har alla "kernel-storlekar" som Ada-har, men dels är råprestandan för låg och framförallt är latensen mellan "Tensor-kärnorna" (som utför alla DLSS 3 beräkningar asynkront mot CUDA-kärnorna) och CUDA-kärnorna (som behöver resultatet i slutändan) väsentligt högre pre-Ada.

Prestandakvoten (Tensor/CUDA) är därför 3-4 gånger högre hos Ada jämfört med motsvarande Ampere. Och är det i praktiken kvoten mellan GPUs övriga delar och Tensor-kärnorna som måste vara "tillräcklig". Även om 3090Ti har högre prestanda på sina Tensor-kärnor jämfört med t.ex. 3060, är det ungefär samma prestandakvot (Tensor/CUDA).

DLSS 3 / FSR 3 blir helt poänglöst om kostnaden att beräkna "mellanbilden" inte kan göras inom sin "dead-line" (precis som för dead-line schedulers är ett fel i algoritmen om dead-line missas, inte bara något som "ger sämre upplevelse").

Problemet/utmaningen för FSR 3 blir ju att beräkningarna kommer äta resurser från annat som också använder "de vanliga" grafikkärnorna (Tensor-kärnorna är separat från CUDA-kärnorna). Fördelen är att det fungerar på alla moderna GPUer.

TL;DR blir då i praktiken att pre-Ada saknar HW-stödet. Ampere kan fixa DLSS 3 i relativt låg upplösning om man också har relativt låg FPS. Men är ett sådan fall relevant?

Jag menade inte att säga att du hade fel, ville bara säga att det var nära eller ett gränsfall att det skulle kunnat gå att få till, i alla fall med lite sämre kvalitet, i teorin. Det är inte så att stödet saknades helt. Helt okej att förenkla situationen

Permalänk
Medlem
Skrivet av hockexx:

FSR 2 åker på i alla spel det finns på för mig. Samma med DLSS när jag hade 3070. Även om det blir några artefakter och marginellt sämre estetiskt så är prestandavinsten allt för stor för att inte använda det. Så till vida jag inte kan köra 144FPS utan minsta drops, då skippar jag det. Med 3070 var det nästan ett krav då antingen VRAM tog slut på allt för många spel eller så orkade det helt enkelt inte med 1440P, skräpkort för 1440P. 60 FPS är inte ok.

Håller med om 3070, var det kortet jag också körde innan. 3440x1440 gick sådär men ofta fick man sänka texturinställningarna. Efter uppgradering till en 4K144Hz skärm så var det hopplöst. Har nog aldrig kört 2560x1440 med mitt 3070 men den orkade inte maxa de ynka 90Hz min tidigare skärm maxade på (X34A). Effektivt och i övrigt rätt trevligt kort men inte för mina behov.

Fokuserar också att nå en högre bildfrekvens (120Hz fungerar överlag riktigt bra) och allt under ca 100 Hz känns för lågt för mig. Nämnda 90Hz-skärm låg även den på fel sida gränsen.

Visa signatur

Huvuddator: 7800X3D, 2x16GB G.Skill Flare X5 6000MHz CL30, Asus B650E-F, KFA2 RTX 4090 SG, 6TB NVMe/SATA SSD, 42" LG OLED C3 Evo
Spellaptop: Asus ROG Strix G15, 6800H, 16GB, RTX 3070Ti, 1TB NVMe
Övrigt: Dell XPS 13 modell 9310, Apple Macbook Air M1 8GB samt Samsung Galaxy S7 FE, Steam Deck
Dammsamlare: PS5, Switch och Xbox One X
Folda för Sweclockers! https://www.sweclockers.com/forum/trad/1348460-faq-kom-igang-...

Permalänk
Testpilot

Till alla som 'gnäller' över interpolering likt FG har jag en fråga

Prestanda och uppfattad prestanda, spelar det verkligen någon roll (om det görs rätt)?

Uppriktigt nu:
Spelar det verkligen någon roll om siffran som visas uppe i hörnet med RivaTuner är en "äkta" siffra eller inte? Det är den slutgiltiga upplevelsen som har relevans kan åtminstone jag anse. Spel har alltid fejkat sig fram, behöver inte kolla längre än Ambient Occlusion – en teknik som fejkar ljus & skuggor såpass bra att den kan gå upp emot realtids-strålspårning (i vissa fall).

Med det sagt:
Nu är jag inte helt insåld på dagens implementation utav Frame Generation, men det är för att det helt enkelt inte är bra nog än, precis som att DLSS/FSR inte var bra på lansering heller. Men jag är övertygad om att FG kommer nå en punkt där man inte ens tänker på att det är påslaget, mycket likt hur DLSS idag har blivit såpass bra att det i mitt tycke ger en bättre bild många gånger än native (både i 1440p och 4K UHD).

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | Leobog Hi75 | Deathadder V2 Pro >

Permalänk
Medlem
Skrivet av Makkangbg:

> *Äger ett 3090*

... ja? Vad har det med saken att göra?

Jag är inte intresserad av interpolerade fejkframes. Varken FSR 3 eller DLSS 3.

Visa signatur

5950X, 3090

Permalänk
Medlem
Skrivet av Yatagarasu:

Prestanda och uppfattad prestanda, spelar det verkligen någon roll (om det görs rätt)?

Om det kan göras perfekt, med noll artefakter, helt omärkbart, så är det ok. Innan den nivån uppnås så är det bara ett irriterande fluff, precis som interpoleringen som tv-apparater nuförtiden brukar vara fabriksinställda att göra, så man måste gräva i menyer för att hitta var man slår av skiten.

Visa signatur

5950X, 3090

Permalänk
Testpilot
Skrivet av backfeed:

Om det kan göras perfekt, med noll artefakter, helt omärkbart, så är det ok. Innan den nivån uppnås så är det bara ett irriterande fluff, precis som interpoleringen som tv-apparater nuförtiden brukar vara fabriksinställda att göra, så man måste gräva i menyer för att hitta var man slår av skiten.

Om "noll artifakter" och perfektion är ett krav, då lär ju andra tekniker som Ambient Occlusion göra saker och ting ospelbart. Allehanda AA-tekniker lär även dessa försvinna (åtminstone allt bortom 2xMSAA+/DLAA). 3D-spel i allmänhet lär gå bort känner jag: shimmering, pop-ins och liknande kan grovt störa inlevelsen (perfekt exempel är Witcher 3 som lider av detta genomgående).

Känns som det ställs orimliga krav, där enda sättet att undvika saker som artifakter eller andra minst lika störande saker är handmålade 2D-sprites med en gnutta cell-shading och väldigt hög upplösning

Vill klargöra (igen) att jag inte är nöjd med nuvarande implementationer av FG, men köper inte argumentet att det måste vara perfekt för att anammas i breda drag – speciellt inte när de flesta tekniker i spelväg handlar om att fejka sig fram och har ögonstickande problem efter årtioenden sedan de introducerades.

Putsade till struktur och grammatik för enklare läsning. // Yatagarasu
Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | Leobog Hi75 | Deathadder V2 Pro >

Permalänk
Medlem
Skrivet av Yatagarasu:

Om "noll artifakter" och perfektion är ett krav, då lär ju andra tekniker som Ambient Occlusion göra saker och ting ospelbart. Allehanda AA-tekniker lär även dessa försvinna (åtminstone allt bortom 2xMSAA+/DLAA). 3D-spel i allmänhet lär gå bort känner jag: shimmering, pop-ins och liknande kan grovt störa inlevelsen (perfekt exempel är Witcher 3 som lider av detta genomgående).

FSR 2 Quality (jag har inte testat med DLSS 2) löser problemet med shimmering i princip. Mycket, mycket bättre än den TAA spelet kom med. I min mening bättre kvalitet än native trots lägre renderingsupplösning.

Permalänk
Avstängd
Skrivet av backfeed:

Axelryckning. Meh.

Jag syftar på själva funktionen alltså, jag har aldrig varit en fan av interpolerade fejkframes.

Interpolation är en sak och "fejkframes" är en annan.

Permalänk
Medlem
Skrivet av Camper7:

Interpolation är en sak och "fejkframes" är en annan.

Ren tekniskt, jepp, men i slutändan handlar det om samma sak: att generera oäkta frame(s) mellan två äkta frames.

Visa signatur

5950X, 3090

Permalänk
Avstängd
Skrivet av backfeed:

Ren tekniskt, jepp, men i slutändan handlar det om samma sak: att generera oäkta frame(s) mellan två äkta frames.

Jag kan dock ej hålla med. Det finns inget som oäkta och äkta. Interpolation skapar perfekta frames så det är inte ens värt mödan att klaga på. Jag välkomnar det varmt. Ta en titt på SVP4 så förstår du vad jag menar. Många av dagens moderna TVn (OLED, QLED etc) har realtidsinterpolation som standard. Du får hålla dig till gamla TVn om du avskyr det så mycket.

Permalänk
Medlem
Skrivet av Camper7:

Jag kan dock ej hålla med. Det finns inget som oäkta och äkta. Interpolation skapar perfekta frames så det är inte ens värt mödan att klaga på. Jag välkomnar det varmt. Ta en titt på SVP4 så förstår du vad jag menar. Många av dagens moderna TVn (OLED, QLED etc) har realtidsinterpolation som standard. Du får hålla dig till gamla TVn om du avskyr det så mycket.

Att kalla det "perfekta frames" är ju något magstarkt. Och det finns inte en enda interpolationsteknik i någon TV som för mig är användningsbart i något läge. Så det där är helt och hållet en smakfråga. Angående DLSS 3 eller FSR 3 så blir det väldigt beroende på spelet och hur känsliga användarna är för latens och artefakter (ju lägre FPS typ, 30 interpolerat till 60 fps) ju synligare.

Men det är ju bra att tekniken finns tycker jag oavsett!

Permalänk
Avstängd
Skrivet av Novdid:

Att kalla det "perfekta frames" är ju något magstarkt. Och det finns inte en enda interpolationsteknik i någon TV som för mig är användningsbart i något läge. Så det där är helt och hållet en smakfråga. Angående DLSS 3 eller FSR 3 så blir det väldigt beroende på spelet och hur känsliga användarna är för latens och artefakter (ju lägre FPS typ, 30 interpolerat till 60 fps) ju synligare.

Men det är ju bra att tekniken finns tycker jag oavsett!

Om du har en modern TV idag, t.ex. Samsung 65" QLED eller liknande så har du redan interpolationsteknik i den utan att du ens vet om det. Om då är fallet så har du tittat på en TV med interpolation och påstås veta om du ens märker det.
Jag märkte direkt med min nya TV att bilden flöt väldigt bra för att vara 24hz och att det inte enbart är rena "frames", varannan frame är interpolerad, och det mottagas tacksamt istället för att kalla det "fakeframes".

Permalänk
Medlem
Skrivet av Camper7:

Om du har en modern TV idag, t.ex. Samsung 65" QLED eller liknande så har du redan interpolationsteknik i den utan att du ens vet om det. Om då är fallet så har du tittat på en TV med interpolation och påstås veta om du ens märker det.
Jag märkte direkt med min nya TV att bilden flöt väldigt bra för att vara 24hz och att det inte enbart är rena "frames", varannan frame är interpolerad, och det mottagas tacksamt istället för att kalla det "fakeframes".

Det är väl ändå det första som stängs av när apparaten startas för första gången? Lite som att stänga av vivid och annat

Permalänk
Avstängd
Skrivet av medbor:

Det är väl ändå det första som stängs av när apparaten startas för första gången? Lite som att stänga av vivid och annat

Tekniken på Samsung kallas Motion Xceleration och den kan man inte stänga av. Bara enkla funktioner som HDR etc är valbara.
Du skulle nog inte njuta av en TV som spelar upp ren 24Hz när den är 65" eller mer.

Permalänk
Hedersmedlem
Skrivet av medbor:

Det är väl ändå det första som stängs av när apparaten startas för första gången? Lite som att stänga av vivid och annat

Njaaa inte för alla... 24 fps på OLED är hemskt när man är van vid 165 på LCD. Kör inte med max interpolering, men helt avstängt går inte hem för mig heller.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200