AMD:s FSR 3 med interpolering anländer idag

Permalänk
Medlem
Skrivet av Anders9110:

Förmodligen Input Latency AMD Anti Lag+ bör hjälpa ifall du inte har aktiverat det men i grunden så tillför alltid Frame Generation Input Latency Nvidia använder Reflex för att sänka Input Latency och AMD Anti Lag+ för RDNA3 kort

Såg ut att vara aktiverat redan men jag laddar hem senaste 23.9.3 uppdateringen och testar med AL+ av och på! Tack

Visa signatur

🡇

• 5800x3D • 7900 XT •

Permalänk
Avstängd
Skrivet av kelthar:

Vad menar du?

Likt en religion.. fantasi men för många är det på riktigt.

Visa signatur

XFX Merc 7900XT|R5 5600X|MSI MPG B550|32GB 3600mhz.

32" 1440P@240Hz, 1000R.

Permalänk
Medlem

Varför bara interpolera en bild, varför inte 20 när man ändå håller på och ljuger upp FPS:en?

Permalänk
Medlem
Skrivet av perost:

Synkteknikerna har dock inte gått samman, det finns minst fyra olika tekniker idag. När det gäller spelskärmar så kan man dock säga att VESA Adaptive Sync har vunnit, men det som är lite tråkigt med det är att den inte vann genom att vara tekniskt bäst utan genom att vara billigare, öppen, och "bra nog".

Risken är att vi får se samma utveckling för uppskalningstekniker, där FSR är tekniskt sämst av de tre lagens tekniker (än så länge i alla fall) men mest kompatibel eftersom den inriktar sig på "minsta gemensamma nämnare" bland grafikkorten. I det här läget tror jag det skulle vara smart av Nvidia att implementera grundläggande stöd för AMD och Intel i DLSS, men kanske inte så bra för oss konsumenter. Det bästa vore om de kunde komma överens om en standard som fungerar på alla kort men som låter alla utnyttja sin hårdvara på bästa sätt.

Tänkte mer på att man idag kan köra gsync på många "freesync-skärmar."

Jag tror Nvidia kommer göra som du säger, såvida inte teknikerna blir något så konstigt som väldigt snarlika parallella tekniker (vilket jag inte tror AMD kommer att kunna prestera). Bolagen har i stort sett samma ägare och om det inte finns ett sken av konkurrens så ligger det i deras intresse att stabilisera det.

Permalänk
Medlem

Alltså jag har aldrig fattat detta men all form av uppskattning bör påverka latensen/input lag eller?

Typ spel som CS. Tjänst väl ingen på att köra med uppskalnibg?

Permalänk
Medlem
Skrivet av Dyluck:

Varför bara interpolera en bild, varför inte 20 när man ändå håller på och ljuger upp FPS:en?

Det är vad tekniken tillåter i dagsläget, och vad som är acceptabelt med tanke på att varje genererad bild påverkar responstiden. I framtiden lär det bli mer, men problemet med responstiden behöver lösas först.

Visa signatur

Ryzen 9 5900X @ +100MHz & CO -23.5 | RTX 3070 @ 2GHz 16Gbps 956mV | 32GB @ 3600MT/s CL14

Permalänk
Medlem

Hyfsad meningslös teknik. Precis som Frame Generation så är det inte användbart när det verkligen behövs, under 60 fps. Om jag får 60 fps eller 120 fakefps i t.ex Cyberpunk med den ökade latensen är det verkligen inte att hoppa jämfota över.

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem

Jag är inte intresserad. Jag kör bara originalupplösning. Fast då har jag inte sjukt hög upplösning heller.

Permalänk
Medlem
Skrivet av Dyluck:

Varför bara interpolera en bild, varför inte 20 när man ändå håller på och ljuger upp FPS:en?

Man ljuger inte upp fps, det är högre fps och högre rörelseskärpa.
Däremot är det inte lägre latens vilket högre FPS annars också ger.

Jag skulle gissa att latensen skulle öka om man genererade fler bilder i dag, Kanske kan dem lyckas lägga in någon fler bild i kommande generationer? 20 interpolera skulle dock vara lite onödigt i dag då ex 60fps x 20 = 1200 fps vi behöver lite snabbare skärmar innan det bli någon nytta med det Det måste finnas en bra FPS i botten att interpolera från, går inte bara leva på interpolerade bilder.

Permalänk
Datavetare

Fattar inte pseudo-debatten om "native".

Spel fuskar på typ hundratals olika sätt mot någon som ens med någon rimlig relevans skulle kunna kallas "native". "Native" skulle betyda som högst ett par scener-per-timme eller något sådan...

Fördelen med det DLSS och FSR gör är att de å ena sidan lägger till ännu ett sätt att "fuska", men de möjliggör samtidigt att kunna "fuska" långt mindre på en rad andra och rätt gjort blir totalen lite bättre.

Hur man väljer att lägga sina "fuskreglage" går till viss del att styra, man kan t.ex. slå av DLSS/FSR om man inte gillar dessa!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Redaktion
Praktikant ✨

Forspoken har nu patchats och fått stöd för FSR 3.

Permalänk
Hedersmedlem
Skrivet av Bobiri:

Alltså jag har aldrig fattat detta men all form av uppskattning bör påverka latensen/input lag eller?

Typ spel som CS. Tjänst väl ingen på att köra med uppskalnibg?

CS är väl inte direkt det mest GPU-krävande spelet i världen och därmed ett dåligt mål för uppskalning, till och med om man har typ ett RTX 2060 (ett av de sämsta korten med DLSS-stöd). Men nej, du kan få lägre latens med "vanlig" uppskalning (DLSS/FSR, inte frame gen/interpolering) genom att det helt enkelt tar mindre tid att både rendera i lägre upplösning och skala upp, än vad det tar att enbart rendera i native-upplösning.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av superapan:

Hyfsad meningslös teknik. Precis som Frame Generation så är det inte användbart när det verkligen behövs, under 60 fps. Om jag får 60 fps eller 120 fakefps i t.ex Cyberpunk med den ökade latensen är det verkligen inte att hoppa jämfota över.

Jag tycker tvärt om, tekniken blir riktigt bra att använda först vid 60 fps och uppåt för att få bättre flyt och rörelseskärpa i bilden.
Speciellt för en snabb och bra OLED skärm som ni har blir det märkbart bättre. Men nu har jag bara Nvidias version att utgå från.

Permalänk
DingDongerMcDongface

Nyheten är uppdaterad med två nya stycken som behandlar att det nu finns ute med Forspoken, samt väldigt tidiga testresultat från DSO Gaming

Permalänk
Medlem

Provade på demot, ser bra ut den lilla bit jag körde. Hittade lite buggar som att det inte fungerade på en av mina skärmar, men det har inget med bildkvaliten att göra.

Input-lag i singleplayer-spel tycker jag alltid varit en löjlig diskussion och det fungerade fint runt 100fps på 4090. Och vad jag förstår var det utan Reflex eller något Antilag eller så. Förhoppnignsvis är AMD användarna också nöjda nu så vi kan börja diskutera fördelarna med frame generation och inte bara en massa påhittade nackdelar.

Permalänk
Medlem
Skrivet av landmarks:

Nyheten är uppdaterad med två nya stycken som behandlar att det nu finns ute med Forspoken, samt väldigt tidiga testresultat från DSO Gaming

Intressant att testsystemet bara var Nvidiakort. Då fungerar vad jag vet inte Anti-Lag+, fast det lär inte lösa frame pacing-problemen. Klagomålet rörande G-sync och tearing kanske, förhoppningsvis, inte infinner sig med en Freesyncskärm (om det är en med modul dom använde)?

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem
Skrivet av Lussarn:

Förhoppnignsvis är AMD användarna också nöjda nu så vi kan börja diskutera fördelarna med frame generation och inte bara en massa påhittade nackdelar.

Dom har väl alltid varit nöjda.
Det måste väl ha varit Nvidia användare som inte varit nöjda eftersom AMD först nu får tekniken..

Edit: Förhoppningsvis dyker det upp på Series X/S också.

Permalänk
Medlem

Jättekonstigt att DSO skriver att det inte fungerade med spelets VSync, på min dator iallfall var jag tvungen att ha VSync på annars fick jag värdelös framepacing, jag såg typ ingen skillnad av eller på om jag körde utan VSync.

Det kanske är så att det är lite beta över det. Men det finns iallafall konfigurationer där det fungerar bra.

Permalänk
Medlem
Skrivet av xc:

Dom har väl alltid varit nöjda.
Det måste väl ha varit Nvidia användare som inte varit nöjda eftersom AMD först nu får tekniken..

Edit: Förhoppningsvis dyker det upp på Series X/S också.

Varenda gång det snackas frame generation urartar det till någon form av fake frame/latency diskussion och att allt bara är skit. Förhoppningsvis slipper vi det nu när alla kan använda tekniken.

Ett exempel av många:
https://www.sweclockers.com/forum/trad/1692690-nvidia-integre...

Permalänk
Medlem
Skrivet av SvenskEnkrona:

Likt en religion.. fantasi men för många är det på riktigt.

Så de är inte låtsas-pixlar för dig?

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

Är det AMD som lanserar?? Är det inte spelutvecklaren själv som lägger in stödet i spelet?

Permalänk
DingDongerMcDongface
Skrivet av MarkSix:

Är det AMD som lanserar?? Är det inte spelutvecklaren själv som lägger in stödet i spelet?

Beror väl på hur man ser det, men både och. De första implementeringarna nu sker mig veterligen i samarbete med AMD

Permalänk
Medlem

Fixad

Samma som DLSS typ

Visa signatur

Hur många datorer är för många?

Permalänk

Byggde ihop en halvdan speldator innan sommaren med Ryzen 5 5600X och RX6600 8GB, senaste bygget var väl 2005. Valde AMD/ATI denna gång för varför inte. Kan vara kul att testa. Hade två köpta i5:or sedan tidigare.

Sagt och gjort, påbörjade Red Dead Redemption 2. Av en slump aktiverade jag AMD FSR utan att veta vad det var då jag gick ner mot 35 FPS när det blev skymning med alla snygga ljuseffekter uppskruvat. När jag sedan läste på om det så passar FSR kund-/spelarsegmentet jag ingår i. Utan några nämnvärda nackdelar kunde jag få bättre grafik OCH dubbla FPS. Så det är ju inte helt ogjort om man inte köper sig bästa prestandan från början.

Permalänk
Medlem
Skrivet av Bobiri:

Alltså jag har aldrig fattat detta men all form av uppskattning bör påverka latensen/input lag eller?

Typ spel som CS. Tjänst väl ingen på att köra med uppskalnibg?

ALL typ av rendering ökar latensen om frameraten minskar, dom går liksom hand i hand, alltså även uppskalning om det är så att den skulle vara långsam på att göra det, men nu är inte DLSS o liknande långsamma (speciellt inte iom att det renderas vid lägre upplösning), så nej latensen ökar inte utan den minskar då frameraten blir högre.

Däremot "uppskalning" av frameraten så som Nvidia o AMD gör det är lite sär då dom gör det på ett sådan vis att den måste vänta på två renderade frames innan den kan interpolera framen mitt imellan, så vid 60 renderade fps som interpoleras upp till 120fps kommer att ha samma latens som 30fps. Lite beroende på speltyp, hur känslig man är o om man spelar med mus o tangentbord eller handkontroll så kan det vara mer eller mindre märkbart.
Personligen skulle jag kanske kunna tänka mig att använda det för vissa singleplayerspel men inte för online spel som t ex Overwatch, om det iofs inte vore så att jag redan låg på säg 200fps o därmed inte skulle märka av den ökade latensen lika mycket men har behov av högre framerate för att bli av med temporal aliasing istället. Har dock bara en 120hz-skärm att gejma på så det är ändå inget alternativ.

Permalänk
Medlem
Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av perost:

Synkteknikerna har dock inte gått samman, det finns minst fyra olika tekniker idag. När det gäller spelskärmar så kan man dock säga att VESA Adaptive Sync har vunnit, men det som är lite tråkigt med det är att den inte vann genom att vara tekniskt bäst utan genom att vara billigare, öppen, och "bra nog".

Risken är att vi får se samma utveckling för uppskalningstekniker, där FSR är tekniskt sämst av de tre lagens tekniker (än så länge i alla fall) men mest kompatibel eftersom den inriktar sig på "minsta gemensamma nämnare" bland grafikkorten. I det här läget tror jag det skulle vara smart av Nvidia att implementera grundläggande stöd för AMD och Intel i DLSS, men kanske inte så bra för oss konsumenter. Det bästa vore om de kunde komma överens om en standard som fungerar på alla kort men som låter alla utnyttja sin hårdvara på bästa sätt.

Samma sak med hd-dvd/Blu-ray, vhs/beta max, etc etc. Det har aldrig handlat om att göra objektivt "bäst" lösning, utan om "nog bra" i förhållande till pris och prestanda

Permalänk
Medlem
Skrivet av phanto:

Kommer väl gå samman med DLSS över tid precis som bildsynkroniseringsteknikerna respektive lag lanserade.

Teknologierna som Nvidia vill få in i DLSS, och även AMD i FSR och Intel i XESS i förlängningen är under oerhörd utveckling för tillfället. Det finns inte en chans att det skulle "låsas upp" i en standard just nu och det är inte heller fördelaktigt. Det finns dock initiativ för att göra det enklare att få med alla teknologierna i alla spel. Så länge det utvecklas är det bra och det utvecklas något enormt på detta området för tillfället.

Det jag sett av FSR3 så är jag jätteimpad och det känns som AMD ändå fått ett litet break här så förhoppningsvis kan dom vara med på banan också. Men utvecklingen fortgår och nya teknologier lanseras ju hela tiden under DLSS, FSR och XESS paraplyerna. Konkurensen skall man inte vara rädd för, tvärtom så är det här något som får fart på företagen. Jag tror Nvidia känner pressen lite här, hur dom skall tackla att AMD fick till *samma slutprodukt utan AI osv, så det skall bli spännande och se hur NV svarar.

*Jag har bara sett sample size 1

Permalänk
Redaktion
Praktikant ✨

Nu har även Immortals of Aveum fått sin FSR 3-patch.

Permalänk
Medlem

Testade FSR3 lite snabbt i Forspoken. Testade i 4k och maxade inställningar på ett 4090 och 5800X3D.
Bildkvalitén har jag inget direkt att klaga på, reagerade inte på några visuella artefakter som inte redan fanns där med native AA eller FSR uppskalning. Dock testade jag i en relativt mörk/dov miljö, så det kan hända att ljusare områden med mera kontrast kan visa eventuella problem tydligare.
Märkte dock av att VRR inte fungerar med FSR3, detta då varenda litet stutter märktes mycket och i cutscenes så verkar varenda byte av kameravinkel leda till problem med större stutters.
Märkte även av ökat input lag, trots att jag kör med handkontroll. Skulle dock kalla det för fullt spelbart men inte optimalt.
Är faktiskt imponerad av FSR3 trots ovanstående problem, om AMD kan få FSR3 att lira fint med VRR och om möjligt minska input lag något så är det helt klart en funktion jag skulle kunna använda. Kommer dock förmodligen köra spelet med DLSS Quality om jag spelar det igen, detta då 80-90 fps räcker fint på min 120Hz OLED och DLSS2 fungerar problemfritt med VRR.