3D inställningar nvidia, vad ska man ställa in? Har g sync skärm vaför är V-sync på i 3d?

Permalänk

3D inställningar nvidia, vad ska man ställa in? Har g sync skärm vaför är V-sync på i 3d?

Satt och kollade lite på f0rests video om hur han ställer in allt.

Jag kör med G sync på¨

Varför är V sync på i 3d inställningar?

Ska man stänga av det eller?

Sedan när man ändrar i energisparfunktioner såg att han ändra till maximal prestanda, jag har optimal atm. gör detta ens någon skillnad i spel?

Och han sätter på låg latens läge, funkar det?

Visa signatur

Live for fun, Loyal to none

Permalänk
Medlem

G-sync gör att du sänker skärmens uppdateringsfrekvens till vad din fps är, används bara då din dator har lägre fps än vad din skärm högst klarar av.
V-sync så väntar skärmen med att visa bilden tills den är i sync med skärmen.

Energisparläge gör troligen ingen större skillnad, du kan ju testa.
Samma med låg latency, bara att testa. Dock svårt att mäta om du faktiskt får lägre latency.

Om du ska använda funktionerna eller inte, jag skulle säga ja.
Jag föredrar ett snyggare spel utan halva bilder som uppdaterar skärmen.
Men v-sync kan ge en liten fördröjning (är dock marginel jämfört med fördröjningen i grafikkortet eller spelet i sig), så upplever du det segt så testa stänga av v-sync.

Visa är jätte känsliga och jag har inget emot att de stänger av v-sync om de fungerar för dem. Har du hög fps och skärm uppdateringsfrekvens så blir fördröjningen extremt liten.

Permalänk

Jaha tack för svaret, trodde inte v-sync gick att köra samtidigt som v-sync.

Så om jag fattat det rätt när jag har över 144 fps på min 144 fps skärm så körs v-sync?

Visa signatur

Live for fun, Loyal to none

Permalänk
Medlem

Ja, men v-sync används även då du har fps under.
Om din fps(från grafikkortet) inte är jämnt delbart med skärmens, så kommer v-sync fördröja bilden till nästa uppdatering på skärmen.
Men har du g-sync så sänker du uppdateringsfrekvensen och bilden skickas direkt.

Räkneexempel med v-sync.
Du har en skärm med 1 Hz uppdateringsfrekvens. (1 bild i sekunden)
Ditt grafikkort skickar 0.8 fps.

Första uppdateringen av skärmen så är bilden inte klar så grafikkortet väntar att skicka bilden till nästa uppdatering på skärmen.

På tiden 2 sekunden skickas bilden, men kommer bilden 0.6 sekunder för sent.
Nästa uppdatering skickas bilden 0.4 sekunder för sent.

Fördröjningen kommer gå från 0.8, 0.6, 0.4, 0.2 och i sync för att sedan börja om på 0.8 igen.

Har du g-sync så sänker du skärmens uppdateringsfrekvens till 0.8 Hz så varje bild är i sync.

Liknande effekt händer då du har en fps som är högre än skärmen, de kommer i osync.

Om g-sync och v-sync går att köra samtidigt vet jag ej (har inte g-sync).
OBS! Fördröjning blir mycket kortare ju högre uppdateringsfrekvens man har på skärmen, som tur är har vi inte 1 Hz skärmar (men enklare att räkna på)

Permalänk
Medlem
Skrivet av blue eyed devil:

Jaha tack för svaret, trodde inte v-sync gick att köra samtidigt som v-sync.

Skrivet av Sions:

... Om g-sync och v-sync går att köra samtidigt vet jag ej (har inte g-sync).

Bra förklarat här: (hoppas de har rätt )
https://blurbusters.com/gsync/gsync101-input-lag-tests-and-se...

Klippt in det andra inlägget från den sidan:
"The answer is frametime variances.

“Frametime” denotes how long a single frame takes to render. “Framerate” is the totaled average of each frame’s render time within a one second period.

At 144Hz, a single frame takes 6.9ms to display (the number of which depends on the max refresh rate of the display, see here), so if the framerate is 144 per second, then the average frametime of 144 FPS is 6.9ms per frame.

In reality, however, frametime from frame to frame varies, so just because an average framerate of 144 per second has an average frametime of 6.9ms per frame, doesn’t mean all 144 of those frames in each second amount to an exact 6.9ms per; one frame could render in 10ms, the next could render in 6ms, but at the end of each second, enough will hit the 6.9ms render target to average 144 FPS per.

So what happens when just one of those 144 frames renders in, say, 6.8ms (146 FPS average) instead of 6.9ms (144 FPS average) at 144Hz? The affected frame becomes ready too early, and begins to scan itself into the current “scanout” cycle (the process that physically draws each frame, pixel by pixel, left to right, top to bottom on-screen) before the previous frame has a chance to fully display (a.k.a. tearing).

G-SYNC + V-SYNC “Off” allows these instances to occur, even within the G-SYNC range, whereas G-SYNC + V-SYNC “On” (what I call “frametime compensation” in this article) allows the module (with average framerates within the G-SYNC range) to time delivery of the affected frames to the start of the next scanout cycle, which lets the previous frame finish in the existing cycle, and thus prevents tearing in all instances.

And since G-SYNC + V-SYNC “On” only holds onto the affected frames for whatever time it takes the previous frame to complete its display, virtually no input lag is added; the only input lag advantage G-SYNC + V-SYNC “Off” has over G-SYNC + V-SYNC “On” is literally the tearing seen, nothing more.

For further explanations on this subject see part 1 “Control Panel,” part 4 “Range,” and part 6 “G-SYNC vs. V-SYNC OFF w/FPS Limit” of this article, or read the excerpts below…"