Den eviga frågan! Vilken regndans är bäst?
Nej, jag är mest nyfiken på en teknisk grej. Lagt märke till ett lite flummigt beteende som jag inte riktigt känner att jag begriper, och tänkte att någon annan kanske gör det.
Jag hobbyspelar på arbetsskärmar med 60hz, och brukar därför försöka hålla inställningar i den mån att jag ligger runt 60-70-snåret så att jag får ut så mycket kräm som möjligt och inte slösar bort GPU-prestanda på 120-130+. Något som förvirrar mig dock är att den typiska "hackiga" uppdateringsfrekvensen som kan synas på 60hz-skärmar ibland om man t.ex. rör musen extremt fort, den ser annorlunda ut på 60 kontra om jag släpper FPS:en upp till 200+.
Varför gör den det? Är det spelmotorn som ter sig annorlunda när GPU:n arbetar snabbare, även fast bara en viss mängd info hamnar på panelen sen? Jag fattar att VSYNC t.ex. kan lägga till en mikrolatens eftersom att det är ännu ett steg i uträkningen, men funkar en FPS-Max likadant och är det därför?
Eller är det så att GPU:n renderar i en viss rytm och skärmen visar i en annan, och att dessa två kan "glappa" mot varandra så att frames försvinner i skärmen och gör att även fast spelmotorn säger att den skickar 60 så syns inte alla 60?
Det gäller inte bara 1 spel, utan flera där samma beteende syns även om det är väldigt "lite" och inte direkt påverkar spelupplevelsen. Hoppas ni fattar frågan, det är lite luddigt. Vill inte uppnå något med det direkt, bara kul att lära sig.