Samsung U32E850R – 4K UHD och AMD Freesync på 32 tum

Permalänk
Medlem
Skrivet av anon78208:

Har inte märkt av detta problem i praktiken. Skulle man råka ut för det kan man alltid bara sänka limitern lite, t.ex. till 59fps. Jag gjorde lite tester med min MG279Q som enligt specifikationen klarar 35-90hz och jag kunde lägga framerate-limitern precis på, och till och med ett snäpp under/över skärmens specifikation och ändå inte se någon tearing. Nästan så man misstänker att det finns någon inbyggd säkerhetsmarginal i skärmens specifikation.

Ah, det låter helt rimligt det du säger. Om man lägger sig strax under taket och freesync är aktivt, så borde det aldrig kunna bli ett problem!
(du kan även ha rätt i att det finns lite prutmarginal i 60fps kontra 60hz om man räknar in tex blanking interval - lite osäker på det)

Det låter som en rätt vettig kompromiss som det vore intressant att se Ytterberg testa!
(ännu bättre vore om Freesync kunde hantera låga fps med vsync aktivt bättre, som gsync gör med dubbla frames tex, men det här är ett steg i rätt riktning )

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Bildexpert 📺
Skrivet av Equilibrium:

Bättre hz typ av det som jag nu har läst och pånågotvis fattat. Och ja sen då nästan storlek.

"Bättre Hz" handlar om att specifikationen DP 1.3 hanterar framtida skärmformat som 5K och 8K. Den här skärmen och de idag tillgängliga produkter klarar sig på vad DP 1.2 tillhandahåller. Det har ännu inte lanserats någon 4K-produkt som utnyttjar den fulla kapaciteten som är möjligt med DP 1.2.

Permalänk
Bildexpert 📺
Skrivet av Roger W:

(ännu bättre vore om Freesync kunde hantera låga fps med vsync aktivt bättre, som gsync gör med dubbla frames tex, men det här är ett steg i rätt riktning )

Som jag förstår det hela är detta inte en Freesync/DP Adaptive Sync-fråga. Standarden som sådan sätter inte regler för hur skärmarna ska bete sig utan beskriver endast hur den adaptiva synkroniseringen ska fungera. Det är alltså upp till tillverkarna att konstruera kretsar som kan fungera smartare än hos nuvarande Freesync-produkter.

Permalänk
Inaktiv
Skrivet av Laxpudding:

Som jag förstår det hela är detta inte en Freesync/DP Adaptive Sync-fråga. Standarden som sådan sätter inte regler för hur skärmarna ska bete sig utan beskriver endast hur den adaptiva synkroniseringen ska fungera. Det är alltså upp till tillverkarna att konstruera kretsar som kan fungera smartare än hos nuvarande Freesync-produkter.

En tanke som jag haft är att detta borde gå att göra i grafikkortsdrivrutinen. När man kopplar in en freesync-skärm så rapporterar skärmen sitt frekvensintervall till grafikkortsdrivrutinen. Borde då inte grafikkortsdrivrutinen kunna slänga upp samma bild igen, ifall nästa bild inte skulle vara klar i tid, för att sedan skicka iväg den nya bildrutan så fort den är klar, förutsatt att skärmen är klar för att ta emot en ny?

Exempel:
Skärmen rapporterar till drivrutinen att den har ett intervall på 35-90hz.
Det innebär att grafikkortet har 1/35=28,57ms på sig att slänga upp nästa bildruta, vilket drivrutinen enkelt kan räkna ut.
Om en bildruta tar längre tid att rendera än 28,57ms: Skicka iväg en kopia av den gamla bildrutan i väntan på den nya.
Vänta 1/90=11ms, och skicka sedan ut den nya bilden så fort den är klar.

Edit: I och för sig så skulle det inte vara perfekt, för den skulle hoppa ner direkt från 35fps till 28,57+11=39,6ms vilket är 25fps, men det är ändå bättre än en halvering av 35hz vilket är 17,5hz.

Permalänk
Bildexpert 📺

Jag har inte fördjupat mig exakt hur grafikkorten buffrar och var gränserna går för vad som måste styras i skärm och vad som kan styras i grafikkort. Men en sak är jag rätt säker på. Grafikkortet kan endast leverera bildsignal och kan inte i detalj reglera bildpanelen. Scalern är den som kan sådant som att applicera dynamisk overdrive vilket behövs för att undvika exempelvis tydligare eftersläp.

Mycket möjligt att det går att bättra på sådana här detaljer via drivrutinen men det kanske sker till priset av mer eftersläp och liknande artefakter om inte scalern kan kompensera för vad grafikkortet försöker göra.