Allting renderas i 2560x1440, inklusive skrivbordet och webbläsare, därför ser du mer på hemsidor. Grafikkortet skalar sen ner den färdigrenderade bilden till 1920x1080 vid output för att skicka till TV:n.
Så det fungerar i princip som om du kört DSR med en 1920x1080-skärm, förutom att TV:n i sin tur skalar upp bilden till 3840x2160 efter det. Då skalning i regel aldrig är bra för skarpa, grafiska 2D-element kan jag nästan garantera att slutresultatet på skrivbordet kommer vara sämre än om man bara renderat och skickat ut 1920x1080 från början, i spel får man kanske lite av en anti-aliasing-effekt.
Man skulle kunna tro att det skulle bli sämre men efter att ha jämfört med faktiskt FHD (iof bara i ett spel på en skärm) så blir kvalitén faktiskt noterbart bättre, på samma sätt som om det varit äkta QHD (i detta fall). Och därmed adresseras den största nackdelen som jag upplevde med 55" OLED, att det blev för "blocky" om man inte körde typ i 4K men då på bekostnad av frekvensen. 120 hz är det dessutom vilket gör underverk så just nu är GSync monitorn tillbaks i garderoben
För kontorsbruk och annat finns det väl ingen anledning att köra annat än i native upplösning och vid behov låta Windows skala själva GUI:t (inte större problem i praktiken på en skrivbordsplacerad 55" dock )
Var kan man hitta faktiskt info om hur NVidia hanterar dessa, som det verkar, fejkupplösningar? Har det något namn?
Edit:
Kan tillägga att jag själv är förvånad att jag faktiskt ser en skillnad men antar att det har att göra med hur själva renderingsmotorn i spelet fungerar, och kan kanske skilja sig från motor till motor. Ska testa att jämföra med DSR när jag får chansen.