Fast med CRT datorskärmar så upplevde man horribelt flimmer om man körde de under 75Hz.
Diverse "plattskärmar" brukar ju inte ha samma problem.
Att köra en TFT eller OLED i 60Hz är ju inget problem för kontorsprogram och annat som inte kräver snabba rörelser.
Medan en CRT kan flimra horribelt även om man inte kör spel som kräver snabb reaktionstid.
Konstigt dock att CRT TV inte upplevdes lika illa, även om man kör teven i 50 eller 60Hz ?
Jo CRT blir ju svart mellan varje bildruta, därav flimmer (vilket BFI, Black Frame Insertion, efterliknar på plattskärmar då det förbättrar Motion Clarity).
Hur länge beror på fosforns varaktighet. Dessutom påverkades detta ytterligare av om taklampan i rummet flimrade (och hur synkroniserat det flimret var med skärmen), vilket i så fall oftast var i 50hz då det är den frekvens vi har i elnätet i Europa.
CRT-TV-apparater drivs också av den frekvensen om de inte hade 50/60hz växlingsläge vilket senare modeller hade.
Någon som har bättre koll än mig får gärna förklara.
Men jag fattar inte varför man vill-höver ha 720Hz?
Visst, jag fattar att det flyter sjukt bra, men vilken uppoffring/upplösning behöver man köra då?
480p eller 360p?
Finns det överhuvudtaget ett grafikkort idag som kan ge 720hz med 2K eller ens 1080?
Jag personligen kör hellre med högre upplösning, typ 2K eller 4k/120 eller 144Hz än 480p och 720Hz.
Jag hade gärna köpt denna om det inte vore för att jag nyligen köpte deras 1440p 480hz-modell. Men helst skulle jag vilja ha en riktigt 720p-panel i så fall. Låga upplösningar kan se riktigt bra ut om de bara får ritas upp native. Det är uppskalning (som gör allt suddigt) som är den större boven, inte låga upplösningar per se. Se bara hur vackert 480p ser ut på en CRT (som ritar upp allt native, ingen skalning där inte!)
Det blir dessutom ännu bättre om man renderar i en ännu högre upplösning och skalar ner på GPU till skärmens lägre (supersampling)!