"overclock" på skärm = utnyttja överbliven bandbredd som finns där enligt specifikationer och främst låta marknadsföringen rida på buzzwords som just överklockning. Men också för att friskriva sig något från att inte alla källor klarar att nå till specens högsta möjliga bandbredd på det sätt skärmens kretsuppsättning önskar.
@nu1mlock skriver inte vad det är för skärm – lite av Swec-syndrom när det kommer till frågor om skärmproblem...
100 och 120 tyder dock på att det är en UW 3440x1440-skärm där 100 Hz är möjligt enligt vanlig gräns i vanliga kretsuppsättningar som går upp till defacto-gränsen 18 Gbps. HBR2-hastigheten i DP tillåter ≈21 Gbps och kan få in 120 Hz i 3440x1440. Men inte alla källor, särskilt äldre grafikkort, klarar den bandbredden över DP.
På det kan det komma problem med snäva toleranser i skärmens kretsuppsättning gör att vissa grafikkort lyckas och andra misslyckas för att deras utsignal skickas större toleranser. Grafikkortet klarar bandbredden utan problem, men skärmen är för kinkig på exakt signalutformning, exempelvis hur stora jitternivåer som tillåts. Effekterna på bilden varierar men typiskt är att problemen som uppstår inträffar när man kör högsta möjliga frekvens, men inte när man kliver ned ett par snäpp i frekvens. Återigen ett sätt för tillverkaren att friskriva sig något mot eventuella problem. Har man möjligheten kanske det fungerar utmärkt att köra 118 Hz och flimmer uppstår vid 120 Hz.
Fast när skärmen marknadsförs som 120 Hz-kapabel och (förmodligen) utan tydlig specifikation om exakt vilka källor som lever upp till de kraven, då kan man ifrågasätta om produkten håller vad den lovar. Orkar man ta kampen, reklamera gärna. Förr eller senare kanske vi får ärligare specar från tillverkarna.