Konsumentskärmar har inte 10-bitars precision i praktiken. De kan ha det i elektroniken, dvs kvantifiera signalen med 10 bitar, men det återfinns inte i praktiken när man synar gradienter utan det är tydlig posterisering med synliga steg mellan nyanser. Då brukar det sällan bli någon betydande skillnad på att köra 8 eller 10 bitars signal ut eftersom panelen är så fysisk begränsad.
I praktiken arbetar konsumentpaneler med 6 eller 8 bitars precision och "adresserar" 10 bitar genom FRC och halvtonsmönster. Artikel om detta här: https://www.sweclockers.com/artikel/28307-frc-fixar-fargerna-...
Panelerna är analoga så det handlar i slutändan om precisionen i sätta millivoltnivåerna rätt för varje pixel. Då förutsatt att all bildprocessning och interna LUT:ar från början gör det felfritt, vilket sällan är fallet.
Tar man en yrkesskärm, säg Eizo Color Edge-skärmarna, och kör 8 bitar kan man köra en gråramp och där räkna att det faktiskt är 250-ish distinkta (8 bitar=256 steg), jämna band av gråtoner från svart till vitt. Vid 10 bitar blir det jämnare och man är närmare de 1024 stegen. Medan spelskärmar och enkla konsumentskärmar inte ger 250-ish distinka band vid 8-bitar utan någon godtyckligt ojämn variant. Det blir sedan ingen betydande skillnad med 10 bitar. Man får helt enkelt vad man betalar för.
Utöver panelkvaliteten och den interna bildbehandlingen kommer också att merparten programvaror inte hanterar 10 bitar. Man får inte ut mer än 8 bitar i vilket fall.
HDR förändrar detta eftersom det behövs 10 bitar för att täcka in nyansomfånget. Man kan köra HDR med 8 bitar med halvtonsmönster i Windows och då är det Windows som renderar halvtonerna. Detta kan faktiskt kan bli något bättre än att låta en sämre skärm försöka ta hand om 10 bitar och misslyckas.