@Stayup: Vad du ser är två siffror på att papper. Vad du får och kommer att uppleva är något annat och det går inte att dra någon säker slutsats av hur skärmarna beter sig - det måste testas.
När en panel specas som "10 bitar" betyder det vanligtvis att någonting någonstans i kedjan från signal till optiskt ljus arbetar med 10 bitars upplösning, men det är inte givet hur. Det kan betyda att D/A-omvandlingen arbetar med 10-bitars precision. Vad panelen sedan är kapabel till att alstra i faktiska nyansnivåer av ljus är något helt annat - och är så gott som alltid något helt annat eftersom det i grunden är ett analogt väsen. Det är polariserat ljus som ska regleras genom kristaller som vrider sig baserat på svag elektricitet. Vilket är ungefär så precist som det låter.
Men några miljarder nyanser är det så gott som aldrig på paneler på konsumentnivå. Det är rent av få paneler som klarar av alstra nyanser baserat 8-bitars färgdjup, så några 16,7 miljoner nyanser är det sällan heller – måste testas och jämföra produkt för produkt.
Påfallande ofta när något specificeras som 10 bitar är det en 8-bitarspanel som med temporal dither (FRC) approximerar 10 bitars precision. Detta kan göras olika bra och hur bra – Ja, det måste testas och jämföras.
När du kör med ditt grafikkort är det 8 bitars signal och 8-bitars källa i så gott som alla situationer. Även fast du väljer 10-bitar i Windows och drivrutin kommer majoriteten program använda en 8-bitars precision internt. Undantaget är vid HDR där det blir 10 bitar eller 12 bitar men det förutsätter att programvaran använder HDR till att börja med.
Vad som händer när du kör en 8-bitars signal till en 10-bitars panel är... ...ingenting. En del apparater, bland annat Sony har en form av interpolering och likt alla annan interpolering kan det leda till artefakter, särskilt kring datorgrafik.
Angående andra frågan - så beror det på mjukvaran du kör - man skapa gärna egen tråd om det. De två frågorna är helt olika.