Forumdelen sponsras av

Trädvy Permalänk
Medlem
Registrerad
Dec 2016

10 bits-panel, vad ser jag?

Min datorskärm har antagligen 8 bitar men tv,n har en 10 bits panel som kan visa "miljarder" färger. 8 bit kan väl "bara" visa 16,7 miljoner färger typ? (När jag streamar film från datorn, hur funkar detta? Visar tv,n 10 bitar eller är det vad grafikkortet klarar av? (just nu gtx 1080) Läste nånstans att grafikkortet kör 8 bitar. Måste jag köra dvd/hembion för att se 10 bitars färgpanel på tv,n? Nästa skärm blir en 10 bitars men kan jag utnyttja detta? (125% rgb? Rätta mig gärna. Sen tänker jag på bredskärm typ https://www.komplett.se/product/1090439/datorutrustning/bilds... visar denna mer på sidorna, typ ser jag en fiende på kanterna som jag inte ser på min 24"? Vad är meningen med en bred skärm?

Trädvy Permalänk
Bildexpert 📺
Thomas Ytterberg
Registrerad
Mar 2013

@Stayup: Vad du ser är två siffror på att papper. Vad du får och kommer att uppleva är något annat och det går inte att dra någon säker slutsats av hur skärmarna beter sig - det måste testas.

När en panel specas som "10 bitar" betyder det vanligtvis att någonting någonstans i kedjan från signal till optiskt ljus arbetar med 10 bitars upplösning, men det är inte givet hur. Det kan betyda att D/A-omvandlingen arbetar med 10-bitars precision. Vad panelen sedan är kapabel till att alstra i faktiska nyansnivåer av ljus är något helt annat - och är så gott som alltid något helt annat eftersom det i grunden är ett analogt väsen. Det är polariserat ljus som ska regleras genom kristaller som vrider sig baserat på svag elektricitet. Vilket är ungefär så precist som det låter.

Men några miljarder nyanser är det så gott som aldrig på paneler på konsumentnivå. Det är rent av få paneler som klarar av alstra nyanser baserat 8-bitars färgdjup, så några 16,7 miljoner nyanser är det sällan heller – måste testas och jämföra produkt för produkt.

Påfallande ofta när något specificeras som 10 bitar är det en 8-bitarspanel som med temporal dither (FRC) approximerar 10 bitars precision. Detta kan göras olika bra och hur bra – Ja, det måste testas och jämföras.

När du kör med ditt grafikkort är det 8 bitars signal och 8-bitars källa i så gott som alla situationer. Även fast du väljer 10-bitar i Windows och drivrutin kommer majoriteten program använda en 8-bitars precision internt. Undantaget är vid HDR där det blir 10 bitar eller 12 bitar men det förutsätter att programvaran använder HDR till att börja med.

Vad som händer när du kör en 8-bitars signal till en 10-bitars panel är... ...ingenting. En del apparater, bland annat Sony har en form av interpolering och likt alla annan interpolering kan det leda till artefakter, särskilt kring datorgrafik.

Angående andra frågan - så beror det på mjukvaran du kör - man skapa gärna egen tråd om det. De två frågorna är helt olika.

Trädvy Permalänk
Medlem
Registrerad
Dec 2016
Skrivet av Laxpudding:

@Stayup: Vad du ser är två siffror på att papper. Vad du får och kommer att uppleva är något annat och det går inte att dra någon säker slutsats av hur skärmarna beter sig - det måste testas.

När en panel specas som "10 bitar" betyder det vanligtvis att någonting någonstans i kedjan från signal till optiskt ljus arbetar med 10 bitars upplösning, men det är inte givet hur. Det kan betyda att D/A-omvandlingen arbetar med 10-bitars precision. Vad panelen sedan är kapabel till att alstra i faktiska nyansnivåer av ljus är något helt annat - och är så gott som alltid något helt annat eftersom det i grunden är ett analogt väsen. Det är polariserat ljus som ska regleras genom kristaller som vrider sig baserat på svag elektricitet. Vilket är ungefär så precist som det låter.

Men några miljarder nyanser är det så gott som aldrig på paneler på konsumentnivå. Det är rent av få paneler som klarar av alstra nyanser baserat 8-bitars färgdjup, så några 16,7 miljoner nyanser är det sällan heller – måste testas och jämföra produkt för produkt.

Påfallande ofta när något specificeras som 10 bitar är det en 8-bitarspanel som med temporal dither (FRC) approximerar 10 bitars precision. Detta kan göras olika bra och hur bra – Ja, det måste testas och jämföras.

När du kör med ditt grafikkort är det 8 bitars signal och 8-bitars källa i så gott som alla situationer. Även fast du väljer 10-bitar i Windows och drivrutin kommer majoriteten program använda en 8-bitars precision internt. Undantaget är vid HDR där det blir 10 bitar eller 12 bitar men det förutsätter att programvaran använder HDR till att börja med.

Vad som händer när du kör en 8-bitars signal till en 10-bitars panel är... ...ingenting. En del apparater, bland annat Sony har en form av interpolering och likt alla annan interpolering kan det leda till artefakter, särskilt kring datorgrafik.

Angående andra frågan - så beror det på mjukvaran du kör - man skapa gärna egen tråd om det. De två frågorna är helt olika.

Tack! Ja det kanske kommer en tråd om bredskärmar.

Trädvy Permalänk
Bildexpert 📺
Thomas Ytterberg
Registrerad
Mar 2013

@Stayup: Du har också denna tråd som tar upp frågan: https://www.sweclockers.com/forum/trad/1533345-ultrawide-3440...