full range RGB 8-bit + dithering eller 4:2:2 10 - bit för HDR?

Permalänk
Medlem

full range RGB 8-bit + dithering eller 4:2:2 10 - bit för HDR?

Tjena!

Har en OLEDC7 65" i vardagsrummet som jag använder som datorskärm. Testat olika inställningar och kan inte komma fram till vad som är de rätta att använda. skrivs väldigt olika på forumen vilken inställning som är den korrekta. Är de nån som kan säga "så här ligger till, detta är de korrekta punkt."

Vad jag förstår och har läst på så krävs det 10-bit för HDR, men att man inte kan skilja på bilden om man kör med RGB 8-bit + dithering ?
texten ser såklart något sämre ut på windows med just 4:2:2 men förutom det så känns det inte som att jag ser någon större skillnad i hdr material i varken spel eller filmer. kanske att färgerna känns något mer "vibrant" men det kanske är placebo?

har ett gtx 1070 just nu men kommer skaffa ett rx 6900xt eller 6800xt för att just kunna lira spel i 4k 60fps.
enda som jag måste ändra på tvn med dom två olika inställningarna är svartnivån till hög i RGB och låg för 4:2:2.

Vad säger ni? vilken inställning ska man köra på?

tack på förhand.

Permalänk
Bildexpert 📺

Den som fungerar bäst. Ser du inte skillnad på 10 bitar plus 8 bit+dither i spel och film är det ju en ganska skön sits.

Vad det innebär konkret är att man med endast 8 bitar inte kan täcka in alla nyanser som kan täckas in med HDR. Då blir det posterisering. Med dither skapar grafikkortet halvtonsmönster vilket konkret kan synas som mönster och brus i bilden. Men det kan också döljas i subpixelstrukturen med 4K på avstånd.

Det är fullt tänkbart att TV:n svarar olika på olika signaler.

Permalänk
Medlem

Ok tack för svaret! då kanske det inte bara var placebo att det ser något bättre ut med just 10 bit mot 8 + dither. Då kör jag på med 4:2:2 10-bit. Vet att du har bra koll på det här med färger och paneler, så tänkte fråga en sak..Varför är dessa OLED tv:s dolby vision certifierade? när panelen endast kan visa bild i 10-bit och alla andra tv apparater för den delen.

för att få ut hela färgspannet med 12- bit så behövs paneler som har ett ljusspann mot 10 000 nits ?

kikade på Mandalorian på Disney+ och den signalen är väll på 12 bit men borde då alltså konvertera ner till 10 för det är vad panelen endast kan visa? ser ju bra ut men hade det inte lika väl kunnat stå HDR där uppe i hörnet?

Tänker jag fel?

Permalänk
Bildexpert 📺

Har inte fördjupat mig i detaljerna ännu så kortfattat: Finns ingen konsumentpanel som riktigt klarar 12 bitars verklig precision. Utan gränserna är flytande och mer en fråga om definition.

Dolby vision är till stor del en process runt tone mapping och där bidrar 12 bitar till mer precision vid själva tonemappingen. Oavsett om det är en OLED eller en enkel LCD kan DV hantera tonemappingen utifrån förutsättningen för varje display. OLED:n har ett större dynamiskt omfång och där slår det igenom som kvalitet. På den enkla LCD:n slår det igenom som en bild som kan ses som felfri. Dynamiken finns inte där och HDR är ganska meh. Men det är i alla fall rätt. Utan DV kan den enkla LCD.n vara helt off. För mörk, för ljus, klippa bort information etc.