Permalänk
Medlem

Samsung 65KS7005 och HDR via datorn

Haft en vanlig HDMI 1.4 kabel ett längre tag som då inte klarade av HDR pga längden (15m) och att den bara klarade av 10,2 Gb/s. Nyligen investerade jag i en (förhoppningsvis) ordentlig kabel (https://www.inet.se/produkt/8904302/deltaco-hdmi-kabel-2-0-ha...) som klarar 4K60Hz och är certifierad för 18Gb/s.

Dock har jag stora problem med att lyckas ställa in allt rätt så att bilden jag kopplat från datorn är bra, tillräckligt ljus och är rätt inställd för HDR. Just nu känns det som att det är en mörk hinna över hela bilden och om jag tex startar RDR2 och det är dagtid så är bilden rätt mörk trots att jag valt "HDR Game" och ökat ljusstyrkan på TVn.

Vad jag förstått finns det tre aspekter att titta på:
1. Inställningar i Windows HD Color
2. Inställningar i nVidia Control Panel
3. Inställningar på TVn

Vad behöver jag göra?

Nedan är vad TVn ska klara av:

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Bildexpert 📺

Bilden blir mörkare eftersom du har en ur HDR-synpunkt rätt gammal TV och man var inte särskilt bra på tonemapping på den tiden. Det vill säga hur man översätter de mastrade nivåerna i HDR-materialer i filmen/spelet till de faktiska förutsättningarna TV:n har att reproducera ljus och färg. Tonemapping är mycket bättre på senaste två, tre åren, särskilt genom funktioner som Dolby Vision.

KS7005 är heller ingen mastodont till HDR-kapabel TV utan ger begränsade ljusresurser en TV som blir väldigt mörk i HDR. Flera andra tillverkare har samma problem med motsvarande modeller från samma tid. HDR blir för mörkt eftersom TV:n är för klen och gör ingen vidare tonemapping.

Sedan hjälper det inte att RDR2 är ett mindre bra exempel för HDR. Det är mastrat/byggt för SDR så har man lagt på HDR i efterhand.

HDR skiljer sig från SDR där SDR är relativa nivåer. 50% signalnivå lyser (med gamma 2.2) på ungefär 22 procent av ljusstyrkan hos vitt. Kör du din TV i 400 nits lyser 50% signalnivå med 88 nits. Ökar/sänker du ljusstyrkan hos TV:n skalar du också nivåerna hos hela bilden. Därför kan man få SDR att se väldigt ljust ut.

HDR arbetar med absoluta nivåer. Signalnivå representerar fysisk ljusstyrka. Digital 723 på en 10-bitars skala är 1000 nits. Vilket är väldigt ljust och något man lägger på sådant som solljus, starka lampor och så vidare. Därför mastrar man också ansikten, inomhusscener etc. mastras till lägre ljusstyrkor, kanske runt 80-120 nits.

Kan inte TV:n lysa med 1000 nits måste den tonemappa nivåerna. En äldre TV med klen ljusstyrka gör inte detta särskilt så väl utan pressar mest ihop nivåerna. Så det som i filmen/spelet mastras till mildare nivåer, säg ett ansikte runt 100 nits, pressas ned mot kanske 30-40 nits på en TV med äldre/sämre tonemapping. Hel bilden blir då alldeles för mörk.

En modernare TV med fungerande tonemapping vet om att den klarar 100 nits och försöker återge de nyanserna i rätt nivåer. Den vet om att den inte klarar 1000 nits, men väl kanske 400 nits. Då försöker den istället kompromissa runt svagheten. Likt att att de starka ljusnivåerna TV:n ändå inte kan visa ska utgöra ett litet omfång kring panelens högsta ljusstyrka. Vilket lämnar det dynamiskt omfånget till intakt reproduktion av övriga delar av bilden.

Permalänk
Medlem
Skrivet av Laxpudding:

Bilden blir mörkare eftersom du har en ur HDR-synpunkt rätt gammal TV och man var inte särskilt bra på tonemapping på den tiden. Det vill säga hur man översätter de mastrade nivåerna i HDR-materialer i filmen/spelet till de faktiska förutsättningarna TV:n har att reproducera ljus och färg. Tonemapping är mycket bättre på senaste två, tre åren, särskilt genom funktioner som Dolby Vision.

KS7005 är heller ingen mastodont till HDR-kapabel TV utan ger begränsade ljusresurser en TV som blir väldigt mörk i HDR. Flera andra tillverkare har samma problem med motsvarande modeller från samma tid. HDR blir för mörkt eftersom TV:n är för klen och gör ingen vidare tonemapping.

Sedan hjälper det inte att RDR2 är ett mindre bra exempel för HDR. Det är mastrat/byggt för SDR så har man lagt på HDR i efterhand.

HDR skiljer sig från SDR där SDR är relativa nivåer. 50% signalnivå lyser (med gamma 2.2) på ungefär 22 procent av ljusstyrkan hos vitt. Kör du din TV i 400 nits lyser 50% signalnivå med 88 nits. Ökar/sänker du ljusstyrkan hos TV:n skalar du också nivåerna hos hela bilden. Därför kan man få SDR att se väldigt ljust ut.

HDR arbetar med absoluta nivåer. Signalnivå representerar fysisk ljusstyrka. Digital 723 på en 10-bitars skala är 1000 nits. Vilket är väldigt ljust och något man lägger på sådant som solljus, starka lampor och så vidare. Därför mastrar man också ansikten, inomhusscener etc. mastras till lägre ljusstyrkor, kanske runt 80-120 nits.

Kan inte TV:n lysa med 1000 nits måste den tonemappa nivåerna. En äldre TV med klen ljusstyrka gör inte detta särskilt så väl utan pressar mest ihop nivåerna. Så det som i filmen/spelet mastras till mildare nivåer, säg ett ansikte runt 100 nits, pressas ned mot kanske 30-40 nits på en TV med äldre/sämre tonemapping. Hel bilden blir då alldeles för mörk.

En modernare TV med fungerande tonemapping vet om att den klarar 100 nits och försöker återge de nyanserna i rätt nivåer. Den vet om att den inte klarar 1000 nits, men väl kanske 400 nits. Då försöker den istället kompromissa runt svagheten. Likt att att de starka ljusnivåerna TV:n ändå inte kan visa ska utgöra ett litet omfång kring panelens högsta ljusstyrka. Vilket lämnar det dynamiskt omfånget till intakt reproduktion av övriga delar av bilden.

Tack för svaret. Tolkar jag rätt att din rekommendation är att helt inte spela med HDR på min nuvarande TV men att istället sikta på en nyare som gör ett bättre jobb med HDR?

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Bildexpert 📺

På sikt behöver du en nyare och bättre TV för att se skillnad där HDR blir bättre. På kort sikt kan det finnas reglage i spelen som ljusar upp bilden och kanske kan hjälpa. Men det är ofta med den generationen TV och den kapaciteten lika väl att bara fortsätta med SDR.

Permalänk
Medlem
Skrivet av Laxpudding:

På sikt behöver du en nyare och bättre TV för att se skillnad där HDR blir bättre. På kort sikt kan det finnas reglage i spelen som ljusar upp bilden och kanske kan hjälpa. Men det är ofta med den generationen TV och den kapaciteten lika väl att bara fortsätta med SDR.

En sista fråga - för att köra SDR korrekt ska jag köra med standardfärginställningarna i nVidia CPL?

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Bildexpert 📺

För korrekt bild ska du köra med korrekta inställningar.

Standardinställningen kan vara godtycklig och är sällan den automatiskt "bästa". Generellt med en dator som källa vill man ofta – men inte alltid – köra RGB Full-nivå samt då matcha TV:n efter detta. Går igenom grunderna i denna guide: https://www.sweclockers.com/artikel/26241