Vilken HDR och är det ens viktigt med rätt typ av HDR?

Permalänk
Medlem

Vilken HDR och är det ens viktigt med rätt typ av HDR?

Hej alla,

Har som många andra börjat förbereda mig på och läsa på mig lite om vilken TV man kanske kommer att köpa inför den kommande rean i november. Dock så har jag inte ägt en tv på 15+ år så jag har inte så mycket koll på vad man ska tänka på.

Jag fastnar för just begreppet HDR. Det verkar finnas flertalet olika format som stödja av olika tillverkare, mediaföretag etc. Är det en viktigt avvägning att ha med sig vid ett val av en TV?

Jag förstår att det finns t.ex. HDR10 och sen en HDR10+ variant, Dolby Vision och en del andra till. Jag vet inte riktigt hur jag ska börja ta på detta ämne därav skapar jag denna tråd.

Vilken HDR bör finnas och är det ens viktigt med rätt typ av HDR?

Permalänk
Bildexpert 📺
Skrivet av ComeradJenko:

Hej alla,

Har som många andra börjat förbereda mig på och läsa på mig lite om vilken TV man kanske kommer att köpa inför den kommande rean i november. Dock så har jag inte ägt en tv på 15+ år så jag har inte så mycket koll på vad man ska tänka på.

Jag fastnar för just begreppet HDR. Det verkar finnas flertalet olika format som stödja av olika tillverkare, mediaföretag etc. Är det en viktigt avvägning att ha med sig vid ett val av en TV?

Jag förstår att det finns t.ex. HDR10 och sen en HDR10+ variant, Dolby Vision och en del andra till. Jag vet inte riktigt hur jag ska börja ta på detta ämne därav skapar jag denna tråd.

Vilken HDR bör finnas och är det ens viktigt med rätt typ av HDR?

Det finns bara en sorts HDR som bär relevans och det är HDR10. Alla TV från ≈2015 och framåt klarar HDR10. Det finns också HLG som är en variant för broadcast, främst satellit. Denna klarar även alla TV.

Dolby Vision bygger ovanpå HDR10 och adderar dynamisk HDR. Kortfattat och utan att förklara i detalj innebär Dolby Vision att det styr upp hur TV:n fungerar med ljus och dynamik för att producera ett förväntat resultat oavsett om filmen är kodad i Dolby Vision, HDR10 eller SDR. Allra bäst fungerar Dolby Vision med externa källor som AppleTV, Android-boxar likt Nvidia Shield etc. eftersom man där inte alls behöver tänka på hur TV:n ger olika bild beroende på hur filmen eller tv-serien är kodad. Upplevelsen är sömlös. Filmer som från början är kodade i Dolby Vision har också möjlighet till en högre kvalitetsnivå.

HDR10+ är en öppen standard och bygger också ovanpå HDR10. När du har HDR10+ från källan åstadkommer man i grunden ett snarlikt resultat som Dolby Vision. Men det är inte integrerat på samma sätt utan TV:n kan fortfarande variera i bild och inställningar beroende på källan kör HDR10 eller SDR.

Kör man vanlig traditionell HDR10 kommer alla TV på marknaden producera väldigt olika resultat med bilden. Ofta direkt fel som att nivåer klipps eller bilden är för mörk eller för ljus. Detta styr HDR10+ och Dolby Vision upp till det mycket bättre med konsekvens.

Eftersom både HDR10+ och Dolby Vision är baserade ovanpå HDR10 är det alltid bakåtkompatibelt. Därför blir Dolby Vision och HDR10+ mer en kvalitets- och upplevlsefaktor. Det är inte så att du väljer ett läger. Däremot kan du tänka till och matcha vilka tjänster och källor du använder mest. Netflix och AppleTV använder till exempel Dolby Vision sedan länge.

Permalänk

Jag har två HDR skärmar. Side by Side i FC5 ND och Doom finns det absolut ingen skillnad mellan HDR8 och HDR 10.

Samsung G5 27” HDR 10
Asus Tuf 34” HDR 8

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
Medlem
Skrivet av Knotvillage:

Jag har två HDR skärmar. Side by Side i FC5 ND och Doom finns det absolut ingen skillnad mellan HDR8 och HDR 10.

Samsung G5 27” HDR 10
Asus Tuf 34” HDR 8

Det finns inget som heter HDR8. Du kanske tänker på 8 bitar färgdjup istället för 10 bitar. Jag håller dock inte med dig, då 10 bit gör enorm skillnad när det kommer till color banding.

Sen kan man väl inte påstå att ljusstyrkan på nämnda skärmar är speciellt hög och det hjälper ju inte direkt till. G5 kommer ju inte över 300 nits och det är ju inte ens HDR400 certifierat. Inte konstigt att du inte ser någon skillnad.

Det är finfina skärmar, men inte när det gäller specifikt HDR.

Visa signatur

press nu1mlock

Permalänk
Bildexpert 📺
Skrivet av Knotvillage:

Jag har två HDR skärmar. Side by Side i FC5 ND och Doom finns det absolut ingen skillnad mellan HDR8 och HDR 10.

Samsung G5 27” HDR 10
Asus Tuf 34” HDR 8

Det finns inget som heter HDR8, utan det är en sammanblandning av termer som jag sett dyka upp här och där.

Vad det handlar om är att man i Windows kör HDR (som då följer HDR10-standard) med 8 eller 10-bitars färgdjup baserat på hur inställningarna ser ut i Windows. Eftersom 8 bitar inte räcker till för att det dynamiska omfånget är 10 bitar ett minimum för HDR. Men då fungerar inte alltid signalerna som önskat i Windows. Därför kan man in Windows (och i stort sett bara i Windows) välja en 8-bitars signal med dither, alltså 10-bitars information renderad med halvtonsmönster i en 8-bitarsbild.

Och det är väldigt vanligt att man inte ser någon större skillnad mellan att köra 8-bit med dither och ren 10-bitars signal.

Varför?

Jo, därför att datorskärmarna är så pass dåliga på HDR. Det finns inte tillräckligt med dynamisk omfång till att börja med. Och panelerna som används är i praktiken ändå 8 (eller 6 bitar) + dither. Så det enda man åstadkommer i praktiken genom att välja detta är ifall dither-processen ska ske i Windows eller i skärmen.

Vill man uppleva HDR och bedöma HDR måste man bort från Windows och datorskärmar. Tyvärr är det så fortfarande efter flera år.

Permalänk
Medlem

Bästa laxpudding alltid en fröjd och ära att se dig skriva i forumet 😁

Då är jag med mycket bättre på hur allt ligger till. Får se hur priserna blir mot rean. En LG alternativt Samsung i andra hand verkar vara vägen att ta i dom övre prisklasserna.

Permalänk

Jag menar 8 bit. Den är dock märkt som HDR ändå och det är enorm skillnad mot min gamla 32” som inte hade HDR. Har man inte HDR så kommer det göra stor skillnad oberoende av nits.

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
Medlem
Skrivet av Knotvillage:

Jag menar 8 bit. Den är dock märkt som HDR ändå och det är enorm skillnad mot min gamla 32” som inte hade HDR. Har man inte HDR så kommer det göra stor skillnad oberoende av nits.

Det står 8K på kartongen för Playstation 5. Det betyder inte att Playstation 5 klarar av att spela spel i 8K. Det är lite struntsamma vad tillverkaren har satt för märken på kartongen.

Använder du 8 bitars färgdjup så har du inte HDR, punkt slut. Har skärmen ingen 10 bitars-panel så visar du inte HDR. Har du låg ljusstyrka så får du ut väldigt lite av den eventuella HDR skärmen har stöd för (t.ex. din Asus TUF-skärm).

Att du tycker att din nya skärm är bättre än din gamla skärm är inte speciellt konstigt.

Visa signatur

press nu1mlock