VESA introducerar DisplayHDR – certifiering för HDR-skärmar

Permalänk
Melding Plague

VESA introducerar DisplayHDR – certifiering för HDR-skärmar

För att göra det lättare för konsumenter introducerar nu VESA certifieringen Display HDR, vilken ska användas för datorskärmar kompatibla med HDR.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Någon chans att detta kommer användas till vanliga TV också? Eller finns det nån annan certifiering där?

Permalänk
Medlem

Bra med en märkningstrappa som verkar ge åtminstone en fingervisning om kvalitet och dessutom tar höjd för vidareutvecklad skärmteknologi. Alltid en risk att basnivån hade blivit en urvattnad klisterlapp som de flesta skärmarna redan klarar.

Edit: Sen lär det ju finnas fallgropar med den här certifieringen också, precis som alltid. Som "4K" på grejer som fortfarande kan ha kass bildkvalitet för det.

Permalänk
Medlem

Rätt lågt satt ribba för färgrymderna kan jag tycka.

Permalänk
Medlem

Man kan tycka att kreven skulle vara högre, men tack för en standard iaf :P... Sedan visar ju iofs Nvidia och deras val att skita i stöd för VESA adaptive sync att en VESA standard kanske inte alltid räddar konsumenten.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Skrivet av dlq84:

Någon chans att detta kommer användas till vanliga TV också? Eller finns det nån annan certifiering där?

Certifieringen för TV-apparater är Ultra HD Premium

https://www.whathifi.com/advice/ultra-hd-premium-what-are-specs-which-tvs-support-it

Visa signatur

Intel Core i9 7900X | Asus Prime X299 Deluxe | Corsair 128GB DDR4 3200Mhz | Gigabyte RTX 4090 | Acer X32FP 4K 160Hz | NVMe/SSD 14TB | Corsair AX1200i | Corsair Graphite 760T White | OS Windows 11 Pro

Permalänk
Medlem

undra om det är peak luminans eller konsekvent, hmm. samt hela skärmen eller en liten punkt.

Visa signatur

Citera för svar!

Detta må inte längre vara min primära dator men står kvar vid TV:n så den får ligga kvar ändå!

MB: Asus Maximus III Gene CPU: I7 860 4ghz HT Kylning: Antec 920 GPU: EVGA 770 2GB RAM: Corsair 12GB 1600mhz XMS3 2x2GB + Vengence HP 2x4GB SSD: Samsung EVO 840 120GB HDD: Samsung 1Tb 7200rpm, Seagate 2TB 7200rpm Chassi: Fractal Design Define Mini

Permalänk
Medlem
Skrivet av DasIch:

Rätt lågt satt ribba för färgrymderna kan jag tycka.

Mjo, men P3 kommer nog räcka som i ett första skede. Rec. 2020 adderas säkert när behovet börjar öka. Oavsett är detta är stort steg framåt som jag hoppas får bra med fart på displayutvecklingen.

Skrivet av JonatanR:

undra om det är peak luminans eller konsekvent, hmm. samt hela skärmen eller en liten punkt.

Det ser ut att finnas olika nivåer. Kriterierna för 400/600/1000 cd/m2 gäller för 10 % i mitten (peak) av skärmen, och 100 % av skärmen under en 'flash'. För fullskärm och längre tid gäller 320/350/600 cd/m2 respektive.

Får heller inte glömma något som svärta där dagens skärmar tydligen ligger på 0,50-0,60 cd/m2, medan de nya kraven sänker dessa till 0,40 / 0,10 / 0,05 cd/m2 i skärmens hörn för respektive nivå. Det är en riktigt trevlig utveckling i min mening.

Tabellen finns på https://displayhdr.org/performance-criteria/

Visa signatur

"The irony of the Information Age is that it has given new respectability to uninformed opinion."

Permalänk
Medlem
Skrivet av inquam:

Man kan tycka att kreven skulle vara högre, men tack för en standard iaf :P... Sedan visar ju iofs Nvidia och deras val att skita i stöd för VESA adaptive sync att en VESA standard kanske inte alltid räddar konsumenten.

Går i planer på att köpa en G-Sync skärm men jasså Nvidia skiter i Vesa...känner mig lite förvirrad. Vad ska man köra på, så mycket tekniska termer. Varför finns det inte något som har stöd för allt ?:D

Permalänk

Tror det blivit något fel. Borde inte Display HDR 1 000 täcka 99% av BT.709-färgrymden liksom DisplayHDR 600 gör?

Permalänk
Skrivet av terrakowski:

Tror det blivit något fel. Borde inte Display HDR 1 000 täcka 99% av BT.709-färgrymden liksom DisplayHDR 600 gör?

Jo reagera på samma sak, känns konstigt om HDR 1000 är som HDR 400 fast bara ökad luminans:S

Permalänk
Medlem

Ok med standarder men det finns redan så många. Dolby vision och vad det andra kallas och så nu tre olika från VESA. Sen måste spelkonsolen och datorn och receiever och Bluray spelare mm alla stödja rätt format som TVn har osv. Känns fortfarande som en djungel både för TV och för datorskärmar. Var ju folk som var övertygade att de såg HDR men som hade gamla PSVR ikopplad som inte klarar HDR så såg egentligen inte HDR fast de trodde det.

Skickades från m.sweclockers.com

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Bildexpert 📺

@terrakowski: Samma färgrymdskrav på HDR600 och HDR1000 med 99% Rec.709 och 90% DCI-P3. Korrigerat!

Permalänk
Medlem
Skrivet av epple:

Mjo, men P3 kommer nog räcka som i ett första skede. Rec. 2020 adderas säkert när behovet börjar öka. Oavsett är detta är stort steg framåt som jag hoppas får bra med fart på displayutvecklingen.

Rec. 2020 är långt borta men 90% P3 är inte så imponerande. 95% sRGB/Bt. 709 för DisplayHDR 400 är också rätt kasst.

Permalänk
Medlem
Skrivet av Megacrash:

Går i planer på att köpa en G-Sync skärm men jasså Nvidia skiter i Vesa...känner mig lite förvirrad. Vad ska man köra på, så mycket tekniska termer. Varför finns det inte något som har stöd för allt ?:D

För Nvidia så har de ju dels marknasfört G-Sync som "bättre", kanske för att undvika skit för att de löste det som de gjorde när AMD visade att man kunde göra det billigare. Detta har väll visat sig inte vara riktigt korrekt när ordentliga tester görs. Självklart finns ett större spann på "Freesync"/VESA Adaptive sync monitorer så en del suger. Men om man jämför en high-end Freesync med en G-Sync så är G-Sync inte överlägsen. De är rätt snarlika. Om något så är Freesync mer flexibelt då det även fungerar över HDMI och skärmarna ofta har fler ingångar.

Förmodligen är det som så att Nvidia väljer att inte supporta Freesync, dels för att det kom från AMD, och dels för att de kanske känner att de skulle överge vad de hävdat att det är så mycket bättre. De skulle självklart utan svårigheter (förmodligen med en driver update) kunna stödja både Freesync och G-Sync. Men detta hade ju gjort att kunder hade kunnat köpa en billiagre Freesync skärm som Nvidia då inte hade fått pengar för sin G-Sync modul i. Sedan hade kunden kunnat behålla sin skärm och lättare byta grafikkort till AMD senare och fortsätta dra nytta av adaptiv sync på sin skärm. Konsumenter byuter ju oftare grafikkort än skärmar. Så det handlar nog till storl del om kontroll från Nvidia.

Om G-Sync VAR mycket bättre så hade ju Nvidia rimligen fortsatt sälja G-Sync skärmar till de som vill ha "det bästa" även om de la till stöd för Freesync också. Men, nej...

Jag köpte ett 1080Ti nydligen, men ville egentligen ha ett AMD kort och Freesync. Utbudet av skärmar var så mycket större. Men nu när jag har ett Nivida kort så känner jag inte att jag vill spendera de extra tusenlapparna som en G-Sync kostar utan det lutar mer åt att vänta eller köpa en Freesync och hoppas Nivida lägger till stöd längre fram eller att jag byter till AMD kort nästa generation eller så.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Bildexpert 📺
Skrivet av dagas:

Ok med standarder men det finns redan så många. Dolby vision och vad det andra kallas och så nu tre olika från VESA.

VESA ger här inga nya HDR-format. Vad de specificerar är tre nivåer av fysikaliska egenskaper hos panelen. Egenskaper som HDR-formaten kan verka inom, till exempel HDR10.

Permalänk
Medlem

Så förvånad att "HDR" och "Rec 709" hamnar under samma mening.
HDR har blivit så fritt tolkat att jag blir nerstämd när standarden säger att 8 bitar är HDR. :'(

Jag är ifrån "Paul Debevec tiden" där HDR räknades normalt med 16 bitar per kanal med högre nivå på 24 och 32 bitar per kanal. Som lägst 12 bitar.

Visst gick det att få till en bättre bild med 10 bitar framför 8 bitar, men även med 10 så var kvalitén inte HDR i min mening och erfarenhet. SDR+ får 10 bitar gärna heta.

Jag hade gått med på 10 bitar för DisplayHDR 400 för att ha ett "budget" HDR certifiering men helst 12 bitar. Minst 12 bitar för DisplayHDR 600 samt 16 bitar för DisplayHDR 1000 hade varit rimligt.

Vill tillverkarna ha 8 bitar super budget certifiering så får den gärna heta DisplaySDR 400

DisplayHDR 1000 kunde ju åtminstone ha Rec 2020 :'(

Permalänk
Medlem
Skrivet av HappyPie:

Så förvånad att "HDR" och "Rec 709" hamnar under samma mening.
HDR har blivit så fritt tolkat att jag blir nerstämd när standarden säger att 8 bitar är HDR. :'(

Jag är ifrån "Paul Debevec tiden" där HDR räknades normalt med 16 bitar per kanal med högre nivå på 24 och 32 bitar per kanal. Som lägst 12 bitar.

Visst gick det att få till en bättre bild med 10 bitar framför 8 bitar, men även med 10 så var kvalitén inte HDR i min mening och erfarenhet. SDR+ får 10 bitar gärna heta.

Jag hade gått med på 10 bitar för DisplayHDR 400 för att ha ett "budget" HDR certifiering men helst 12 bitar. Minst 12 bitar för DisplayHDR 600 samt 16 bitar för DisplayHDR 1000 hade varit rimligt.

Vill tillverkarna ha 8 bitar super budget certifiering så får den gärna heta DisplaySDR 400

DisplayHDR 1000 kunde ju åtminstone ha Rec 2020 :'(

"High dynamic range" står ju mest för hur stort det maximala kontrastet mellan fullt ljus och inget ljus är på skärmen. I stort sett alla konsumenter skulle nog bli skitnöjda med srgb genom bra kontrast (vilket rec.709 med HDR10 genom en högkontrastskärm i stort sett är).

Sedan ska DisplayHDR 600 och 1000 också stödja minst 90% av DCI-P3, och om det räcker för diverse filmprojekt tror jag att det duger för de flesta konsumenter

edit: 16+ bitar brukar mest användas för att ha mycket headroom när man ska spela in, då kan man ändra och mixtra mycket mer innan matrialet börjar se dåligt ut, allt över 10-12 bitar när projektet har blivit renderat är overkill

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Medlem

Katastrof.
8-bitspaneler borde förbjudas att ha någon form av HDR-logga men värst var nog att lägstakravet på 400 bara var i burst. Det är ju inte så HDR var tänkt.

VESA underlättar inte direkt med det här. Blir ju ännu svårare för en konsument att fatta att han blir blåst på sin HDR när han ser den pissloggan och inte förstår att 400 är för lite och att 8-bitspanelen inte jobbar i närheten av 2020.

Suck.

Visa signatur

”Ingen må utsättas för godtyckliga ingripanden i fråga om privatliv, familj, hem eller korrespondens.
Artikel 12, FN:s deklaration för mänskliga rättigheter

Permalänk
Medlem

För mig är 100% av BT.709 och 8-bittar en grundskärm - alltså en skärm som motsvarar färgkvaliteten på en äldre CRT. "HDR" är i min värld ett bra steg över det.

Sen blir jag lite konfunderad av av att artikeln säger "10-bittars bildbehandling"... 10-bittars skala på faktiska pixelvärden vill jag ha.

Förresten: Färgrymden i Rec.2020 är vald för att vara framtidskompatibel, att koda signalerna i. Det finns inga konsumentskärmar som kan nå upp till det på ett bra tag.

Visa signatur

För övrigt anser jag att tobak ska förbjudas.

Permalänk
Medlem

Detta med inbyggd certifiering i bildskärmskabel gillas skarpt, istället för att behöva köpa sig en enhet som har inbyggt som kan kosta enormt mycket.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem
Skrivet av Fredag:

Katastrof.
8-bitspaneler borde förbjudas att ha någon form av HDR-logga men värst var nog att lägstakravet på 400 bara var i burst. Det är ju inte så HDR var tänkt.

VESA underlättar inte direkt med det här. Blir ju ännu svårare för en konsument att fatta att han blir blåst på sin HDR när han ser den pissloggan och inte förstår att 400 är för lite och att 8-bitspanelen inte jobbar i närheten av 2020.

Suck.

Kollade just på VESA's egen sida och där står det att bilderna blir processade i 10 bit oavsett vilken DisplayHDR som används, själv bryr jag mig inte om paneler kommer upp i mer än 400 nit. Blir oftast så att man sitter i ett mörkt rum och där vill man bara ha mindre, det verkliga kontrastet mellan ljusa och mörka pixlar är mer viktigt för mig. För TV apparater förstår jag att man kan vilja ha 600 eller 1000 nit om man vill se TV mitt på dagen, men även har är 1000 konstigt då skillnaden mellan 400 och 600 borde upplevas mycket större än hoppet från 600 till 1000 (då upplevd ljusstyrka är ungefär logaritmisk).

Tror personligen inte att gemene konsument har hört talas om Rec.2020, snarare att de ser och hör från säljaren att TVn/skärmen är "HDR verifierad". Men det är ett steg i rätt riktning från att inte ha någon "verifierad" standard över huvud taget, då får vi klistermärken på skärmarna som säger "skärmen är HDR10 ready!" fast det är 6 bitar + en massa dither som når pixlarna i slutändan.

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Medlem

HDR har en annan luminanskurva så "avarage picture level" hamnar på en normal nivå trots mycket högre maximal ljusstyrka.

Permalänk
Bildexpert 📺

Det är inte direkt så att man drar baklängesvolter av glädje över dessa ganska blygsamma certifieringar. Men det är fortfarande bättre än alternativet som är ingen certifiering alls i dagsläget där alla möjliga påhittade och icke-kontrollerbara HDR-begrepp dyker upp på kartongerna.

Vi som hänger här på Swec kan ju åtminstone lära oss (samt upplysa mindre ämnesbevandrade vänner) i att HDR400 är "samma gamla vanliga teknik" och att med HDR1000 är det något mer.

HDR1000 lyfter också fram en ganska intressant aspekt med att någon form av local dimming-teknik behövs. Och det har inte direkt strösslats sådana funktioner på datorskärmar.

Permalänk
Medlem
Skrivet av wowsers:

Kollade just på VESA's egen sida och där står det att bilderna blir processade i 10 bit oavsett vilken DisplayHDR som används, själv bryr jag mig inte om paneler kommer upp i mer än 400 nit. Blir oftast så att man sitter i ett mörkt rum och där vill man bara ha mindre, det verkliga kontrastet mellan ljusa och mörka pixlar är mer viktigt för mig. För TV apparater förstår jag att man kan vilja ha 600 eller 1000 nit om man vill se TV mitt på dagen,

Du får nog läsa på lite om vad HDR är...lång historia kort: du vill definitivt ha mer än 400 nits från en HDR display. Det du säger stämmer bara för SDR.

Grunden för HDR-standarden, PQ OOTF, bygger på tittande i väldigt väl ljuskontrollerat rum och ljusstyrkor upp till 10000 nits.

Permalänk
Medlem
Skrivet av HappyPie:

Så förvånad att "HDR" och "Rec 709" hamnar under samma mening.
HDR har blivit så fritt tolkat att jag blir nerstämd när standarden säger att 8 bitar är HDR. :'(

Jag är ifrån "Paul Debevec tiden" där HDR räknades normalt med 16 bitar per kanal med högre nivå på 24 och 32 bitar per kanal. Som lägst 12 bitar.

Visst gick det att få till en bättre bild med 10 bitar framför 8 bitar, men även med 10 så var kvalitén inte HDR i min mening och erfarenhet. SDR+ får 10 bitar gärna heta.

Jag hade gått med på 10 bitar för DisplayHDR 400 för att ha ett "budget" HDR certifiering men helst 12 bitar. Minst 12 bitar för DisplayHDR 600 samt 16 bitar för DisplayHDR 1000 hade varit rimligt.

Vill tillverkarna ha 8 bitar super budget certifiering så får den gärna heta DisplaySDR 400

DisplayHDR 1000 kunde ju åtminstone ha Rec 2020 :'(

Lite samma läs-på behov här...grejen med HDR är inte högt bitdjup, vilket du får det att låta som.

Tvärtom är PQ OOTF vald för att vara så pass "bit-effektiv" som möjligt och 12 bitar räcker för att täcka upp dynamiken 0-10000 nits utan att posterisering, synliga "hopp" mellan två närliggande intensiteter, ska vara synligt.

Permalänk
Medlem
Skrivet av ipac:

Lite samma läs-på behov här...grejen med HDR är inte högt bitdjup, vilket du får det att låta som.

Tvärtom är PQ OOTF vald för att vara så pass "bit-effektiv" som möjligt och 12 bitar räcker för att täcka upp dynamiken 0-10000 nits utan att posterisering, synliga "hopp" mellan två närliggande intensiteter, ska vara synligt.

Läst på lite, hoppas det stämmer. Får vänta tills det dyker upp i handeln och tester.

Permalänk
Medlem
Skrivet av HappyPie:

Läst på lite, hoppas det stämmer. Får vänta tills det dyker upp i handeln och tester.

Ja det är en funktion framtagen efter vilka kontraster våra ögon är kapabla till att särskilja vid olika stimuli (ljusflöden). Finns en skön pdf här bl.a:
https://www.smpte.org/sites/default/files/23-1615-TS7-2-IProc...

Den betydligt längre varianten finns på youtube, få som orkar se igenom den men den är lite utav nyckeln för att verkligen förstå vad HDR är.

Sen är det förstås skillnad på teori och praktik. Nån tillverkare kan ju hävda "12 bit, baby" men att det blir tokigt ändå. Men då är det troligast att nått är fel med displayen i sig snarare än att 12 bit PQ skulle vara boven. Dolby & Co är inga dumhuvuden direkt, det inser man om inte annat efter man tagit sig igenom ovanstående klipp.

Permalänk
Medlem
Skrivet av ipac:

Du får nog läsa på lite om vad HDR är...lång historia kort: du vill definitivt ha mer än 400 nits från en HDR display. Det du säger stämmer bara för SDR.

Grunden för HDR-standarden, PQ OOTF, bygger på tittande i väldigt väl ljuskontrollerat rum och ljusstyrkor upp till 10000 nits.

Nej jag har bokstavligen ingen anledning att äga en skärm som lyser så starkt, en OLED som inte fullt kommer upp i 500 nit kan ändå vara HDR för att den har ett högt dynamiskt kontrast även vid låga ljusstyrkor. Ett rum med lågt ljus behöver inte en skärm som klarar av att blända folk i rummet intill vid maximal ljusstyrka.

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Bildexpert 📺
Skrivet av wowsers:

Nej jag har bokstavligen ingen anledning att äga en skärm som lyser så starkt, en OLED som inte fullt kommer upp i 500 nit kan ändå vara HDR för att den har ett högt dynamiskt kontrast även vid låga ljusstyrkor. Ett rum med lågt ljus behöver inte en skärm som klarar av att blända folk i rummet intill vid maximal ljusstyrka.

Jo, det har du. Ifall du ska visa HDR som det är tänkt att återges.

OLED:n som kör 500 nits är fortfarande för ljussvag med HDR och måste kompromissa någonstans. Samma OLED kommer att se blek och svag ut bredvid en LCD som kör samma material och nyanserar helt efter PQ-tonkurvan med 1000 nits. Och den 1000-nits-LCD:n kommer inte att blända någon. Och den kommer i sin tur att se väldigt svag ut jämfört med 2000 nits-LCD:n. Som heller inte kommer att blända någon.