Testpilot: LG Ultrafine 32EP950 Pro Display – OLED som lämnar mer att önska

Permalänk
Medlem

Hur testade du Netflix. Ganska säker på att HDR inte är möjligt via Netflix på PC. Sen är ju den andra frågan ifall recensenten har ett Netflix abonnemang som stödjer 4k HDR.

Visa signatur

Stationär: Asus GeForce RTX 4080 TUF, AMD R7 7700x CPU, 32 GB RAM DDR5 6000MHZ
Laptop: MacBook Pro 2021 16",
Konsol: PS5, Switch Oled
Ljud: Sennheiser HD 660s, Monoprice THX 887, LS50 Meta, Minidsp Flex Dirac
Ljus: LG 45GR95QE OLED, LG B1 65, HP Reverb G2, Meta Quest 3

Permalänk
Medlem
Skrivet av Yatagarasu:

Vi testpiloter är dock ämnade att testa ur konsumenters perspektiv, eller på "eget bevåg" om man ska formulera det lite mer officiellt. Därför vi är testpiloter och inte regelrätta recensenter. Vi är (nödvändigtvis) inte utbildade eller tränade i de produkter vi testar alls.

Vi har individuella referensramar, kunskapsnivåer och bakgrunder. Personligen jobbar jag inte med bildhantering alls faktiskt. Är student, jobbar extra som skribent här på Sweclockers och annars är jag utbildad inom El & Nätverk. Däremot är en gemensam faktor mellan oss piloter att vi har relativt bred kompetens"inom det mesta teknik".

Så att kalla det dumt att testa ur det perspektivet "vi är ämnade" att göra, känns lite långsökt som argument ärligt talat

Sorry, men jag håller inte alls med Den här skärmen är inte ämnad för den allmänna konsumenten o ska inte alls recenseras därefter. Lite som att Trafikmagasinet skulle recensera en traktor o säga att den är dålig eftersom den inte funkar att köra familjeresa till fjällen med den.
Alltså jag tycker väl inte din recension i allmänhet är dålig, den är välskriven o allt, men det kändes som att du till viss del gav den ett dåligt betyg för att den hade "bara" hade normal uppdateringsfrekvens och för att den hade nån ghosting när du spelade (som för övrigt lär vara nåt fel eller felinställning? OLED-paneler ska inte ge nån ghosting)

Permalänk
Medlem

Vilken konstig produkt, sitter jag ju hellre kvar på min OLED CX 55" som gick att få för en tredjedel av priset, och som dessutom går att köra i 120Hz.

Permalänk
Testpilot
Skrivet av Gurrrra:

Sorry, men jag håller inte alls med Den här skärmen är inte ämnad för den allmänna konsumenten o ska inte alls recenseras därefter. Lite som att Trafikmagasinet skulle recensera en traktor o säga att den är dålig eftersom den inte funkar att köra familjeresa till fjällen med den.

Alltså jag tycker väl inte din recension i allmänhet är dålig, den är välskriven o allt, men det kändes som att du till viss del gav den ett dåligt betyg för att den hade "bara" hade normal uppdateringsfrekvens..

Det är dock en kritik du får ta till LG isåfall om du inte håller med hehe.. En sponsor är (läs: bör vara) fullt medvetna när de köper in sig som en sponsor för just Testpilot, att det kommer testas ur perspektivet "privatperson". Det är väldigt klara villkor om man säger så, att en produkt kommer testas under en viss typ av förutsättning.

Däremot tar jag till mig kritiken också, såklart! Men kan med handen på hjärtat säga direkt att det förmodligen inte kommer ändra speciellt mycket i kommande tester, då vi (piloter) har våra direktiv och syften när det kommer till just recensionerna. Tar lite för givet att någon som känner till denna skärm, vad den egentligen är menad för, bara skrollar förbi segmenten som berör mer allmänt användande. Finns gott om andra recensioner på nätet som behandlar djupa analyser av färgspektrum o.s.v.

Skrivet av Gurrrra:

..och för att den hade nån ghosting när du spelade (som för övrigt lär vara nåt fel eller felinställning? OLED-paneler ska inte ge nån ghosting)

Skrivet av Roger W:

Citerar från recensionen:
... men skärmen har väl varken g-sync, freesync eller VRR stöd?
("Dynamic Action Sync" finns där, men det är såvitt jag fattar en input-lag minimerare och inte freesync)

Ändå skumt med ghosting-artefakterna dock, men konstigare saker har hänt...
(kanske udda jämförelse men min Oculus Rift CV1 med OLED paneler hade också ghosting/smearing lite liknande en VA-panel)

Du har helt rätt, skärmen ska enligt specifikation inte använda sig av VRR/G-Sync, men fanns som alternativ att slå på i Nvidias kontrollpanel, så blev såklart tvungen att testa i alla fall! Gjorde däremot typ absolut inget i praktiken som jag kunde märka av..

Gällande Ghosting/Smearing/hackande:
Jag har fått en (möjlig) förklaring till varför detta "ghosting" och hackande uppstår:
En väldigt läsvärd FAQ-artikel hos blur busters som tar upp det hela, samt en relevant tråd på blur busters-forumet som diskuterar ämnet och vidare testande.

Detta är långt över min tekniska kunskap gällande LCD/OLED ska klargöras redan nu.
Men TL;DR-versionen jag fått förklarad till mig på annat håll är att 60Hz helt enkelt är för lågt för OLEDs snabba responstid och kan ge uppskov för "ghosting" eller annars hackig bild om inte andra tekniker används för att motverka detta. Och i fallet LG 32EP950 verkar inte direkt någon processering göras, vilket inte är speciellt konstigt då den är helt avskalad från funktioner som annars infinner sig i en smart-TV.

Skrivet av danskung:

Hur testade du Netflix. Ganska säker på att HDR inte är möjligt via Netflix på PC. Sen är ju den andra frågan ifall recensenten har ett Netflix abonnemang som stödjer 4k HDR.

Använder inte Netflix genom webbläsaren, utan kör deras Windows Store-applikation och ett 4K UHD-abonnemang (dyraste nivån om 179 kr per månad). Denna nivån ihop med den officiella Windows Store-appen, ska mig veterligen, ge stöd åt både Dolby Vision (och i förlängning Atmos), alternativt HDR10-tittande. Något som åtminstone har fungerat när jag exempelvis testade TCL:s C82-TV (då genom HDMI 2.1-anslutning).

Just HDR genom Windows är alltid lite av ett mysterium.. För även om Windows rapporterar HDR, en app eller ett program rapporterar HDR, så kan ändå bilden upplevas markant annorlunda från HDR genom t.ex. en app på en Smart-TV. Sedan kan det såklart komma ner till vilka post-processing-funktioner som är aktiverade, eller snarare inte aktiverade, när man använder en extern källa. Finns en myriad av saker att ta hänsyn till i slutet av dagen när man testar detta faktiskt.

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | Leobog Hi75 | Deathadder V2 Pro >

Permalänk
Medlem

Tycker det är utmärkt Yatagarasu. Denna skärm är en enhörning (oled-monitorer växer inte på trän) så därför kan det ju vara intressant att veta hur den fungerar för "mer normalt användande", även om den inte är ämnad för det.

Permalänk
Föredetting

Hur kan något med en ljusstyrka om 250 nits anses vara "inte ljusstark nog för belysta rum"? Jag sitter här med 100 nits, i ett rum med bitvis solljus rakt in utan problem.

Visa signatur

Internet of Things. Translation: Anything that connects to the internet, no matter how useless nor how much of a security risk it poses.

Permalänk
Medlem
Skrivet av Meantek:

Hur kan något med en ljusstyrka om 250 nits anses vara "inte ljusstark nog för belysta rum"? Jag sitter här med 100 nits, i ett rum med bitvis solljus rakt in utan problem.

Det är avsaknad av kontrast/reflex-filter som är problemet här, inte ljusstyrkan.

Permalänk
Medlem
Skrivet av Yatagarasu:

Gällande Ghosting/Smearing/hackande:
Jag har fått en (möjlig) förklaring till varför detta "ghosting" och hackande uppstår:
En väldigt läsvärd FAQ-artikel hos blur busters som tar upp det hela, samt en relevant tråd på blur busters-forumet som diskuterar ämnet och vidare testande.

Detta är långt över min tekniska kunskap gällande LCD/OLED ska klargöras redan nu.
Men TL;DR-versionen jag fått förklarad till mig på annat håll är att 60Hz helt enkelt är för lågt för OLEDs snabba responstid och kan ge uppskov för "ghosting" eller annars hackig bild om inte andra tekniker används för att motverka detta. Och i fallet LG 32EP950 verkar inte direkt någon processering göras, vilket inte är speciellt konstigt då den är helt avskalad från funktioner som annars infinner sig i en smart-TV.

Fast den där typen av ghosting som står i FAQn o som dom skriver mycket om är ju inte panelen som skapar, utan våra egna ögon när den följer ter nåt i bild. O det gäller på ALLA typer av paneler som kör sample and hold o som inte har nån typ av black fram insertion, så med andra ord dom allra flesta skärmar senaste 20 åren. O personligen har jag inga problem med det ens när jag kollar på film i 24fps på min OLED-teve. Däremot är strobingen pga samma sample and hold o dom jättesnabba pixlarna ett problem. OLED-paneler är i desperat behov av lite inbyggd motion blur så man slipper den extrema hackigheten i filmer, men också till viss del i spel i 120hz.

Men dom skriver lite om GtG på OLED också, inget jag nånsin upplevt som ett problem alls på OLED, men om du såg det i spel i 60hz så borde det ju varit minst lika tydligt när du kollade film i 24fps tycker jag. Vet iaf inte alls vad det kan vara men jag tycker det låter väldigt konstigt? Nyfiken är jag iaf, men antar du inte kollat upp det mer sen du testade skärmen?

Permalänk
Testpilot
Skrivet av Gurrrra:

Fast den där typen av ghosting som står i FAQn o som dom skriver mycket om är ju inte panelen som skapar, utan våra egna ögon när den följer ter nåt i bild. O det gäller på ALLA typer av paneler som kör sample and hold o som inte har nån typ av black fram insertion, så med andra ord dom allra flesta skärmar senaste 20 åren. O personligen har jag inga problem med det ens när jag kollar på film i 24fps på min OLED-teve. Däremot är strobingen pga samma sample and hold o dom jättesnabba pixlarna ett problem. OLED-paneler är i desperat behov av lite inbyggd motion blur så man slipper den extrema hackigheten i filmer, men också till viss del i spel i 120hz.

Men dom skriver lite om GtG på OLED också, inget jag nånsin upplevt som ett problem alls på OLED, men om du såg det i spel i 60hz så borde det ju varit minst lika tydligt när du kollade film i 24fps tycker jag. Vet iaf inte alls vad det kan vara men jag tycker det låter väldigt konstigt? Nyfiken är jag iaf, men antar du inte kollat upp det mer sen du testade skärmen?

Är som sagt helt utanför min expertis egentligen!

Försökt läsa mig till diverse olika problem, lösningar och varför det är som det är. Men blir inte direkt klokare ärligt talat.. Har testat en massa mer på begäran av andra jag pratat med, även efter det att piloten blev färdigskriven. Massa teorier har kastats runt, men inget som egentligen verkar gå att åtgärda,menyvalen att tillgå är väldigt skrall.

Har även haft andra kollat på skärmen IRL, där samtliga som testat upplevt precis samma sak:
"Bilden känns hackig och grötig/slät" under spelande, ett problem som inte är lika påtagligt eller infinner sig alls under film- och serietittande enligt de andra som testat.

Om någon faktiskt köper denna skärmen, eller har den på jobbet o.s.v. då får de mer än gärna testa och återkomma om deras exemplar uppvisar samma problematik. Även om de lyckas åtgärda det hela på något vis, eller om det är något med just denna skärmen som inte blir helt rätt.

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | Leobog Hi75 | Deathadder V2 Pro >

Permalänk
Medlem
Skrivet av Yatagarasu:

Är som sagt helt utanför min expertis egentligen!

Försökt läsa mig till diverse olika problem, lösningar och varför det är som det är. Men blir inte direkt klokare ärligt talat.. Har testat en massa mer på begäran av andra jag pratat med, även efter det att piloten blev färdigskriven. Massa teorier har kastats runt, men inget som egentligen verkar gå att åtgärda,menyvalen att tillgå är väldigt skrall.

Har även haft andra kollat på skärmen IRL, där samtliga som testat upplevt precis samma sak:
"Bilden känns hackig och grötig/slät" under spelande, ett problem som inte är lika påtagligt eller infinner sig alls under film- och serietittande enligt de andra som testat.

Om någon faktiskt köper denna skärmen, eller har den på jobbet o.s.v. då får de mer än gärna testa och återkomma om deras exemplar uppvisar samma problematik. Även om de lyckas åtgärda det hela på något vis, eller om det är något med just denna skärmen som inte blir helt rätt.

Märkligt fenomen ändå, hade varit intressant att se själv. Antar du inte har kvar den längre? Tänkte att ett kort slowmotion-klipp hade varit ganska talande

Permalänk
Testpilot
Skrivet av Meantek:

Hur kan något med en ljusstyrka om 250 nits anses vara "inte ljusstark nog för belysta rum"? Jag sitter här med 100 nits, i ett rum med bitvis solljus rakt in utan problem.

Allt under "solen på filmen bländar mig IRL" mitt under en solig Juni-eftermiddag med uppdragna persienner, är inte ljusstarkt nog! Lite skämt i detta uttalande, men ändå inte ärligt talat..

Sitter och väntar på skärmar för inomhusbruk som når de där härliga 2500+ nits, gärna OLED då med. Vill ha svärta som nattrymden själv, och ljusa toppar som om jag kollar rakt in i solen. Allt för den perfekta inlevelsen i det materialet jag konsumerar, en stor anledning varför jag uppskattar ljusstarka paneler för VR också – Tycker exempelvis att Quest 2 har väldigt klena paneler faktiskt

EDIT:
Innan någon säger något om min syn hehe.. Har 10,0 på vänster och 9,7 höger — Så inga problem att se

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | Leobog Hi75 | Deathadder V2 Pro >

Permalänk
Moderator
Testpilot
Skrivet av Varg:

Professionella skärmar har hög ljusstyrka eftersom deras arbete kräver det. Alltså är den inte för dem heller.

Nu vet jag inte vilket professionellt arbete som du refererar till men när man kalibrerar skärmar rekommenderas en ljusstyrka kring ~90 till ~130 cd/m2. Oftast är det enklare att ändra förutsättningarna i rummet, med t.ex. persienner eller mörkläggande gardiner än det är att få tag på rätt egenskaper på en bildskärm, i detta fallet extrem ljusstyrka.

De jag känner som jobbar med rörlig bild sitter ofta i ett tokmörkt rum när det arbetar.

Därmed inte sagt att ingen kräver hög ljusstyrka men i de flesta fallen så gör det att kalibreringen blir helt skev på skärmen.

Inte heller tar det bort argumentet för att denna skärmen inte passar så väl in i ett dagsljust rum med solen rätt in i skärmen men där får man ju själv prioritera, om det går, hur man sätter upp sin arbetsplats.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Bildexpert 📺

Kalibrerat en hel del yrkesskärmar i allt från prisklassen runt 5.000–350.000 kronor och i samtliga fall handlar det om att följa etablerad standard för Rec.709 som är 100 nits med gamma 2.4. Allt som går som SDR och produceras inom kontrollerade produktionsmiljöer går mot 100 nits. Eller åtminstone borde göra det – ibland är det rätt fel och det kan bli en "oh shit!"-upplevelse.

Sitter man och färgsätter en film och tv på skärmar som lyser med 200–400 nits är det rätt stor risk att man skapar något som blir för mörkt i slutändan.

Därav 120 nits, gamma 2.2 som defacto på konsumentkalibreringar då de flesta konsumenter har en ljusare miljö än en produktionssvit. Där kan man tänka sig att kalibrera daglägen för riktigt ljusa och då är 200 nits ett rimligt mål som de flesta TV faktiskt klarar.

ITU-R BT.500-11 är ett dokument som beskriver (ej läst det själv dock) "...monitor brightness up to 200 cd/m2 for tests simulating domestic viewing conditions" och det är även de nivåerna om 200 nits som EBU rekommenderar för Grade 2 och även Grade 3-klassade monitorer som används för icke-färgkritiska beslut.

För HDR är det fortfarande så mycket nytt och så mycket som hänger på den individuella skärmens förmåga att hålla konstanta ljusnivåer. Där har skämar som Eizo Prominence förmågan att hålla sig 1000 nits konstant. Men det är inte säkert man kan och vill sitta hela dagarna framför 1000 nits, samt att värmen det utvecklar också blir en arbetsmiljöfråga. Där kan man arbeta med 300 nits (eller välja själv) och eftersom skärmen har korrekt tone mapping går det väldigt bra.

Permalänk
Testpilot
Skrivet av Laxpudding:

Kalibrerat en hel del yrkesskärmar i allt från prisklassen runt 5.000–350.000 kronor och i samtliga fall handlar det om att följa etablerad standard för Rec.709 som är 100 nits med gamma 2.4. Allt som går som SDR och produceras inom kontrollerade produktionsmiljöer går mot 100 nits. Eller åtminstone borde göra det – ibland är det rätt fel och det kan bli en "oh shit!"-upplevelse.

Sitter man och färgsätter en film och tv på skärmar som lyser med 200–400 nits är det rätt stor risk att man skapar något som blir för mörkt i slutändan.

Därav 120 nits, gamma 2.2 som defacto på konsumentkalibreringar då de flesta konsumenter har en ljusare miljö än en produktionssvit. Där kan man tänka sig att kalibrera daglägen för riktigt ljusa och då är 200 nits ett rimligt mål som de flesta TV faktiskt klarar.

ITU-R BT.500-11 är ett dokument som beskriver (ej läst det själv dock) "...monitor brightness up to 200 cd/m2 for tests simulating domestic viewing conditions" och det är även de nivåerna om 200 nits som EBU rekommenderar för Grade 2 och även Grade 3-klassade monitorer som används för icke-färgkritiska beslut.

För HDR är det fortfarande så mycket nytt och så mycket som hänger på den individuella skärmens förmåga att hålla konstanta ljusnivåer. Där har skämar som Eizo Prominence förmågan att hålla sig 1000 nits konstant. Men det är inte säkert man kan och vill sitta hela dagarna framför 1000 nits, samt att värmen det utvecklar också blir en arbetsmiljöfråga. Där kan man arbeta med 300 nits (eller välja själv) och eftersom skärmen har korrekt tone mapping går det väldigt bra.

Tackar för ett mycket utörligt svar!

Du kanske har tid att kasta lite ljus (hehe..) på situationen som jag upplevde med eftersläp/hackande?
Flera som har funderat hur "OLED kan ha ghosting", vilket jag känner att jag inte har ett bra svar på. Som jag förstår det har det bland annat att göra med uppdateringsfrekvsen om 60 Hz i detta fallet, men att det finns mer till saken än så också.

Sedan är jag också nyfiken på varför Nvidias kontrollpanel tyckte att G-Sync skulle kunna vara en grej ens, när skärmen bara verkar ha Action-tjosan från LG och ingen regelrätt VRR? För G-Sync gick att slå igång oberoende av USB-C och HDMI-anslutet (sedan om det ens gjorde något vettetusan..).

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | Leobog Hi75 | Deathadder V2 Pro >

Permalänk
Bildexpert 📺

60 Hz är bara så bra och man vill upp i frekvens generellt. Blir extremt kort övergångsfas – "responstiden" – och därmed minimalt eftersläp. Samtidigt är varje bildruta fastfrusen i 16,7 ms. Därför ser 60 Hz ungefär lika illa ut oavsett om det är en helt vanlig LCD eller en OLED. Från detta test av en annan OLED-skärm som reglerar ljusstyrkan via PWM dessutom vilket leder till grötigare resultat. Följer blurbuster rekommendationer med att hålla 4–5 frames per exponering.

På det kan det förekomma annan metodik som påverkar hur det ser ut likt temporala halvtoner och liknande.

Permalänk
Bildexpert
Skrivet av Laxpudding:

Kalibrerat en hel del yrkesskärmar i allt från prisklassen runt 5.000–350.000 kronor och i samtliga fall handlar det om att följa etablerad standard för Rec.709 som är 100 nits med gamma 2.4. Allt som går som SDR och produceras inom kontrollerade produktionsmiljöer går mot 100 nits.

Av min personliga erfarenhet har även 80 nits varit förekommande för grade av SDR i BT.709 (likt sRGB) rent historiskt, även om det inte är så vanligt längre förstås. I min studio siktar jag konstant på 100 nits för SDR men i mitt vardagsrum nöjer jag mig faktiskt med 80 nits och gamma 2.6. Detta då jag är så bekant med tjocka broadcastskärmar som oftast har dessa begränsningar, samt att 80 nits blir väldigt bekvämt i det långa loppet om man sitter i ett mörklagt rum. Framförallt om bildytan är stor i förhållande till avståndet.

Jag gillar att ha kvar lite legacy helt enkelt då SDR har en så stark koppling till gårdagens teknik. Med HDR får man lägga allt det åt sidan förstås.

Permalänk
Medlem
Skrivet av Printscreen:

HDR400 borde inte få kallas för HDR.

Allt under vad LGs TV-apparater trycker ur sig är oacceptabelt. Jag trodde min Samsung G9 var trasig när jag slog på HDR och såg ur skit det såg ut.

Nu är det ju frågan om HDR True Black 400 så det är inte vanlig HDR400. Denna har ju mycket högre dynamiskt omfång.

Permalänk
Medlem

Har kört en LG CX oled länge nu med 120Hz & 10bit full RGB eller 4:4:4 samt g-sync och med den kalibrerad så presterar den rätt bra för sin prislapp, gav 12tkr för den i 55". Fullt möjligt att denna skärm presterar bättre färgmässigt men samtidigt lär jag ändå fråga mig vad denna tillför som inte valfri oled tv med 40-48Gbit hdmi klarar. Visst kanske smidigare med 32" men det finns ju 48 som inte är så extremt mycket större. Enda nackdelen jag kan se annars är väl krav på modern GPU men i övrigt?

PS, tack för en bra genomgång av skärmen i fråga

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Keeper of the Bamse
Skrivet av Squallie:

Nu är det ju frågan om HDR True Black 400 så det är inte vanlig HDR400. Denna har ju mycket högre dynamiskt omfång.

Det jag fiskade efter var just siffran "400". Det räcker ju inte

Visa signatur

i7 10770K, NH-D15. 16GB corsair. RTX 3080. 3TB nvme. Samsung G9. Fractal Torrent Compact. Corsair RM850.
Logitech G pro wireless mouse. Logitech TKL915 wireless. Logitech Pro X Wireless.
Macbook pro M1 (16GB, 512GB). HP Reverb G2.
www.bamseclockers.com

Permalänk
Medlem
Skrivet av Printscreen:

Det jag fiskade efter var just siffran "400". Det räcker ju inte

Tydligen så är den inte så viktig eftersom du samtidigt säger att din G9 är jättedålig och den har ju HDR1000.

(sorry om jag missade någon sarkasm eller liknande..)

Permalänk
Medlem

Flr bra HDR krävs hög ljusstyrka och bra kontrast så det kan bli rejält mörkt också. Måste jag välja mellan den ena eller den andra så är kontrastförhållandena viktigare, och anledningen varför HDR ser bättre ut på Oled än på de flesta ljusstarka LCD-apparater.

Summering: HDR True Black 400 är inte HDR400

Permalänk
Keeper of the Bamse
Skrivet av Squallie:

Tydligen så är den inte så viktig eftersom du samtidigt säger att din G9 är jättedålig och den har ju HDR1000.

(sorry om jag missade någon sarkasm eller liknande..)

Men G9 är inte OLED, det är pissig LCD-panel som läcker ljus som sjutton.

Jag menar såklart oled, alla andra paneltyper är stenålder för mig.

Och en oled med HDR400 borde inte få kallas för HDR.

Så, nu har jag förtydligat så gott jag kan

Visa signatur

i7 10770K, NH-D15. 16GB corsair. RTX 3080. 3TB nvme. Samsung G9. Fractal Torrent Compact. Corsair RM850.
Logitech G pro wireless mouse. Logitech TKL915 wireless. Logitech Pro X Wireless.
Macbook pro M1 (16GB, 512GB). HP Reverb G2.
www.bamseclockers.com