Inlägg

Inlägg som Laxpudding har skrivit i forumet
Av Laxpudding
Skrivet av thexps:

QN95B, problem med Xbox Series X.
Bilden blir svart 5-10 ggr i minuten, knappt en sekund åt gången. Endast när xboxen är igång, händer inte annars.

Återkommande svart ruta/dropouts är klassiskt tecken på dålig HDMI-kabel. Kabeln orkar inte bandbredden och/eller radiointerferens ger återkommande bitfel. Därav rekommendationer om Ultra High Speed-certifierade HDMI-kablar som ska orska bandbredden och även hålla tillräcklig skärmning.

Sedan verkar det inte hindra Samsungs TV från att periodvis krångla. Det kanske slutar blinka om du drar ut kabeln och stoppar in den igen och återaktiverar Input Signal Plus.

Skrivet av petersladder:

I've read somewhere that even though it's disabled, it still works. The Xbox handles it instead of the TV or something. Caveat: I found this on a forum just like this one, so take it with a grain of salt.

"I stumbled upon some medicine lying in the street. Hope it helps".

Av Laxpudding
Skrivet av merdique:

Å tack så mycket, info direkt från gurun, då känns det mycket bättre. Jag gjorde en edit av mitt inlägg precis efter du svarat, angående HDR-bildvisare. Vad är din kommentar till det?

Inte kollat. Men dator som HDR-källa är synonymt med många fällor. För mycket som kan påverka och för mycket variationer varje gång.

Därför jag använder testgenerator eller kända HDR-testskivor, likt Spears&Munsil, från en UHD BD-spelare. När jag är ute hos en del kunder kan det handla om Davinci Resolve med någon form av clean video feed som också är en säkrare och mer konsekvent videokälla. Datorn och GPU:n är alltid extra lager av okända faktorer.

Av Laxpudding
Skrivet av anon315148:

Där ser man. Aldrig hört talas om detta så antar att det märks mindre än inbränning.

Tvärtom skulle jag säga. Problemen jag beskriver ovanför märks mycket oftare.

Överlägsen majoritet när det frågas om fel på TV:n på forumet. Vilket iofs är väntat med tanken på att LCD är den vanligaste tekniken.

Skillnaden är att det finns ingen självgående diskussion kring rädslan för en LCD-TV och trasiga lysdioder. Däremot är det ju i princip inte längre möjligt kliva in i någon nyhetstråd, test eller allmän diskussion där OLED tas upp utan att det prompt ska diskuteras OLED-inbränningar.

Uppfattning blir att OLED-inbränningar är ett stort problem. För det är vad som alltid diskuteras. Ad nauseam.

Finns på Swec betydligt fler trådstarter om lysdioder som slutar fungera eller fläckiga LCD-paneler av olika sort. Jag gissar mig till ett mörkertal eftersom de flesta förstår att trasiga lysdioder innebär att TV:n är bortom normal reparation. Så man köper ny TV – snarare än att starta en ny tråd om något man redan har svaret på.

Finns förstås exempel på forumet med inbrända OLED:s. Disneyloggan inbränd på sin 2016-OLED eller liknande eftersom den gått som skval-TV till barnen. Äldre OLED:n som blivit ojämna där mitten är blekare och missfärgad är nog vanligast exemplen på slutkörda OLED:s. Men de är ändå rätt sällsynta med tanke på hur populära – särskilt LG:s OLED – ändå är på forumet och i den svenska TV-försäljningen.

Nu har jag inte räknat förstås. Intrycket är att på hundra trådar där OLED-inbränningar diskuteras är det är en på hundra som handlar om någons faktiska OLED-inbränning. Så pass få som postar egna fotoexempel på permanenta OLED-inbränningar att det varje gång varit en "positiv" jädrar-vad-intressant-upplevelse för mig.

Övriga 99 diskussioner om OLED-inbränningar handlar istället om rädslan för OLED-inbränningar.

Av Laxpudding
Skrivet av merdique:

Hej hej, jag har inte letat efter fel men detta har varit svårt att missa då jag ser det ofta. Hur är era 85-tummare gällande färggradienter (color banding)?

Så här ser min ut:<Uppladdad bildlänk>

Har använt den här bilden från Rtings:

https://www.rtings.com/images/test-materials/2016/gradient-16...
Kört från Windows med 12 bit 4.4.4 (iaf enligt Nvidia kontrollpanelen)

Även testat med den här som är ett test för att se ifall panelen är 8 eller 10 bit:

https://www.avsforum.com/threads/10-bit-gradient-test-pattern...

det är en video där nedre halvan är 8 bit och övre 10 bit. På min OLED syns inga band på 10 bit men det gör det på Samsungen. TVn är ju så bra på allt annat, är detta att förvänta med panellotteriet?

Så där där ser de flesta Samsung ut oavsett. De har alltid haft en hög nivå av posterisering. Philips har i perioder varit värre. Sedan finns det ju alltid ännu värre exempel. Sett TV-apparater i basklassen där det dessutom varierar över ytan. Så kör man samma testmönster fast i spegelvänd variant märker man att posteriseringen och färgskiftningen är olika i olika hörn...

Noterar också att färgskiftningen i den ljusaste delen, vilket är ett tecken på att TV:n klipper nivåerna nära vitt. Detta gör så gott som alla Samsung direkt ur kartong. Det åtgärdas genom att sänka kontrast-reglaget tills skiftningen försvinner. Det här testmönstret är bra på att avslöja vilka kanaler som klipper:

http://www.lagom.nl/lcd-test/contrast.php

En TV/skärm som är konstruerad på rätt sätt ska klippa lika mycket/lika lite. Sämre konstruktion och det klipper olika i RGB-kanalerna. Vilket bildläge man kör + andra inställningar påverkar också detta.

Finns för övrigt väldigt få äkta 10-bitarspaneler. De flesta TV på de här nivån har 8-bitarspaneler och använder olika former av halvtoner, både temporala och statiska för att approximera 10 bitars precision. Skillnaden ligger därför i hur bra algoritmer man har för halvtonerna.

Av Laxpudding

LCD förändras både med ljuskällan samt materialförändring i själva panelen. Detta sker gradvis från första timmen av användning. För "vita" LED:s som är blå lysdiod med gult fosfor mattas den gula fosforn med tiden så att ljusstyrka minskar och färgomfånget krymper eftersom rött och grönt filtreras fram från den gula fosforn som nu är mattare. Generellt är en LCD-skärm mycket blåare och mätbart ljussvagare efter ett par tusen timmars användning.

Finns för lite information och för få år av användning med modernare tekniker som QLED om hur de också ändras. Men de lär inte vara immuna i alla fall.

Vid ett par tillfällen har jag lyckats följa upp med skärmar som jag en gång mätt och några år senare kalibrerat på nytt. Och då är det tydligt att för att nå målen måste öka styrkan på belysning och balansera mot mindre blått där det syns att färgomfånget tappat räckvidd mot grönt och rött.

På det kommer andra typer av materialförändringar i panelen. En LCD är i stort sett olika lager av plastfilm (TFT-delen, polariseringsfilter, light guide etc.) som sitter ihop på något sätt. Tunn plast är sällan det mest hållbart materialet och i en skärm utsätts dessutom plasten för värme och starkt ljus under hela sin användning.

Har ingen statistik (det är ju extremt krävande att få till) men några förändringar som är vanliga efter några års användning:

• Retention som endast dyker upp i delar av panelen, till exempel att man får retention väldigt snabbt, men endast i exempelvis högra kanten av bilden. En del åldrade LCD:er har faktiskt extrema problem med retention, även jämfört med CRT och plasma.

• Uppstår fläckar som ser ut ungefär som fuktfläckar. Aldrig fått förklaring från någon kunnig men nördgissar att det är materialförändringar i något plastskick eller att limningen släpper så att filtren inte längre ligger tätt.

• Uppstår sprickor i något filmskikt som kan se ut som repor i bilden

På det kommer mer mekaniska/elektriska fel som ligger i LCD-teknikens natur.
• Lysdioder dör vilket leder till att panelen blir mörkare i segment, fläckvis eller kolumner, beroende på konstruktionen

• Individuella lysdioder som förändras i ljusstyrka eller färg vilket leder till fläckvis olika färg och ljus.

Mycket hänger på den enskilda produktens konstruktion. Vi har ju David the Dooms välkända Philiips-TV där varje lysdiod har sin egen cirkelformad lightguide som hänger framför dioden. Efter några år släpper de en och en från sitt fäste, trillar ned till botten av panelen och det blir cirkelformade fläckar över ytan.

Rtings inbränningstest av 2017-OLED visar för övrigt på 10 500 timmar utan att färgomfång eller ljusstyrka försämrats. En detalj som nästan alltid missas.

Av Laxpudding
Skrivet av pollyman:

Kan man få en bra skärm för under 4000:- ? Känns som att alla är så missnöjda med alla typer av skärmar nu när jag har kollat runt 😴 alltså 1440p gamingskärmar.. Asus skärmar verkar väl ganska bra iofs men även där är det många som är totalt missnöjda

Alltid folk som är totalt nöjda med precis vilken skärm helst. Och alltid folk som är totalt missnöjda med precis samma skärm. Få skärmar är riktigt usla och ingen skärm är perfekt, inte ens de som kostar 14.000 kronor eller mer. Så förklaringen bakom dessa omdömen handlar om personen som skrivit omdömet och väldigt sällan produkten.

Tricket att läsa användarrescensioner är att ignorera alla ovan och fokusera på de som är något positiva nöjda eller något negativa och kan motivera varför.

Av Laxpudding
Skrivet av improwise:

Råkar du veta om det finns något sätt man kan stänga av uppskalningen på en Samsung TV när man för en PC? I normalfallet är det säkert något man vill ha, men om man kör med en 65" 8K skärm på skrivbordet som jag just nu testar så är det inte helt optimalt när man typ kör FPS spel och liknande, bilden blir lite för stor. På en 4K 120 hz TV, iaf LGs, är det inga problem att lösa det hela genom GPU skalning, men problemet är att då min QN900B har en native resolution på 8K så stödjer den bara 60 hz i det läget, förmodligen av bandbreddsskäl. Det verkar då gör att man inte kan välja något högre än 60 hz med GPU skalning, även fast det rent tekniskt egentligen borde fungera. Kanske skulle testa och köra utan Input Signal Plus och se ifall det kan öppna nya möjligheter, antar att typ QHD@120hz borde vara möjligt även utan det.

Du behöver en strikt 1:1-pixelmappning, så att 4K/120 blir täcker 1/4-del av ytan i mitten. Finns sällan sådan funktioner i dagens konsument-TV – möjligtvis Panasonics.

En möjlig väg runt de vore att köra 4K/120 med önskade svarta kanter runt bilden. Säg exempelvis 2560x1440 aktiv yta med resten svarta kanter på 3840x2160-matris.

Av Laxpudding
Skrivet av pollyman:

Recensionerna jag läste där någon hade påpekat allt detta kring portarna osv var om en skärm med G-Sync ! Men amd freesync har inte detta med strypt hdmi alltså?

AMD Freesync har faktiskt inget alls med detta att göra.

Allt handlar om att skärmar med G-syncmodulen, som finns i kanske 100-talet modeller av flera tusen på marknaden sedan mitten av 10-talet, har en strypt HDMI. Dessa skärmen fungerar inte för 120 Hz över HDMI. Några modeller har varit väldigt populära och säljs nu billigt begagnade. Så en hel del användare trillar in i fällan fast dessa skärmar utgör en bråkdel av utbudet. De trodde de skulle få en billig 120 Hz-Xbox-skärm med en begagnad Asus PG279Q eller liknande. Men nej.

Av Laxpudding
Skrivet av pollyman:

Tack igen! Det blir en gamingskärm "tyvärr" även om jag förstår att man kan få schysstare bild på en tv men jag har en 4k tv hemma men tanken var att ha en liten nördhörna där jag även kan köra vissa spel med mus och tangentbord och då blir en typ 27" 1440p skärm nog rätt bra kanske. Får leta efter skärmar med 2.0 portar då! Antar att alla nyare skärmar har det oavsett:)

Japp, skiftet kom igång under 2015 och nyare skärmar. Undantag finns ju alltid men generellt inga problem idag. Men se upp med begagnat.

De enda moderna undantaget än skärmar med G-syncmodulen som endast har en DP och en HDMI. Där är HDMI:n strypt oavsett. Nvidia har väl hintat om att ändra på en del av detta med modulen, men jag har inte hört något om att detta omsätts i praktiken. Plus att skärmar med modulen ofta ligger påfallande högre i prisklass.

G-Sync Compatible däremot brukar fungera, men då använder de skärmarna heller inte nvidias modul.

Av Laxpudding
Skrivet av anon315148:

Ja, det vore bra att få se den i verkligheten och kanske få en egen uppfattning om hur reflektioner uppfattas. Annars verkar OLED hanterar reflektioner bättre än LCD/LED.

Återigen: "LCD/LED" - kan vara vilket sabla reflexfilter som helst. Det är inte paneltekniken som bestämmer detta utan den enskilda produkten.

C2 är ljusstarkare än A2 och det är mätbart men inte alltid synbart i praktiska förhållanden. Ljusstyrka upplevs logaritmiskt så det måste vara stora skillnader för att märkas av. Plus detta med att ljusstyrka är som en volymkontroll. Tillräckligt är tillräckligt. Det sak samma om A2 har en SDR-peak på 300 och C2 en peak 370 nits ifall 200 nits är allt man behöver.

Med det skrivet: finner du en C2 för samma pris som A2 är det givet vilken man väljer.

Av Laxpudding
Skrivet av pollyman:

Får bli en 1440p spelskärm, du som verkar ha koll på läget läste igenom lite recensioner och där skrev folk något om "DisplayPorts" och att 1440p spelskärmar inte kan köra mer än 60hz trots stöd för 120hz+ med en Xbox Series X alltså. Låter konstigt dock och jag hittar inte mycket vettig info om det!

Sprids många missuppfattningar baserat på gamla skärmars beteenden och fel pryl i fel sammanhang.

Xbox Series X klarar 4K/120 över HDMI. Displayport är inte aktuellt för en Xbox. Man kan köpa dyra signalomvandlare för att koppla Xboxens HDMI till DP på en spelskärm, men det är dyra pengar för fel situation som ofta dras med andra nackdelar. Bättre att välja rätt skärm från början när man ändå är där.

Man kopplar Xbox Series X direkt på HDMI på en spelskärm och då måste det vara den port som klarar högre bandbredd, ofta märkt "2.0". Då är 1440p/120 en möjlig signal. Om inte är gränsen 1440p/60. Så det kan vara information från någon som kopplat till fel HDMI på skärmen eller kör en gammal skärm som har sämre HDMI-portar. Nyare spelskärmar ska klara en Series X och kunna köra 120 Hz och en del går även ut med information om den kompatibiliteten mot just Xboxen.

Ifall du ska ha skärmen till en Xbox Series X och inget annat är en bättre TV att alltid föredra. Kvaliteten är så mycket bättre, särskilt vid HDR. En bildskärm använder du främst om det är storleken som måste vara mindre och skrivbordsvänglig, ifall du vill kombinera PC och Xbox på samma skärm men också att man kanske inte har pengarna till exempelvis en LG 42C2 eller Samsung 43QN90B.

Av Laxpudding

Ifall Input Signal Plus *INTE* är aktiverad, så kommer EDID beskriva 4K/60 som högsta möjliga signal. FRL och DSC kommer inte beskrivas. Man kan normalt inte ens välja 4K/120 i inställningarna som följd.

Informationen vid pilarna saknas om man *INTE* aktiverat Input Signal Plus

https://cdn.sweclockers.com/artikel/bild/105828?l=eyJyZXNvdXJjZS...

Detta från min artikel om Samsung TV som PC-skärm: https://www.sweclockers.com/artikel/35091-guide-samsungs-tv-s...

Detta är EDID när man kör med Input Signal Plus: OFF – eller icke fylld cirkel i TV:ns gränssnitt.

Notera att information om FRL och DSC är borta, liksom att rekommenderad timing är 4K/30 Hz. Grafikkortet får aldrig information om att högre bandbredd är möjligt. Då ska de försvinna från inställningarna i datorn, men man kan inte vara helt säker.

Om man kan få till PC: 3840x2160, 120 Hz, 10 bitar och RGB-signal i grafikkortets inställningar är det ett tecken på att Input Signal Plus är aktiverad. Rätt EDID når GPU:n så att den signalen kan väljas i Nvidia Controlpanel etc. Kommer bilden i vilket fall inte fram, "no signal", är det ett tecken på att kabeln inte är tillräckligt bra.

Om man då testar med fler kablar och flera Ultra High Speed-certifierade kablar och ändå får problemet är det ett tecken på att det inte fungerar till 100 procent på kretsnivå mellan sink och source. Där har då AOC-kablar en teknisk fördel med att de re-clockar signalen i sink-änden och tar hand om transporten.

Min erfarenhet baserat på egna försök men också forumdiskussioner som dessa, är att det är lite YMMV med Nvidia-kort och passiva kablar. Inte bara för Samsung. Jag får som skrivet det att fungera med alla Samsung med mitt 3080Ti och en UHS-certad AOC-kabel på 10 meter. Men det är ändå lite wonky med Samsung. Återkommande "no signal", Input Signal Plus stänger av sig själv och jag måste dra kabeln in och ut regelbundet.

När jag dragit ut kabeln brukar Input Signal Plus stängas av. Då måste man aktivera det igen på nytt. Finns då en möjlighet att GPU/Windows fortfarande har en buffrad EDID som tror att FRL/40Gbps etc. fungerar, så att 4K/120-alternativen syns i menyer, medan Samsungen vägrar ta emot den signalen.

Andra TV-tillverkare, specifikt LG och Panasonic (on top of my head) har samarbetat med Nvidia och därför säkrat funktionen den vägen.

----

Jag bara nördpostulerar här men detta är inget nytt med Nvidia-kort. Liknande problem förekommer med bildskärmar där det pekas på olika klocktoleranser runt signalens mellan sink och source. Nvidia generellt större toleranser medan TV:n och bildskärmens kretsar kan ha snävare toleranser. Den tillverkaren som går till Nvidia och säkrar funktionen, likt G-Sync Compatible, etc. lär antagligen styra upp toleransnivåerna. Andra tillverkare gör det inte och det kan finnas diverse olika skäl bakom, med detta blir off topic rätt snabbt...

Vad en AOC-kabel gör är just detta med klockningen av signalen. Det är inte längre source (nvidia-GPU:n) som styr klockningen mot TV:n utan AOC-kabelns egna kretsar. Re-clock direkt i den opto-elektriska omvandlingen vilket sker i den bokstavliga HDMI-kontakten som sitter i själva TV:n.

Vet inte ifall AOC är den definitiva lösningen. Men det vore trevligt att få det bekräftat med lite fler Nvidia-kort än mitt eget.

Av Laxpudding
Skrivet av qaza:

Tack för svaret!
dp-kabeln är inte problemet då jag precis testade en annan dp-kabel samt en hdmi 2.1 kabel vilket visa samma problem.
Har testat ett x antal olika drivrutiner mellan 536.09 (senaste hotfix) till 522.25 och alla har haft samma problem vilket gör mig osäker på om problemet ligger hos nvidias drivrutiner. Testade göra en custom res i nvidia med min native res samt 290hz och problemet är då borta men min hz är låst till 144 i csgo. testade även göra samma sak i CRU men då är problemet tillbaka och min hz är fortfarande låst till 144 i csgo. Vet du möjligtvis vad som kan vara problemet till detta? Kan även tillägga denna information som står i skärmens OSD "h/v frequency h:459khz v:300hz", jag antar att h freq är Horisontell frekvens och på produktsidan så står det att den ska vara "470 kHz - Visningsport (displayport)". Kan detta möjligtvis vara grunden till felet och finns det isåfall någon lösning på att höja h freq eller liknande?

Frekvenssiffrorna du ser är bara en omräkning av den aktiva signalens yta + front/back porch och blankning. Ett resultat av den signaltiming GPU och skärm kommer fram till. Gör du en annan custom resolution med andra parametrar blir det andra frekvenser.

Annars har du felsökt rätt bra, bytt drivrutiner och kablar. Återstår att testa med annan GPU eller källa som kan nå samma frekvenser vilket inte är lika lätt förstås. Min gissning är att du får 300 Hz problemfritt med ett modern AMD-kort medan det är YMMV med Nvidia-kort.

CSGO är alltid speciellt. Poppar alltid upp i de här frågorna. Jag kan för lite om mjuvaran, men förmodar att CSGO i högre grad styrs av konfigurationsfiler och egna parametrar som ställer om det till vid en viss signaltiming. Så man måste grotta ned sig i CSGO specifikt där. Men det kan också vara något man adderat själv.

Typexemplet på situationen är att man vid något tillfälle kliver in fil och ändrar parametrar om signaltiming via någon tutorial eller tips man läser på ett forum. Med åren glömmer man bort att ändringen är utförd och det blir krångel med ett nytt grafikkort eftersom ändringen man gjorde (och glömde bort) hanterade problem som inträffade med den gamla hårdvaran med dåtidens drivrutiner och dåtidens CSGO-version.

Av Laxpudding

Risken med statiska element, likt Spotify-klienter, är fortfarande knuten till den ljusstyrka man kör. Håller man "Peak Brightness" på Off-läge och kör OLED-panelen i sitt mest energikonservativa läge kör den aldrig över 200 nits – och så klart mindre – vilket fortfarande är mer än väl för att hålla ett funktionellt gränssnitt i ett ljust rum. Detta utan att anstränga panelen på sådant sätt som leder till ojämnheter några år senare.

Spotify-klienter etc. är en användning av samma karaktär som skval-TV-funktionen. Det är mycket bildkvalitet i en OLED för en funktion som inte alls har med bildkvalitet att göra, likt gränssnittet och lite album-art på Spotify-klienten. En enklare TV fungerar därför lika bra för det ändamålet.

The Frame får för övrigt ett bättre filter på 2023 där det är mindre av de matta filtrens akilleshäl med att filtret återspeglar den generella ljusnivån som en hinna över bilden. Och det är en TV byggd för att gå i bakgrunden. Men den har ju inte alls bildkvaliteten när det kommer till det aktiva tittandet av film och TV-serier där bildkvalitet börjar spela roll. Så en annan sorts kaka.

Av Laxpudding

Jag har Sony X85K framme just nu för att slötittande innan den ska tillbaka efter test. Precis kört Samsung S90C innan. Har en 42C2 som bildskärm och referenspunkt. X85K och motsvarande är inte dåliga på något sätt. Bara chanslösa mot en OLED när kvällen kommer och rummets belysning dämpas. När det är tidigare på sommardagen har X85K lite mer muskler men man kommer aldrig ifrån att mycket mer av det ljusa rummet samtidigt reflekteras i det sämre filtret. Först på X95- och QN95-nivån man kan börja tänka i termer av att äta kakan och ändå behålla den med en LCD.

Av Laxpudding
Skrivet av anon315148:

Svårt att hitta jämförelse med just LG A2 men kollade lite på OLED vs. LED/LCD.

Här tyckte jag minst om X95K faktiskt och mest om A90J, vilket jag sen förstod berodde på att den var kalibrerad men inte A95K. Intressant vilken påverkan det kan ha.
https://youtu.be/R5WgrxZJnCM

Här jämförs en LG G1 med en Samsung QLED:
https://www.youtube.com/watch?v=R4QJBkjns7k

Kan absolut se att Samsung är ljusare men det är inte riktigt mitt problem skulle jag säga. Att det inte är ljust nog. Jag stör mig mycket mer på reflektioner då det är väldigt distraherande.

Även om dessa är dyrare modeller så tänker jag att de speglar skillnaden mellan OLED och LED/LCD? @Laxpudding I så fall tror jag kanske att jag vore mer nöjd med OLED. Ljusstyrkan skrämmer mig inte mer än reflektioner (tvärtom) och just ljusinsläpp är ju ändå möjligt att påverka. Black crush var det enda som skrämde mig lite men det verkar inte omöjligt att påverka heller och frågan är om det inte är mer hanterbart än dåliga vinklar på VA-panel. Kan ju säga att jag avskyr TN-panel vilket jag antar är värre än VA-panel förstås men upplever det obrukbart när de satt på en laptop, ett himla joxande fram och tillbaka för att kunna se ordentligt.

Detta är den ständig misstolkningen med OLED vs. LCD. Det handlar inte om teknikjämförelser, utan om produktjämförelser. Samsung QN90B kan bara tala för QN90B. Sony X95K kan bara tala för Sony X95K och så vidare. Det kan finnas mycket gemensamt men ingen är någon representant för "LCD/LED". En bra LCD kan effektivt fungera lika bra som en OLED i ungefär samma situationer. Andra LCD-modeller kan inte alls göra detta. Sony X85K överlappar bara delvis med vad en OLED kan. Nyckeln är därför att förstå de olika produkterna. Tekniken bakom är närmast sekundär egentligen.

Det går inte att filma av en TV och visa på youtube hur enskilda modeller skiljer sig åt. Man kan endast illustrera och förtydliga skillnader och för att lyckas med det måste apparaterna vara inställa på samma sätt, vilket inte alltid är möjligt. Kommer alltid finnas något som skevar alla former av absoluta jämförelser via kamera. Inte minst kameran själv och bara det enkla faktum att skärmen man ser videon igenom i sin tur påverkar.

Det är därför mätningar är viktigt i tester. Dessa dra alltid med nackdelen att det blir mer abstrakt gentemot läsaren/tittaren.

Av Laxpudding

Black Level-reglaget är att välja mellan dator (0-255) eller videoomfång (16–235). Matchas det fel mot källans nivåer blir det supertydlig black crush eller tvärtom alldeles för lyfta nivåer med gråblaskig bild. Sådant märks väldigt tydligt.

På LG:s reglage brukar man märka att en felmatchning är på plats genom att svartnivå-reglaget (som heter olika varje år) hamnar på ≈30 eller ≈70+ där ett rätt matchning landar på 50–55+ beroende på exemplarets tendens att klippa nivåerna. Vilket då kan ändras efter en panel refresh.

Av Laxpudding
Skrivet av Necrophor:

Går man efter Rtings är Sonyn bättre på att visa detaljer i mörka scener om man kikar på film, där ger de A2:an chockerande dåligt betyg faktiskt: 5/10 gällande "Black Crush".

Jag ser två problem här: Första är med rtings överlag och hur deras betyg ofta övertolkas. Rtings betyg uppfattas ofta som absoluta och oberoende paramatrerar eftersom rtings presenterar dem som att så är fallet. De är det inte (se nedan). Verkligheten är dessutom mycket mer komplex och samverkande och där är rtings inte de bästa på att förmedla hur allt hänger ihop.

Problem två är själva bilderna som speglar flera problem:

Sony X85

https://i.rtings.com/assets/products/zYAQ7nGY/sony-x85k/black-cr...

LG A2

https://i.rtings.com/assets/products/UWkoIdX3/lg-a2-oled/black-c...

Notera att himlen på A2-bilden generellt också är mörkare trots att bildinformationen i himlen pekar mot närmare 40–50% gråton. Det tyder på att kameraexponeringen inte är rätt utförd eller inkonsekvent. Eller att man fotat av icke-kalibrerade läge eller på annat sätt icke likvärdiga lägen. Det är lite oklart. Bara en bild och inte så mycket sammanhang.

Bildernas tonalitet speglar annars rätt mycket kurvorna på Gamma log/log-mätningarna under pre-calibrations segmentet, men det kan ju vara sammanträffande.

Det är så mycket som kan gå fel när man försöker skapa absoluta jämförelser med jpeg-bilder. Jag använder ofta foton för att illustrera och påvisa relativa skillnader, men inte mer än så. Kameror, jpeg-format och skärmarna man använder är för begränsade. Det är för många faktorer inblandade för att kunna ge absoluta jämförelser den vägen.

Med LCD-paneler kommer brännvidden hos optiken påverka hur ljuset fångas upp. Generellt är att ju lägre brännvidd, desto mer av ljuset fångas av kameran. Man kan plåta samma skärm på olika brännvidder och det påverkar ljuset man fångar med kameran. Har exempel på detta (andra och tredje slideshowen) med en vanligt förekommande IPS-panel och det blir större skillnader med VA pga vinklarna.: https://www.sweclockers.com/test/28732-lg-ultragear-27gl850-f...

Rtings är i alla fall tydliga under frågetecknet för Black Crush-bilderna att detta är Score components:Subjectively assigned. Vilket också kommer tillbaka till det som är problem nr1: rtings blandar sin subjektiva omdömen med sina objektiva omdömen.

Rtings är bra. Däremot måste man vara alert som läsare.

----

Sony har generellt bättre kontroll över nyanseringen. De är ofta rätt ur kartong. Väldigt sällan jag behöver justera reglagen på en Sony för att ändra ankringen av svart till både synliga och mätbart korrekta nivåer. Konsekvens är Sonys styrka.

Med LG:s OLED kan man, beroende på exemplar, behöva kompromissa en del med reglaget som påverkar nivån av svart. Det kan också variera med var TV:n är i sin OLED-refresh-cykel. Typiskt är att innan en refresh-cykel är gjord så klipper den ännu mer mot svart. Mindre efter en första refresh. Och det går ofta att få bort de mest distinkta problemen även med dåliga exemplar.

Verklighetens komplexitet är däremot något annat: Har man dem jämte varandra är det tydligt att en Sony X85K – och motsvarande nivå hos konkurrenter – bygger bilden mot en mörkblå kanvas. Som i ett ljust rum bygger mot mörkblått+det ljus som reflekteras i det betydligt sämre filtret. Plus att det är en VA-panel där det räcker mer 10–15 graders förändring och bilden lyfter svartnivåerna och skuggtoner mot ljusare nyanser på ett sätt som mjölkar ut kontrastintrycket. Räcker alltså med att man lutar sig mot armstödet i soffan för att det istället blir för ljusa skuggtoner

OLED:n bygger bilden mot en svart kanvas och det håller sin svärta längre i takt med att omgivningsljuset ökar. Och den är lika svart oavsett vinkel. Även om man råkar ha en rätt dåligt exemplar som klipper mot svart kommer skuggtoner fortfarande baseras på att de träder fram ur en svärta.

Så ja, man kanske undviker black crush i högre grad på en X85K. Men då till priset att svart snarare är mörkblått, plus omgivningsljus, plus din vinkel som snarare gör skuggtonerna för ljusa. Ämnet är komplext.

Av Laxpudding
Skrivet av anon315148:

Angående att köra max ljusstyrka hela dagarna på en OLED-TV, är det något jag kan styra över? Alltså ljusstyrkan.

Ja, du kan påverka ljusstyrkan på en TV. Numera heter reglaget, på de flesta TV: ----drumroll---- Ljusstyrka!

Kruxet är komplexiteten med olika reglage som samverkar. Dock gör EU-regler att en TV ur kartong sällan är särskilt ljusstark pga energiregler. Man måste aktivt själv kliva in och ändra på menyreglage som påverkar ljusstyrkan, likt energisparlägen och ljussensor, för att ens nå högsta möjliga nivå.

Citat:

Vad menar du med "skval-TV"?

https://sv.wiktionary.org/wiki/skval

Dvs, en TV som bara stå på i bakgrunden och skvala hela dagen. Vissa vill ha det så. Då är OLED den mindre lämpliga tekniken.

Angående inbränningar: Plasma (och CRT) var mycket känsligare för olika former av inbränningar. Dels tekniskt, dels pga av frånvaron av olika skyddsmekanismer. Det är magnutider fler som diskuterar OLED-inbränningar som om det vore ett faktum än vad det är personer fått problem med faktiska inbränningar.

Lyssna på dig själv: Du är orolig för någonting som du aldrig upplevde med din gamla TV, trots att den tekniken är känsligare. Är det dessutom din 15 år gamla plasma du jämför med är den hopplöst efter i fråga om ljusstyrka jämfört med OLED A2. Ändå funderar du ifall låg ljusstyrka är ett problem med OLED.

Av Laxpudding

Är du ute efter bildkvalitet när du spelar: En TV i topp- och rent av mellanklass är då överlägsen en spelskärm.

Dolby Vision och liknande får du inte på datorskärmar. I den mån det finns HDR av vettig nivå, likt de mer påkostade datorskärmar är deras HDR i tekniskt hänseende en 7–8 år efter TV-apparaterna. Man får den halvhjärtade HDR tillverkaren stoppar in och det saknas ofta möjlighet att korrigera felen i HDR-bilden, till exempel felaktiga tonkurvor. Där är TV-tillverkarna också överlägsna med funktioner.

Annars har alla spelskärmar "låg ms" om du med "låg ms" menar låg latens. Finns inga spelskärmar med 100+ Hz som har någon betydande latens längre. Det har inte spelläget hos moderna TV heller. Så gott som alla stora märken är under 10 ms latens

Ifall du med "låg ms" menar minimala eftersläp så är det generellt ett råd att undvika VA-paneler hos bildskärmar eller åtminstone verifiera med tester att en viss VA-panel har kontroll över eftersläpen. Detta är främst ett problem hos de billigaste spelskärmarna som håller sig med VA-paneler av sämre kvalitet.

Vill du ha något som är överlägset, inga eftersläp, låga latenser och högsta bildkvalitet: då tar du en OLED-TV.