LG presenterar sin mest ljusstarka OLED-panel hittills

Permalänk
Melding Plague

LG presenterar sin mest ljusstarka OLED-panel hittills

Enligt LG Display är det den första OLED-panelen som når upp till 4 000 nits.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Alltså.. om vi utgår från vad som sägs var gång det kommer nya tv modeller så borde vi kunna se in femte dimensionen nu.
För det är jäklar vad mycket bättre var ny modell är. Köp köp köp.. imponera på kompisarna, ta ett lån, ta ett till, bah köp dom.

Visa signatur

CPU: I9 10900KF -Kylare: Arctic Freezer 360 - Moderkort: ASRock Velozita Z590 PG.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3466 MHz Ballistix Elite. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

Najs! Blir spännande att se hur dessa paneler presterar - det ser onekligen lovande ut.

Permalänk
Medlem

Bara börja spara till black friday😅

Ser dock inte vitsen med AI, kommer inte ansluta tv:n till internet.

Permalänk
Medlem

hlp. LG kan snart lysa upp hela kvarteret.

Permalänk
Medlem

Vill inte ha mer ljusstyrka, det är bara jobbigt för ögonen

Permalänk
Medlem

Nice, då kan man äntligen använda solglasögon inomhus utan att folk tittar konstigt på en.

Visa signatur

Akashiro 0.9: Ryzen 5 7600, Radeon RX 7800XT Pure: 64/2000
https://podcasters.spotify.com/pod/show/thomaseron

Permalänk
Officiell jultomte

Köpte nyligen en TCL i medelklass där jag fick sänka ljusstyrkan till ~15% även i dagsljus, från fabrik var den på 100% och då var det huvudvärk och ont i ögonen i stort sett omöjligt att se något.
Förstår alltså inte varför man ska ha så extremt mycket ljusstyrka.

Visa signatur

PC1: i5-13600kf, 32gb DDR5@6000MHz, GTX 1080, Prime Z690-A
PC2: Ryzen 5 5600X, 16GB DDR4, GTX 1070Ti, ROG STRIX B550-F
SRV1: i5 10500T, 16GB DDR4, Debian
Home Assistant-tråden | Stryktipset

Permalänk
Medlem
Skrivet av Eismannen:

Vill inte ha mer ljusstyrka, det är bara jobbigt för ögonen

Håller med, blir väl solbrillor och solkräm snart🤣🤣

Permalänk
Medlem

Låter riktigt trevligt! Känns som att panelerna börjar bli tillräckligt bra nu för att kunna motivera en uppgradering av min LG CX

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem

AI-TV? Nope, nej tack.

Undrar hur mätningen är gjord, om det är konstant över hela panelen som avses eller att en liten yta kan bli extremt ljusstark över kortare tid.

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk
Medlem

Tråkigt att dom går åt det här hållet istället för att få tekniken billigare..

Visa signatur

here we go!

Permalänk
Hedersmedlem
Skrivet av sniglom:

AI-TV? Nope, nej tack.

Undrar hur mätningen är gjord, om det är konstant över hela panelen som avses eller att en liten yta kan bli extremt ljusstark över kortare tid.

3% window, dvs 3% av ytan. Men även full-field lär ju bli bättre.
Få vill nog ha 4000 nits över hela skärmen, om man inte sitter med TV:n utomhus mitt i solen eller något...

Ökad maxljusstyrka bör väl också leda till mindre inbränningsrisk när man driver panelen försiktigare. Klarar den 200 nits APL och man kör 150 så är man ganska nära, till skillnad från om den klarar 600 och man kör 150.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Moseby:

Köpte nyligen en TCL i medelklass där jag fick sänka ljusstyrkan till ~15% även i dagsljus, från fabrik var den på 100% och då var det huvudvärk och ont i ögonen i stort sett omöjligt att se något.
Förstår alltså inte varför man ska ha så extremt mycket ljusstyrka.

Det här är ständigt återkommande och svaret är helt enkelt HDR.

Permalänk
Medlem
Skrivet av DasIch:

Det här är ständigt återkommande och svaret är helt enkelt HDR.

Men varför vill man ha hdr då? Om det bara resulterar i att man får ont i ögonen
Eller löser hdr ögon-ontet på något sätt, trots hög ljusstyrka?

Permalänk
Medlem

Just OLED är känt för att inte riktigt kunna konkurrera med LED/minLED när det kommer till ljusstyrka så det är välkommet.
Får hoppas på att C5 också lyckas åstadkomma ett hopp i ljusstyrka jämfört med C4, oftast C-serien jag själv köper.

Visa signatur

|AMD Ryzen 7 9800X3D| |ASrock B850 Steel Legend| |Kingston Fury Beast 32GB CL30@6000MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |NZXT C1200 Gold ATX 3.1| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Hedersmedlem
Skrivet av Eismannen:

Men varför vill man ha hdr då? Om det bara resulterar i att man får ont i ögonen
Eller löser hdr ögon-ontet på något sätt, trots hög ljusstyrka?

Om du kör hög ljusstyrka med SDR så blir allting ljusare.
Om du kör HDR med hög ljusstyrka så blir bara de element som ska vara ljusa ljusare, eftersom scener mastras till en viss ljusstyrka. Om en mörk scen är omkring 1 nit i genomsnitt på en ljussvag TV så kommer den vara omkring 1 nit på en ljusstark TV också. Skillnaderna kommer främst när det är väldigt ljusa element.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Bildexpert 📺

Högre ljusstyrka så som det utvecklas här har flera fördelar även om man inte har behovet av att bränna på med galet mycket ljus.

Det blir mindre energiåtgång om man skulle räkna ljusflöde per watt, vilket är en långsiktigt gynnande utveckling. Skulle man ta ett mer extremt exempel med en plasma eller CRT och försöka skala upp dessa till dagens ljusstyrka och storlekar skulle dessa gamla tekniker förmodligen behöva något i stil med trefas. Panasonics 103-tumsplasma TH-103PF12U (2007) specades till normaldrift på 1400 W för vad som kanske är enstaka stunder når ≈150 nits. Här har det ju hänt saker om man säger så.

En panel som kan lysa starkare kan också fördela energin med större marginaler, likt att hålla en högre kontinuerlig nivå med en högre lägastanivå utan att tvingas sänka och pendla i nivåer lika mycket. Detta är extra tydligt i HDR.

Även bild- och färgmässigt är högre ljusstyrka en fördel. Det som är WOLED-teknikens svaghet är för svag luminans (alltså ljusstyrka) i mättade färger. Enda sättet att få högre luminans är då att lysa på med den vita subpixeln. Eftersom vitt ljus = R+G+B kommer detta då att minska mättnaden i färgerna. Ju mer luminans panelerna kan få ut ur RGB-subpixlarna desto mer kan panelen hålla färgerna intakta.

Permalänk
Medlem
Skrivet av Thomas:

Om du kör hög ljusstyrka med SDR så blir allting ljusare.
Om du kör HDR med hög ljusstyrka så blir bara de element som ska vara ljusa ljusare, eftersom scener mastras till en viss ljusstyrka. Om en mörk scen är omkring 1 nit i genomsnitt på en ljussvag TV så kommer den vara omkring 1 nit på en ljusstark TV också. Skillnaderna kommer främst när det är väldigt ljusa element.

Precis, de ljusa sakerna poppar verkligen istället för att allt som ska vara mörkt bara trycks upp.

Därför jag också ogillar Dynamic Tone Mapping, allt pressas upp för att poppa, och det som då verkligen ska poppa gör inte det på samma vis. Ser väldigt bra ut kosmetiskt generellt men ögonen vänjer sig fort.

Gör sig bäst i mörkare rum dock att köra utan.

Permalänk
Medlem
Skrivet av Eismannen:

Men varför vill man ha hdr då? Om det bara resulterar i att man får ont i ögonen
Eller löser hdr ögon-ontet på något sätt, trots hög ljusstyrka?

Den genomsnittliga ljusstyrkan är inte i närheten av några 4000 nits. Inte ens 1000 nits.

Omgivningsljuset en solig dag kan vara runt 10 000 nits. Högdagar kan nå 100 000 nits. Att stirra rakt in i solen är väldigt väldigt mycket mer.

Så vad du kan få, bland annat, med högre ljusstyrka på skärmen är helt enkelt en mer naturtrogen rendering av bilden. Det skulle kunna liknas vid skillnaden att titta på en vanlig skärm och att titta ut genom fönstret. Sen är det förstås beroende av hur materialet är mastrat.

En annan aspekt är att med högre ljusstyrka behöves inte lika mycket tonmappning för att bilden ska se bra ut. Ljusa scener i HDR kan se mer ut som de är tänkta.

Permalänk
Medlem

Den nya panelen har också större omfång i Rec.2020, från 75% till 83% enligt HDTVTest.

Hoppas dessa 4stack paneler dyker upp i C-serien nästa år när produktionen kan skalas upp. De görs ju redan nu i 48-83”.

Visa signatur

f0rest stan | Citera mera | 5800x, 6700 XT

Permalänk
Medlem
Skrivet av SCORPIUS:

Alltså.. om vi utgår från vad som sägs var gång det kommer nya tv modeller så borde vi kunna se in femte dimensionen nu.
För det är jäklar vad mycket bättre var ny modell är. Köp köp köp.. imponera på kompisarna, ta ett lån, ta ett till, bah köp dom.

Köpte en Philips 55" 1080p för runt 12k 2012 och en Sony 75" 4k (jag ville ha en OLED men sambon sa att 65" var för litet) för runt 15k 2022 båda var reapriser, så ungefär samma segment och skillnaden mellan de två är enorm. Vad gäller bättre färger, ljusstyrka, eftersläpningar mm. OS tänker jag inte ens gå in på nu går det ju faktiskt att använda TVns inbyggda.

Sen händer det ju inget fantastiskt mellan varje generation men utvecklingen går fortfarande rätt fort framåt.

Sen får vi se om MicroLED kan krypa ner i pris och storlek någon gång.

Permalänk
Medlem

4000 nits? Hur många watt drar den undrar man ju då.

Permalänk
Bildexpert 📺
Skrivet av Chibariku:

Sen får vi se om MicroLED kan krypa ner i pris och storlek någon gång.

Nävär gonna häppen.

Jag tror inget eller väldigt få idag hade talat om Micro LED om det inte vore för Samsungs Hype på CES 2019 (ja, det är så länge sedan nu) när de inte så mycket annat att visa upp. För tekniken var ju inte ens ny redan då.

MicroLED och snarlika varianter finns i ett sedan länge etablerat segmentet för gigantiska displayväggar för flera miljoner kronor. Det är ett segment med låga volymer och stor ekonomisk avkastning per såld pixel. Där trivs tillverkare och fabrikatörer rätt bra. Finns inget som senaste åren tyder på att det utvecklas mot stora volymer och massmarknad som krävs för 65-tums TV-apparater. Eller att det ens är möjligt att skala tillverkningen så. Mest lovande utvecklingen för Micro LED till "folket" verkar vara på andra änden av skalan som displayer i AR- och VR-headset, fast det är ett segment jag inte aktivt följer.

Micro-LED tillgängligt som en vanlig TV du kan köpa hos El-genanten är en fantasiprodukt. Fantasier har egenskapen att de alltid vinner alla jämförelser med verkligheten. Fantasier drar också bort uppmärksamheten från det som faktiskt finns. Till exempel just nu, när det sker förbättringar på OLED-tekniken varje år och man sitter ändå och väntar på fantasiprodukterna.

Permalänk
Medlem

Nu börjar det hända grejer kanske blir min nästa tv, tittar ofta i ljust vardagsrum - måste stänga alla gardiner nu, inte alltid det är så kul

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem

Najs, när four stack letar sig ner till C-serien blir det att pensionera CX:en.

Visa signatur

CPU AMD Ryzen 7 7800X3D per-core CO + 2133 MHz FCLK GPU Sapphire RX 7900 XT Pulse OC
RAM Corsair 2x16GB 6000 MT/s CL30 Hynix BZ subtimings MB ASUS ROG Strix B650E-F Gaming WIFI
SSD Kingston KC3000 2TB Ljud Creative AE-5 Plus PSU Corsair RM850x NAS Synology DS423+

Permalänk
Medlem

Tycker att min G3 65" har fullt tillräcklig ljusstyrka.

Visa signatur

ASUS K7M, AMD Athlon 1000 MHz Slot A, 3dfx Voodoo5 5500 64 MB AGP, 512 MB SDRAM @ CL 2-2-2-5, Cooler Master ATC-100-SX Aluminum Mid Tower.

Permalänk
Medlem
Skrivet av Laxpudding:

Nävär gonna häppen.

Jag tror inget eller väldigt få idag hade talat om Micro LED om det inte vore för Samsungs Hype på CES 2019 (ja, det är så länge sedan nu) när de inte så mycket annat att visa upp. För tekniken var ju inte ens ny redan då.

MicroLED och snarlika varianter finns i ett sedan länge etablerat segmentet för gigantiska displayväggar för flera miljoner kronor. Det är ett segment med låga volymer och stor ekonomisk avkastning per såld pixel. Där trivs tillverkare och fabrikatörer rätt bra. Finns inget som senaste åren tyder på att det utvecklas mot stora volymer och massmarknad som krävs för 65-tums TV-apparater. Eller att det ens är möjligt att skala tillverkningen så. Mest lovande utvecklingen för Micro LED till "folket" verkar vara på andra änden av skalan som displayer i AR- och VR-headset, fast det är ett segment jag inte aktivt följer.

Micro-LED tillgängligt som en vanlig TV du kan köpa hos El-genanten är en fantasiprodukt. Fantasier har egenskapen att de alltid vinner alla jämförelser med verkligheten. Fantasier drar också bort uppmärksamheten från det som faktiskt finns. Till exempel just nu, när det sker förbättringar på OLED-tekniken varje år och man sitter ändå och väntar på fantasiprodukterna.

Nej ner mot 65" lär vi nog inte komma men kanske ner mot 100". Min lilla förhoppning är ändå att det ska vara möjligt till näst-nästa tv-byte som i min nuvarande takt lär bli om ca 20 år. Nästa byte siktar jag på runt 100" OLED. måste bara flytta en dörr i vardagsrummet först så vi får plats 😅

Men det är ju mycket möjligt att OLED blir så bra att folk aldrig ser vinningen med microLED och vi fastnar i spiralen att det är för dyrt pga liten marknad och det förblir en liten marknad pga för dyrt.

microLED till VR skulle ju vara intressant men frågan är väl om man lyckas krympa dioderna tillräckligt mycket för det, vet inte vad de ligger på för storlek nu ska tilläggas.

Permalänk
Medlem

Trevligt 🙂 Jag är dock mer intresserad av när/om LG kommer erbjuda över 144hz inom en snart framtid.
Vore trevligt att byta ut 42C2 mot t ex 42C6 med 240hz refresh rate.

Visa signatur

Dator: Lian Li O11 Dynamic, R9 5900X, MSI X570 ACE, Corsair H150i Pro, G.Skill TridentZ@3733MhzCL16, ASUS RTX 3090 TUF OC, Firecuda 530 2TB, 990 Pro 2TB, Corsair RM850x.
Skärm: LG OLED 42C2

Permalänk
Medlem

"AI-TV" betyder att man måste koppla TVn till internet och spioneri. Undvik, NEJ, bara NEJ.

4000 nits ska man nog inte ha i en TV överhuvudtaget. Bilden ska vara behaglig för ögonen. Fattar inte besattheten med hög ljudstyrka, ska ni kolla på TV på stranden kanse?

Visa signatur

Moderkort: Gigabyte X570 AORUS MASTER rev 1.2 Processor: AMD Ryzen 7 5800X3D Kylning: Corsair be quiet! Dark Rock Pro 4 Minne: 32 GB Crucial Ballistix 3600 MHz Grafikkort: Sapphire NITRO+ Radeon RX 7900 XTX Hårddiskar: Corsair Force MP600 1TB M.2, Seagate BarraCuda 4TB 5400rpm Nätagg: Corsair RM850x V2 Chassi: Fractal Design Define 7 Compact Skärm: LG C3 77 tums TV