OLED-panelers intåg i spelskärmar ändrar kraven för G-Sync

Permalänk
Medlem
Skrivet av tvelander:

32", 4K, 16:10, 144Hz OLED, G-SYNC ULTIMATE, low bezel.
Ty gief

Lägg även till freesync så skulle jag få glädjetårar

Visa signatur

Chassie Louqe Ghost S1 MKIII Limestone, Moderkort Gigabyte B550I AORUS PRO AX, RAM minnen G.SKill Trident Z Neo RGB 32GB, CPU AMD Ryzen 7 5800X, KylareNoctua Ghost S1 Edition, GPU Powercolor Radeon RX 6800 16GB, Systemdisk Samsung 970 EVO Plus series 500GB M.2, Sel/programdisk SSD 2x Samsung 850 EVO 120/500 GB, PSU Corsair sf750w, Skärm Samsung c32hg70 144hz,Mus Logitech g603 wireless gamingmouse, Tangentbord Logitech g613 wireless gaming keyboard

Permalänk
Bildexpert
Skrivet av Ecchi-BANZAII!!!:

HDR är "blaj" (nice ord) precis som "4K" vilket endast är UHD, och inte äkta 4K ( 4096x2304 16:9 / 4096x2560 16:10 / 4096x3072 4:3 etc)

Enligt både BT.601 och BT.709 kan motsv ”1K” innebära en upplösning om 960 pixlar i horisontellt led samt multipliceras utefter det. Utöver det så är också DCI-standarden lite svajig, då 1.85:1 aldrig får 2048 eller 4096 pixlars bredd utan 1998/3996.

Mao är 2K, 4K etc ungefärliga och syftar inte på absoluta upplösningar. Men jag håller med om att det blir konstigt när begreppen används för t.ex. skärmar med 2560x1440-panel. Att HDR skulle vara blaj är väl dina ord, fast det är klart att det är en stor skillnad på HDR i film och i grafik.

Är helt ense med dig om färgdjup, men specifikt Adobe RGB behöver du ju bara om du jobbar med tryck. För grafiskt arbete duger sRGB utmärkt.

Permalänk
Medlem
Skrivet av Ecchi-BANZAII!!!:

Jag har redan 10-bit och nästa steg är väl kanske kontrast, men problemet med OLED är att deras ljusstyrka har svårt att komma upp i samma som LCD, medans deras svärta är enkelt eftersom individuella LED kan helt enkelt vara av och därmed #00000 (under rätt förhållanden).

Men för mig är det viktigaste just färgdjup.
Jag tar en ordentlig 10-bitars skärm med AdobeRGB över en "HDR/HDR10"
HDR är "blaj" (nice ord) precis som "4K" vilket endast är UHD, och inte äkta 4K ( 4096x2304 16:9 / 4096x2560 16:10 / 4096x3072 4:3 etc)
En annan sak som är ren idioti är att kalla 1440p/1600p för 2K.
Om de kallar 3840x2160 för 4K så borde 1920x1080 vara 2K, men vi vet att så är inte fallet eftersom 2K är 2048. (2048x1152 16:9 / 2048 1280 16:10 / 2048x1536 4:3 )
Samma med 4K2. Jag har inte sätt någon skärm med 4096x2048 2:1 skärm på marknaden för konsumenter.

Fast det ämnet hamnar på villospår.

4000x2000 borde väl vara 4K2K ändå i så fall, 4096 är snarare 4.1K, så det argumentet håller inte. Dessutom finns det ingen skärm menad för konsumenter som har menat något annat än UHD när de skriver 4K, så hela det här ämnet är över innan vi ens skriver dessa inlägg.

Tekniskt sett har absolut 4K betytt andra saker i andra sammanhang som bio-projektorer och annat, men inte inom konsumentelektronik. Dags att skrika in i kudden och bara acceptera läget som jag gjorde för några år sedan. Så länge ingen blir förvirrad så är det lugnt för mig.

Att kalla 2560x1440/1600 för 2K är däremot en styggelse. 1440p är ok tycker jag och få missförstånd, men 2K känns som fu säger helt fel. Dock är det väldigt sällan jag ser detta användas. Även 1440p kan ju misstolkas som 3440x1440, men ultrawide är fortfarande långt från dominerande så jag tror inte det är någon fara och nästan ingen använder det nog för denna upplösning

Permalänk
Medlem
Skrivet av ajp_anton:

Man argumenterar för att kantbelysning bjuder på enastående kontrast med lägre maximal ljusstyrka än vad man hade tidigare med FALD. Så bra att man går och sänker kraven på ljusstyrka som tidigare var satt enligt FALD. Hur låter inte detta som att kantbelyst är bättre än FALD? Ja, OLED är med där också, men kantbelyst används också i samma argument för att sänka kravet.

"While the original G-SYNC Ultimate displays were 1000 nits with FALD, the newest displays, like OLED, deliver infinite contrast with only 600-700 nits, and advanced multi-zone edge-lit displays offer remarkable contrast with 600-700 nits."

Mao, de menar att multi zone Edge LED och 600-700 nits är tillräckligt för att möta de (extremt luddiga) kontrastkrav de har för att förtjäna Ultimate märkningen.

Inte att det skulle vara bättre än FALD. Om vi leker med tanken att nån släpper en FALD som toppar på 700 nits så kommer den förstås oxå klara märkningen.

Permalänk
Medlem

*edit*
Känns helt rimligt att uppdatera detta tycker jag. OLED är ju med sin bättre kontrast bättre för HDR, de är ju ljusstarka nog för att man ska bli bländad ändå om man säger så.
*/edit*

Skrivet av landahl:

Är det inte bättre att vänta på 32", 4K, micro led? Inbränningar och kort livslängd är ingen höjdare.

Vill helst ha en ny skärm detta årtionde så nej, microLED är inte speciellt intressant att vänta på

Inbränningar som problem på OLED överdrivs ju grovt. Man måste ju aktivt misshandla skärmen under en lång tid och gärna med medvetet felaktiga inställningar för att det ska ske.

Lade till ett svar på själva nyheten överst
Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 6900XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Medlem

Jag tycker min 27" är i största laget, jag spelar mest RTS (Starcraft 2 lever!) och får veva runt huvudet nästan för mycket.

Men dessa 40"-apparater, som man ska ha på 1.5 meters avstånd, det kan väl knappast vara bra för tävlingsinriktade spel?

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem
Skrivet av superapan:

Jag tycker min 27" är i största laget, jag spelar mest RTS (Starcraft 2 lever!) och får veva runt huvudet nästan för mycket.

Men dessa 40"-apparater, som man ska ha på 1.5 meters avstånd, det kan väl knappast vara bra för tävlingsinriktade spel?

Jag hade som sagt min tv på mindre än en meter, precis som en vanlig skärm, blir bara som en större yta med samma pixeltäthet ungefär

Permalänk
Bildexpert 📺
Skrivet av dagas:

Jag har inte förstått poöngen med 1000 nit ändå. På mobilskärm är ljusstyrka viktigt för man kan vara ute i solen men man spelar oftast inte med direkt solljus på skärmen. Jag kör bara runt 100 nits på min datorskärm över det blir jag bländad. Djupare svärta är mer viktigt synd att oled är så dyrt.

En fullmåne på natten är 2 500 nits mot en omgivning som närmast kan beskrivas som nyanser av mörker. Ändå springer man inte runt och tycker ögonen bränner sönder. Och man kan urskilja omgivningen ganska bra trots en 2 500 nits i synfältet.

Tittar du rakt in i ett lysrör är det 10 000 nits och ganska obehagligt. Men det går att ha ett naket lysrör i synfältet och ända se nyanser av svart på kläder och inredning.

Det är dessa situationer man försöker efterlikna med 1 000 nits och mer. Små och starka ljuskällor på ett sätt som motsvarar vår perception av ljus. Inte att det tomma Excel-bladet ska lysa med 1 000 nits.

Permalänk
Medlem
Skrivet av Laxpudding:

En fullmåne på natten är 2 500 nits mot en omgivning som närmast kan beskrivas som nyanser av mörker. Ändå springer man inte runt och tycker ögonen bränner sönder. Och man kan urskilja omgivningen ganska bra trots en 2 500 nits i synfältet.

Tittar du rakt in i ett lysrör är det 10 000 nits och ganska obehagligt. Men det går att ha ett naket lysrör i synfältet och ända se nyanser av svart på kläder och inredning.

Det är dessa situationer man försöker efterlikna med 1 000 nits och mer. Små och starka ljuskällor på ett sätt som motsvarar vår perception av ljus. Inte att det tomma Excel-bladet ska lysa med 1 000 nits.

@dagas:

Ja precis, nits handlar om ljusstyrka per area, inte absolut ljusstyrka. En tv på 1000nits på 80” skickar ut 4 gånger mer ljus än en mindre tv på 40”. Detta även om de kör samma antal nits.

Så det handlar främst i en TVs fall att kunna lysa ljust på riktigt, gör man det i ett mörkt rum kan de ljusa partierna kännas ljusa som på dagen.

Antalet nits ändras inte heller med avstånd (vilket kan bli lite förvånande) men det förtydligar situationen tycker jag. 80” tv på 4m avstånd kommer upplevas som precis lika ljusstark som 40” TVn från exemplet ovan på 2m avstånd. Om de är på samma avstånd kommer varje fjärdedel av den stora vara lika stor i synfältet som 40” TVn, men fortfarande upplevas som lika ljusstark, dock på 4 gånger större yta. Det är detta som är fördelen med nits, att man kan ange en siffra som alltid betyder samma sak och inte är beroende av möblering hemma.

Dock ska det såklart sägas att hela sanningen inte ligger i nits, för i en mörkare miljö behövs inte lika mycket ljus för att göra en stor effekt.

Kontrast och möjlighet att driva korrekt gråskala över ett helt intervall är en annan sida av HDR. Generellt går OLED (mycket) djupare i svärta och har en sämre färgupplösning (färre gråtoner). Olika LCD-tekniker har mer ljusstyrka att tillgå, men också begränsad svärta på grund av ljusläckage, dock har de ofta mer färgupplösning.

Ingen teknik är perfekt är väl kardemumman, men nits måste man förstå för att det ska vara tydligt. En ficklampa eller lysrör eller vad som helst har ju ett visst värde i nits som inte ändras med avståndet, men ögat uppfattar ju inte en ljuskälla som lika intensiv när den flyttas längre bort. Men ögats möjlighet att urskilja färger i ljuset från ljuskällan är oförändrat med avståndet till den, det är vad hela detta inlägg handlar om

Permalänk
Medlem
Skrivet av medbor:

4000x2000 borde väl vara 4K2K ändå i så fall, 4096 är snarare 4.1K, så det argumentet håller inte. Dessutom finns det ingen skärm menad för konsumenter som har menat något annat än UHD när de skriver 4K, så hela det här ämnet är över innan vi ens skriver dessa inlägg.

Tekniskt sett har absolut 4K betytt andra saker i andra sammanhang som bio-projektorer och annat, men inte inom konsumentelektronik. Dags att skrika in i kudden och bara acceptera läget som jag gjorde för några år sedan. Så länge ingen blir förvirrad så är det lugnt för mig.

Att kalla 2560x1440/1600 för 2K är däremot en styggelse. 1440p är ok tycker jag och få missförstånd, men 2K känns som fu säger helt fel. Dock är det väldigt sällan jag ser detta användas. Även 1440p kan ju misstolkas som 3440x1440, men ultrawide är fortfarande långt från dominerande så jag tror inte det är någon fara och nästan ingen använder det nog för denna upplösning

Fast datorer lever ju i den här härliga binära världen där K står för 1024 o inte 1000.
Jag kommer iaf från grafikvärlden där jag pratade texturstorleker i K många år innan skärmstandarderna o vanliga människor började snacka om K, o där var alltid 1K 1024x1024, 2K 2048x2048 o 4K var 4096x4096 osv. Så när 4K helt plötsligt var 3840 så tyckte jag det var en konstig nerrundning i en datavärld där allting oftast är väldigt digitalt exakt. Men små felaktigheter kan ju bli standarder sålänge tillräckligt många går med på det. Så det är väl som det är, även fast det inte är helt korrekt

Permalänk
Medlem
Skrivet av Gurrrra:

Fast datorer lever ju i den här härliga binära världen där K står för 1024 o inte 1000.
Jag kommer iaf från grafikvärlden där jag pratade texturstorleker i K många år innan skärmstandarderna o vanliga människor började snacka om K, o där var alltid 1K 1024x1024, 2K 2048x2048 o 4K var 4096x4096 osv. Så när 4K helt plötsligt var 3840 så tyckte jag det var en konstig nerrundning i en datavärld där allting oftast är väldigt digitalt exakt. Men små felaktigheter kan ju bli standarder sålänge tillräckligt många går med på det. Så det är väl som det är, även fast det inte är helt korrekt

Men det börjar ju bli rejält fel när man avrundar 15360 till 16K i alla fall, då stämmer ju inte ens siffran längre, så vi får se hur långt det dras.

Men 1000 vs 1024 har ju redan debatterats inom hårddiskar sedan evigheter och ingen verkar ha brytt sig nog om det där heller. Tyvärr är det nog bara att ge upp striden

Permalänk
Skrivet av medbor:

4000x2000 borde väl vara 4K2K ändå i så fall, 4096 är snarare 4.1K, så det argumentet håller inte.

Det håller eftersom man mäter binärt och upp från 2, (2-4-8-16-32-128-256-512-1024-2048-4096 etc.

Citat:

Dessutom finns det ingen skärm menad för konsumenter som har menat något annat än UHD när de skriver 4K.

Så de bör kalla det vad det är; UHD, precis som vi inte kallar FHD för 2K.
[quote]så hela det här ämnet är över innan vi ens skriver dessa inlägg.[quote]
Det var över innan jag skrev första eftersom det var mer en utläggning på hur de våldtar standarder med sina "ungefär" som tämjs gång på gång.

Citat:

Att kalla 2560x1440/1600 för 2K är däremot en styggelse.

Precis det jag menar.

Citat:

1440p är ok tycker jag och få missförstånd, men 2K känns som fu säger helt fel. Dock är det väldigt sällan jag ser detta användas. Även 1440p kan ju misstolkas som 3440x1440, men ultrawide är fortfarande långt från dominerande så jag tror inte det är någon fara och nästan ingen använder det nog för denna upplösning

Den är fortfarande 1440p, men som du säger, ovanligt och då lägger de ändå till ultrawide i namnet då de talar om det.

Visa signatur

CPU i9-9900K GPU ASUS RTX 2080 TI Strix OC MB ASUS STRIX Z390-E RAM Corsair VENGEANCE RGB 32GB DDR4 3200MHz Case Fractal Design Define C PSU EVGA G3 850W Cooling Noctua D15
Monitor MSI Optix MAG342CQR SSD Samsung 970 EVO 500GB 860 EVO 500GB 860 QVO 2TB + QVO 4TB PLEX Server 2x HC560 20TB+WD RED 2x10TB+12TB

Permalänk
Medlem
Skrivet av Ecchi-BANZAII!!!:

Det håller eftersom man mäter binärt och upp från 2, (2-4-8-16-32-128-256-512-1024-2048-4096 etc.
Så de bör kalla det vad det är; UHD, precis som vi inte kallar FHD för 2K.
[quote]så hela det här ämnet är över innan vi ens skriver dessa inlägg.[quote]
Det var över innan jag skrev första eftersom det var mer en utläggning på hur de våldtar standarder med sina "ungefär" som tämjs gång på gång.

Precis det jag menar.
Den är fortfarande 1440p, men som du säger, ovanligt och då lägger de ändå till ultrawide i namnet då de talar om det.

Finns ingen regel att man ska räkna binärt, men du kan hålla fast vi det om du vill

Permalänk
Medlem
Skrivet av medbor:

Finns ingen regel att man ska räkna binärt, men du kan hålla fast vi det om du vill

Eftersom det är datorer det handlar om så är det binärt som är grejen ja. Speciellt när det handlar om datorgrafik (som det jag som 3D-grafiker alltid utgått ifrån) så är det minneseffektivare att pyssla med en 4096-textur framför en 3840, 4000, 4200 eller whatever. 4096 aka 4K alltså.
Men mja, lagomt offtopic