Benq lanserar 35-tumsskärm med AMD Freesync och 100 Hz

Permalänk
Melding Plague

Benq lanserar 35-tumsskärm med AMD Freesync och 100 Hz

Det senaste tillskottet i Benq:s utbud av skärmar heter EX3501R, en 35-tumsskärm med bildförhållandet 21:9 och stöd för AMD Freesync samt HDR10.

Läs hela artikeln här

Permalänk
Inaktiv

Grymt! Två USB Type-A 3.1 samt en USB Type-C 3.1 Gen. 2 med möjlighet att ta emot bildsignaler.

Jag själv är lite halvtveksam till börja skärmar, för vi som jobbar med grafik men de ser grymmare ut och är säkerligen bättre för viss arbete.

Permalänk
Avstängd
Skrivet av anon159643:

Grymt! Två USB Type-A 3.1 samt en USB Type-C 3.1 Gen. 2 med möjlighet att ta emot bildsignaler.

Jag själv är lite halvtveksam till börja skärmar, för vi som jobbar med grafik men de ser grymmare ut och är säkerligen bättre för viss arbete.

Jag sysslar mycket med grafik typ Photoshop,Z-brush,3ds max och lite annat. Är det en nackdel med böjd skärm?
Är inne på att skaffa en böjd i samma storlek men med N-sync och IPS ~100HZ

Har inte tänkt på att det kanske kan vara en nackdel men du har säkert rätt, Kanske borde tänka om :/

Permalänk
Inaktiv

Om den bara har 300nits, varför ge den HDR överhuvudtaget?

Som att göra pankakssmet men skita i att ha i äggen

Permalänk
Inaktiv
Skrivet av Wiruz:

Har inte tänkt på att det kanske kan vara en nackdel men du har säkert rätt, Kanske borde tänka om :/

Jag har hört lite rykte om det, sakerna blir böjda. Men samtidigt så har man ej huvudet mitt framför skärmen på en vanlig skärm heller.
Helt klart är dock att en böjd skärm idag ger en helt annan känsla för mycket, så jag skulle nog köpa en sådan ändå. Jag har dessutom flera skärmar så..

Permalänk
Medlem

Har själv aldrig haft problem med 21:9 skärm som är välvd. Sysslar med 3D och 2D.

Permalänk
Medlem
Skrivet av Unknown:

Om den bara har 300nits, varför ge den HDR överhuvudtaget?

Som att göra pankakssmet men skita i att ha i äggen

Iof så går det göra pannkakor utan ägg

För övrigt verkar det som en rätt nice skärm, 100hz och freesynch(om man kör rätt kort då). Frågan är om andra kommer ge liknande skärmar för båda Nvidia/Amd. 100-120 hade varit nice att testa på nu när man haft en 60hz så länge

Permalänk
Medlem
Skrivet av Unknown:

Om den bara har 300nits, varför ge den HDR överhuvudtaget?

Som att göra pankakssmet men skita i att ha i äggen

Enbart i marknadsföringssyfte. Det känns ju nästan som att man kan gå till konsumentombudsmannen. Hela HDR skiten är ju rent bogus när knappt en enda skärm eller TV faktiskt kan visa bilden med HDR ändå marknadsföra de som HDR

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Unknown:

Om den bara har 300nits, varför ge den HDR överhuvudtaget?

Som att göra pankakssmet men skita i att ha i äggen

Eftersom siffror och namn på tekniker säljer. Tror inte det är speciellt svårt eller dyrt för skärmen att kunna ta emot en HDR-signal, vilket är varför det görs eftersom de då kan slänga på ännu ett häftigt namn i sitt PR-material. Lekmän har ingen aning om att det är dåligt, de ser bara namnet på klisterlappen.

Permalänk
Avstängd

Nu när fler skärmar stödjer FreeSync så vore det trevligt om Intel fick stöd för FreeSync eller Adaptive-Sync.

Permalänk
Medlem

Synd att den bara har 1440P. Idag vill man ju inte köpa något under 4k..
3840x2160 känns som minumum, speciellt på en så pass stor skärm som 35".

Permalänk
Medlem

@SanTeoX: ...Läste du artikeln? 3 440 × 1 440 är väl så nära 4k man kommer i 21:9, utan att för dens skull köra någon obskyr upplösning som ingen hört talas om?

Permalänk
Hedersmedlem
Skrivet av SanTeoX:

Synd att den bara har 1440P. Idag vill man ju inte köpa något under 4k..
3840x2160 känns som minumum, speciellt på en så pass stor skärm som 35".

Skrivet av Dracc:

@SanTeoX: ...Läste du artikeln? 3 440 × 1 440 är väl så nära 4k man kommer i 21:9, utan att för dens skull köra någon obskyr upplösning som ingen hört talas om?

Japp, den har som Dracc säger 3 440 × 1 440, inte 1440p. Blev en liten miss där i rubriken, men det är åtgärdat nu.

Permalänk
Medlem

En snabb sökning på prisjakt ger 6 skärmar med G-sync och 16! skärmar med Freesync i 3440×1440 px. Detta trots att Nvida har ca. 75-80% av marknaden för grafikkort. Förstår inte varför så många satsar på Freesync?

Permalänk
Medlem

@keffosteffo: Troligen har det att göra med att FreeSync följer Vesa-standard och inte har några licenskostnader.

Permalänk
Inaktiv
Skrivet av ghollghost:

Iof så går det göra pannkakor utan ägg

För övrigt verkar det som en rätt nice skärm, 100hz och freesynch(om man kör rätt kort då). Frågan är om andra kommer ge liknande skärmar för båda Nvidia/Amd. 100-120 hade varit nice att testa på nu när man haft en 60hz så länge

Aldrig prövat utan ägg, men utan mjölk går bra

Ja det hade nog varit mer intressant med fler sync-alternativ som G-Sync och kanske hela vägen till 144hz. Då hade jag kanske själv hakat på

Permalänk
Medlem

Synd att den inte hade riktig HDR då hade jag nog slagit till.

Sitter och funderar på om jag ska köpa en Samsung C32HG70

Permalänk
Inaktiv

Var sätter man ljusgränsen för när man kan säga att den har en funktionell HDR?

Permalänk
Medlem
Skrivet av keffosteffo:

En snabb sökning på prisjakt ger 6 skärmar med G-sync och 16! skärmar med Freesync i 3440×1440 px. Detta trots att Nvida har ca. 75-80% av marknaden för grafikkort. Förstår inte varför så många satsar på Freesync?

För att det är gratis.

Så det blir ju antingen en skärm utan freesync och G-sync, eller en skärm med freesync (så att man iaf tilltalar någon).
Eller en dyrare skärm med G-sync.

Permalänk
Bildexpert 📺

@Unknown: De flesta filmer och material mastras till 1 000 nits. HDR10 arbetar med en absolut 10-bitars skala upp till 10 000 nits, så ett "code value" motsvarar en fysisk nivå av ljus. 1023 (datornivåer) är 10 000 nits, 940 (videonivåer) är 10 000 nits. 1 000 nits är code value 723, 2 000 nits är code value 789 inom videomfånget, som några exempel.

Innehållsskaparen kan alltså mer eller mindre ange, i fysikaliska termer, hur starkt något ska lysa i bilden. Majoriteten av bildinnehållet kommer förstås att ligga inom betydligt lägre ljusstyrkor. Detta nivåer fördelas längs med PQ-tonkurvan (SMPTE 2084).

Går igenom detta mer i detalj här:
https://www.sweclockers.com/test/24228-dell-s2718d-designad-i...

Klarar en TV/display av att visa 1 000 nits och den följer PQ-tonkurvan är allting mer eller mindre problemfritt. Klarar en display däremot endast 300 nits har vi ett problem att hela skalan av nyanser förskjuts mot mörkgrått. Vad som borde lysa med 120 nits lyser med kanske 40 nits. Då har vi den hyfsat ironiska situationen att HDR som ska ge högre dynamik endast blir ett bludder av mörka nyanser och upplevs som allt annat än dynamiskt.

Vilket många också upptäckt...

Precis detta är vad som ofta händer idag med "HDR-Ready"-displayer eller vad det nu kallas. Majoriteten TV-apparater som säljs med "HDR"-logotyper får detta beteende när de försöker tillämpa PQ-tonkurvan med en peak white på 300 nits. Bilden blir för mörk. Men ändå för blaskig eftersom lysdioder lyser för fullt.

Därför måste tillverkarna göra om processen och ljusa upp bilden, alltså förvränga PQ-tonkurvan så att bilden upplevs tydligare på skärmen. Den processen gör PQ-tonkurvan allt mer lik en vanlig potensgamma, dvs vanlig SDR. Bilden blir istället ljusare, blaskigare och och själva intrycket av högre dynamik försvinner eftersom det inte finns någon faktisk dynamik att hämta.

Fördelarna med att ändå hantera HDR10 är dels att vi får 10-bitars nyansdjup. Dels kompatibiliteten framåt. Allt mer material kommer så sakteliga att mastras för HDR.

Permalänk
Medlem

VA med inputlag på 30-50ms.

Permalänk
Bildexpert 📺
Skrivet av nicoX:

VA med inputlag på 30-50ms.

Föregången med nästan identiskt namn har en latens, input lag, om 2-3 millisekunder, definitivt under 10 ms i alla fall. Varför skulle denna vara 10 – 15 ggr långsammare? Eller tänker du på responstiden, att kristallerna i VA-panelen under vissa omständigheter kan ta så lång tid på sig för en fullständig transient?

Permalänk
Medlem
Skrivet av Dracc:

@-=fredrik=-: ...Läste du artikeln? 3 440 × 1 440 är väl så nära 4k man kommer i 21:9, utan att för dens skull köra någon obskyr upplösning som ingen hört talas om?

Japp jag läste artikeln. Tycker att 1440 på höjden är för lite på 35", det är ganska långt från 2160. Nu är det visserligen 21:9, men ändå. Skulle inte köpa en skärm under 4k ändå, köper då hellre en skärm som inte är så tokbred. Det är irriterande när man får plats med så lite på höjden. Är utvecklare och vill gärna se mycket på höjden och samtidigt kunna ha ett gäng fönster på bredden, då blir kravet lätt minst 3840x2160. Skulle nog behöva dubbla 4k-skärmar egentligen

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av SanTeoX:

Japp jag läste artikeln. Tycker att 1440 på höjden är för lite på 35", det är ganska långt från 2160. Nu är det visserligen 21:9, men ändå. Skulle inte köpa en skärm under 4k ändå, köper då hellre en skärm som inte är så tokbred. Det är irriterande när man får plats med så lite på höjden. Är utvecklare och vill gärna se mycket på höjden och samtidigt kunna ha ett gäng fönster på bredden, då blir kravet lätt minst 3840x2160. Skulle nog behöva dubbla 4k-skärmar egentligen

Skickades från m.sweclockers.com

Ja, nä, jag håller med dig. 21:9 är ingenting för oss!

Permalänk
Medlem
Skrivet av Laxpudding:

Föregången med nästan identiskt namn har en latens, input lag, om 2-3 millisekunder, definitivt under 10 ms i alla fall. Varför skulle denna vara 10 – 15 ggr långsammare? Eller tänker du på responstiden, att kristallerna i VA-panelen under vissa omständigheter kan ta så lång tid på sig för en fullständig transient?

10-15 är dock ganska högt om man ska speka fps online: https://www.displayspecifications.com/en/comparison/f7fd26744

Dessutom är panelen en AOC, som gör att jag nu fullständigt tappa intresset.

Permalänk
Bildexpert 📺
Skrivet av nicoX:

10-15 är dock ganska högt om man ska speka fps online: https://www.displayspecifications.com/en/comparison/f7fd26744

Dessutom är panelen en AOC, som gör att jag nu fullständigt tappa intresset.

Hrrm, läser du inte lite snabbt nu? 10-15 av vaddå? Jag skrev 10-15 ggr långsammare för det vad du påstår att input lag ska vara hos nya EX3501R vara jämfört med vad jag hade mätt upp hos gamla modellen.

Länken på displayspecifications.com ger inkomplett information och har heller ingen hänvisning till källan till uppgifterna. Tittar man runt i tester får man alla möjliga siffror på uppmätt latens hos gamla XR3501 eftersom metoderna för att mäta detta är ganska så icke-precisa och därmed föremål för tolkningar.

displayspecifications.com är en bra källa till information, men det är inte alltid en tillförlitlig källa.

Det är heller inte AOC som byggt panelen, utan AU Optronics. Det brukar vara de som konstruerar den här typen av paneler som hamnar i den här typen av spelskärmar.