Asus ROG Swift PG27UQ: Hur den faktiskt är som bildskärm – och lite till

Permalänk
Melding Plague

Asus ROG Swift PG27UQ: Hur den faktiskt är som bildskärm – och lite till

Testet av Asus ROG Swift PG27UQ fortsätter, där vi följer upp problemen med det som faktiskt fungerar och dessutom fungerar bra. PG27UQ är en skärm som kombinerar många egenskaper i ett.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Fortsätt med dina fantastiska recensioner och genomgångar Thomas

Skickades från m.sweclockers.com

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Inaktiv

Bra o matig information. Beslutat mig att vänta tills v2 kommer.

Tycker ärligt att över 25K för denna skärm är för mycket pengar.

Permalänk
Medlem

Så varför erbjuder dom inte möjligheten till att köra över 2 kablar såm det fungerade för 4k innan dagens standard erbjöds och så om 8k har kopplats på de testsystem som finns nu.

Permalänk
Relik 📜
Skrivet av Elias79:

Så varför erbjuder dom inte möjligheten till att köra över 2 kablar såm det fungerade för 4k innan dagens standard erbjöds och så om 8k har kopplats på de testsystem som finns nu.

Jag gissar att det skulle vara i stort sett omöjligt att få till pålitlig G-Sync den vägen. Även de första 4K UHD-skärmarna med omvänd "nödlösning" i form av MST hade stora problem där, och då handlade det bara om 60 Hz utan synkroniseringsteknik.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem
Skrivet av anon162230:

Bra o matig information. Beslutat mig att vänta tills v2 kommer.

Tycker ärligt att över 25K för denna skärm är för mycket pengar.

En anledning till att skärmen kostar lite extra.
Pcper har öppnat upp skärmen o fann detta:

A New G-SYNC Module

Now that we have a better view of the PCB, we can see exactly what the aforementioned blower fan and heatsink assembly are responsible for— the all-new G-SYNC module.

Over the years, there has been a lot of speculation about if/when NVIDIA would move from an FPGA solution to a cheaper, and smaller ASIC solution for controlling G-SYNC monitors. While extensible due to their programmability, FGPA's are generally significantly more expensive than ASICs and take up more physical space.

Removing the heatsink and thermal paste, we get our first peek at the G-SYNC module itself.

As it turns out, G-SYNC HDR, like its predecessor is powered by an FPGA from Altera. In this case, NVIDIA is using an Intel Altera Arria 10 GX 480 FPGA. Thanks to the extensive documentation from Intel, including a model number decoder, we are able to get some more information about this particular FPGA.

A mid-range option in the Arria 10 lineup, the GX480 provides 480,000 reprogrammable logic, as well as twenty-four 17.4 Gbps Transceivers for I/O. Important for this given application, the GX480 also supports 222 pairs of LVDS I/O.

DRAM from Micron can also be spotted on this G-SYNC module. From the datasheet, we can confirm that this is, in fact, a total of 3 GB of DDR4-2400 memory. This memory is likely being used in the same lookaside buffer roll as the 768MB of memory on the original G-SYNC module, but is much higher capacity, and much faster.

While there's not a whole lot we can glean from the specs of the FPGA itself, it starts to paint a more clear picture of the current G-SYNC HDR situation. While our original speculation as to the $2,000 price point of the first G-SYNC HDR monitors was mostly based on potential LCD panel cost, it's now more clear that the new G-SYNC module makes up a substantial cost.

It's an unstocked item, without a large bulk quantity price break, but you can actually find this exact same FPGA on both Digikey and Mouser, available to buy. It's clear that NVIDIA isn't paying the $2600 per each FPGA that both sites are asking, but it shows that these are not cheap components in the least. I wouldn't be surprised to see that this FPGA alone makes up $500 of the final price point of these new displays, let alone the costly DDR4 memory.

https://www.pcper.com/reviews/Graphics-Cards/ASUS-ROG-Swift-P...

Permalänk
Medlem

Jag tycker det är märkligt att inte tillverkarna vid det här laget tar fram en 4K oled med 120-144hz precis som Thomas tar upp. Eller skulle det vara ett för stort kliv framåt så att det då inte skulle finnas några framtida bättringsområden och därmed ingen möjlighet att mjölka konsumenterna mer? Det säger sig själv att local dimming inte är optimalt. Jag hade hellre tagit lägre ljusstyrka och OLED alla dagar i veckan över hög ljusstyrka och local dimming. Jag fortsätter nöja mig med min fula TN-bild. Det duger åt quake. Men det hade varit roligt med en ljusglimt i horisonten att blicka efter, men icke. Visst... Den här typen av skärm skulle jag kunna tänka mig för ca 5000:- Den behöver komma ner till dagens 1440p ips priser innan jag får för mig att investera heh.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Skrivet av Jonathanknet:

En anledning till att skärmen kostar lite extra.
Pcper har öppnat upp skärmen o fann detta:

A New G-SYNC Module

Intressant! Verkligen inte billiga komponenter.

Men fanns det inte en laptop med G-sync, utan modulen?

Visa signatur

För övrigt anser jag att Copyswede bör förstöras.

Permalänk
Medlem
Citat:

”smpte2048”

Märkligt nog så står det "smpte2084" på bilden. lite skumt med tanke på att 2048 är ett jämnt binär nummer.

Permalänk
Bildexpert 📺
Skrivet av Lordsqueak:

Märkligt nog så står det "smpte2084" på bilden. lite skumt med tanke på att 2048 är ett jämnt binär nummer.

ST.2084 kommer från löpnumret hos SMPTE, precis på BT.709 (HDTV-standard) och BT.1886 (Försök till att standardisera en SDR-EOTF) samt BT.2020 (Ultra HD) är olika löpnummer inom ITU.

Permalänk
Medlem

Måste säga att jag gillar denna recensions-serie! Framförallt videoklippen som jag tycker är av dem bättre på videofronten.

Skulle aldrig få för mig att köpa en sån dyr skärm, men det här följs intensivt enbart på grund av tekniken och Thomas pedagogiska förklaringar

Permalänk
Bildexpert 📺
Skrivet av Chris_Kadaver:

Jag tycker det är märkligt att inte tillverkarna vid det här laget tar fram en 4K oled med 120-144hz precis som Thomas tar upp.

Den 30-tums OLED som Dell släppte hade enligt första rapporten en 120 Hz-panel. Sedan blev det en 60 Hz-panel eftersom, tadam, det var förmodligen vad som var möjligt med existerande kretsuppsättningarna för Displayport.

Vet inte hur många som såldes, ryktet säger att det var ett hundratal. Priset då på 40.000 kronor för 4K/60 Hz. Men OLED.

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Jag tycker det är märkligt att inte tillverkarna vid det här laget tar fram en 4K oled med 120-144hz precis som Thomas tar upp. Eller skulle det vara ett för stort kliv framåt så att det då inte skulle finnas några framtida bättringsområden och därmed ingen möjlighet att mjölka konsumenterna mer? Det säger sig själv att local dimming inte är optimalt. Jag hade hellre tagit lägre ljusstyrka och OLED alla dagar i veckan över hög ljusstyrka och local dimming. Jag fortsätter nöja mig med min fula TN-bild. Det duger åt quake. Men det hade varit roligt med en ljusglimt i horisonten att blicka efter, men icke. Visst... Den här typen av skärm skulle jag kunna tänka mig för ca 5000:- Den behöver komma ner till dagens 1440p ips priser innan jag får för mig att investera heh.

Det finns redan 4k oleds som klarar 120Hz, men det finns i dagsläget ingen controller som klarar den bandbredden förutom g-syncmodulen i dessa nya gsync-hdr-skärmar.
Hdmi 2.1 standarden är färdig, men det finns ingen controller du kan köpa och bygga med den. Rykten säger 2019.
Kör du 1080p kan du köra 120Hz på dagens 4k oled, så på alla sätt och vis förutom bandbredden så finns det stöd.
Dock är variabel refresh rate optional i hdmi 2.1, så även 2019 eller 2020 är det ingen garanti att man ens är i närheten att matcha funktionaliteten i denna g-sync hdr.

Problemet med nya interface för monitors är att det är dyrt att utveckla kretsar för det, både i grafikkort och i controllers för monitors.
Som exempel, displayport 1.2 som är vanligast i dagens skärmar: "DisplayPort version 1.2 was introduced on 7 January 2010"
Den första skärmen som verkligen utnyttjade denna spec var asus pg278q som kom i 2015, och detta är inget extremt exempel.
Dual link DVI tog det också runt 5 år eller mer (hittar inte exakta siffror nu) från att specen var färdig tills du kunde köpa en monitor som faktiskt utnyttjade standarden.
Dessa monitors är historiskt sett flera år före sin tid (DisplayPort version 1.4 was published March 1, 2016).

Orsaken till att det oftast tar runt 5 år från färdig standard till färdig produkt är att det med undantag av apple och kanske någon mer inte finns några som bygger färdiga helhetslösningar med bleeding edge monitors.
Apple ser en ny standard, modifierar den enligt behov, implementerar den i egen laptop eller iMac (exempel: 2880x1800 laptop i 2012, 5k imac 2014).

Produkter för gaming-konsumenter däremot byggs helt separat oftast;
GPU-tilverkare designar nytt kort i 2010: finns det några monitors på marknaden med dp 1.2? nej, alltså behöver vi inte implementera det på vår gpu. Finns det trots det en krets att köpa in med samma eller marginellt högre pris än nuvarande standard? nej. ok, fuck it, kanske dp 1.2 nästa generation. repeat x5 år.

Monitor-tilverkare designar ny monitor i 2010: Finns det grafikkort i marknaden med dp 1.2? nej. hmm.. då kan vi ju inte bygga en produkt som blir extra dyr och 0% av marknaden kan använda nu, och som kanske blir mer meningsfull om några år. ok, vi skippar dp 1.2 stöd och bygger en 1080p 120Hz och en 1440p 60Hz istället, dual-link dvi duger gott! repeat x5 år.

Inte förrän någon halvt på random uppdaterar sin spec på någon komponent utan hög extra kostnad några år senare eller en marknadsanalys görs som säger tex "HDR 4k kommer sälja som smör! so hot right now!!!" får de tummen ur och pushar ny teknik på båda sidor.

Ett av få undantag är asus, som ju faktiskt tillverkar både gpu, laptops och monitors. Om de vill så kan de halv-propreitärt implementera tex dp 1.4 år 1 speccen finns. Troligen läser de marknade och tänker att hmm, denna produktern kommer låsa folk till asus GPU OCH asus monitor OCH nvidia gpu OCH den dyraste 2% av marknaden för kunsumenter, detta är så liten marknadsandel att det är inte värt besväret.

Permalänk
Bildexpert 📺

@Jonathanknet: Intressant läsning! En snabb slutsats är därför att det skärmen kunde ha kostat 21990 kronor och erbjudit 4K i 65 Hz med 8-bitars RGB. För det är vad existerande G-Syncmoduler skulle ge med 650 MHz pixelklocka.

Permalänk
Medlem

Undra varför inte Netflix HDR inte blir lika ljusa som HDR på YouTube. Fläskar de på som attan i Demos?

Visa signatur

[AMD Ryzen 9 3900X] [ASUS GeForce RTX 2080 Ti] [LG OLED 55 C9 som skärm] [Samsung HW-Q96R till ljudet]

Permalänk
Medlem
Skrivet av yrfhar:

Undra varför inte Netflix HDR inte blir lika ljusa som HDR på YouTube. Fläskar de på som attan i Demos?

Skulle gissa på det. I demos har man hög kontroll på bilden eftersom att man helt väljer plats och objekt som är optimalt för HDR. En serie/film i HDR har ju andra prioriteringar. Exempel, en scen i ett tomt varuhus med ljus som kan vara svårt eller mindre optimalt för att visa i HDR, men scenen kommer ju fortfarande att filmas där i vilket fall. Regissören kommer ju inte febrilt leta nya ställen att filma scenen på "endast" för att HDR ska bli perfekt, sen behöver det inte alltid vara så. En film med hög budget kan ju välja att göra en film perfekt för HDR, skulle gissa att uppföljaren till Avatar kommer bli snygg i HDR jämfört med snittet - de brukar pusha gränserna.

En annan anledning kan vara att alla serier/filmer ska ju i första hand visas i SDR där stora massan är, och det kan då kanske bli svårt att få en perfekt/optimal SDR och HDR från samma material när man sedan ska klippa ihop filmen.

Förövrigt, svinbra recension av skärmen Thomas!

Permalänk
Medlem

Det måste vara ett försvinnande fåtal som är beredda att betala >25000kr för en 27" skärm som består av ett sammelsurium av kompromisser.

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Master of Overkill
Skrivet av cyprus:

Det måste vara ett försvinnande fåtal som är beredda att betala >25000kr för en 27" skärm som består av ett sammelsurium av kompromisser.

Kollar via vissa ÅF och alla tog slut direkt och vissa har över 20 + bokningar.

Finns ju inget bättre i den typ av skärmar såklart folk köper dom.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

Tack för en bra video Thomas.

Riktigt trevligt att höra att bilden är mer uniform på dessa skärmar. Lite högre bandbredd i gränssnittet och bort med fläkten så har vi nog en skärm som många kan sitta nöjda med i flera år framåt. Kommer bli skoj (och otåligt) att följa marknaden de kommande åren

Permalänk
Medlem

Tack för en underbar genomgång ännu en gång. Alltid massor med intressant information om skärmar! keep upp the good work!

Permalänk
Medlem
Skrivet av Laxpudding:

ST.2084 kommer från löpnumret hos SMPTE, precis på BT.709 (HDTV-standard) och BT.1886 (Försök till att standardisera en SDR-EOTF) samt BT.2020 (Ultra HD) är olika löpnummer inom ITU.

aha, det var alltså lite felskrivet i artikeln.

Permalänk
Inaktiv

@Jonathanknet:

Helt med på att det finns kostnader som gör skärmen dyr.

Varför jag inte ser värde i skärmen för 25K+ är att de gjort för många kompromisser.

Du betalar för en svindyr lcd panel medans sedan elektroniken inte utnyttjar lcd panelens kapacitet på långa vägar och detta går ALDRIG o fixa i efterhand.

Man kunde utnyttjat lcd panelen nästan fullt ut med DSC komprimering som funnits sedan mars 2016 som tillval i Displayport standarden
4K@120Hz med 30bit färger/4:4:4 HDR (nu är det max 98Hz i denna kvalitet)
4K@144Hz med 24bit färger 4:4:4 utan HDR (nu är det max 120Hz i denna kvalitet)

För att utnyttja lcd panelens absolut fulla kapacitet måste du ner i 4K@83Hz med 36bit färger 4:4:4 med HDR

Lcd panelen klarar alltså 4K@144Hz med 36bit färger 4:4:4 med HDR men du kommer inte ens i närheten av detta utan du betalar 25K för en brutal lcd panel som blivit totalt gimpad av elektroniken och detta går aldrig fixa efteråt.

Permalänk

Ja har svårt för att förstå vad HDR egentligen är.

Det står för High Dynamic Range, villket ja tolkar som i att den har väldigt mycket nivåer att arbeta med.

Men det för mig kopplas till bit depth, där 8 bit bara är 0-255 per kanal, vilket är bra..
Men på en gång när du kommer till Små skillnader så försvinner det eftersom det helt enkelt inte finns tillräckligt för att hålla informationen.

10 bit är ju en enorm skillnad med 0-1024, vilket ja skulle anse då vara "HDR".

Men när ja får HDR förklarat och ser det på skärmar så verkar hela konceptet vara något helt annat?
Verkar vara att den försöker dela in bilden i olika delar där tex, (här är det mörka nyanser 0-255, här är det ljusa 0-255) för att kunna fuska fram något som egentligen inte finns i helhet?

(Värt att nämna är med 0-255 och 0-1024 är att det endast är i PC världen och INTE i video av traditionella skäl (som dock inte borde finnas kvar med 10bit då det är helt ologiskt att fortsätta "TV Levels" trenden).

Så utifrån va ja nu skrev om hur ja tolka det, kan någon förklara va HDR är ur ett rent tekniskt perspektiv?

Permalänk
Bildexpert 📺
Skrivet av anon162230:

Man kunde utnyttjat lcd panelen nästan fullt ut med DSC komprimering som funnits sedan mars 2016 som tillval i Displayport standarden

Fast det finns inget som är självklar att DSC faktiskt fungerar för den här skärmen. Dels är det en förstörande komprimering som är framtagen för situationer där det är väldigt oklart hur datorgrafik och spel i 144 Hz påverkas. Premisserna verkar främst ha handlar om testbilder, skärmdumpar, Clear Type-rendering, stillbildsfoton samt video i 4K och 8K i 60 Hz.

Dels är den här typen av komprimering ofta en källa till ytterligare latens där Nvidia säger sig haft fullt upp med att få till en så latensfri lösning som bara möjligt. Ja, DSC kallas för "low latency" men hur lågt är detta i förhållande till det som krävs för att G-Sync med local dimming ska fungera?

...plus alla andra tekniska hinder, likt att få in alla funktioner på ett samma FPGA. Verkligheten är en bitch ibland.

Permalänk
Bildexpert 📺

@Zero Walker: Jag tar upp det i föregående i flera av de videos som jag har gjort. HDR bygger på forskning hur ögat/hjärna uppfattar nyanser och grunden för detta är den EOTF, electro-optical transfer funktion, alltså transformationen från signalnivå till fysiskt ljus. Den grund som finns är PQ-tonkurvan, Perceptual Quantizer, en kvantifiering av hur öga/hjärna uppfattar skillnader i ljus.

Nuvarande standard, eller SDR bygger på vad som är tekniskt möjligt med ett bildrör och gamla tiders TV-kameror. Det har inget med våra ögon att göra utan är bara den teknik som fanns när man började med elektronisk bild. Allt vi gör idag med mycket tekniskt mer kapabel teknik är att emulera hur ett bildrör fungerar. Din skärm i datorn försöker alltså emulera 60-talets färg-tv.

HDR vänder på bildtekniken och anpassar sig istället efter ögats förmåga. Och vi har precis börjat den resan och vi har ännu långt kvar till att skapa en bild som an matcha hur öga/hjärna fungerar i fråga om dynamik och färgomfång.

Greppar man EOTF och PQ så greppar man skillnaden. Tog mig något år eller så.

Fler nivåer/högre bitdjup är en förutsättning för att HDR ska fungera eftersom ögats förmåga att urskilja nyanser är mycket högre i verkligheten. Ögats förutsättningar är mycket högre än vad dynamiken hos ett bildrör tillåter. 8-bitar var "good enough" för SDR och 10 bitar är "good enough" för HDR. Detta kommer att öka i framtiden och vi har redan teknik som Dolby Vision som går på 12 bitar.

Videonivåer har fullt logiska förklaringar. Jag har tagit upp några här: https://www.sweclockers.com/artikel/22077-bildanslutningar-de... med bland annat aritmetisk under- och overflow

Mer som är värt att tänka på är att video också måste ta hänsyn till hur analoga format (fotografisk film, video etc.) fungerar utan att klippa nivåer. Det behövs också av matematiska skäl vid matriskodningen RGB<->YCbCr då detta kan ge kodnivåer som ligger under och över referensnivåerna.

Permalänk

Hmm, alltid haft svårt med dom där olika "color matrix" grejerna.
Är väl för jag ser framför mig (RGB), inget mer, du har 0-255, 0-100% Röd,
så har aldrig direkt förstått dom där magiska tranformationerna.
Ja trodde dock i dom mestadels bara för till för YUV för att kunna trycka in lite mer färg information utan att kräva RGB då det tar upp mer. Men finns ju flera olika RGB grejer också (Adobe RGB etc?).

Är bara mest van med bt601/709/2020, vilket jag bara har kunskapen av att 601 = "SD" oftast, 709 = "HD, dock egentligen allt bör använda det i dagsläget", och 2020 = HDR och dylikt.

Men inte direkt förstått varför man ska behöva ha dom där, varför inte bara ha ett system som täcker det totala och sen utgå från det.

Men är nog helt enkelt så att det inte går för annars skulle det inte vara såhär haha;P

Ska se igenom det där om Videonivåerna, missat den artikeln (Vet ja skumläst igenom dom flesta),
blir nog intressant, aldrig vetat varför det fanns.
För vet ur ett Data perspektiv är det generellt ologiskt att varför ska du helt enkelt inte kunne använda 0-15 och 236-255. Men får se vad artikeln säger om det!

EDIT:

Okej såg det där om overflow/underflow, känns dock som något som inte borde vara i standarden som failsafe på det sättet?
Känns för mig som att man i princip bara körde (okej vi använder inte allt som går ifall nån inte följer standarden rätt).
Kanske är vanligt dock, ja vet bara hur det är i ett data perspektiv som programmering och dylikt, och då finns inte "råka göra fel, bra med buffer" tänket. Gör du fel får du rätta till det, bilden ska inte ha en failsafe för dina misstag om man säger så:P

Permalänk

Såg en prata om DSC och från svaret att det är den där lossy komprimeringen on-the-fly som kom för ett bra tag sen (vill minnas nån artikel).

Vill bara säga min syn på den angående denna skärm, eller alla antar jag.

Lossy är något som är väldigt dåligt när det kommer till Dataanvändande (gränssnitt och dylikt, i princip allt du ser i vanlig användning) Om den inte strävar efter att Inte ta bort den informationen.
För normalt i Videos är det sånt som rycker väldigt fort, super små skarpa detaljer som i normala situationer anses inte vara något ögat uppfattar som viktigt för bildens helhet.

Men i en dator är det A och O (text är perfekt exempel, super små grejer med skarpa kanter).

Skippar man den biten och tänker spel/filmer tror jag det skulle funka helt okej, speciellt i Video då dom redan är lossy komprimerade vilket bara gör att videon ser förmodligen lite suddigare ut (lossy + lossy brukar ha väldigt liten märkbar skillnad oftast då bilden redan är "förstörd" från små detaljer).

Spel lär det bli drygare, men med tanke på att spel kör Postprocess AA ofta i dagsläget har ja svårt att se att man skulle reagera stort på en bra lossy när det kommer till själva bilden (skippa text, HUD etc).

När det kommer till Latensen kan ja absolut inget säga om det och Gsync etc, men om ja får spontant gissa så kan ja tänka mig att just nu är skärmen på sin gräns, allt sker så snabbt det i princip går med väldigt liten buffer kvar. Så skulle du lägga till en grej i kedjan som höjde latensen från källan till Gsync modulen skulle förmodligen inte Gsync ha tillräckligt med tid i dom höga frekvenserna, även om bandbredden sänks rejält så krävs nog en viss konstant tid för att göra synk arbetet, tror inte bandbredden i sig påverkar det processen i sig?
(Om ja tänker rätt så antar jag modulen helt enkelt får in en Bild, och den struntar i vad och hur stor bilden är, men den ska ha den och sen skicka ut den när tiden är rätt, så enda den bryr sig om är latens. Självklart måste ju linorna kunna skicka den datamängden också, men tror inte själva process arbetet skiljer?).

Det är lite därför man använder det gamla klassiska YUV 4:2:2, kostnaden är i princip noll så länge minnet/processorn kan kommunicera snabbt för att skyffla om datan. Och effekten är väldigt mild i flesta fall (dock tyvärr inte text etc, men är betydligt mer acceptabelt än om Luman skulle suddas ut något, nu blir det mer att text blir lite halv suddiga om dom använder färg, vilket ofta är fallet dock.

OBS: Bara ville få ut lite skrivande, så inget att läsa och svara på direkt;P!