Bildanslutningar del 1 – Pixelklockan

Permalänk
Jubileumsmästare

En sak, sluta kalla UHD för 4K!

Visa signatur

9900K | 970 EVO | 32GB G.Skill Trident Z Neo | 2080Ti
Asus ROG Maximus Extreme XI | Lian-Li PC-O11 Dynamic
Pok3r | G503 | Schiit Bifrost Über | Schiit Lyr
Hifiman HE-500 | HP Omen X Emperium 65
https://www.sweclockers.com/galleri/14987

Permalänk

Säger som andra, väldigt intressant och bra skriven artikel!

Ett tillägg till fallgropar som jag själv märkt av sen jag skaffade en 4K-skärm i form av en Samsung UE48JU6675 är att jag inte längre får någon bild innan Windows går igång. Ett problem mao så fort jag vill in in BIOS eller göra något annat utanför Windows. Dock i mitt fall är lösningen ganska enkel för har en äldre 1080p-skärm bredvid kopplad till en annan dator så drar bara över sladden till den och får då bild som vanligt direkt från boot. Det märkliga dock är att precis när jag hade skaffat 4K-skärmen och i samband med det även ett nytt grafikkort (980 Ti) fick jag bild direkt vid boot men sen ett par veckor tillbaka slutade det att fungera. Vet inte om det kanske har att göra med att TVn kan ha uppdaterats utan min vetskap för den är ju WiFi-ansluten. Något annat märkligt är att jag även får bild direkt vid boot om jag istället för mitt 980 Ti kör med det integrerade grafikkortet på mitt moderkort. Så verkar vara kombinationen externt grafikkort och min 4K-skärm (TV) som inte funkar ihop.

Sen ang Chroma Subsampling kan jag intyga att det åtminstone i mitt fall blev en väldigt positiv skillnad när jag skaffade min nuvarande skärm som klarar av 4:4:4 i 60 Hz. Hade tidigare en som inte fixade det och skillnaden är STOR! Åtminstone när man sitter och surfar eller gör annat på desktopen. Saker som inte såg roliga ut när stöd för 4:4:4 saknades i 60 Hz var att vissa bokstäver t ex kunde se lite blå ut istället för svarta och när det gäller typ var tredje bokstav i ett ord ser det väldigt skumt ut och jobbigt att kolla på för ögonen i längden. Upplever även att skärpan är mycket bättre och bilden är väldigt vilsam för ögonen när man har fullt stöd för 4:4:4 i 60 Hz.

Som sagt, intressant artikel och ser fram emot resterande delar!!

Permalänk
Medlem
Skrivet av Svaniis:

En sak, sluta kalla UHD för 4K!

Varför inte det? Som jag förstår det av artikeln är det faktiska pixel antalet 4000 i UHD/4K. Jag citerar:

"Vi listar är ett par vanliga pixelmatriser, deras faktiska totala mängd pixlar och vilken pixelklocka som krävs samt vanligt förekommande frekvenser. Värden kommer från VESA:s generella metod för att utforma signalen. I praktiken kan det alltså skilja sig en del skärm till skärm."

Jag är ingen expert, rätta mig gärna om jag har fel.

Edit: på bredden är pixel antalet 4000...

Permalänk

Det intressanta hade dock varit att man kunde köra 144Hz på 4K i lägre upplösning (vet det gått förr att göra så).

Men intresant artikel helt klart Fattade inte första bilden alls, men ändå riktigt intresant artikel.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Broken-arrow:

Det intressanta hade dock varit att man kunde köra 144Hz på 4K i lägre upplösning (vet det gått förr att göra så).

Men intresant artikel helt klart Fattade inte första bilden alls, men ändå riktigt intresant artikel.

TV-apparater ser ut att börja acceptera detta.

144Hz UHD borde vara möjligt med DP1.2/1.3 MST, alltså dubbla ingångar så som tidiga högupplösta skärmar med DP1.1. Frågan är om det inte är bättre att driva i lägre upplösning, det är väl ändå bara spel som är intressant att köra i 144Hz (bio-projektorer visar bilden i 120/144Hz, men källan är ju oftast 24, 48 eller 60 som projektorn visar flera gånger, Ultra-HD Blu-ray kommer inte tillåta mer än 60p på UHD eller 4K). 8K med 4:2:0 och kompression (och 24Hz) är inte så intressant även om det är möjligt med HDMI och DP enligt specifikationerna, DP1.3 kommer tillåta 60Hz 8K-UHD 4:2:0, för film borde mer färginformation (kroma) börja bli intressant redan vid 2K. Mycket mastras fortfarande i 2K, 3.5-6K kameror används till 2K-innehåll, så finns ingen riktig anledning med högre upplösning där för filmbruk. Ingen klagar när de kör 2K DCI/källa på 4K-projektor på bion.

Permalänk
Medlem

Jag kör med Dvi-D (1920x1080 @ 144hz). Borde jag byta till Displayport istället?
Fattar inte om DVI (single/dual) är samma som DVI-D

Visa signatur

| Lian-Li O11 Dynamic XL | AMD Ryzen 9 5900X | EVGA GeForce RTX 3080 Ti 12GB FTW3 ULTRA | ASUS ROG Crosshair VIII DARK HERO | 32GB G.Skill TridentZ Neo 3600MHz CL16-16-16-36 | be quiet! Dark Power Pro 12 1200W | 32" Acer Predator XB323UGX QHD IPS 270 Hz | 27" Acer Predator XB271HU IPS 165 Hz |

Permalänk
Bildexpert 📺
Skrivet av maLakai:

Jag kör med Dvi-D (1920x1080 @ 144hz). Borde jag byta till Displayport istället?
Fattar inte om DVI (single/dual) är samma som DVI-D

Du kör DVI-D Dual Link idag eftersom det är det som krävs för att köra din skärm i 144 Hz. Den enda gången DVI inte är "DVI-D" är ifall du kopplar den analogt, till exempel med en VGA-adapter.

Fortsätt med det som fungerar. Du behöver inte byta något. Klarar din skärm att köra signalen över Displayport så är det positivt eftersom ifall du vill byta grafikkort i framtiden kanske det inte finns någon DVI Dual Link att tillgå på nya grafikkort.

Permalänk
Medlem
Skrivet av nmc:

Är det möjligt att öka frekvensen på U2713HM med Dual-Link?

Den accepterar högre signal men klipper bort frames. Så det blir sämre att mata den med mer än 60Hz.

Skrivet av Beltet:

Varför inte det? Som jag förstår det av artikeln är det faktiska pixel antalet 4000 i UHD/4K. Jag citerar:

"Vi listar är ett par vanliga pixelmatriser, deras faktiska totala mängd pixlar och vilken pixelklocka som krävs samt vanligt förekommande frekvenser. Värden kommer från VESA:s generella metod för att utforma signalen. I praktiken kan det alltså skilja sig en del skärm till skärm."

Jag är ingen expert, rätta mig gärna om jag har fel.

Edit: på bredden är pixel antalet 4000...

Mig veterligen är 4K biostandarden och UHD hemmastandarden. Precis som 2K för bio och FHD/1080p för hemmabruk.

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk
Medlem
Skrivet av sniglom:

Den accepterar högre signal men klipper bort frames. Så det blir sämre att mata den med mer än 60Hz.

Mig veterligen är 4K biostandarden och UHD hemmastandarden. Precis som 2K för bio och FHD/1080p för hemmabruk.

Men visst är 4K och UHD samma sak?

Om man enbart skriver UHD, så säger det inte så mycket om det är 4K UHD eller 8K UHD.

Själv gillar jag benämningen 4K UHD bättre än bara UHD.

Jag tycker att det känns lite som att formatet i skrift inte riktigt har satt sig än, om ni förstår vad jag menar. Men det kommer väl lika säkert som allting annat.

/Edit Wiki 4K UHD & 8K UHD

La till en länk
Visa signatur

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[HP Microserver 12TB]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz, R9 290X Foto [Nikon D7000][70-300/35 1,8/18-55 [Skärmar=24",24",24" Eyefinity]

Permalänk
Medlem
Skrivet av sniglom:

Mig veterligen är 4K biostandarden och UHD hemmastandarden. Precis som 2K för bio och FHD/1080p för hemmabruk.

Japp. Biostandarden 4K innebär en maxupplösning på 4096×2160. Beroende på aspekt-ratio så fyller bilden alltid upp 4096 i bredd eller 2160 pixels i höjd eller både och.
Det betyder visserligen att bilden kan vara 3840×2160, men om aspekt-ratiot är bredare än 16:9 så är bilden alltid bredare än 3840, upp till 4096.

TV-standarden som heter "UHD" är begränsad till 3840×2160 i de bildpunkter som kan användas. Om man lägger till horizontal blanking så blir summan 4000 som fortfarande är mindre än de 4096 som 4K har.

En viktig detalj i sammanhanget är att det finns skärmar för professionellt bruk som är 2K respektive 4K på riktigt och man ska inte blanda ihop dessa med de som endast är Full HD respektive UHD.

Visa signatur

För övrigt anser jag att tobak ska förbjudas.

Permalänk

Superbra artikel! Tack!
En av dom största anledningarna att jag vill ha 144hz är för att få mindre ryckig gång i film, speciellt i dom fallen där video-FPS och skärmens uppdateringsfrekvens hamnar i osync.
144hz är då jätte bra, för att minimera problemen med att skärm och video inte syncar perfekt (för att inte tala om dom där skumma 23.976 formaten&co).

Dessutom är det bra för att minimera lagg i spel eftersom bilden ritas upp med mindre fördröjning. Speciellt när man kör tripple buffering och liknande.
Allt detta är trevligt tillsammans med att dom gångerna man faktiskt lyckas spela i 144hz och grafikkortet orkar så flyter det på som rinnande vatten.

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Medlem
Skrivet av lastninja:

Superbra artikel! Tack!
En av dom största anledningarna att jag vill ha 144hz är för att få mindre ryckig gång i film, speciellt i dom fallen där video-FPS och skärmens uppdateringsfrekvens hamnar i osync.
144hz är då jätte bra, för att minimera problemen med att skärm och video inte syncar perfekt (för att inte tala om dom där skumma 23.976 formaten&co).

Dessutom är det bra för att minimera lagg i spel eftersom bilden ritas upp med mindre fördröjning. Speciellt när man kör tripple buffering och liknande.
Allt detta är trevligt tillsammans med att dom gångerna man faktiskt lyckas spela i 144hz och grafikkortet orkar så flyter det på som rinnande vatten.

Då borde väl en freesync vara optimal? Eller Gsync om det är gröna laget i datorn.

Skickades från m.sweclockers.com

Visa signatur

Storburk: Ryzen 7 3700X, MSI B450M Mortar, FD Define Mini, CM M2 Silent 720W, 32 GB, RX 5700 XT 8GB, NVME SSD + HDD - HTPC: Ryzen 5 2400G, 16 GB, NVME SSD, BeQuiet 550W

Permalänk
Medlem

Intressant och bra läsning.

Visa signatur

Jag gillar hårdvara.
Jag gillar spel.
Jag gillar teknik.

Permalänk
Bildexpert 📺

"4K" finns specificerat som 4096x2160 pixlar i 17:9-format i den digitala biograf-standarden, DCI. Ultra HD/UHD har sin bas i HDTV med 3860x2160 pixlar och 16:9-format. Fast 4K-begreppet har använts extremt flitigt i apparatmenyer, reklammaterial, marknadsföring, specifikationer, dagligt tal och så vidare utan att det handlar om en specifik detalj i DCI-standarden.

Det förekommer även "4Kx2K" och står som en generell beskrivning för "cirka 4000 pixlar gånger cirka 2000 pixlar". På samma sätt används "4K" för att beskriva "cirka 4000 pixlar på bredden". Finns behovet att vara mer specifik kan man alltid skriva ut exakt mängd pixlar.

Sweclockers har därför valt att köra med "UHD/4K" beskrivningen eftersom det prickar in både det breda dagliga begreppet och den specifika pixelmatrisen.

Ifall man utgår från hur ofta begreppet "4K" används dagligen skulle jag påstå att det i 999 fall av 1000 handlar om 3840x2160 pixlar. Därför är det ganska enkelt sätt att skilja dem åt. När någon säger "4K" i konsumentsammanhang, TV-apparater, vanliga datorskärmar och så vidare handlar det om produkter med 3840x2160 pixlar. De få gånger man som konsument stöter på utrustning med 4096x2160 faktiska pixlar är de kanske 100 personer i landet som köpt Sonys 4K-projektorer likt VPL-VW300 med flera. Och även då kör de allra flesta de projektorerna i 16:9-format och 3840x2160 pixlar eftersom det är det format du möter som konsument.

Jag har då inga problem att här på forumet förstå att personen som ställer frågor om "4K-skärmar" syftar på produkter med 3840x2160-pixelmatris. Inte för att det har någon större betydelse egentligen, kraven på hårdvaran är i praktiken identiska.

Permalänk
Medlem

Tack för en mycket bra artikel. Förklarar det på en bra nivå då det är svårt att sätta in sig i denna djungel av siffror. Det var tur att man inte stirrar sig blind på siffror och hopade på tåget med en 4K tv när det finns så många begränsningar..

Visa signatur

Dell U2311H / MSI Optix MAG274QRF-QD
[ FD 7 Black TG Dark ][ MSI Z690 EDGE WIFI DDR4][ I7 12700K ][ Noctau NH-D15 Black ][ Kingston Fury Renegade 32GB 3600Mhz CL16 DDR4][ WD Blue M2 1TB][ Samsung 860 500 GB ][ WD Caviar Green (EZRX) 1TB ][ Corsair RM850x v3 ][ MSI GTX 1060 GamingX 6GB ][ Backup WD Caviar Green (EARX) 2TB ] [ Backup Seagate BarraCuda (ST2000DM006) 2TB ]
[ Qpad MK-50 ][ SteelSeries Sensei Ten ]

Permalänk
Skrivet av Videoapan:

Då borde väl en freesync vara optimal? Eller Gsync om det är gröna laget i datorn.

Det är givetvis bra, men jag syftar inte på problem med tearing.

Jag syftar på att tex en 60hz skärm visar en ny frame var 16,6ms, och så vitt jag förstått så påverkar inte Gsync/freesync skärmens riktiga hz, men att tekniken gör så att det alltid finns en bild redo från grafikkortet när det är dags att "rita".
Och att denna approach just gynnar spel för att dessa bilder inte renderas med en bestämd intervall och därför kan anpassas till skärmen (=spelet ska rendera när skärmen kräver), till skillnad mot film som istället kräver en exakt delay där istället skärmen måste anpassa sej efter mediaformetets krav (=skärmen måste vara redo att rendera när mediaformatet så kräver).

Men jag kanske missförstått dessa tekniker (att det bara skulle handla om just tearing) och att dom på riktigt kan tvinga ex 60hz skärmar att rendera snabbare eller långsammare än just 16,6ms per bild (..alltså på riktigt, inte bara virtuellt).
En annan fråga om Gsync/Freesync.. Aktiveras dessa tekniker i desktopläge eller bara i spel när DirectX/Direct3D används?

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Medlem

Möjligen bästa artikeln någonsin på sweclockers lätt att förstå och bra förklarat, om ändå allt kunde vara så här bra researchat

Permalänk
Medlem
Skrivet av lastninja:

Det är givetvis bra, men jag syftar inte på problem med tearing.

Jag syftar på att tex en 60hz skärm visar en ny frame var 16,6ms, och så vitt jag förstått så påverkar inte Gsync/freesync skärmens riktiga hz, men att tekniken gör så att det alltid finns en bild redo från grafikkortet när det är dags att "rita".
Och att denna approach just gynnar spel för att dessa bilder inte renderas med en bestämd intervall och därför kan anpassas till skärmen (=spelet ska rendera när skärmen kräver), till skillnad mot film som istället kräver en exakt delay där istället skärmen måste anpassa sej efter mediaformetets krav (=skärmen måste vara redo att rendera när mediaformatet så kräver).

Men jag kanske missförstått dessa tekniker (att det bara skulle handla om just tearing) och att dom på riktigt kan tvinga ex 60hz skärmar att rendera snabbare eller långsammare än just 16,6ms per bild (..alltså på riktigt, inte bara virtuellt).
En annan fråga om Gsync/Freesync.. Aktiveras dessa tekniker i desktopläge eller bara i spel när DirectX/Direct3D används?

Hela grejen med sync-teknikerna är just att de får skärmen att byta intervall. De kan inte få den att byta bild snabbare än sin specifikation men det den gör är att hålla bilden tills nästa är redo och sen rita den utan fördröjning. I teorin kan det då bli perfekt för film, vet inte hur det är i praktiken då jag inte har en sådan skärm (eller kort)

Skickades från m.sweclockers.com

Visa signatur

Storburk: Ryzen 7 3700X, MSI B450M Mortar, FD Define Mini, CM M2 Silent 720W, 32 GB, RX 5700 XT 8GB, NVME SSD + HDD - HTPC: Ryzen 5 2400G, 16 GB, NVME SSD, BeQuiet 550W

Permalänk
Avstängd

Okej så 4K i 144 Hz kan vi glöma inom snart framtid. Det ligger långt fram i framtiden.
Men 4K i 120 Hz då?
Eller 4K i 100 Hz då?

Permalänk
Entusiast
Skrivet av Svantesson666:

Finns det någon anledning mer än förlusten av ström varför man inte använder optisk kabel för överföringen? Då borde det väl kabel i sig inte längre ha någon direkt kapacitetsbrist?

En vild gissning är att det är samma anledning som varför Intel valde bort optisk överföring i Thunderbolt, det är för dyrt. Optiska komponenter som kan hantera den bandbredden är fortfarande väldigt dyra. Med tanke på att Intels billigare Thunderbolt-styrkretsar ändå lägger på runt en hundralapp på slutpriset så handlar det nog om en rätt tråkig prisbild för optiska prylar.

Nu finns ju TOSLINK som ett vanligt och billigt optiskt gränssnitt men den har en maximal bandbredd på 125 Mb/s. Skärmkablar behöver ju 20-30 Gb/s så det sakna sen faktor hundra i bandbredd. Fiber Channel har tillräckligt med bandbredd för att motsvara DP 1.3 men det kostar en hel del.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

En vild gissning är att det är samma anledning som varför Intel valde bort optisk överföring i Thunderbolt, det är för dyrt. Optiska komponenter som kan hantera den bandbredden är fortfarande väldigt dyra. Med tanke på att Intels billigare Thunderbolt-styrkretsar ändå lägger på runt en hundralapp på slutpriset så handlar det nog om en rätt tråkig prisbild för optiska prylar.

Nu finns ju TOSLINK som ett vanligt och billigt optiskt gränssnitt men den har en maximal bandbredd på 125 Mb/s. Skärmkablar behöver ju 20-30 Gb/s så det sakna sen faktor hundra i bandbredd. Fiber Channel har tillräckligt med bandbredd för att motsvara DP 1.3 men det kostar en hel del.

Ah ok. Tack för svar.

Permalänk
Bildexpert 📺
Skrivet av rektor:

Okej så 4K i 144 Hz kan vi glöma inom snart framtid. Det ligger långt fram i framtiden.
Men 4K i 120 Hz då?
Eller 4K i 100 Hz då?

Står indirekt i artikeln men 4K/120 Hz är i dagsläget en bit ovanför Displayport 1.3-specifikationen. Det kommer finnas trick för att nå högre genomströmning i form av VESA Display Stream Compression (DSC) som lossy-komprimerar signalen. Främst för att få igenom större pixelmatriser (som 8K) så det är oklart hur det fungerar med högre frekvens. Det verkar inte som VESA haft tankarna riktade mot 144 Hz och 4K-gaming på 4-vägs SLI- och CF-lösningar direkt.

Fast det krävs så mycket mer än så innan 4K/120 och 144 Hz Hz är möjligt. DSC är endast villkor #1 (standarden) och det måste till #2 grafikkort som följer standarden (inklusive DSC) och det måste till #3 kretsuppsättningar för skärmarna som följer samma standard (inklusive DSC). Inget av #2 och #3 finns ännu. Och även om DSC implementeras i hårdvara är det fortfarande en öppen fråga med 144 Hz-hantering.

Här borde jag också lägga till två villkor till:

#4 Kretsuppsättningarna som klarar detta måste börja masstillverkas, upp i volym och ned i pris, så att skärmtilllverkarna vill stoppa in dem i skärmarna.

#5 Det måste förstås till 4K-bildskärmspaneler som kan drivas i 120 och 144 Hz.

Båda de sakerna är också långt bortom horisonten.

Som exempel på hur lång tid det kan ta från specifikation till verklighet sattes DP 1.2 redan för sex år sedan, 2009. Först 2014 började det komma skärmar med kretsuppsättningar som klarade en pixelklocka på 600 MHz i en dataström (SST). Lösningen innan det var MST-lösningen där kretsuppsättningen "fejkade" två skärmar (med 2x300 MHz pixelklocka) och bakade ihop bilden till 4K/60Hz. Den lösningen är inte helt problemfri.

Sex år efter Displayport 1.2 sattes verkar det som #3 kretsuppsättningarna fortfarande inte når den fulla kapaciteten hos standarden. Det ger lite perspektiv åt hur långt tid det tar innan teori blir verklighet.

Permalänk
Entusiast
Skrivet av Laxpudding:

Står indirekt i artikeln men 4K/120 Hz är i dagsläget en bit ovanför Displayport 1.3-specifikationen. Det kommer finnas trick för att nå högre genomströmning i form av VESA Display Stream Compression (DSC) som lossy-komprimerar signalen. Främst för att få igenom större pixelmatriser (som 8K) så det är oklart hur det fungerar med högre frekvens. Det verkar inte som VESA haft tankarna riktade mot 144 Hz och 4K-gaming på 4-vägs SLI- och CF-lösningar direkt.

Fast det krävs så mycket mer än så innan 4K/120 och 144 Hz Hz är möjligt. DSC är endast villkor #1 (standarden) och det måste till #2 grafikkort som följer standarden (inklusive DSC) och det måste till #3 kretsuppsättningar för skärmarna som följer samma standard (inklusive DSC). Inget av #2 och #3 finns ännu. Och även om DSC implementeras i hårdvara är det fortfarande en öppen fråga med 144 Hz-hantering.

Här borde jag också lägga till två villkor till:

#4 Kretsuppsättningarna som klarar detta måste börja masstillverkas, upp i volym och ned i pris, så att skärmtilllverkarna vill stoppa in dem i skärmarna.

#5 Det måste förstås till 4K-bildskärmspaneler som kan drivas i 120 och 144 Hz.

Båda de sakerna är också långt bortom horisonten.

Som exempel på hur lång tid det kan ta från specifikation till verklighet sattes DP 1.2 redan för sex år sedan, 2009. Först 2014 började det komma skärmar med kretsuppsättningar som klarade en pixelklocka på 600 MHz i en dataström (SST). Lösningen innan det var MST-lösningen där kretsuppsättningen "fejkade" två skärmar (med 2x300 MHz pixelklocka) och bakade ihop bilden till 4K/60Hz. Den lösningen är inte helt problemfri.

Sex år efter Displayport 1.2 sattes verkar det som #3 kretsuppsättningarna fortfarande inte når den fulla kapaciteten hos standarden. Det ger lite perspektiv åt hur långt tid det tar innan teori blir verklighet.

Jag har funderat på en sak. DP 1.3 släpptes ju för något år sedan och än så länge finns ganska exakt inget som stödjer det. Finns rykten om att nästa generation grafikkort ska ha det men det kan ju lika gärna vara önsketänkande. HDMI 2.0 verkar däremot ha spridit sig snabbare. Finns det en anledning till det att HDMI är snabbare att få ut? Finns det en koppling mellan att HDMI 2.0 och DP 1.2 kräver ungefär samma pixelklocka? Eller är signalen och protokollet så olika att det inte spelar någon roll? HDMI har ju fördelen av att vara standard inom AV där alla TV-apparater, Bluray med mera kör det. Är det därför det varit enklare att få spridning på HDMI 2.0 eller är helt enkelt VESA kassa på att få folk att använda deras standarder?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Jag har funderat på en sak. DP 1.3 släpptes ju för något år sedan och än så länge finns ganska exakt inget som stödjer det. Finns rykten om att nästa generation grafikkort ska ha det men det kan ju lika gärna vara önsketänkande. HDMI 2.0 verkar däremot ha spridit sig snabbare. Finns det en anledning till det att HDMI är snabbare att få ut? Finns det en koppling mellan att HDMI 2.0 och DP 1.2 kräver ungefär samma pixelklocka? Eller är signalen och protokollet så olika att det inte spelar någon roll? HDMI har ju fördelen av att vara standard inom AV där alla TV-apparater, Bluray med mera kör det. Är det därför det varit enklare att få spridning på HDMI 2.0 eller är helt enkelt VESA kassa på att få folk att använda deras standarder?

Thunderbolt 3 och Intel Skylake ryktades stödja det, men där har du det inte – möjligen att TB3 kommer kunna tunnla DP1.3 när det kommer. Något Z170-moderkort listades också som HDMI2.0 och HDCP2.2, men HDCP 2.2 betyder att du behöver stödja DP1.3 i princip, eftersom dessa kort inte ens har HDMI2.0 utan en DP>HDMI2.0 600MHz aktiv brygga. Alltså var dessa specifikationer troligen inte sanna. De kan troligen bara stödja HDCP 2.0. Det finns dock inget måste att det måste vara DP1.3, men en GPU utan HDMI 2.0 har nog inte stöd. AMD har inte heller stöd för HDMI 2.0 i dagsläget. Så jag skulle säga att det inte är någon spridning, det är bara andra generationens Maxwell som har 600MHz HDMI/TMDS.

HDMI kör samma signaler som DVI-D, det är helt olika block i hårdvaran för DP som kör helt annan teknik, för att generera helt andra signaler och använda andra protokoll. DP1.3 och HDMI2.0 har mer med varandra att göra då båda kan köra samma kopieringsskydd HDCP 2.2 som jag redan antytt. HDCP 2.2 kommer krävas för att du ska få kolla på strömmat material i "4K", likaså krävs det för Ultra-HD Blu-ray. I dagsläget är det typ bara Nvidia Shield TV som har HDMI 2.0 och HDCP 2.2 tillsammans med 4K 60 fps HEVC-stöd med HEVC Main10, samt kan streama t.ex. 4K Netflix. Deras grafikkort klarar inte allt det, och de kan inte certifieras för 4K Netflix eller liknande tjänster.

Permalänk
Entusiast
Skrivet av Petterk:

Thunderbolt 3 och Intel Skylake ryktades stödja det, men där har du det inte – möjligen att TB3 kommer kunna tunnla DP1.3 när det kommer. Något Z170-moderkort listades också som HDMI2.0 och HDCP2.2, men HDCP 2.2 betyder att du behöver stödja DP1.3 i princip, eftersom dessa kort inte ens har HDMI2.0 utan en DP>HDMI2.0 600MHz aktiv brygga. Alltså var dessa specifikationer troligen inte sanna. De kan troligen bara stödja HDCP 2.0. Det finns dock inget måste att det måste vara DP1.3, men en GPU utan HDMI 2.0 har nog inte stöd. AMD har inte heller stöd för HDMI 2.0 i dagsläget. Så jag skulle säga att det inte är någon spridning, det är bara andra generationens Maxwell som har 600MHz HDMI/TMDS.

HDMI kör samma signaler som DVI-D, det är helt olika block i hårdvaran för DP som kör helt annan teknik, för att generera helt andra signaler och använda andra protokoll. DP1.3 och HDMI2.0 har mer med varandra att göra då båda kan köra samma kopieringsskydd HDCP 2.2 som jag redan antytt. HDCP 2.2 kommer krävas för att du ska få kolla på strömmat material i "4K", likaså krävs det för Ultra-HD Blu-ray. I dagsläget är det typ bara Nvidia Shield TV som har HDMI 2.0 och HDCP 2.2 tillsammans med 4K 60 fps HEVC-stöd med HEVC Main10, samt kan streama t.ex. 4K Netflix. Deras grafikkort klarar inte allt det, och de kan inte certifieras för 4K Netflix eller liknande tjänster.

Som du säger har Maxwell gen 2 stöd för HDMI 2.0, gen 1 hade halvt stöd genom chroma subsampling, oklart om någon faktiskt använde det. Skylake har ju typ stöd med hjälp av brygga. Fast sen har du andra sidan. Det dök upp TV-apparater med stöd för HDMI 2.0 rätt snabbt och även Blu-rayspelare. Så där har du både källor och bildvisare med stöd för HDMI 2.0. Ingen aning om de faktiskt stödjer 600 MHz klocka dock eller om de bara klistrade på loggan då en vanlig blu-rayspelare ändå inte stödjer någon output som inte HDMI 1.4 redan klarar. Om den nu inte råkar ha någon by-pass men det kanske den löser passivt eller nåt.

DP 1.3 genom TB 3 vore en intressant manöver. Skicka en videosignal genom Thunderbolt som är en alternate mode i USB 3.1. Så DP 1.3 > TB 3.0 > USB 3.1. Saknas bara en USB 3.0 genom AUX-kanalen i DP för att förvirringen ska vara total.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Det är väldigt stor fokus på HDMI i artikeln, varför det? Är inte standarden för datorer DisplayPort? Är det för att den för länge sedan utdaterade DVIn är föregångare till HDMI, eller?

Hajjar inte riktigt. Trodde HDMI var en rätt irrelevant standard för anslutningen Dator - > Skärm, speciellt eftersom den inte räcker till. Men jag kan ju haft fel?

Permalänk
Bildexpert 📺
Skrivet av Zotamedu:

HDMI 2.0 verkar däremot ha spridit sig snabbare. Finns det en anledning till det att HDMI är snabbare att få ut? Finns det en koppling mellan att HDMI 2.0 och DP 1.2 kräver ungefär samma pixelklocka?

HDMI 2.0 spikades sept 2013 och tar tillvara på det idag aktuella behovet, dvs 600 MHz pixelklocka för 4K/60 Hz och det var verkligen inte en dag för sent. Sedan tog det ca ett år innan TV-apparater med 600 MHz pixelklocka dök upp och nu 2015 börjar det komma på bred front. Det fanns alltså ett mycket större behov att uppdatera HDMI-specifikationen och få ut hårdvara.

DP 1.2 spikades dec 2009 och hade redan då tagit höjd för 4K/60 Hz (och mer). 4K-displayer i stora volymer kom först under 2012 och 2013. Så Displayport 1.2 täckte redan in framtiden så att säga.

Med DP 1.3 täcker in man återigen in ett framtida behov. Det finns i dagsläget ingen bred volymprodukt som behöver Displayport 1.3-kapacitet. Därför kommer det att dröja lite längre innan vi ser DP 1.3.

Permalänk
Entusiast
Skrivet av Laxpudding:

HDMI 2.0 spikades sept 2013 och tar tillvara på det idag aktuella behovet, dvs 600 MHz pixelklocka för 4K/60 Hz och det var verkligen inte en dag för sent. Sedan tog det ca ett år innan TV-apparater med 600 MHz pixelklocka dök upp och nu 2015 börjar det komma på bred front. Det fanns alltså ett mycket större behov att uppdatera HDMI-specifikationen och få ut hårdvara.

DP 1.2 spikades dec 2009 och hade redan då tagit höjd för 4K/60 Hz (och mer). 4K-displayer i stora volymer kom först under 2012 och 2013. Så Displayport 1.2 täckte redan in framtiden så att säga.

Med DP 1.3 täcker in man återigen in ett framtida behov. Det finns i dagsläget ingen bred volymprodukt som behöver Displayport 1.3-kapacitet. Därför kommer det att dröja lite längre innan vi ser DP 1.3.

Fast DP 1.3 har ju lite andra funktioner än bara ren bandbredd som är intressant. I praktiken kan ju DP 1.3 göra allt som HDMI 2.0 kan i och med att de slängt i den sista DRM-skiten som filmindustrin med flera prompt vill ha med i en videokabel. Personligen hade jag gärna sett DP ta över helt så att HDMI kan gå och dö men innan det kan ske behövs DP 1.3. Kompatibilitet går ju att lösa med dual-mode.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Bildexpert 📺
Skrivet av Ernesto:

Det är väldigt stor fokus på HDMI i artikeln, varför det? Är inte standarden för datorer DisplayPort? Är det för att den för länge sedan utdaterade DVIn är föregångare till HDMI, eller?

Hajjar inte riktigt. Trodde HDMI var en rätt irrelevant standard för anslutningen Dator - > Skärm, speciellt eftersom den inte räcker till. Men jag kan ju haft fel?

Vad menar du med att HDMI inte räcker till? Både HDMI och DP svarar mot kravet som dagens displayer ställer, vilket är en pixelklocka på 600 MHz.

HDMI är en bred standard som fyller långt mer behov och nischer jämfört med Display Port. HDMI är också de-facto för den som behöver ansluta en TV, projektor, receiver och behöver tillgång till långa kabelanslutningar, inklusive trådlösa länkar och AV-distribution i föreläsningssalar etc. Många bärbara datorer har också endast HDMI som enda digital anslutning.

Displayport är en på många sätt enklare (och mindre rörig) standard som främst fungerar för en dator-skärm-anslutning med korta kablar i en statisk miljö likt ett skrivbord. Där är Displayport en starkare teknik.

Båda teknikerna är relevanta. Behoven skiljer sig åt.

Permalänk
Bildexpert 📺
Skrivet av Zotamedu:

Fast DP 1.3 har ju lite andra funktioner än bara ren bandbredd som är intressant. I praktiken kan ju DP 1.3 göra allt som HDMI 2.0 kan i och med att de slängt i den sista DRM-skiten som filmindustrin med flera prompt vill ha med i en videokabel. Personligen hade jag gärna sett DP ta över helt så att HDMI kan gå och dö men innan det kan ske behövs DP 1.3. Kompatibilitet går ju att lösa med dual-mode.

Fast du svarar väl på din egen fråga där?

Det finns ingen anledning till att i tvinga ut DP 1.3 i hårdvara i grafikkort och skärmar för att fylla det behov som HDMI 2.0 redan fyller. Då kan man ju lika gärna köra HDMI 2.0 från början. DRM-problematiken hör ju också främst hemma i den värld där HDMI 2.0 redan är härskare.

För det enkla koppla-dator-till-skärm-och-köra-Windows-och-spel-behovet räcker ju Displayport 1.2 i dagsläget.