HDMI Forum lanserar HDMI 2.1

Permalänk
Medlem

4k standard/vardagsmat? Jag känner inte jävel som har 4k. Däremot är jag en av de få som jag känner som kör stationärt, 95% kör en laptop och när jag hade en full hd-skärm (för 2 år sen) då blev folk helt golvade, inte pga upplösningen men för att texten blev så liten. (jag hade inte behov att skala upp).

Ähh kör glatt på in 2560x1600 och hoppas att det finns ett bra VR-sätt att jobba i med om 5 år när skärmen eventuellt går sönder så man slipper ta upp så otroligt mycket plats på skrivbordet.

Visa signatur
Permalänk
Bildexpert 📺

@Barsk66: Det finns en officiellt undersökning från SMPTE där de undersökte upplösningen på visningskopior av analog film på diverse biografer runt om i världen och fann att förutom att optik och duk var olika världen över, så hade framkallningsprocessen en betydelse för upplösningen på analog film. Upplösningen motsvarade 600-800 vertikala linjer beroende på biograf/film etc. Alltså i snitt motvsarande 720p och 1 megapixel.

Ska försöka rota tag i SMPTE-undersökningen i den om jag hittar

Originalfilmer och negativ etc. är förstås en helt annan sak och där varierar det betydligt mer.

Permalänk
Medlem
Skrivet av Paddanx:

Jag jobbar med en kollega på konferens anläggning ibland och HDMI fungerar klockrent där... så länge du inte kör 1360x768. Den 100kkrs utrustning där som klarar DP, VGA, DVI och HDMI (nativt), med scaleing och ljud inbyggt har helvete med denna icke standard (trots att 1080p och 4k går bra).

Vi hade samma problem med tidigare utrustning och äldre system också, om HDMI användes rakt in i projektorn. Kör man VGA/DVI fungerar de kanon... DP också... konstigt nog.

Så nej... dessa fungerar inte med HDMI system. Lösningen är att sätta det till 1280x720... då fungerar allt klockrent. Därför säger jag detta jag gör ovan, då med 5+ års erfarenhet av detta problem, i verkligheten, med 100+ laptops genom åren... är dessa icke standarder ett helvete.

Åter:
Standardisera dem, eller gtfo.

Så... HDMI 2.2 om den får dessa, är jag med er. Tills dess stannar DP som har stöd för det, tack.

Tror inte att problemet i det här fallet ligger i HDMI-standarden själv utan i om raderna är jämna multiplar av 16, 32 eller ännu högre potenser av två. 1366*768 är en idiotisk storlek: Någon tog XGA (1024*768) och bara gjorde det bredare till 16:9, och då blir det 1366 - 1024*16/12 = 1365,3, avrundar det uppåt, svårare än så var det inte. Då blev det problem för att raderna inte var jämnt delbara med 16, vilket alla tidigare standarder varit, så som en nödlösning fick det bli 1360*768. Då är det tyvärr inte riktigt 16:9 längre, och 1360 är fortfarande inte delbart med 32, och detta gör att det ibland blir problem med lite "smartare" utrustningar som försöker skala.

Bara undvik. Vinsten mot 1280*720 är ändå minimal.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Neldor:

Å andra sidan är det bara Viasat Ultra som sänder i 1080p eller högre på svenska marknaden. Så det är inte precis unikt.

1080p är ingen broadcaststandard - eller var åtminstone inte det när HD definerades, det kan möjligen ha blivit det i efterhand - så det är ett väldigt ovanligt format att sända i. I HD-formatet ingår 720p och 1080i. Om källformatet är en analog film kan man lätt förvandla 1080i50 till 1080p25, vilket ser bättre ut, och det är det många Blurayspelare som gör (samt även DVDer som gör med gammal vanlig SD-film) men att digitalt spela in och sända 1080p50 ingår inte i standarden. Steget mellan 720p och 1080p är för litet för att bry sig om, bättre att gå på 4K direkt.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av GilbertG:

Produkter med DP lanserades inte förrän 2008. HDMI klarade 4K redan 2006, om än bara i 30hz. Att sedan ingen använde sig av det kan ju bero på att det inte fanns några skärmar med den upplösningen…

Eller på att det är tortyrmässigt att använda 30Hz till vanligt arbete. Har en KVM hemma som ibland strular med att jag bara får 30Hz från PCn, och det känns som att ögonen blöder varje gång man rör muspekaren.

Citat:

DP hade ett tekniskt försprång kring 2010-2013 där det var att möjligt att köra 4K i 60hz. Men grafikkorten då kunde ju knappast driva 3D-grafik i den upplösningen, så det är ju i praktiken bara för video och bildarbete som 4K användes, och till det räcker ju 30hz.

Kan användas för dagligt arbete, dvs vanlig desktop-jobb. Apple körde upplösningar högre än vad HDMI kunde klara från Retina-MBP 2012. Det är fyra år som HDMI inte kunde göra något som var en standard-funktion från en de större OEMerna.

Vad jag inte fattar är varför HDMI satt och sov. Åtminstone Intel och AMD var tydliga med att de skulle börja stödja 4K-upplösningar fr.o.m 2012, och då tog det ändå 4 år till innan HDMI var framme.

Citat:

Angående variabel frekvens så var det bara för inbäddade system. Externt kom det inte förrän med FreeSync såatteh…

Mja. Det ingick i standarden, men implementerades inte va någon. Men visst, om vi talat om vad som finns i verkliga produkter under resten av diskussion, så OK.

Citat:

Jag vidhåller att DP är en helt onödig standard som inte löser något reellt problem.

1. Under fyra år kunde HDMI inte göra något som var en standardfunktion från en OEM, något som kunderna (alltså OEMer) direkt efterfrågade och något som DP klarade. Att det tog minst 4 och sannolikt 6 år från att alla roadmappar var offentliga till att problemet var löst är under all kritik.
2. Kretsarna för att generera signalen tar mer plats, eftersom de analoga kretsarna inte kan krympas på samma sätt. Det är därför HDMI inte längre ingår i iGPUn från Intel, utan det krävs ett externt chip.
3. Systemet är mindre effektivt, och behöver därför mer komplexa kablar och mer energi för att göra samma sak som DP klarar.

Mitt största problem med HDMI är inte grejorna - de är sämre, men de är inte viktigt - utan hur organisationen bakom har agerat. De plockade en standard de inte utvecklat (DVI från VESA), ändrade formen på porten och skulle ta ut en licensavgift. De snackar alltid om hur deras nya standard skall vara så bra, men sen kommer grejerna inte ut på marknaden förrän år senare. Enda fördelen är att det kan vara billigare. Om HDMI fortsätter att vara billigare med 2.1 och börjar fungera tillfredställande - utmärkt. Men jag tror det när jag ser det, för den underliggande teknologin är sämre, och de nya kablarna ser dyra ut.

Visa signatur

5900X | 6700XT

Permalänk
Skrivet av zetruz:

Det behöver inte alls dröja tills produkter med HDMI 2.1 kommer; Xbox One X har det redan. Eller rättare sagt, den har hårdvaran som krävs, och de kommer nu behöva uppdatera 2.0-kontakterna till 2.1-standarden i firmware. Andra tillverkare kan alltså göra samma sak.

Jättekul med denna standard.

Stämmer detta? 😮

Skickades från m.sweclockers.com

Visa signatur

---CPU---Intel Core 2 QUAD Q9550 2.83GHz 12MB FSB1333
---RAM---DDR2 PC2-8500 1066MHz CL5-5-5-15
---MOBO---Maximus II GENE ( P45/ICH10R , Dual-channel, DDR2 1300)
---PSU----Corsair HX520W ---GPU--- Radeon HD6850

Permalänk
Medlem
Skrivet av Laxpudding:

@Barsk66: Det finns en officiellt undersökning från SMPTE där de undersökte upplösningen på visningskopior av analog film på diverse biografer runt om i världen och fann att förutom att optik och duk var olika världen över, så hade framkallningsprocessen en betydelse för upplösningen på analog film. Upplösningen motsvarade 600-800 vertikala linjer beroende på biograf/film etc. Alltså i snitt motvsarande 720p och 1 megapixel.

Originalfilmer och negativ etc. är förstås en helt annan sak och där varierar det betydligt mer.

Ja, suddiga visningskopior har man ju sett på bio. Men det är ju inte dom man har som källa vid en skanning till digital kopia. Utan det är ju orginal-filmnegativen som kommer ifråga här. Såg nån kommentar på nätet nånstans om att att så gammal film som Wizard of the Oz, skulle kunna skannas om och få ut upp till motsvarande 8 eller 10K upplösning. Men de negativen kanske är större än 70 mm? Fanns ju en massa olika filmvarianter förr i världen.

Permalänk
Bildexpert 📺

Jag har lite svårt att se vad ett stopprace om vilken standard som först specade den högsta siffrorna på något skulle ha betydelse. Displayport kommer alltid att vinna det racet eftersom det är en så mycket mindre komplex standard. Jämfört med HDMI som är en gigantisk Paellapanna med sjuttioelva kockar som häller ned ingredienser.

4K/24 och 4K30 var möjligt i och med 1.4-specen från 2009, långt innan det kom konsumentprodukter som klarar detta. Första exemplet jag träffade på är Sonys VW1000-projektor från 2012. Min Quantum 780 fick en uppdatering för 4K/24/30 året innan men det fanns inte produkter i omlopp där det kunde testas.

4K/60 med HDMI 2.0-specen (från 2013) började leta sig in i produkter under 2014. Men många produkter från 2014 och 2015 kör inte 600 MHz utan är kvar på 300 eller 450 MHz. Så även i dag i budget-TV och ironiskt nog, Sonys 4K-projektorer likt VW550.

En felande länk är Panasonics 65-tums WT600 från hösten 2013 där man hade plockat in Displayport för att få in 4K/60 eftersom inga HDMI-kretsuppsättningar baserade på 2.0-specen ännu fanns. Ett ensamt undantag med Displayport på en TV. Det var också då under 2013 som datormonitorer med 4K började dyka upp i mer konsument/pc-inriktade produkter och prisnivåer.

Så med små undantag har det rent praktiskt och produktmässigt inte varit allt för stor tidsskillnad för DP mot HDMI vad gäller tillgänglighet sådant som 4K. Specifikationer? Ja. Faktiska produkter? Not so much.

Att HDMI nu blir lika kapabelt som DP är positivt för alla inblandade. Nu måste VESA ta tag i kabel- och tillförlitlighetsproblemen. Och snart kanske vi slipper tänka på vilken anslutning som fungerar med vad.

Permalänk
Bildexpert 📺

@Barsk66: Skulle säga att det som alltid i den här domänen är en flytande, amorf gräns mellan kvalitet och kvantitet. Kvalitet som i mätbar upplösning och kvantitet som i mängden pixlar i skannern. Har en känsla av de siffror som slängs fram är lika amorfa.

Permalänk
Inaktiv
Skrivet av SeF.Typh00n:

Du får tänka på att detta innebär att du kan köra högre uppdateringsfrekvenser med nuvarande upplösningar också.

Det finns ju gott om material om man tänker på datorn.

Det ända som faktiskt tjänar på 4k är text och den sabbas av idiotiska 16:9 eller ännu värre bildförhållanden och text är knappast känslig för uppdateringsfrekvensen.

Ända som är kvar är video och spel. Ingen av de är speciellt mycket bättre med 4k. Dyrare vilket oftast leder till att man sparar in på det som är viktigt. Så vi får skit med mycket bling.

Permalänk
Bildexpert 📺

Själva upplösning 4K (och 8K etc.) är bara den minst viktiga detaljen av de förändringar som sker nu. De ökade bandbredderna och funktionerna som det handlar om är det som lyfter oss från 60-talets färg-tv-standard som fortfarande är grunden för allt vi tittar på, inklusive skärmen där du läser detta på. Jag är då glad över att 50 år av väntan och årtionden av försök att förändra bildmöjligheterna äntligen blir av.

Permalänk
Medlem
Skrivet av Laxpudding:

4K/60 med HDMI 2.0-specen (från 2013) började leta sig in i produkter under 2014. Men många produkter från 2014 och 2015 kör inte 600 MHz utan är kvar på 300 eller 450 MHz. Så även i dag i budget-TV och ironiskt nog, Sonys 4K-projektorer likt VW550.

Vilket är exakt det jag kritiserat flera gånger. HDMI behöver en standard på vad som krävs på ingångar och utgångar också, och dessa ska också certifieras för det. Lite som 80 PLUS... du kan säga att agget klarar 85%, men kanske då inom extremt snävt spann. Men hela produkten måste certifieras för att klara det, inte bara en kabel eller i teorin.

Det behöver mao finnas en märkning på produkterna, med krav för att kunna då lov att sätta "HDMI 2.0" (eller vilket namn de nu vill ha), ska den stöda... allt inom den specifikationen. Annars blir den lägre klass.

Skrivet av Laxpudding:

Att HDMI nu blir lika kapabelt som DP är positivt för alla inblandade. Nu måste VESA ta tag i kabel- och tillförlitlighetsproblemen. Och snart kanske vi slipper tänka på vilken anslutning som fungerar med vad.

Denna biten håller jag dock med. VESA behöver ta tag i den skiten. Och jag tror det är därför kontakten inte blir så populär, för i grunden är den minst lika bra, med bara så enkla saker som en hake så inte kabeln ramlar ut när du drar fram TVn.

Skrivet av Laxpudding:

Själva upplösning 4K (och 8K etc.) är bara den minst viktiga detaljen av de förändringar som sker nu. De ökade bandbredderna och funktionerna som det handlar om är det som lyfter oss från 60-talets färg-tv-standard som fortfarande är grunden för allt vi tittar på, inklusive skärmen där du läser detta på. Jag är då glad över att 50 år av väntan och årtionden av försök att förändra bildmöjligheterna äntligen blir av.

Tänker du på HDR och färgdjup, eller vad menar du?

@mpat Mjo kan mycket väl vara så. Lite så verkar 144Hz också vara... då det är inte en faktor 30Hz/25Hz, så enheterna reder inte ut det. Samma med 165Hz. Och samma är ju med MS nya 3:2 och alla möjliga udda saker.

Lite därför jag ibland har svårt att svälja detta med att "HDMI fungerar, bara den klarar bandbredden", för det är tyvärr inte hela sanningen. Men jag håller med 1280x720 fungerar som bra mellanväg. Det är dock lite bökigt när de mitt i en presentation ska byta dator.. och pluggar in en med detta. Då måste man snabbt "hjälpa dem" medans 300 pers tittar på, när det annars bara borde fungera.

Permalänk
Medlem
Skrivet av Paddanx:

Det behöver mao finnas en märkning på produkterna, med krav för att kunna då lov att sätta "HDMI 2.0" (eller vilket namn de nu vill ha), ska den stöda... allt inom den specifikationen. Annars blir den lägre klass.

Vilket är exakt varför man INTE kan göra som du efterfrågar. Det faller på sin egen orimlighet Det finns inga produkter idag som klarar 10K. Specen är något som specar sker vi har behov av idag, dessa kommer implementeras nu, sen specar den en mängd saker som just den prylen inte har behov av eller som blir av intresse i framtiden. I.o.m att HDMI 2.1 specar nåt som ska vara framtidssäkert så KAN inte allt implementeras. Inte inom de närmaste åren i vart fall.

Permalänk
Bildexpert 📺
Skrivet av Paddanx:

Det behöver mao finnas en märkning på produkterna, med krav för att kunna då lov att sätta "HDMI 2.0" (eller vilket namn de nu vill ha), ska den stöda... allt inom den specifikationen. Annars blir den lägre klass.

Fast titta på HDMI på Wikipeda och alla de funktioner som beskrivs där. Det är en rätt lång lista av funktioner, signaler och omständigheter som bär olika nivåer av relevans för olika typer av produkter. En datorskärm har inte samma behov som en TV som inte har samma behov som en receiver som inte har samma behov som en konsol som inte har samma behov som en switch som inte har samma behov som BD-spelare och så vidare.

Vad du beskriver är en omöjlig situation där produkter som måste "stöda allt" blir hopplösa monster. Finns ingen tillverkare går med på det eller ens tänker tanken att lösa detta på det här sättet.

Vad som vore mycket, mycket bättre är ifall tillverkarna en gång för alla började ange i produktspecarna vilka funktioner som faktiskt fungerar med produkten!

Att de skriver ut exakt bandbredd, exakta format och så vidare. Nu är det mer eller mindre upp till någon som mig att testa mig fram vad i h-e de menar för något när de skriver versionsnummer på produkterna.

Jotack, men jag lägger hellre den tiden på att testa fler prylar.

Det är samma problem med Displayport. Du har ingen aning om vad tillverkaren menar med "1.2" och vilka funktioner som finns där. Skillnaden är bara att DP är en så mycket mindre omfattande standard. Används i en så begränsad situation att det inte är samma besvär. DP är dator-till-skärm och väldigt sällan något mer än så. Klart det är enklare att greppa allt då.

Permalänk
Medlem
Skrivet av Laxpudding:

S De ökade bandbredderna och funktionerna som det handlar om är det som lyfter oss från 60-talets färg-tv-standard som fortfarande är grunden för allt vi tittar på, inklusive skärmen där du läser detta på.

Aningen OT, men en fråga jag brottas med är HDR-standardens EOTF-hantering på displayer som inte klarar den ljusintensitet som videon mastras för. I gamla standarden hade vi ju gamma-kurvan som är relativ max brightness för displayen. Med HDR har vi ett fast värde för varje intensitet. Problemen blir ju, som du vet, att det inte går att visa videon som den är mastrad. De ljusaste nivåerna måste klippas, eller så måste hela videonivån tonemappas ner mot mörker - vilket ger en överlag mörkare bild.

Finns det nåt som pågår i branschen för att lösa detta? Eller åtminstone hitta en standard för hur tonemapping ska gå till? Tillverkare som LG och Sony verkar ju gå olika vägar t.ex.

En annan fråga är hur man ska ställa in TV'n för ljus resp mörkt omgivningsljus (kväll/dag)? Egentligen borde man ju köra enligt "spec" för att få rät lumanivå för varje intensitet, men det blir ju bländande i mörkt rum. Vad är rätt här?

Permalänk
Bildexpert 📺

@Barsk66: Det är lite "Opps, tänkte inte på det" för HDR10. Man verkar räkna kallt med att 1000 nits ska finnas där. Sedan är det godtycke hos tillverkaren (eller användare) att approximera resten.

Problemet med fasta luminansnivåer, även när displayen klarar 1000 nits är att du som betraktare kanske sitter i ett ljust rum och ändå inte kan tillgodogöra PQ-tonkurvan med små pupiller. HDR-bilden blir ironiskt nog för mörk. Detta har man löst på ett sätt med HLG där det tillämpas tre olika tonkurvor för ljus, vardagsrum och mörkt rum.

Dolby Vision tar också hänsyn till Displayens ljusstyrka. Har inte hunnit fördjupa mig där ännu.

Men ja, detta är något man behöver tänka på. Kommer ta många år innan allt sitter.

Permalänk
Medlem
Skrivet av Laxpudding:

Fast titta på HDMI på Wikipeda och alla de funktioner som beskrivs där. Det är en rätt lång lista av funktioner, signaler och omständigheter som bär olika nivåer av relevans för olika typer av produkter. En datorskärm har inte samma behov som en TV som inte har samma behov som en receiver som inte har samma behov som en konsol som inte har samma behov som en switch som inte har samma behov som BD-spelare och så vidare.

Vad du beskriver är en omöjlig situation där produkter som måste "stöda allt" blir hopplösa monster. Finns ingen tillverkare går med på det eller ens tänker tanken att lösa detta på det här sättet.

Vad som vore mycket, mycket bättre är ifall tillverkarna en gång för alla började ange i produktspecarna vilka funktioner som faktiskt fungerar med produkten!

Att de skriver ut exakt bandbredd, exakta format och så vidare. Nu är det mer eller mindre upp till någon som mig att testa mig fram vad i h-e de menar för något när de skriver versionsnummer på produkterna.

Jotack, men jag lägger hellre den tiden på att testa fler prylar.

Det är samma problem med Displayport. Du har ingen aning om vad tillverkaren menar med "1.2" och vilka funktioner som finns där. Skillnaden är bara att DP är en så mycket mindre omfattande standard. Används i en så begränsad situation att det inte är samma besvär. DP är dator-till-skärm och väldigt sällan något mer än så. Klart det är enklare att greppa allt då.

Du ville ha en kabel att dominera dem alla.
Då ska den banne mig också stöda allt och alla!

Eller så inser man att HDMI inte kan användas till allt.

Men ja.. en bra början hade varit tydliga specs, något jag också sagt tidigare. Vad är 48Gbit kabel till nytta om du inte vet att saken i andra änden stöder det du behöver.

Permalänk
Bildexpert 📺
Skrivet av Paddanx:

Men ja.. en bra början hade varit tydliga specs, något jag också sagt tidigare. Vad är 48Gbit kabel till nytta om du inte vet att saken i andra änden stöder det du behöver.

Nyttan med en 48 Gbps-kabel är förstås att den överför 48 Gbps när behovet av 48 Gbps finns. Vad prylarna i andra änden klarar av är uppenbart så länge tillverkaren är tydligt med detta. Och det är ju där det brister. Informationen är inte komplett.

Detta är inte särskilt konstigt eller komplext. Fråga efter funktion.

Permalänk
Skrivet av Barsk66:

Ja, suddiga visningskopior har man ju sett på bio. Men det är ju inte dom man har som källa vid en skanning till digital kopia. Utan det är ju orginal-filmnegativen som kommer ifråga här. Såg nån kommentar på nätet nånstans om att att så gammal film som Wizard of the Oz, skulle kunna skannas om och få ut upp till motsvarande 8 eller 10K upplösning. Men de negativen kanske är större än 70 mm? Fanns ju en massa olika filmvarianter förr i världen.

Man behöver egentligen göra skillnad på teoretisk upplösning på film som råvara och film som inspelat material.
Hur mycket detaljer som fångas, kommer bero på ljusförhållanden i förhållande till känsligheten hos filmen. Optiken i kameran påverkar också.
Sen kan ju också en film varit avsiktligt filmad med soft-focus.
Det relevanta är detaljnivån i den inspelade filmen.
Men det finns nog många masterkopior av gamla filmer som i detaljnivå faktiskt i alla fall i delar av bildrutor överstiger 1080p. Det finns säkert till och med masterkopior med detaljnivå som i delar av bildrutor även överstiger 4K.

Sen finns det ju en gräns för när man inte kommer hinna lägga märke till detaljer i en film med en faktiskt handling som man fokuserar på.
(att kunna stoppa film man själv spelat in på semestern och kunna fånga en stillbild i tillräckligt hög upplösning för att använda som just stillbild är ju trevligt, men inte så relevant i en film med handling som man följer)

Upplösning bortom ögat och hjärnans faktiska uppfattningsförmåga vara avgörande för hur verkligt vi faktiskt uppfattar något.
Men om inte filmskapare börjar skapa film som är gjord som att man tittar genom ett fönster, så kommer nog hjärnan ändå inte köpa det.
Och det skulle förstås ställa krav på storlek på apparaten som återger filmen, då objekt annars skulle få overklig storlek.

Jag hoppas ändå på ett konsumentformat som säljs som fysiska produkter i 8K High Frame-rate +HDR, även om det i dom flesta avseenden är over-kill.

Sen skulle jag gärna se Full4K-3D.
Tycker det är ironiskt att industrin för hemmaunderhållning slopar stödet för 3D lagom till att VR glasögon som faktiskt är mycket bättre format för 3D visning börjar få genombrott.
(finns dock inte glasögon som jag sett som ger ens 1080p per öga, och dessutom kan dom ju inte ta emot 3D BluRay signaler... och så vill man ju se officiella splitters för just VR glasögon, så fler personer skulle kunna titta på 3D film samtidigt.)

(OT, men ändå delvis relevant; jag önskar att google hade smart bildsökning där försök till att uppskatta detaljupplösningen gjordes, för det är ju detaljupplösning som är det relevanta, idag kan man hitta bilder på 20MP tagna i dåligt ljus som har VGA nivå när det kommer till fångade detaljer... Det är ett bra exempel på att det faktiskt är detaljupplösning som är det relevanta och bildens specificerade upplösning)

Skickades från m.sweclockers.com

Permalänk
Medlem

@Laxpudding: Ja, det verkar vara så att herrar teknikerna har funderat lite för mycket på standarden i sig och glömt tillämpningen.
Jag tolkar ditt i stort sett icke-svar som ett tecken på att du heller inte vet. Och borde nån så borde det väl vara du.

Det är väl ett ämne att fortsätta att bevaka...

Permalänk
Medlem
Skrivet av JonHolstein:

Man behöver egentligen göra skillnad på teoretisk upplösning på film som råvara och film som inspelat material.
Hur mycket detaljer som fångas, kommer bero på ljusförhållanden i förhållande till känsligheten hos filmen. Optiken i kameran påverkar också.
Sen kan ju också en film varit avsiktligt filmad med soft-focus.
Det relevanta är detaljnivån i den inspelade filmen.
Men det finns nog många masterkopior av gamla filmer som i detaljnivå faktiskt i alla fall i delar av bildrutor överstiger 1080p. Det finns säkert till och med masterkopior med detaljnivå som i delar av bildrutor även överstiger 4K.
---
Sen skulle jag gärna se Full4K-3D.
Tycker det är ironiskt att industrin för hemmaunderhållning slopar stödet för 3D lagom till att VR glasögon som faktiskt är mycket bättre format för 3D visning börjar få genombrott.
(finns dock inte glasögon som jag sett som ger ens 1080p per öga, och dessutom kan dom ju inte ta emot 3D BluRay signaler... och så vill man ju se officiella splitters för just VR glasögon, så fler personer skulle kunna titta på 3D film samtidigt.)

Helt korrekt att filmens kvalitativa upplösning inte alltid överensstämmer med dess teoretiska.
Men jag tror ändå att det blir bättre med oskalad suddig pixel än skalad dito. Uppskalning av bild genererar alltid artefakter på nåt vis. Därav "tron" på att en skannad äkta 4K kopia blir bättre än en 2K-skalad dito. Från ett mer eller mindre bra negativorginal alltså. Notera "tron" då jag inte kan verifiera att det stämmer här och nu.

Du nämner också masterkopia. Faktiskt finns ju ofta orginalnegativen kvar. När dom gjorde HD-versionen av Star Trek TNG så gick dom tillbaka till de orginalen och skannade dom. All CGI fick dom göra om på nytt då den var i SD-kvalitet. Vilket jobb!

Sen håller jag med dig om 3D. Jag skulle gärna ha velat kolla in LG:s passiva 3D-teknik i en 4K-display. Där kan man ju mata 1080p 3D från bluray och få ut 2x1080p i varannan linje. Men dom kastade tekniken lagom till årets modell när jag handlade OLED.
Har en rätt stor hylla med 3D-film hemma som lär samla damm nu.

Permalänk
Medlem
Skrivet av phoenix4m:

Stämmer detta? 😮

#17141904

Visa signatur

Ryzen 7 7800X3D | RTX 3070 | 2x32GB DDR5-5600 | B650M Pro RS WiFi
Define R5 Blackout | Noctua NH-U14S | EVGA G2 SuperNOVA 850W
G502 Proteus Spectrum | Vortex Pok3r RGB

Permalänk
Rekordmedlem

Apropå upplösning med analog/kemisk film så har jag sett mellanformatsbilder (6x6) uppdragna till vad som hade blivit 75 X 75 m om hela bilden hade fått plats att visats, bilden var bra även vid den storleken och Hasselblad kunde även köra bildspel via multipla projektorer så att de kunde visa 25 bilder i sekunden och det kan verkligen se ut som spelfilm när man drar upp bildfrekvensen på ett diabildsspel.
Upplösningen på bilderna sägs motsvara ca 400Mpixel och även om det var mellanformatsdia som växlades fort så var upplevelsen som spelfim, har inte sett något "lågupplöst digitalt" som varit i närheten av den bildkvaliten.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Skrivet av mrqaffe:

Apropå upplösning med analog/kemisk film så har jag sett mellanformatsbilder (6x6) uppdragna till vad som hade blivit 75 X 75 m om hela bilden hade fått plats att visats, bilden var bra även vid den storleken och Hasselblad kunde även köra bildspel via multipla projektorer så att de kunde visa 25 bilder i sekunden och det kan verkligen se ut som spelfilm när man drar upp bildfrekvensen på ett diabildsspel.
Upplösningen på bilderna sägs motsvara ca 400Mpixel och även om det var mellanformatsdia som växlades fort så var upplevelsen som spelfim, har inte sett något "lågupplöst digitalt" som varit i närheten av den bildkvaliten.

Det finns högupplösta digitala mellanformatskameror, och det finns dom som använder sensor shift för att kunna fota med ännu högre upplösning.
Men ska man spela in film, alltså med rörliga bilder och inte stop and motion, så är mellanformats stillbildskameror helt irrelevanta i sammanhanget. Att kunna spela upp bilder i 24 eller 25 eller 30 bilder per sekund är något helt annat än att kunna fånga dom så snabbt.

Skickades från m.sweclockers.com

Permalänk
Rekordmedlem
Skrivet av JonHolstein:

Det finns högupplösta digitala mellanformatskameror, och det finns dom som använder sensor shift för att kunna fota med ännu högre upplösning.
Men ska man spela in film, alltså med rörliga bilder och inte stop and motion, så är mellanformats stillbildskameror helt irrelevanta i sammanhanget. Att kunna spela upp bilder i 24 eller 25 eller 30 bilder per sekund är något helt annat än att kunna fånga dom så snabbt.

Skickades från m.sweclockers.com

Jo jag vet men man kan använda flera kameror... Matrix var väl den första spelfilm som gjordes på det sättet för att man skulle få väldigt mycket högre bildfrekvens än kamerorna egentligen klarade av.
Det kräver ju lite extra speciallösningar att göra specialeffekterna vid fototillfället snarare än i efterbehandlingen..

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem
Skrivet av Paddanx:

Lustigt sätt att se på det. Jag förväntar mig att standarder ska släppas ett år, och sedan implementeras inom ett år eller två. Att det ska ta 4 år att göra HDMI, och ändå göra den bristfällig när den släpps, var inte direkt bra.

HDMI standarden designades redan 2002 så tog 4 år att släppas. Displayport designades 2006, och kom 2008. Och här skyller du på att HDMI är bättre för att? Den tog 2x så lång tid att implementera? Eller att DP gjordes pga HDMI när den väl kom hade enorma brister? (vilket var fallet).

HDMI har utan tvekan blivit bättre, men där är fortfarande saker i den som behövs fixas imho.

Som jag sagt innan, alla är besatta av att "kablarna är så bra" att de verkar missa vad man ska plugga in kablarna i. Håller dock med till 100%... HMDI kablarna är mycket bättre.

Vill du vara vänlig och läsa detta igen, och kanske betänka vad detta gör för... "certifiering, och garanterad funktion"?
Enda det du citerat säger är... du får lov att lägga till stödet och använda dem, om du vill. Tack... det hjälper, nada.

Du kan köra Gigabit genom Cat 5 och 100Mbit genom en telefonlinje. Jag vet för jag har gjort det. Men det är inget jag skulle certifierat som "pålitligt". Detta är problemet som jag ryter mot här. Då dessa 144Hz mm inte är standarder inom HDMI, sitter du där i båten att kabeln klarar det... men enheterna inte klarar det... IGEN.

Standardisera dem, eller gtfo.

Ahh den hatade skit upplösningarna som bråkar som fan. Svaret ovan visar att du verkligen saknar erfarenhen av detta.

Jag jobbar med en kollega på konferens anläggning ibland och HDMI fungerar klockrent där... så länge du inte kör 1360x768. Den 100kkrs utrustning där som klarar DP, VGA, DVI och HDMI (nativt), med scaleing och ljud inbyggt har helvete med denna icke standard (trots att 1080p och 4k går bra).

Vi hade samma problem med tidigare utrustning och äldre system också, om HDMI användes rakt in i projektorn. Kör man VGA/DVI fungerar de kanon... DP också... konstigt nog.

Så nej... dessa fungerar inte med HDMI system. Lösningen är att sätta det till 1280x720... då fungerar allt klockrent. Därför säger jag detta jag gör ovan, då med 5+ års erfarenhet av detta problem, i verkligheten, med 100+ laptops genom åren... är dessa icke standarder ett helvete.

Åter:
Standardisera dem, eller gtfo.

Så... HDMI 2.2 om den får dessa, är jag med er. Tills dess stannar DP som har stöd för det, tack.

Eh, HDMI kom ut brett år 2004 och var definitivt etablerat år 2005

Upplösningen jag nämnde var ett dåligt exempel just pga skalningen som du fick svar på. Jag använder den till en TV som köra i just dessa upplösningar "inhemskt". Det är rätt kassa upplösningar i övrigt, bara påhittad för att tillverkarna ville spara pengar och bara använda billiga knappt modifierade kretsar som var designade för 1024x768 istället för att designa nya.

Skrivet av Barsk66:

Wow, detta var ny information som rör om i grytan rejält. Jag har levat med tron att negativen på bio-film skulle motsvara 6-8K enligt annan information på nätet. Har du nån mer källa för detta annat än din egen erfarenhet? Jag kan tänka mig att det kan finnas en massa olika felkällor som kan påverka slutresultatet av en skanning. Optiken på skannern och sensorns kvalitet t.ex. Även om du kanske använt "det bästa" som finns på marknaden så innebär det ju inte att det inte går att få ut mer i framtiden med bättre hårdvara och teknik.
Steget upp till 4K är ju relativt nytt i branschen som ju jobbar med 2 MP för DI i många år. Så behovet av att skanna med så hög noggrannhet har ju inte funnits förut - och därmed har inte hårdvaran optimerats för det. Än.

Skulle man önska nåt av filmbranschen så vore det väl att de tog steget upp till 8 eller t.om 10K på digitalsidan (inkl kameror) redan nu - för att täcka in behovet i framtiden. Annars kommer man se tillbaka på de här åren som nån sorts low-fi tidsålder. Digitala kameror ligger ju inte ens på 4K på biosidan! Åren tidigare fanns filmnegativ som man kan få ut bra kvalitet från. Visst datamängderna som 8 eller 10K okomprimerad dogital video kräver är astronomiska. Men det är sett ur dagens perspektiv. Om några år är det fullt hanterbart. Garanterat.

Skrivet av Barsk66:

Ja, suddiga visningskopior har man ju sett på bio. Men det är ju inte dom man har som källa vid en skanning till digital kopia. Utan det är ju orginal-filmnegativen som kommer ifråga här. Såg nån kommentar på nätet nånstans om att att så gammal film som Wizard of the Oz, skulle kunna skannas om och få ut upp till motsvarande 8 eller 10K upplösning. Men de negativen kanske är större än 70 mm? Fanns ju en massa olika filmvarianter förr i världen.

Har tyvärr ingen vetenskaplig källa att hänvisa till, bara mina egna godtyckliga observationer. Kornen är inte större än att man ganska enkelt kan se efter scanning. Många som inte vet något om analogt tror att det är oändlig upplösning eller i vart fall extremt hög, men så är det inte.

Det är hur som helst svårt att översätta analog film till digitala termer och tänkande. Mängden bildinformation är mycket mindre än vad folk tror. Men just för att kornen är "mjuka" så upplevs det högre. Och i den digitala rymden kan just gradienterna användas till att perceptionellt höja upplösningen. Över huvud taget måste digitala tekniker sampla i långt högre upplösning än vad det analoga egentligen kan återge för att få med alla detaljer korrekt. Att man bör scanna i 5-6 megapixlar är inte samma sak som att det finns bildinformation för 5-6 megapixlar.

Wizard of Oz från 1939 är inspelad på 135-film och sist jag såg den var den ganska risig. Gammal film är mycket sämre än vad den är idag, alltså att film tillverkad idag har mycket bättre egenskaper än film för decennier sedan. Men jag är rätt säker på att man nått maximala möjliga kvalitet med fotografisk film. Varför filmbranschen fortfarande håller kvar vid det analoga i så stor utsträckning vet jag inte. Jag har bara pysslat med stillbild. Kvalitetsmässigt har det digitala sprungit om det analoga på alla plan för längesedan. Verkar finnas en hel del konservativa regissörer, men det känns löjligt när allting ändå efterbehandlas digitalt in absurdum.

För övrigt jobbigt att film och film är olika saker inom samma område.

Skrivet av mpat:

Eller på att det är tortyrmässigt att använda 30Hz till vanligt arbete. Har en KVM hemma som ibland strular med att jag bara får 30Hz från PCn, och det känns som att ögonen blöder varje gång man rör muspekaren.

Kan användas för dagligt arbete, dvs vanlig desktop-jobb. Apple körde upplösningar högre än vad HDMI kunde klara från Retina-MBP 2012. Det är fyra år som HDMI inte kunde göra något som var en standard-funktion från en de större OEMerna.

Vad jag inte fattar är varför HDMI satt och sov. Åtminstone Intel och AMD var tydliga med att de skulle börja stödja 4K-upplösningar fr.o.m 2012, och då tog det ändå 4 år till innan HDMI var framme.

Mja. Det ingick i standarden, men implementerades inte va någon. Men visst, om vi talat om vad som finns i verkliga produkter under resten av diskussion, så OK.

1. Under fyra år kunde HDMI inte göra något som var en standardfunktion från en OEM, något som kunderna (alltså OEMer) direkt efterfrågade och något som DP klarade. Att det tog minst 4 och sannolikt 6 år från att alla roadmappar var offentliga till att problemet var löst är under all kritik.
2. Kretsarna för att generera signalen tar mer plats, eftersom de analoga kretsarna inte kan krympas på samma sätt. Det är därför HDMI inte längre ingår i iGPUn från Intel, utan det krävs ett externt chip.
3. Systemet är mindre effektivt, och behöver därför mer komplexa kablar och mer energi för att göra samma sak som DP klarar.

Mitt största problem med HDMI är inte grejorna - de är sämre, men de är inte viktigt - utan hur organisationen bakom har agerat. De plockade en standard de inte utvecklat (DVI från VESA), ändrade formen på porten och skulle ta ut en licensavgift. De snackar alltid om hur deras nya standard skall vara så bra, men sen kommer grejerna inte ut på marknaden förrän år senare. Enda fördelen är att det kan vara billigare. Om HDMI fortsätter att vara billigare med 2.1 och börjar fungera tillfredställande - utmärkt. Men jag tror det när jag ser det, för den underliggande teknologin är sämre, och de nya kablarna ser dyra ut.

Känner att diskussionen är tämligen semantisk. HDMI har alltid räck för allt utom extremt få fall. Att datorbranchen fokuserat på DP istället är för att det är VESA och typ "det ska va så". Det har åtminstone tidigare funnits en informell överenskommelse mellan VESA och HDMI Founders om att VESA sköter datordelen medan HDMI fokuserar på hemelektronik, vilket nog är en stor anledning till att HDMI inte gått så fort fram. Hade DP inte funnits hade samma energi inom datorspektrumet lagts på HDMI istället, det hade med all säkerhet kommit chip baserad på nya specifikationer fortare och förmodligen hade utvecklingsarbetet också gått fortare.

Vilka analoga kretsar syftar du på?

Skrivet av Laxpudding:

Själva upplösning 4K (och 8K etc.) är bara den minst viktiga detaljen av de förändringar som sker nu. De ökade bandbredderna och funktionerna som det handlar om är det som lyfter oss från 60-talets färg-tv-standard som fortfarande är grunden för allt vi tittar på, inklusive skärmen där du läser detta på. Jag är då glad över att 50 år av väntan och årtionden av försök att förändra bildmöjligheterna äntligen blir av.

Vad syftar du på? Färgrymder?

Skrivet av JonHolstein:

Sen skulle jag gärna se Full4K-3D.
Tycker det är ironiskt att industrin för hemmaunderhållning slopar stödet för 3D lagom till att VR glasögon som faktiskt är mycket bättre format för 3D visning börjar få genombrott.
(finns dock inte glasögon som jag sett som ger ens 1080p per öga, och dessutom kan dom ju inte ta emot 3D BluRay signaler... och så vill man ju se officiella splitters för just VR glasögon, så fler personer skulle kunna titta på 3D film samtidigt.)

(OT, men ändå delvis relevant; jag önskar att google hade smart bildsökning där försök till att uppskatta detaljupplösningen gjordes, för det är ju detaljupplösning som är det relevanta, idag kan man hitta bilder på 20MP tagna i dåligt ljus som har VGA nivå när det kommer till fångade detaljer... Det är ett bra exempel på att det faktiskt är detaljupplösning som är det relevanta och bildens specificerade upplösning)

Skickades från m.sweclockers.com

Ja, detta håller jag med om. Riktigt underligt att branschen dumpar 3D precis när upplösningen höjs ett steg och bandbredderna också möjliggör högre bildhastighet, två väsentliga saker som borde göra 3D mycket mer attraktivt.

Jag har köpt mig några 3D-filmer som mestadels samlarobjekt medan de fortfarande finns kvar. Insåg att det är påväg bort för ett litet tag sedan. Finns ju en del spel med stöd för 3D också. Hade gärna haft en 3D OLED i 4K med HDR, det är enda rimliga steget för en uppgradering från LCD enligt mig, men det blir väl ingen 3D tyvärr.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk

@Xeraton: Om du har större skärm så behåller du ppi med högre upplösning. Tex om du jämför en 80 tum 4k vs en 80 tum 10k så kommer du se skillnad. Som sagt det är vid större storlekar som det kommer märkas men inte vid mindre för det finns en gräns där ögat inte ser skillnad på olika ppi.

Visa signatur

Abit AB9 Pro, E6600 @ 3200 MHz, 3gb ram 800 MHz 1:1, ATI 4890 GPU

Permalänk
Medlem
Skrivet av GilbertG:

Känner att diskussionen är tämligen semantisk. HDMI har alltid räck för allt utom extremt få fall. Att datorbranchen fokuserat på DP istället är för att det är VESA och typ "det ska va så".

Datorbranchen fokuserade på DisplayPort beroende på omständigheterna kring hur HDMI bildades. HDMI grundades av främst hemelektronik-företag. De tog DVI-standarden som var gratis, ändrade formen på kontakten, gjorde en del tilläggsfunktioner som ljud obligatoriska, och försökte sig sedan sälja tillbaka licenser för att använda den till de företag som genom VESA en gång utvecklat DVI. Detta föll inte i helt god jord, och DisplayPort är en reaktion på det. Så snart DP fanns vek HDMI ner sig, släppte på reglerna om konverterare, sänkte avgifterna och släppte in alla som ville vara med.

Skrivet av GilbertG:

Det har åtminstone tidigare funnits en informell överenskommelse mellan VESA och HDMI Founders om att VESA sköter datordelen medan HDMI fokuserar på hemelektronik, vilket nog är en stor anledning till att HDMI inte gått så fort fram. Hade DP inte funnits hade samma energi inom datorspektrumet lagts på HDMI istället, det hade med all säkerhet kommit chip baserad på nya specifikationer fortare och förmodligen hade utvecklingsarbetet också gått fortare.

Det har jag extremt svårt att tro. Organisationen bakom HDMI har egentligen inte utvecklat bildöverföringen alls förrän möjligen nu (inte läst på vad de gjort i detalj om HDMI 2.1 än). De har höjt pixelklockan, men i princip är det samma gamla signalprotokoll som DVI hade 1999. Hade inte DisplayPort funnits hade de suttit helt still och sagt till datorbranchen att koppla två HDMI-kablar i bredd för att få 4K.

Citat:

Vilka analoga kretsar syftar du på?

Intels integrerade GPUer fr.o.m Skylake kan mata ut DisplayPort direkt, men skall man ha HDMI måste man ha ett externt chip som konverterar signalen. Intels egen Thunderbolt-controller (Alpine Ridge) har den funktionen inbyggd. Intels förklaring till att de inte bygger in den funktionen i CPUn är att de analoga kretsarna som krävs för att generera HDMI-signalen inte kan krympas på samma sätt som de digitala, så det skulle ta upp en mycket stor area på den svindyra process som används för CPUerna. Genom att lägga detta på ett externt chip, som kan produceras på en äldre process, sparar man in mycket pengar. Alltihop gör att det drar mer energi att använda HDMI än att använda DP.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av GilbertG:

Eh, HDMI kom ut brett år 2004 och var definitivt etablerat år 2005

Du pratade om 2006, och standarden för 4k för DP kom också 2006.
Och vad jag kan se:
"According to In-Stat, the number of HDMI devices sold was 5 million in 2004, 17.4 million in 2005, 63 million in 2006, and 143 million in 2007.[22][23][24] HDMI has become the de facto standard for HDTVs, and according to In-Stat, around 90% of digital televisions in 2007 included HDMI."

Var den inte direkt etablerad förrän 2007. Och den tidiga standarden i HDMI stödde inte 4k, utan vi pratar 1.0, 165Mhz klocka och 4,95Gbit/s effektivbandbredd, som DVI dvs 1920x1080p @ 60Hz. Ingen 4k.

4k kom med 1.3 i mitten på 2006 i spec, samma år, och tidpunkt som DP 1.0 fick sina specs. Då pratar vi 8.16Gb/s användbar bandbredd (med encoding). Ingen officiell 4k stöd fanns, men i teorin ska 3840x2160 8-bit 30Hz fungera.

Först med 1.4 2009 fick de officiellt stöd för sk 4k i 24, 25 och 30 Hz. Detta är mer eller mindre den standard som på billiga enheter hittas... idag, 2017, vilket är skrämmande långt efter. Notera att 1.4 också hade samma bandbredd som 1.3.

Jämfört med DP som hade 4k stöden redan från 1.0 med 4k 30Hz redan från 2006 års spec.

Problemet är egentligen att VESA misskött sin certifiering och hantering. De hade en kanonbra standard som har betydligt mer möjligheter för en PC än HDMI någonsin kan ha pga den inte bygger på gamla DVI standarden.

Är som PCI-E vs SATA här känns det som. SATA garanterat fungerar, men har sina begränsningar. PCI-E är mycket svåra att förlänga, men kan istället användas till mycket mer än bara en HDD. Lite där är DPs fördel, då den kan ha både USB och video, PCI-E och ljud is sig. Det är mer eller mindre en "data kabel", istället för en glorifierad DVI kabel.

HDMI ha ingen framtid i den värld där USB, Lightning och andra kablar ska kunna "göra allt i ett". Den klarar inte det en PC behöver.

Med det sagt, HDMI är kanon... för vad den är. Den är precis perfekt i den miljön den har. Det är ju det den är utvecklad för att göra. Och för film/TV är den perfekt. Så jag vill inte den ska försvinna heller. Båda dessa behövs för att få möjligheterna.

Min poäng, och klagomål här är... HDMI kan inte ersätta DP. Den kan endast komplettera den. Inget mer.
Det som behövs här är att VESA tar tag i sitt skit och certifierar sakerna bättre. Sätter krav helt enkelt.

Just nu verkar HDMI vara bättre, då den just är certifierad, och jag förstår det. Men då den inte kan certifieras för stöd för alla funktioner, är det inget jag ser som ersättning.

Permalänk
Bildexpert 📺
Skrivet av Paddanx:

Min poäng, och klagomål här är... HDMI kan inte ersätta DP. Den kan endast komplettera den. Inget mer.
Det som behövs här är att VESA tar tag i sitt skit och certifierar sakerna bättre. Sätter krav helt enkelt.

Just nu verkar HDMI vara bättre, då den just är certifierad, och jag förstår det. Men då den inte kan certifieras för stöd för alla funktioner, är det inget jag ser som ersättning.

Amen to that!

Problemet som jag ser i förlängningen är att Displayport sakta men säkert på väg mot samma virvelvind av förvirring i takt med att VESA ökar komplexiteten och väver in fler funktioner. Samma frågeställningar i den här stilen kommer att bli vanligare:

Frågor som "...min skärm har Displayport 1.3, borde den inte kunna Adaptive Sync?". Följt av

"Jo, det borde den, för det står på wikipedia att Displayport 1.2a har den funktionen. Skumt. Är du säker på att den medföljande DP-kabeln stödjer Adaptive Sync?".

Dvs, precis de diskussioner jag följt i mer än tio år kring HDMI. Och liknande frågeställning runt DP har dykt upp forumet runt bandbredder, MST, laptops etc. Om än mycket mer sällan än för HDMI.

Så lösningen för alla, oavsett om de kör, HDMI eller DP eller USB-C och allt annat som är på väg mot virvelvinden, är att tillverkarna slutar hänvisa till versionsnummer och börjar skriva ut vilka funktioner som apparaterna faktiskt klarar av.

Jag vet då att jag lär ha fullt upp i många år framöver med att förklara detta och leka detektiv inför varje skärmtest.