HDMI Forum lanserar HDMI 2.1

Permalänk
Medlem

En intressant fråga är ju hur hög upplösning det mänskliga ögat kan uppfatta. Jag märkte själv skillnad mellan min gamla 1080p-skärm och nya 3840p-skärm, men det var ju ingen enorm skillnad som t.ex. vhs jämfört med DVD eller DVD jämfört med Blue Ray. 4k ger ju redan en så pass skarp bild så jag undrar om man verkligen kommer kunna märka någon skillnad på det och t.ex. 8 eller 10k.

Visa signatur

Moberkort: Asus p8p67 Deluxe. CPU: i7 2600k, 4.5 Ghz. CPU-kylare: Noctua NH-D15. RAM: Corsair Vengenace DDR3 16 GB, 1600 Mhz. Systemdisk: Samsung Evo 850, 256 GB. Lagring: 15,2 TB på snurrdisk. GPU: 2x Saphire tri-x 290x. Ljudkort: Asus Xonar DGX. PSU: EVGA Supernova g2 1000W. Chassi: Cooler Master HAF-X. Hörlurar: Audio Technica ATH M50.

"Eftersom det aldrig är försent att bättra sig, väntar jag ett tag till." - okänd

Permalänk
Bildexpert 📺
Skrivet av Paddanx:

Okej... måste fråga. Var är nu problemet med DP?
DP har ju legat långt före i teknik och möjlighet länge.

Enda gången jag haft bråk är det med HDMI som aldrig verkar vara utskrivet vilken version/funktion på hälften av produkterna, eller vad de stöder, så man kan veta hur och om det går, och de fusk-överklockar chippen för att stöda saker, så det slutar med buggar. Enda anledning vill varför den finns är pga TVn... i övrigt ser jag inte fördelen.

Men... jag kanske har missat något?

Ja, det finns inte HDMI-versioner på produkter som jag skrev i tidigare inlägg och i artiklar och väldans många foruminlägg. Eftersom version syftar på specifikation, inte vilka funktioner en produkt faktiskt har, blir det onödigt krångligt och förvirrande att försöka diskutera produkter utifrån HDMI-versionsnummer. Men nog om det, känner att jag tjatar om detta hela tiden.

Det finns en klistrad tråd i forumet om krånglen som är relaterade till DP, hur felaktiga kablar kan mata ström från skärm och kortsluta grafikkort. Hur vanligt det är med DP-skärmar som hänger datorn vid uppstart, hur skärmen inte vaknar från viloläge och inte minst: problemen med att få ut 144+ Hz utan bekymmer. Allra särskilt över kablar som är längre än 2 meter. Här finns det gott om HDMI-kablar som klarar samma bandbreddskrav på 10 meter eller mer.

VESA har ett certifieringsprogram för DP-kablar men deras hemsida har listat samma 20-tal produkter så länge som jag följt den utvecklingen. HDMI Forum har istället ett väldigt tydligt och strikt certifieringsprogram för att kablar och produkter lever upp till standard.

Vad som har varit DP:s styrka är en högre bandbredd, kring 720 MHz (ca 22 Gbps) mot 600 MHz (18 Gbps) för modern HDMI. Fast i praktiken ligger gränsen för DP ändå på ≈600 MHz där endast Nvidias G-Sync-modul kliver lite över 600 MHz. Alla andra skärmar idag med DP toppar ut på 600 MHz, dvs samma som är möjligt med HDMI.

Med undantag för sådant som 2560x1440/165 Hz och 3440x1440/120 Hz, kan HDMI idag alltså matcha den praktiska kapaciteten hos Displayport. Fast över betydligt längre kablar och med betydligt mindre bekymmer tack vare tydligare certifiering och hårdare licensregler för hur prylar ska fungera tillsammans.

Med HDMI 2.1 är den möjliga bandbredden på samma nivå som med DP 1.4.

Då återstår frågan: Behöver vi verkligen Displayport?

Permalänk
Medlem

@Xeraton: För t.ex VR kan det ha betydelse. Tänk dig en 4K-skärm för varje öga (8K tillsammans). Så nära ögat så ser man pixlar med lägre upplösning. Även 4K kan va för litet här...
Då kan vi börja snacka inlevelse!

Permalänk
Medlem

Bara slänga min reciever jag köpte på black Friday då

Skickades från m.sweclockers.com

Permalänk
Bildexpert 📺
Skrivet av xcluzive:

Vad för Hz klarar den av i 1440p?

HDMI menar du? Med 48 Gbps bandbredd är det i teorin möjligt med cirka 320 Hz i 2560x1440.

Då enkelt räknat på att 600 MHz/18 Gbps idag räcker till 2560x1440 och 120 Hz.

Timing-kraven hos enskilda produkter kan dock ge utrymme för mer. Finns till exempel skärmar som kör 2560x1440 i 144 Hz över HDMI och inom 600 MHz-kravet.

Permalänk
Medlem
Skrivet av Grumdock:

@Paddanx: HDMI tar mindre plats vilket ger slimmade enheter, samt är en universell standard som fungerar väldigt bra oavsett den tekniska nivån på användaren. Tyvärr är det många som får problem direkt de ser en DP port, och alltför ofta är det problem när ex. en projektor ska kopplas till dessa.
HDMI kanske inte har lika hög bandbredd men den växer snabbt, får nya funktioner snabbt och är väldigt enkel att använda (samt liten och smidig)

Bägge två går att köra över USB-C, så att standardporten är något mindre ser jag inte som väsentligt. Sen är det synd att de flesta skrivbordsdatorer fastnade för den stora DisplayPorten och inte den lilla, det hade varit bättre för alla inblandade.

DisplayPort är tekniskt bättre på egentligen allt. Att det är effektivare märks nu när bägge går i samma USB-C kabel och DisplayPort får plats med 25% mer data - och då är det gamla DisplayPort 1.2 som går mot väsentligt nyare HDMI 2.0. Jämför man standarder av samma datum och tar DisplayPort 1.4 istället blir skillnaden ännu större. HDMI kör fortfarande bildsignalen över DDC från 1985, med enda väsentliga ändringen att signalen nu är digital. DisplayPorts paket-baserade överföring är bättre på att utnyttja den fysiska bandbredden utan störningar.

Överhuvudtaget blir HDMI alltid klara med standarden en stund efter att den behövs. DisplayPort hade grejer som klarade 4K ute på marknaden och färdiga 2012, medan HDMI 2.0 kom i produkter först 2016. Variabel uppdateringsfrekvens har ingått i standarden sen 2009, nån MST har väl HDMI fortfarande inte, osv.

Skrivet av Esseboy:

Kanske nått i stil med att licens kostnaden för Displayport alltid varit högre än för HDMI? Samt att DP inte funkar med äldre doningar?

Licenskostnaden för HDMI var väsentligt högre innan DisplayPort kom. Det var introduktionen av den standarden som fick HDMI Licensing att sänka priserna och ta bort regeln om att alla HDMI-kablar måste ha HDMI i bägge ändarna (dvs, så att man måste köpa både kabel och en lös adapter för att byta från DVI till HDMI - de fick licensavgifter per port, nämligen, och porten på adaptern räknades).

Sen får vi se hur mycket de nya kablarna kommer att kosta i slutänden. Specen på kablarna tittar ju mycket framåt, så risken är att de blir dyra till en början.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Laxpudding:

Ja, det finns inte HDMI-versioner på produkter som jag skrev i tidigare inlägg och i artiklar och väldans många foruminlägg. Eftersom version syftar på specifikation, inte vilka funktioner en produkt faktiskt har, blir det onödigt krångligt och förvirrande att försöka diskutera produkter utifrån HDMI-versionsnummer. Men nog om det, känner att jag tjatar om detta hela tiden.

Det finns en klistrad tråd i forumet om krånglen som är relaterade till DP, hur felaktiga kablar kan mata ström från grafikkort och kortsluta grafikkort. Hur vanligt det är med DP-skärmar som hänger datorn vid uppstart, hur skärmen inte vaknar från viloläge och inte minst: problemen med att få ut 144+ Hz utan bekymmer. Allra särskilt över kablar som är längre än 2 meter. Här finns det gott om HDMI-kablar som klarar samma bandbreddskrav på 10 meter eller mer.

VESA har ett certifieringsprogram för DP-kablar men deras hemsida har listat samma 20-tal produkter så länge som jag följt den utvecklingen. HDMI Forum har istället ett väldigt tydligt och strikt certifieringsprogram för att kablar och produkter lever upp till standard.

Vad som har varit DP:s styrka är en högre bandbredd, kring 720 MHz (ca 22 Gbps) mot 600 MHz (18 Gbps) för modern HDMI. Fast i praktiken ligger gränsen för DP ändå på ≈600 MHz där endast Nvidias G-Sync-modul kliver lite över 600 MHz. Alla andra skärmar idag med DP toppar ut på 600 MHz, dvs samma som är möjligt med HDMI.

Med undantag för sådant som 2560x1440/165 Hz och 3440x1440/120 Hz, kan HDMI idag alltså matcha den praktiska kapaciteten hos Displayport. Fast över betydligt längre kablar och med betydligt mindre bekymmer tack vare tydligare certifiering och hårdare licensregler för hur prylar ska fungera tillsammans.

Med HDMI 2.1 är den möjliga bandbredden på samma nivå som med DP 1.4.

Då återstår frågan: Behöver vi verkligen Displayport?

Tack för att du förklarade vad som var fel med min dator! Har undrat varför den ibland hänger sig vid uppstart. Jag har en Acer Predator XB270HU med Displayport.

Hoppas HDMI tar över nu.

Visa signatur

Mobo: Asus X470 Crosshair VII Hero *** CPU: AMD Ryzen 7 2700X *** RAM: 32Gb G.Skill TridentZ 2933Mhz *** PSU: Seasonic 850W Focus+ Platinum *** GPU: Gigabyte RTX2080 Gaming OC *** SSD: Samsung 860 EVO 2 TB *** Chassi: Fractal Design Define R6 TG Svart *** Tangentbord: Ducky One 3 Daybreak MX Clear *** Mus: Logitech Pro X Superlight *** Skärm: Alienware AW3821DW

Permalänk
Medlem

Spec sheeten... xD Men ser för övrigt grymt ut, fin uppgradering av standarden.

Visa signatur

:CPU: 13900KF | Arctic LF II 360 | 6x Silentwings 3 :Mobo: ROG Strix Z690-A Gaming WiFi D4 :RAM: 32GB Corsair Vengeance RGB RT :GPU: KFA2 SG 4090 :Monitor: Acer Predator XB323UGP :Chassi: Lian Li O11D | 6x Silentwings 3 :PSU: Seasonic Prime TX-1000 :HDD: Kingston KC3000 2TB | Seagate Barracuda PRO 8TB

Permalänk
Medlem
Skrivet av Laxpudding:

Ja, det finns inte HDMI-versioner på produkter som jag skrev i tidigare inlägg och i artiklar och väldans många foruminlägg. Eftersom version syftar på specifikation, inte vilka funktioner en produkt faktiskt har, blir det onödigt krångligt och förvirrande att försöka diskutera produkter utifrån HDMI-versionsnummer. Men nog om det, känner att jag tjatar om detta hela tiden.

Vet och förstår detta, men det hindrar inte hur det förenklar när man ska reda ut hur det ska kopplas mellan enhet till förstärkare, till splitter eller till ljud-system, för att sen gå via TVn. Hela problemet är inte bara kabeln, utan samspelet mellan dessa också.

Kabeln mao... är som många säger, bara koppar. Men djungeln på vf som stöder vad i enheterna, skulle verkligen också behöva standardiseras med just versionsnummer. För det är här HDMI faller platt för mig. Detta är var DP versioner är tydliga och följsamma, och jag önskar HDMI hade gjort samma.

Skrivet av Laxpudding:

Det finns en klistrad tråd i forumet om krånglen som är relaterade till DP, hur felaktiga kablar kan mata ström från skärm och kortsluta grafikkort. Hur vanligt det är med DP-skärmar som hänger datorn vid uppstart, hur skärmen inte vaknar från viloläge och inte minst: problemen med att få ut 144+ Hz utan bekymmer. Allra särskilt över kablar som är längre än 2 meter. Här finns det gott om HDMI-kablar som klarar samma bandbreddskrav på 10 meter eller mer.

VESA har ett certifieringsprogram för DP-kablar men deras hemsida har listat samma 20-tal produkter så länge som jag följt den utvecklingen. HDMI Forum har istället ett väldigt tydligt och strikt certifieringsprogram för att kablar och produkter lever upp till standard.

Vad som har varit DP:s styrka är en högre bandbredd, kring 720 MHz (ca 22 Gbps) mot 600 MHz (18 Gbps) för modern HDMI. Fast i praktiken ligger gränsen för DP ändå på ≈600 MHz där endast Nvidias G-Sync-modul kliver lite över 600 MHz. Alla andra skärmar idag med DP toppar ut på 600 MHz, dvs samma som är möjligt med HDMI.

Med HDMI 2.1 är den möjliga bandbredden på samma nivå som med DP 1.4.

Detta är ett bra exempel på en anledning till varför jag kan tänka mig anamma HDMI istället. Certifiering är guld värt när det bara ska fungera. Problemet som jag sa ovan är just att istället för en spec... måste man kolla 20-tal "individuella" i varje sabla enhet i slingan. Och ofta skrivs inte ens hälften av dessa ut.

Längden dock är bra poäng, även jag HDMI kablar på de längderna är plånboks-tömmande.

Så HDMI kabel är guld... HDMI enheter är ospecificerat mög (imo).
Och DP kablar är ospecificerat mög, men enheterna är exakt specificerade.
WTB HDMI kabel, med DP enheter tack.

Nu skulle ju DP 1.5 vara ute redan i år, varför de är efter vet jag inte. Men då hade HDMI inte varit ikapp heller. Så vi får se hur länge det håller i sig.

Skrivet av Laxpudding:

Med undantag för sådant som 2560x1440/165 Hz och 3440x1440/120 Hz, kan HDMI idag alltså matcha den praktiska kapaciteten hos Displayport. Fast över betydligt längre kablar och med betydligt mindre bekymmer tack vare tydligare certifiering och hårdare licensregler för hur prylar ska fungera tillsammans.

Vilket är exakt varför jag ifråga sätter HDMI som "ska ersätta DP". Tom närmare 200Hz är något som efterfrågas, och då gör HDMI en standard, som inte ens klarar detta? DP för alla sina problem har trots allt haft detta teoretiskt möjligt till 240Hz rätt länge på 1440p.

Varför om vi bara skickar signal i koppar, kan man då inte reda ut detta i deras standarder? Bandbredden borde ju finnas i 48Gbit/s för tom 4k 144Hz eller 240Hz 1440p.

Skrivet av Laxpudding:

Då återstår frågan: Behöver vi verkligen Displayport?

Tills dess att HDMI faktiskt sluta varar endast optimerade för TVns frekvenser... ja.
Först nu har de ju ens haft variabel frame-rate vilket är något som funnits i satans många år på DP.

Dagen HDMI börjar optimeras för datorn, och även skärmarna och teknikerna vi har där, kan jag gärna hänga på. Men tills dess stannar jag hellre på DP och får 144Hz möjlighet.

Permalänk
Medlem
Skrivet av Laxpudding:

HDMI menar du? Med 48 Gbps bandbredd är det i teorin möjligt med cirka 320 Hz i 2560x1440.

Då enkelt räknat på att 600 MHz/18 Gbps idag räcker till 2560x1440 och 120 Hz.

Timing-kraven hos enskilda produkter kan dock ge utrymme för mer. Finns till exempel skärmar som kör 2560x1440 i 144 Hz över HDMI och inom 600 MHz-kravet.

Ok, kommer det vara samma uttag som en vanlig HDMI? Eller ska man stanna på DP?

Visa signatur

Dator 1: | i9 9900k | MSI RTX 4080 Ventus 3x OC | ASUS ROG STRIX Z390-F Gaming | Corsair LPX DDR4 32 GB 3200Mhz | FD define S | Samsung 850 EVO 1TB | Samsung 980 NVMe M.2 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 11
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync
Skärm 2: ASUS 27" TUF VG27AQ1A 1440p @ 170Hz/IPS/G-Sync/HDR

Permalänk
Bildexpert 📺
Skrivet av Paddanx:

Tills dess att HDMI faktiskt sluta varar endast optimerade för TVns frekvenser... ja.
Först nu har de ju ens haft variabel frame-rate vilket är något som funnits i satans många år på DP.

Dagen HDMI börjar optimeras för datorn, och även skärmarna och teknikerna vi har där, kan jag gärna hänga på. Men tills dess stannar jag hellre på DP och får 144Hz möjlighet.

Man väljer den teknik som svarar mot behovet. Idag är Displayport ett starkare val i många situationer och HDMI ett starkare val i andra situationer. Fast det finns inget med HDMI som är "endast optimerade för TV:ns frekvenser". Vad får du det ifrån? 120 Hz och 240 Hz beskrevs redan i HDMI 1.3-specen. HDMI är också fylld med specifika PC-krav, inklusive hela DVI 1.0-specen.

Ja, en TV är optimerad för en TV:s frekvenser. Men det betyder inte att HDMI i ett annat sammanhang är precis så kapabelt som bandbredden tillåter. Med 48 Gbps finns det gott om utrymme uppåt i frekvens.

Jag har ju skrivit om det i många tester (och tonvis med foruminlägg) att många skärmar kör full kapacitet över HDMI, likt 2560x1440 i 144 Hz och 240 Hz över 1920x1080. Senaste exempel är Benq XL2540 där 240 Hz över HDMI fungerade smärtfritt (inkl Freesync) men DP inte ville kliva över 120 Hz med något av de AMD-kort vi testade med.

Permalänk
Bildexpert 📺
Skrivet av xcluzive:

Ok, kommer det vara samma uttag som en vanlig HDMI? Eller ska man stanna på DP?

Vad tänker du på mer specifikt?

Permalänk
Medlem

Det här känns ju som någonting en hoppas sätter standarden.

Variabel bildfrekvens, frame by frame HDR-data och 60+FPS 4K+. Jag hoppas bara såväl TV-apparater som bildskärmar som konsoler som UHD-BLuray-spelare osv anammanar standarder kring det så vi kan få lite modernare förhållningssätt till bildfrekvens, dynamisk ljusstyrka osv.

Permalänk
Medlem
Skrivet av Laxpudding:

Man väljer den teknik som svarar mot behovet. Idag är Displayport ett starkare val i många situationer och HDMI ett starkare val i andra situationer. Fast det finns inget med HDMI som är "endast optimerade för TV:ns frekvenser". Vad får du det ifrån? 120 Hz och 240 Hz beskrevs redan i HDMI 1.3-specen. HDMI är också fylld med specifika PC-krav, inklusive hela DVI 1.0-specen.

Ja, en TV är optimerad för en TV:s frekvenser. Men det betyder inte att HDMI i ett annat sammanhang är precis så kapabelt som bandbredden tillåter. Med 48 Gbps finns det gott om utrymme uppåt i frekvens.

Jag har ju skrivit om det i många tester (och tonvis med foruminlägg) att många skärmar kör full kapacitet över HDMI, likt 2560x1440 i 144 Hz och 240 Hz över 1920x1080. Senaste exempel är Benq XL2540 där 240 Hz över HDMI fungerade smärtfritt (inkl Freesync) men DP inte ville kliva över 120 Hz med något av de AMD-kort vi testade med.

Om det verkligen är så att de börjat officiellt stöda över dessa frekvenser så är jag med. Men hela samtalsämnet var ju att ersätta DP med HDMI. Ska vi göra det får man väl också ta HDMI som optimerad för DP sammanhang, annars är det ju meningslös diskussion här. Det kan inte ersätta det om det inte optimeras för det.

Jag får "endast optimerad för TVs frekvenser" från hur just HDMI 2.1 lanseras... som "upp till 120Hz spec". Och hur det fungerar perfekt så länge man håller sig inom de nivåer de anser man bör, där de självklart satsat på 8k+ men inte 240Hz+. Och att hitta en förstärkare för ljudet som ska plötsligt hantera variabel framerate utan problem, är inte enkelt.

Detta är HDMIs problem. Den hade verkligen behövt samma pli på enheterna, med en tydlig "version", som de har på kablarnas bandbredd. Du har HDMI 2.0. För att använda denna fullt ut behöver du 18Gbit bandbredd, märkt Premium?!

Kunde den inte hetat 18Gb HDMI? Och enhetens manual säger enkelt, du behöver 18Gb eller bättre HDMI kabel för att kunna använda alla funktionerna på enheten, samt enheten du ansluter måste stöda minst ver 2.0. Klart.
När man börjar gå på High-Premium-Ultra så tappar jag snabbt förtroende för hur framtidsinriktat det är. Vad blir nästa? Hyper Ultra?

Tekniker runt TVn är HDMIs styrka, medan tekniker runt datorn och kraven där är något som "i teorin borde fungera". Plötsligt var all den certifieringen bortblåst... då man inte sätter samma krav på enheterna, endast kablarna. Därför anser jag inte den heltäckande.

Sen förstår jag att i praktiken ser du HDMI som fungerar utanför sin spec, och DP som inte ens lever upp till din, och kritiserar tekniken. Men... är det AMD kortet, eller DP standarden som det är fel på? Det kan kanon att någon egen designad HDMI skärm klarar sig utanför spec, men... skulle vi ha "certifiering" eller överclock? Är lite som att fråga vad man förväntar sig? AMD Freesync har ju ingen riktig certifiering heller.

Permalänk
Medlem

En välvd, 21:9 5K skärm hadde ju varit drömmen, men den enda jag hittar är en 105" LG skärm till 900 000 kr... Undrar hur länge innan de kommer ned i <40" och lite rimligare prisnivåer.

Visa signatur

CPU: Ryzen 5 1600 GPU: Asus GeForce GTX 1060 6GB DUAL Moderkort: MSI B350M Mortar
RAM: 16GB Corsair Vengeance DDR4 3200MHz PSU: Corsair RM750X
Laptop: ThinkPad T480s, Core i7 8550U, 16GB RAM Mobil: Samsung Galaxy S10

Permalänk
Medlem
Skrivet av Grumdock:

@Paddanx: HDMI tar mindre plats vilket ger slimmade enheter, samt är en universell standard som fungerar väldigt bra oavsett den tekniska nivån på användaren. Tyvärr är det många som får problem direkt de ser en DP port, och alltför ofta är det problem när ex. en projektor ska kopplas till dessa.
HDMI kanske inte har lika hög bandbredd men den växer snabbt, får nya funktioner snabbt och är väldigt enkel att använda (samt liten och smidig)

HDMI tar mindre vad?
Portarna är typ lika stora. Båda har mindre versioner också.

Tror du missat en del, och antagit lite galet.

Skrivet av Esseboy:

Kanske nått i stil med att licens kostnaden för Displayport alltid varit högre än för HDMI? Samt att DP inte funkar med äldre doningar?

HDMI har licenskostnader, DP har inga.
DP är precis som HDMI, en kabel med en bandbredd. Det "kan gå".. mao i äldre sammanhang.

1.2 enheter kan dock köra 1.4 kablar.

Skrivet av Grishnackh:

Har dålig koll på kablar och vad som skiljer dem praktiskt men vad jag märkt får jag alltid slita i min skärm/GPU tills de håller på att paja innan jag får ut dem.

Där sitter en liten tab, som du ska pressa ner. Denna är för att du inte ska råka ta ut den av misstag. Ingen sådan finns på HDMI senast jag kollade.

Här ser du båda bredvid. Ena har en fin tydlig "knapp" och de två metall pinnarna på kontakten som "håller" den på plats. Typ som nätverkskabel. Detta är en funktion HDMI saknar.

Så gär om gör rätt och tryck in den istället för att tvinga ut dem

Skrivet av Kenneth:

DP-kablar har också en del problem med certifiering och specifikationer. Sen brukar majoriteten av alla bekymmer i testlabbet ha något med displayport att göra. Väldigt ofta som vi måste starta datorn utan DP-kabel i grafikkortet och koppla in den några sekunder senare för att få bild.

HDMI är inte direkt perfekt, men upplever det som bättre än DP i dagsläget (bortsett från bandbredden).

Jo alla älskar att länka den "skador med DP" tråden. Och jag håller med certifieringen av kablarna är något som de måste bättra. Men där är problem med HDMI enheters "certifiering" istället. Vi ska inte använda versionsnummer, men du kan ändå inte plugga en 2.0 spelare/dator, genom en 1.4 förstärkare (ljud) till en 2.0 TV, trots att det bara är "ljud" du ska ha.

Så... hur tusan ska man reda ut det om man inte får använda versioner?!

Jo man ska titta på alla individuella "funktioner". Som vissa enheter inte skriver ut. Vissa inte har, eller vissa har delvis. Certifieringen och "standarden" är mao kaos, på enheterna istället.

Men.. jag förstår. Ni ser och retas av DP problem, som de ärligt borde ha löst för många år sedan, och därför hoppas på en lösning från en annan kabel.

Permalänk
Medlem

Då är frågan om eftersom HDMI 2.1 kan ge max 120Hz i 4K, och att många tillverkare ändå satsar på 144Hz för 4K om det är DP 1.??
som ligger steget före?

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X | 64GB RAM | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem

Generic sweclockers comment incomming:

På tiden. 4k är för pixligt för att kunna spela på. Synd bara att 8k bara går i 60hz...

Skickades från m.sweclockers.com

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Medlem

Nån som vet hur hög upplösning man kan få ut ur lite äldre filmer? Blev ju förvånad när man insåg att filmer som Ghostbusters osv fanns i 4k, trots att 4k inte ens fanns på marknaden när filmen gjordes, men finns den även i 10k? Eller hur funkar det? mvh

Permalänk
Medlem

Suck...

Har velat uppgradera förstärkaren i många år, men det går aldrig eftersom det kommer nya standarder hela tiden.

Permalänk
Medlem
Skrivet av Chromatic:

Nån som vet hur hög upplösning man kan få ut ur lite äldre filmer? Blev ju förvånad när man insåg att filmer som Ghostbusters osv fanns i 4k, trots att 4k inte ens fanns på marknaden när filmen gjordes, men finns den även i 10k? Eller hur funkar det? mvh

Jag har för mig att någon skrev att många analoga biofilmer motsvarade ca 5K.
Om det nu stämmer...
att man då kan göra 5K utgåvor eller lägre av gamla filmer om det finns fysiska filmer i tillräckligt bra skick.

Vem som skrev det minns jag inte och huruvida det stämmer eller inte vet jag inte heller.
Eftersom det verkar fungera att göra digitala 4K filmer av gamla analoga filmer så låter det rimligt.
Men jag är inte säker på om det stämmer eller inte. Så ta det som ett rykte.

Permalänk
Rekordmedlem

Det är nog på tiden att skrota det gamla och skapa nått helt nytt system för varken hdmi eller dp är särskilt enkelt att förstå utan de är snarare bortom alla räddning pga allt flum med specar/versioner/tillverkarnas verkliga uppträdande/ingen kontroll av oberoende de tillåtit från början, den nya standarden borde dessutom använda optik så att det kan funka på lite längre avstånd med höga bandbredder.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem
Skrivet av M1NT:

Och SVT sänder inte ens 1080p än....

Å andra sidan är det bara Viasat Ultra som sänder i 1080p eller högre på svenska marknaden. Så det är inte precis unikt.

Permalänk
Medlem

Dells 8K-skärm med HDMI 2.1 tack!

Visa signatur

Zenith Extreme Alpha | Threadripper 2950X | 3080 Ti TUF OC | 64GB DDR4 3200MHz | 970 EVO Plus 1TB | 3x Red Pro 10 TB @ raid0 | OLED42C2 + 2x U3014

Permalänk
Medlem

IDIOT hdmi haha.. klarar 10K men inte 144 hz??? lägg ner..

Synd inte allt kunde vara Displayport.

Visa signatur

Sweclockers: "Parti X gör följande chockerande uttalande om vagt datorrelaterad sak Y, vad tycker ni?"
Också Sweclockers: "Påminnelse att det är inte tillåtet att diskutera politik :)"

Sweclockers: "Piratkopiering ökar, vad tycker ni?"
Också Sweclockers: "Det är förbjudet att diskutera såväl piratkopiering som svenskt laglig privatkopiering :)"

Permalänk
Medlem
Skrivet av Chromatic:

Nån som vet hur hög upplösning man kan få ut ur lite äldre filmer? Blev ju förvånad när man insåg att filmer som Ghostbusters osv fanns i 4k, trots att 4k inte ens fanns på marknaden när filmen gjordes, men finns den även i 10k? Eller hur funkar det? mvh

Hittade denna listan.

18K = IMAX 15-perf (or 36K?)
12-13K = 70MM 5-perf
6K = 35MM 4-perf
3K = 35MM 2-perf
1.8K = S16MM
1.5K = 16MM
720p = S8MM
480 = 8MM

"This is of course the best possible scenario of each format. "

Problemet är filmer med digitala special effekter, som måste renderas om eller helt återskapas om originalen inte finns kvar.
Det kan bli ganska dyrt, men gjordes ju med exempelvis Star Trek från 1960-talet.

Permalänk
Medlem
Skrivet av Alpha77:

Problemet är filmer med digitala special effekter, som måste renderas om eller helt återskapas om originalen inte finns kvar.
Det kan bli ganska dyrt, men gjordes ju med exempelvis Star Trek från 1960-talet.

Även med Star Trek: The Next Generation fick man göra helt nya specialeffekter till blu-ray utgåvan.

Skrivet av Chromatic:

Nån som vet hur hög upplösning man kan få ut ur lite äldre filmer? Blev ju förvånad när man insåg att filmer som Ghostbusters osv fanns i 4k, trots att 4k inte ens fanns på marknaden när filmen gjordes, men finns den även i 10k? Eller hur funkar det? mvh

@Alpha77 ger ungefärliga siffror men förklarar inte varför.

Alla gamla filmer är inspelade på film. Alltså, sånna där bio-rullar av film.
Oftast i 35mms format. När man gör en digital kopia av en sån film så scannar man helt enkelt en film-rulle ruta för ruta och sätter ihop till en digital filmfil.

Så när en gammal film släpps i 4K så har man scannat om en rulle i högre upplösning och fixat till det lite och så.

Oftast scannar man en masterkopia då dom oftast har bäst kvalitet och ibland är det ju så att specialeffekter och liknande inte är tillagt där och är gjorda i mycket lägre kvalitet. Det är framförallt ett problem med saker som gjorts för TV där man spelat in på film med sedan redigerat specialeffekterna på video, alltså typ VHS. Det ser inte bra ut i HD.

Permalänk
Medlem

Hejdå Displayport! VESA kan gå hem.

Skrivet av Laxpudding:

HDMI-versionen syftar på specifikationen, inte på hårdvaran som sådan. En produkt kan ha ett urval av funktioner ur en given specifikation. Är hårdvaran tillräckligt välgjord och flexibel kan de också uppdateras till funktioner som är beskrivna i framtida specifikationer.

Den klassiska blanka PS3:n är ett tydligast exempl på hur det blir snurrigt att tala om HDMI-versioner på produkter. PS3 kom när HDMI 1.3 var aktuell version. Fast denna PS3:a saknade till exempel en viktig funktion i HDMI 1.3-specen: bitströmmning av de nya Dts-MA och Dolby TrueHD-formaten från Blu-Ray-filmer. Så det blev en sanslös diskussion om huruvida det verkligen var HDMI 1.3 på PS3:n eller inte.

Sedan kom 3D-fjärten lite senare och 3D-bild är beskriven i HDMI 1.4-specen. Eftersom PS3 kunde uppdateras fick den också funktioner för 3D-bild. Då diskuterades det igen, var den verkligen HDMI 1.4? Eller HDMI 1.3? Fast denna PS3:a var ju inte ens HDMI 1.3 tycker vissa. Och så fortsatte diskussionen om exakt färg på hundens päls.

Det enkla svaret är förstås att sluta diskutera vilka versioner en pryl har och fråga efter funktioner. Så även denna gång. Så när ni om ett år funderar över "...har prylen HDMI 2.1?" ska ni istället fråga efter...

  • Klarar prylen en bandbredd för 4K/120? (eller vad ni nu behöver)

  • Är kabeln kabeln certifierad för 48 Gbps? Alltså Ultra High Speed Cable och inte "2.1-kablar" (för bövelen!)

  • Klarar mojängen dynamisk HDR?

  • Finns Game Mode Variable Refresh Rate?

  • ... och allt annat i HDMI 2.1-specen

Därför blir det väldigt lurigt när Microsoft svamlade om att X Box One X ska certifieras för HDMI 2.1 när specifikationen var klar efter att folk frågat om VRR…

Skrivet av Paddanx:

Okej... måste fråga. Var är nu problemet med DP?
DP har ju legat långt före i teknik och möjlighet länge.

Enda gången jag haft bråk är det med HDMI som aldrig verkar vara utskrivet vilken version/funktion på hälften av produkterna, eller vad de stöder, så man kan veta hur och om det går, och de fusk-överklockar chippen för att stöda saker, så det slutar med buggar. Enda anledning vill varför den finns är pga TVn... i övrigt ser jag inte fördelen.

Men... jag kanske har missat något?

Skrivet av mpat:

Bägge två går att köra över USB-C, så att standardporten är något mindre ser jag inte som väsentligt. Sen är det synd att de flesta skrivbordsdatorer fastnade för den stora DisplayPorten och inte den lilla, det hade varit bättre för alla inblandade.

DisplayPort är tekniskt bättre på egentligen allt. Att det är effektivare märks nu när bägge går i samma USB-C kabel och DisplayPort får plats med 25% mer data - och då är det gamla DisplayPort 1.2 som går mot väsentligt nyare HDMI 2.0. Jämför man standarder av samma datum och tar DisplayPort 1.4 istället blir skillnaden ännu större. HDMI kör fortfarande bildsignalen över DDC från 1985, med enda väsentliga ändringen att signalen nu är digital. DisplayPorts paket-baserade överföring är bättre på att utnyttja den fysiska bandbredden utan störningar.

Licenskostnaden för HDMI var väsentligt högre innan DisplayPort kom. Det var introduktionen av den standarden som fick HDMI Licensing att sänka priserna och ta bort regeln om att alla HDMI-kablar måste ha HDMI i bägge ändarna (dvs, så att man måste köpa både kabel och en lös adapter för att byta från DVI till HDMI - de fick licensavgifter per port, nämligen, och porten på adaptern räknades).

Överhuvudtaget blir HDMI alltid klara med standarden en stund efter att den behövs. DisplayPort hade grejer som klarade 4K ute på marknaden och färdiga 2012, medan HDMI 2.0 kom i produkter först 2016. Variabel uppdateringsfrekvens har ingått i standarden sen 2009, nån MST har väl HDMI fortfarande inte, osv.

Sen får vi se hur mycket de nya kablarna kommer att kosta i slutänden. Specen på kablarna tittar ju mycket framåt, så risken är att de blir dyra till en början.

Produkter med DP lanserades inte förrän 2008. HDMI klarade 4K redan 2006, om än bara i 30hz. Att sedan ingen använde sig av det kan ju bero på att det inte fanns några skärmar med den upplösningen… DP hade ett tekniskt försprång kring 2010-2013 där det var att möjligt att köra 4K i 60hz. Men grafikkorten då kunde ju knappast driva 3D-grafik i den upplösningen, så det är ju i praktiken bara för video och bildarbete som 4K användes, och till det räcker ju 30hz.

Angående variabel frekvens så var det bara för inbäddade system. Externt kom det inte förrän med FreeSync såatteh…

Jag vidhåller att DP är en helt onödig standard som inte löser något reellt problem.

Skrivet av Paddanx:

Vet och förstår detta, men det hindrar inte hur det förenklar när man ska reda ut hur det ska kopplas mellan enhet till förstärkare, till splitter eller till ljud-system, för att sen gå via TVn. Hela problemet är inte bara kabeln, utan samspelet mellan dessa också.

Kabeln mao... är som många säger, bara koppar. Men djungeln på vf som stöder vad i enheterna, skulle verkligen också behöva standardiseras med just versionsnummer. För det är här HDMI faller platt för mig. Detta är var DP versioner är tydliga och följsamma, och jag önskar HDMI hade gjort samma.

Detta är ett bra exempel på en anledning till varför jag kan tänka mig anamma HDMI istället. Certifiering är guld värt när det bara ska fungera. Problemet som jag sa ovan är just att istället för en spec... måste man kolla 20-tal "individuella" i varje sabla enhet i slingan. Och ofta skrivs inte ens hälften av dessa ut.

Längden dock är bra poäng, även jag HDMI kablar på de längderna är plånboks-tömmande.

Så HDMI kabel är guld... HDMI enheter är ospecificerat mög (imo).
Och DP kablar är ospecificerat mög, men enheterna är exakt specificerade.
WTB HDMI kabel, med DP enheter tack.

Nu skulle ju DP 1.5 vara ute redan i år, varför de är efter vet jag inte. Men då hade HDMI inte varit ikapp heller. Så vi får se hur länge det håller i sig.

Problemet är snarare synsättet att folk förväntar sig att en viss pryl tillverkad ett visst årtal ska ha stöd för alla funktioner som var uppfunna det året.

Skrivet av Paddanx:

Vilket är exakt varför jag ifråga sätter HDMI som "ska ersätta DP". Tom närmare 200Hz är något som efterfrågas, och då gör HDMI en standard, som inte ens klarar detta? DP för alla sina problem har trots allt haft detta teoretiskt möjligt till 240Hz rätt länge på 1440p.

Varför om vi bara skickar signal i koppar, kan man då inte reda ut detta i deras standarder? Bandbredden borde ju finnas i 48Gbit/s för tom 4k 144Hz eller 240Hz 1440p.

Tills dess att HDMI faktiskt sluta varar endast optimerade för TVns frekvenser... ja.
Först nu har de ju ens haft variabel frame-rate vilket är något som funnits i satans många år på DP.

Dagen HDMI börjar optimeras för datorn, och även skärmarna och teknikerna vi har där, kan jag gärna hänga på. Men tills dess stannar jag hellre på DP och får 144Hz möjlighet.

Skrivet av Vangen:

Då är frågan om eftersom HDMI 2.1 kan ge max 120Hz i 4K, och att många tillverkare ändå satsar på 144Hz för 4K om det är DP 1.??
som ligger steget före?

Skrivet av atego:

IDIOT hdmi haha.. klarar 10K men inte 144 hz??? lägg ner..

Synd inte allt kunde vara Displayport.

Citerar Wikipedia som har källhänvisningar:
"HDMI 1.2 and all later versions allow any arbitrary resolution and frame rate (within the bandwidth limit); any formats that are not supported by the HDMI Specification (i.e. no standardized timings defined) may be implemented as a vendor-specific format. Although successive versions of the HDMI Specification continue to add support for additional formats (such as 4K resolutions), the added support is to establish standardized timings to ensure interoperability between products, not to establish what formats are and aren't permitted, and video formats do not require explicit support from the HDMI Specification in order to be displayed.[93](§6.1)"

1366x768 samt 1360x768 är inga standardiserade upplösningar i HDMI men går ändå utmärkt att överföra.

Skrivet av Chromatic:

Nån som vet hur hög upplösning man kan få ut ur lite äldre filmer? Blev ju förvånad när man insåg att filmer som Ghostbusters osv fanns i 4k, trots att 4k inte ens fanns på marknaden när filmen gjordes, men finns den även i 10k? Eller hur funkar det? mvh

Skrivet av GuessWho:

Jag har för mig att någon skrev att många analoga biofilmer motsvarade ca 5K.
Om det nu stämmer...
att man då kan göra 5K utgåvor eller lägre av gamla filmer om det finns fysiska filmer i tillräckligt bra skick.

Vem som skrev det minns jag inte och huruvida det stämmer eller inte vet jag inte heller.
Eftersom det verkar fungera att göra digitala 4K filmer av gamla analoga filmer så låter det rimligt.
Men jag är inte säker på om det stämmer eller inte. Så ta det som ett rykte.

Jag har jobbat lite med film och kan säga att verklig bildinformation i 135-film motsvarar ca 1 megapixel beroende på typ av film. Och det är för stillbilder som ligger brett på filmen. Video spelas in stående för att fler bildrutor ska få plats. Dock så scannas stillbilder gärna i 6 megapixlar för att få med alla detaljer och övergångar då kornen som utgör "pixlarna" inte är orienterade exakt och är relativt ojämnt fördelade. Med lite fin efterbehandling så kan det se ut som 2 megapixlar.

Blu-ray kan alltså redan visa film inspelad på 135-film i sin fulla prakt. UHD kommer i praktiken bara vara uppskalat för nästan all film.

Skrivet av Alpha77:

Hittade denna listan.

18K = IMAX 15-perf (or 36K?)
12-13K = 70MM 5-perf
6K = 35MM 4-perf
3K = 35MM 2-perf
1.8K = S16MM
1.5K = 16MM
720p = S8MM
480 = 8MM

"This is of course the best possible scenario of each format. "

Problemet är filmer med digitala special effekter, som måste renderas om eller helt återskapas om originalen inte finns kvar.
Det kan bli ganska dyrt, men gjordes ju med exempelvis Star Trek från 1960-talet.

Någon har räknat kornen, dvs de kemiska molekyler som utgör "pixlarna" och slängt ihop det i en lista. I verkligheten funkar det inte så då kornen inte är orienterade exakt och är relativt ojämnt fördelade.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem
Skrivet av GilbertG:

Produkter med DP lanserades inte förrän 2008. HDMI klarade 4K redan 2006, om än bara i 30hz. Att sedan ingen använde sig av det kan ju bero på att det inte fanns några skärmar med den upplösningen… DP hade ett tekniskt försprång kring 2010-2013 där det var att möjligt att köra 4K i 60hz. Men grafikkorten då kunde ju knappast driva 3D-grafik i den upplösningen, så det är ju i praktiken bara för video och bildarbete som 4K användes, och till det räcker ju 30hz.

Problemet är snarare synsättet att folk förväntar sig att en viss pryl tillverkad ett visst årtal ska ha stöd för alla funktioner som var uppfunna det året.

Lustigt sätt att se på det. Jag förväntar mig att standarder ska släppas ett år, och sedan implementeras inom ett år eller två. Att det ska ta 4 år att göra HDMI, och ändå göra den bristfällig när den släpps, var inte direkt bra.

HDMI standarden designades redan 2002 så tog 4 år att släppas. Displayport designades 2006, och kom 2008. Och här skyller du på att HDMI är bättre för att? Den tog 2x så lång tid att implementera? Eller att DP gjordes pga HDMI när den väl kom hade enorma brister? (vilket var fallet).

HDMI har utan tvekan blivit bättre, men där är fortfarande saker i den som behövs fixas imho.

Som jag sagt innan, alla är besatta av att "kablarna är så bra" att de verkar missa vad man ska plugga in kablarna i. Håller dock med till 100%... HMDI kablarna är mycket bättre.

Skrivet av GilbertG:

Citerar Wikipedia som har källhänvisningar:
"HDMI 1.2 and all later versions allow any arbitrary resolution and frame rate (within the bandwidth limit); any formats that are not supported by the HDMI Specification (i.e. no standardized timings defined) may be implemented as a vendor-specific format. Although successive versions of the HDMI Specification continue to add support for additional formats (such as 4K resolutions), the added support is to establish standardized timings to ensure interoperability between products, not to establish what formats are and aren't permitted, and video formats do not require explicit support from the HDMI Specification in order to be displayed.[93](§6.1)"

Vill du vara vänlig och läsa detta igen, och kanske betänka vad detta gör för... "certifiering, och garanterad funktion"?
Enda det du citerat säger är... du får lov att lägga till stödet och använda dem, om du vill. Tack... det hjälper, nada.

Du kan köra Gigabit genom Cat 5 och 100Mbit genom en telefonlinje. Jag vet för jag har gjort det. Men det är inget jag skulle certifierat som "pålitligt". Detta är problemet som jag ryter mot här. Då dessa 144Hz mm inte är standarder inom HDMI, sitter du där i båten att kabeln klarar det... men enheterna inte klarar det... IGEN.

Standardisera dem, eller gtfo.

Skrivet av GilbertG:

1366x768 samt 1360x768 är inga standardiserade upplösningar i HDMI men går ändå utmärkt att överföra.

Ahh den hatade skit upplösningarna som bråkar som fan. Svaret ovan visar att du verkligen saknar erfarenhen av detta.

Jag jobbar med en kollega på konferens anläggning ibland och HDMI fungerar klockrent där... så länge du inte kör 1360x768. Den 100kkrs utrustning där som klarar DP, VGA, DVI och HDMI (nativt), med scaleing och ljud inbyggt har helvete med denna icke standard (trots att 1080p och 4k går bra).

Vi hade samma problem med tidigare utrustning och äldre system också, om HDMI användes rakt in i projektorn. Kör man VGA/DVI fungerar de kanon... DP också... konstigt nog.

Så nej... dessa fungerar inte med HDMI system. Lösningen är att sätta det till 1280x720... då fungerar allt klockrent. Därför säger jag detta jag gör ovan, då med 5+ års erfarenhet av detta problem, i verkligheten, med 100+ laptops genom åren... är dessa icke standarder ett helvete.

Åter:
Standardisera dem, eller gtfo.

Så... HDMI 2.2 om den får dessa, är jag med er. Tills dess stannar DP som har stöd för det, tack.

Permalänk
Medlem
Skrivet av GilbertG:

Jag har jobbat lite med film och kan säga att verklig bildinformation i 135-film motsvarar ca 1 megapixel beroende på typ av film. Och det är för stillbilder som ligger brett på filmen. Video spelas in stående för att fler bildrutor ska få plats. Dock så scannas stillbilder gärna i 6 megapixlar för att få med alla detaljer och övergångar då kornen som utgör "pixlarna" inte är orienterade exakt och är relativt ojämnt fördelade. Med lite fin efterbehandling så kan det se ut som 2 megapixlar.

Blu-ray kan alltså redan visa film inspelad på 135-film i sin fulla prakt. UHD kommer i praktiken bara vara uppskalat för nästan all film.
...
Någon har räknat kornen, dvs de kemiska molekyler som utgör "pixlarna" och slängt ihop det i en lista. I verkligheten funkar det inte så då kornen inte är orienterade exakt och är relativt ojämnt fördelade.

Wow, detta var ny information som rör om i grytan rejält. Jag har levat med tron att negativen på bio-film skulle motsvara 6-8K enligt annan information på nätet. Har du nån mer källa för detta annat än din egen erfarenhet? Jag kan tänka mig att det kan finnas en massa olika felkällor som kan påverka slutresultatet av en skanning. Optiken på skannern och sensorns kvalitet t.ex. Även om du kanske använt "det bästa" som finns på marknaden så innebär det ju inte att det inte går att få ut mer i framtiden med bättre hårdvara och teknik.
Steget upp till 4K är ju relativt nytt i branschen som ju jobbar med 2 MP för DI i många år. Så behovet av att skanna med så hög noggrannhet har ju inte funnits förut - och därmed har inte hårdvaran optimerats för det. Än.

Skulle man önska nåt av filmbranschen så vore det väl att de tog steget upp till 8 eller t.om 10K på digitalsidan (inkl kameror) redan nu - för att täcka in behovet i framtiden. Annars kommer man se tillbaka på de här åren som nån sorts low-fi tidsålder. Digitala kameror ligger ju inte ens på 4K på biosidan! Åren tidigare fanns filmnegativ som man kan få ut bra kvalitet från. Visst datamängderna som 8 eller 10K okomprimerad dogital video kräver är astronomiska. Men det är sett ur dagens perspektiv. Om några år är det fullt hanterbart. Garanterat.