Permalänk
Medlem

4K = UHD = 2160p, eller?

Jag har läst mycket och försökt förstå debatten om 4K. Såhär har jag uppfattat det, stämmer detta eller ej:

4K = UHD = 2160p = 4096x2160 (1.90:1) eller 3840x2160 (1.78:1)

Vissa påstår att 4096x2160 är "äkta" 4K och 3840x2160 "bara" är Ultra-HD. Men det enda som skiljer är ju bildförhållandet, upplösningen är fortfarande densamma.

Så båda ska väl betraktas som äkta 4K? Det handlar egentligen bara om man vill ha letterboxing eller full skärm i 16:9.

Visa signatur

MSI B450 TOMAHAWK MAX | AMD Ryzen 7 3700X + Noctua NH-U12S | Gigabyte RTX 2080 Windforce OC 8GB | 32GB Kingston HyperX Fury 3200MHz | Seasonic Focus GX 750W | WD Green SN350 2TB | 32" LG UltraGear 32GP850

Lenovo LOQ 15APH8 | AMD Ryzen 7 7840HS | RTX 4060 8GB | 2X8GB Samsung 5600MHz | WD Green SN350 2TB

Permalänk
Medlem

Hur kan två olika upplösningar vara samma upplösning?

Du anser alltså att följande påstående stämmer: 4096 x 2160 = 3840 x 2160...?

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem

"4K" innebär helt enkelt att du har ungefär 4000 pixlar på bredden. Någon mer exakt definition än så finns inte.

Hur många pixlar det är på höjden påverkar egentligen inte om det är "4K" eller inte.

Om du anser att 3840 är ungefär 4000, ja då kan du betrakta 3840x2160 som en 4K upplösning.

Permalänk
Bildexpert 📺
Skrivet av favouredhawk:

Så båda ska väl betraktas som äkta 4K?

Det finns inget "äkta 4K".

4K är synonymt med "ungefär fyra tusen pixlar på bredden". För Ultra HD-standarden och 99% av alla konsumentprodukter likt skärmar och TV handlar detta om 3 840 × 2 160 pixlar, baserat då på 16:9-format med 1 920 × 1 080 pixlar som grund.

4 096 × 2 160 pixlar är ett 17:9-förhållande och kommer ursprungligen från digital biografstandard (DCI) och förekommer som produktionsformat. 16:9-varianten är då 4 096 × 2 304 pixlar vilket existerar på en del rejäla installationsprojektorer.

Alla dessa varianter är 4K i någon form. Inget är mer eller mindre äkta. Är det viktigt att vara noggrann med pixlarna kan man helt enkelt skriva ut mängden pixlar det handlar om. Förslagsvis komplettera med än mer relevant information, likt chroma subsampling och bitdjup.

Permalänk
Medlem

4k är 4096x2160px (4ggr antalet pixlar av 2k som är 2048x1080px)
UHD är 3840x2160px (4ggr antalet pixlar av FHD som är 1920x1080px)

Visa signatur

#1: Z370N ITX | i7 8700k | GTX 1080 | 32GiB
#2: P8Z77-M pro | i7 3770k | GTX 1050ti | 16GiB

Server: Z370-G | i5 8600T | 64GiB | UnRAID 6.9.2 | 130TB
Smartphone: Samsung Z Flip 5 | Android 13 | Shure SE535

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Hur kan två olika upplösningar vara samma upplösning?

Du anser alltså att följande påstående stämmer: 4096 x 2160 = 3840 x 2160...?

Ja, upplösningen är ju densamma, dvs 2160p. Det är bara bildförhållandet som skiljer.

Visa signatur

MSI B450 TOMAHAWK MAX | AMD Ryzen 7 3700X + Noctua NH-U12S | Gigabyte RTX 2080 Windforce OC 8GB | 32GB Kingston HyperX Fury 3200MHz | Seasonic Focus GX 750W | WD Green SN350 2TB | 32" LG UltraGear 32GP850

Lenovo LOQ 15APH8 | AMD Ryzen 7 7840HS | RTX 4060 8GB | 2X8GB Samsung 5600MHz | WD Green SN350 2TB

Permalänk
Medlem
Skrivet av Erik_T:

"4K" innebär helt enkelt att du har ungefär 4000 pixlar på bredden. Någon mer exakt definition än så finns inte.

Hur många pixlar det är på höjden påverkar egentligen inte om det är "4K" eller inte.

Om du anser att 3840 är ungefär 4000, ja då kan du betrakta 3840x2160 som en 4K upplösning.

Om man avrundar 3840 uppåt till 4000 så är det 160 pixlars skillnad. Avrundar man 4096 nedåt till 4000 så är det 96 pixlars skillnad. Det mellanrum som återstår mellan dessa två bildförhållanden är 74 pixlar, vilket är mindre än skillnaden mellan 4096 och 4000. Så jag anser att 3840 bör betraktas som ungefär 4000.

Visa signatur

MSI B450 TOMAHAWK MAX | AMD Ryzen 7 3700X + Noctua NH-U12S | Gigabyte RTX 2080 Windforce OC 8GB | 32GB Kingston HyperX Fury 3200MHz | Seasonic Focus GX 750W | WD Green SN350 2TB | 32" LG UltraGear 32GP850

Lenovo LOQ 15APH8 | AMD Ryzen 7 7840HS | RTX 4060 8GB | 2X8GB Samsung 5600MHz | WD Green SN350 2TB

Permalänk
Medlem
Skrivet av favouredhawk:

Om man avrundar 3840 uppåt till 4000 så är det 160 pixlars skillnad. Avrundar man 4096 nedåt till 4000 så är det 96 pixlars skillnad. Det mellanrum som återstår mellan dessa två bildförhållanden är 74 pixlar, vilket är mindre än skillnaden mellan 4096 och 4000. Så jag anser att 3840 bör betraktas som ungefär 4000.

4 096×2160 = 8 847 360pixlar
3 840×2160 = 8 294 400pixlar

8 847 360 - 8 294 400 = 552 960pixlar

Med reservation för slarvfel. Försöker knappra in siffrorna på telefonen, lite bökigt.

Skickades från m.sweclockers.com

Permalänk
99:e percentilen
Skrivet av favouredhawk:

Ja, upplösningen är ju densamma, dvs 2160p. Det är bara bildförhållandet som skiljer.

Nu kan förvisso "upplösning" betyda olika saker beroende på kontext och så – antingen pixelmatrisens dimensioner (där 800 × 200 och 1600 × 100 betecknar olika upplösningar) eller antalet pixlar per tum – men tycker du att 1 × 2160 ska kunna kallas 4K, och/eller att det är "samma upplösning" som 3840 × 2160?

Angående 4K brukar jag skriva 4K UHD respektive 4K DCI om jag vill vara mer specifik än bara "ungefär 4000 pixlar på bredden". Tycker jag är ganska smidigt.

Skrivet av favouredhawk:

Så jag anser att 3840 bör betraktas som ungefär 4000.

Det gör det ju också. 4K UHD kan du kalla den pixelmatrisen om du vill vara specifik.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Avstängd
Skrivet av Alling:

Angående 4K brukar jag skriva 4K UHD respektive 4K DCI om jag vill vara mer specifik än bara "ungefär 4000 pixlar på bredden". Tycker jag är ganska smidigt.

Jo, eller så kör man på 4K för UHD då det är den enda standarden i de här intervallen som är intressant för hemmabruk.

Permalänk
99:e percentilen
Skrivet av snajk:

Jo, eller så kör man på 4K för UHD då det är den enda standarden i de här intervallen som är intressant för hemmabruk.

Det gör jag inte om jag vill vara mer specifik än "ungefär 4000 pixlar på bredden", vilket var vad jag skrev. Hemmabruk är ju inte det enda som existerar, men givetvis förstår ju alla att en "4K‑TV" har just 4K UHD och inte 4K DCI (och där fick vi ett exempel på när det är bra att ha de två benämningarna). I en kontext där "4K" uppenbart syftar på 4K UHD går det såklart bra att skriva just bara "4K".

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem
Skrivet av favouredhawk:

Ja, upplösningen är ju densamma, dvs 2160p. Det är bara bildförhållandet som skiljer.

Med "upplösning" brukar man mena antalet pixlar i bägge dimensionerna.
D.v.s 4096x2160 och 3840x2160 är två separata upplösningar.
2160p är inte en upplösning.

(Tekniskt sett är detta ett felaktigt användande av ordet "upplösning" (Eng. "resolution")
Ordet syftar egentligen på pixeltätheten - pixlar per tum, men nästan alla använder det för att beteckna antalet pixlar,
så det får väl anses ha den betydelsen idag.)

Permalänk
Medlem

Jag såg förresten att detta finns i Adobe Premiere Pro, en massa olika beteckningar på 4K.

Visa signatur

MSI B450 TOMAHAWK MAX | AMD Ryzen 7 3700X + Noctua NH-U12S | Gigabyte RTX 2080 Windforce OC 8GB | 32GB Kingston HyperX Fury 3200MHz | Seasonic Focus GX 750W | WD Green SN350 2TB | 32" LG UltraGear 32GP850

Lenovo LOQ 15APH8 | AMD Ryzen 7 7840HS | RTX 4060 8GB | 2X8GB Samsung 5600MHz | WD Green SN350 2TB

Permalänk
Medlem

Termen 4K-UHD brukar användas för det vi i europeiska standarder brukar kalla UHD-1, alltså för 3840x2160. 4K-UHD benämns också UHDTV1 i vissa internationella standarder/standard-dokument, både formellt och informellt. Under Ultra HD-standarder har vi också UHDTV2/UHD-2 som alltså är 8K-UHD eller 7680x4320.

I DCI-standarden finns det tre stycken 4K-upplösningar, 4096x2160, 3996x2160 och 4096x1716 – allt det kommer visas på en projektor på 4096x2160 (eller möjligen skalas ner till en på 2K). Notera att ingen av dessa är 16:9. Tror att 1.78:1 istället lagras i 3996x2160 och att den där inte tar upp hela bilden.

4K när det gäller skärmar och projektorer kan vara lite vad som helst, det är till skillnad från Ultra HD inget som har någon officiell logotyp du kan använda om du uppfyller vissa krav, utan en mer generisk term som är helt oskyddad.

Sen är ju inte det enda som skiljer TV/video och biografer åt några pixlar på höjden eller bredden.

Permalänk
Medlem
Skrivet av favouredhawk:

Jag såg förresten att detta finns i Adobe Premiere Pro, en massa olika beteckningar på 4K.

https://i.imgur.com/7xIuRVF.jpg

När det gäller digital intermediate och källformat (det kameror producerar, eller filmskanners producerar) finns det fler format, men du levererar inte video i alla dessa format. Med levererar menar jag formaten som används för uppspelning.

Permalänk
Medlem
Skrivet av favouredhawk:

Ja, upplösningen är ju densamma, dvs 2160p. Det är bara bildförhållandet som skiljer.

Nej upplösningen är endast samma i ena riktningen. Inte i den andra.

Visa signatur

42? Seven and a half million years and all you can come up with is 42?!
► FD Define R2 | Win10Pro | i7-3770K | Hyper212+ SP120PWM | P8P67 PRO | CML8GX3M2A1600C9 | 1080 Ti | AX750 | Asus VG27WQ | Eizo S2100 | HP Z24n |► OnePlus 6 |

Permalänk
Bildexpert 📺
Skrivet av favouredhawk:

Ja, upplösningen är ju densamma, dvs 2160p.

"2160p" är inte en upplösning utan närmast ett sätt att beskriva timing i bildsignalen (inom videovärlden) baserat på egenskaper som att den är 2160 linjer på höjden och har ett progressivt format snarare än radsprång (interlace). Det är underförstått att det är ett 16:9-format, baserat på hur det bygger på tidigare HD-signalformat som 720p och 1080p.

Permalänk
Medlem
Skrivet av Laxpudding:

"2160p" är inte en upplösning utan närmast ett sätt att beskriva timing i bildsignalen (inom videovärlden) baserat på egenskaper som att den är 2160 linjer på höjden och har ett progressivt format snarare än radsprång (interlace). Det är underförstått att det är ett 16:9-format, baserat på hur det bygger på tidigare HD-format som 720p och 1080p.

Ok, jag har alltid hört 720p och 1080p benämnas som upplösningar. Så jag antog att det var så.

Visa signatur

MSI B450 TOMAHAWK MAX | AMD Ryzen 7 3700X + Noctua NH-U12S | Gigabyte RTX 2080 Windforce OC 8GB | 32GB Kingston HyperX Fury 3200MHz | Seasonic Focus GX 750W | WD Green SN350 2TB | 32" LG UltraGear 32GP850

Lenovo LOQ 15APH8 | AMD Ryzen 7 7840HS | RTX 4060 8GB | 2X8GB Samsung 5600MHz | WD Green SN350 2TB

Permalänk
Bildexpert 📺

@favouredhawk: De används ofta som det. Till exempel skriver väldigt många att "...jag har en 1080p-skärm..." vilket är nästan - inte riktigt - lika illa som att skriva "...jag har en 128 kbits mp3-högtalare...".

Men det är enklare och snabbare och skriva "1080p-skärm" än att skriva att man har en skärm med panel som rymmer 1920x1080 pixlar. Så alla fattar ju sammanhanget där.

720p, 1080p, 2160p med flera är mer specifikt åsyftande på signalens utformning.