Permalänk

Upplösning på skärm

Hej!

Ang upplösning på skärm, om man kör på lägre än den högsta, blir det suddig bild då?
Så var det förr iaf.

Tänkte ev. skaffa en beg 4k-tv och ha som skärm en bit bort.
Jag har ett GTX960 4gb, men tänkte skicka 1080p för att få mer prestanda.

Eller rekommenderar ni att leta en 1080p-skärm så att man kan pixelmappa?
Redigerar mest film och kör musikprogram.

Tacksam för tips!
Mvh

Permalänk
Sötast

Jag skulle aldrig köra en skärm under native upplösning. Är hemskt att titta på.
Du kan ju testa sätta din egen monitor du tittar nu på en lägre upplösning.

Permalänk
Medlem

Ju högre upplösning skärmen har dessto mindre problem blir det att köra lägre upplösning, och 4K brukar gå att köra 1080p eller 1440p på utan att det blir allt för suddigt. Men det hänger mycket på hur skärmen/TVn i fråga hanterar det, min erfarenhet är att TV ofta brukar pixelmappa lägre upplösningar när det går medan datorskärmar sällan gör det.

Permalänk
Medlem

Ja det blir suddigare, speciellt text. Men du kan nog köra Windows i 4K utan problem ändå.

Permalänk
Medlem

Du kan köra 1080p skarpt om du låter drivrutinen sköta skalningen. Här är hur man gör det för Nvidia:

https://www.pcworld.com/article/560350/how-to-enable-geforce-...

Dock bör du stänga av ClearType i Windows inställningar om du gör detta.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av mpat:

Du kan köra 1080p skarpt om du låter drivrutinen sköta skalningen. Här är hur man gör det för Nvidia:

https://www.pcworld.com/article/560350/how-to-enable-geforce-...

Dock bör du stänga av ClearType i Windows inställningar om du gör detta.

Problemet är att integer scaling funkar inte på TS 960GTX kort
Krävs ett kort från 2xxx serien och uppåt för det!

Så visst sudd får man nog räkna med, men kan vara värt att experimentera med att låta TV:n eller grafikkortet skala.

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem
Skrivet av Roger W:

Problemet är att integer scaling funkar inte på TS 960GTX kort
Krävs ett kort från 2xxx serien och uppåt för det!

Så visst sudd får man nog räkna med, men kan vara värt att experimentera med att låta TV:n eller grafikkortet skala.

Ah OK, missade det.

Om man kör med AMD funkar integer scaler tillbaka till Radeon 7000-generationen…

Visa signatur

5900X | 6700XT

Permalänk
Rekordmedlem

Det lär se bra ut om du kör ut 1080 till en 4k skärm, grafikkortet behöver inte skala om nått utan det låter man skärmen göra.

Visa signatur

Ryzen 5 2400G, Asus ROG STRIX B350-F Gaming, 500GB Samsung 970EVO NVMe M.2 och en väldig massa masslagring. Seasonic Focus+ Gold 650W, Antec P 180 med Schyte o Sharkoon fläktar via en t-balancer, Tittar på en Acer ET430Kbmiippx 43" 4K
Främre ljudkanalerna återges via Behringer DCX2496, högtalare Truth B3031A, Truth B2092A Har också Oscilloskop, mätmikrofon och en Colorimeter.

Permalänk
Hedersmedlem

@perost har uttryckt det väl redan. Ju högre native-upplösning desto mindre blir problemen. Och ja, 4K är ju rätt högt. Så det kommer inte bli så illa som du antagligen sett innan på skärmar med lägre upplösning.

Men det beror lite på fortfarande.
Avstånd till skärmen, skärmstorlek och hur skärmen skalar om bilden spelar in.

Jag har en 4-skärm framför datorn och där tycker jag det blir rätt grötigt i spelen att dra ner till 1080.
På min 4K-TV ser jag inte alls samma problem. Antagligen för att jag sitter längre ifrån TVskärmen helt enkelt (även om TVn är större). Alltså att samma upplösning upptar mindre del av synfältet.
Skalningen har gjorts i grafikkortet för båda skärmarna - just for reference.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk

lägre upplösning brukar se rätt ok ut sålänge man använder en uplösning som är en jämn delning på native upplösningen så att de inte blir några avrundningsfel pga att en pixel i den lägre motsvarar 1.5 pixel native.

t.ex. 1080p 1/4 av 4k uplösningen

3840/1920 = 2px
2160/1080 = 2px

3840/2560 = 1.5px
2160/1440 = 1.5px

så 1080 skalar perfekt på 4k och en 1080 pixel passar perfekt i 4 st 4k pixlar medans 1440 kommer lida av avrundningsfel i bilden och därför kommer bli mer blurrig pga avrundningsfelet där en halv pixel ska avrundas så att det passar de faktiska pixlarna på skärmen.

Visa signatur

ASUS B550-f-Gaming, R9 3900X, HyperX 3200Mhz cl16 128Gb ram, MSI GTX 1070ti gaming oc@ 1979Mhz/8996Mhz.
[Lista] De bästa gratisprogrammen för Windows

Permalänk
Hedersmedlem
Skrivet av Rouge of Darkness:

lägre upplösning brukar se rätt ok ut sålänge man använder en uplösning som är en jämn delning på native upplösningen så att de inte blir några avrundningsfel pga att en pixel i den lägre motsvarar 1.5 pixel native.

t.ex. 1080p 1/4 av 4k uplösningen

3840/1920 = 2px
2160/1080 = 2px

3840/2560 = 1.5px
2160/1440 = 1.5px

så 1080 skalar perfekt på 4k medans 1440 kommer lida av avrundningsfel i bilden och därför kommer bli mer blurrig pga avrundningsfelet där en halv pixel ska avrundas så att det passar de faktiska pixlarna på skärmen.

Njaa. Det där beror på. Skalningsalgoritmerna som TVapparater (oxh även grafikkort) använder förvränger vanligen bilden - även om det teoretiskt skulle gå att göra perfekt pixelmappning.
Teoretiskt sett skulle det kunna bli som du beskriver.
I praktiken ska samma algoritmer som TVn använder klara av att hantera ett gäng olika omskalningsstorlekar och de är då utformade lite annorlunda än man kanske tänkt sig. De förvränger resultatet en del men fungerar i gengäld för allehanda olika upplösningar.
Resultatet blir därför inte riktigt som man tänkt sig.

Det här går att kringgå.
Exempelvis kan man låta grafikkortet sköta skalningen istället för TVn och här har nvidia en scaler som heter integer scaling. Det blir exakt rätt men det fungerar bara för vissa upplösningar som är enkla att dela.
Det här har nämnts tidigare i tråden.
Men det här stöds inte av TS grafikkort. Det är för gammalt.

Så omskalningen kommer antagligen inte bli så bra som det teoretiskt går att göra.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Bildexpert

Hat GTX 960 ens stöd för 4K/60Hz via HDMI? Hade för mig att HDMI 2.0-funktioner i huvudsak tillfördes först med Turing. Däremot borde det gå att lösa med någon typ av Displayport->HDMI-kabel med rätt specs. Då en TV ska användas är det en ytterst relevant faktor som man lätt förbiser bland äldre grafikkort.

Permalänk
Medlem

Jag tycker 1080p ser jättedåligt ut på min OLED55BX men då sitter jag också runt 1,6 meter ifrån teven.

Visa signatur

🏬: B550M DS3H 🔲: Ryzen 5 5600X ❄️: Freezer 34 eSports 🏴: RTX 3060 Ti Ventus 2X OC
🗄️: Stronghold 🔌: RM650 (2019) 🎞️: 32 GB DDR4 3200 MHz CL16 💾: CS3030 1 TB
⌨️: E9270P/MK730 (MX Red)/G80-3000N (MX Silent Red) 🖱️: Xlite V2 Mini/G603/MX Vertical
🎧: Edition XS/GSP 370/ATH-SR30BT 📶: Archer C6 📱: Pixel 6a 🖥️: OLED55BX/276E8VJSB

Permalänk
Medlem
Skrivet av Nissling:

Hat GTX 960 ens stöd för 4K/60Hz via HDMI? Hade för mig att HDMI 2.0-funktioner i huvudsak tillfördes först med Turing. Däremot borde det gå att lösa med någon typ av Displayport->HDMI-kabel med rätt specs. Då en TV ska användas är det en ytterst relevant faktor som man lätt förbiser bland äldre grafikkort.

Jag försökte googla lite men blev bara förvirrad. Jag tror 960 stödjer hdmi 2.0 men inte 2.0a?
Så 4K 60hz går, men inte tillsammans med HDCP2.2 om jag fattar rätt...
Så såg det nog iallafall ut när kortet var nytt, vet inte om det uppdaterats nått sen dess. (tror det är en hårdvarubegränsning dock, men har inte orkat grävt i det)
Iallafall, om det är problem att få kortet att skicka ut 4k så är väl det en bra anledning att skicka ut 1080p och kolla hur bra skärmen är på att skala om bilden
...
Överlag brukar ren rak "2:1" skalning vara enklast att få till men olika TV-apparater har olika hyss för sig...
Man får prova! Men suddigt i någon form kommer det bli utan integer scaling.
(och med integer scaling blir det blockigt/pixligt istället...)

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk

Intressant, tack för all input! Ska testa med TV'n i helgen.

Permalänk
Bildexpert 📺

Prylar "stödjer" inte HDMI-versioner. Ja, (nästan) alla skriver och säger så och då blir det märkliga resonemang när man kliver ned på produktnivå. Så även versioner på HDCP som heller inte är knutet till HDMI-versioner, utan är mer upp till vardera kretsuppsättning hos den enskilda produkten att hantera.

GTX960 är andra generationen Maxwell och lanserades under senare halvan av 2014 och utvecklades alltså under perioden fram till dess lansering. Då var HDMI 2.0 etablerat och det som anammades med andra generationen Maxwell är den möjliga bandbredden på GTX 9xx om 18 Gbps med 4K/60 etc. Första generationen Maxwell med GTX 7xx och 8xx klarar inte 18 Gbps.

HDMI 2.0a (2015) och 2.0b (2016) adderar främst beskrivningen av statisk HDR10 och HLG. Det är delvis hårdvarubaserat och delvis mjukvarubaserat, så det är möjligt att man adderar sådana funktioner i efterhand via drivrutiner. Med så pass gammalt grafikkort som GTX960 kan köra HDR över HDMI, men inte över Displayport.

HDCP 2.2 är från 2013 så fullt rimligt att det hanteras av GTX960. Nu är HDCP-kraven sällan problem för spel och vanliga skärmar. Det är främst en fråga om man vill köra kopieringsskyddade källor som kräver HDCP 2.2 i hela kedjan, likt exempelvis att köra Netflix, Disney+ etc via webbläsaren. Eftersom HDCP 2.2 ställer krav på hela kedjan måste även CPU, OS och webbläsare ha samma HDCP 2.2-stöd. Där får man gå in på varje tjänst och se var gränserna går i fråga om hårdvara och vilka versioner av drivrutiner och windows som gäller. Netflix kräver till exempel GTX 1050 och modernare.

Men som skrivet: HDCP är endast ett problem i den situationen. Inte för att ansluta datorskärm och göra det man normalt gör med en dator.

Permalänk
Bildexpert 📺
Skrivet av Scarabeo:

Jag tycker 1080p ser jättedåligt ut på min OLED55BX men då sitter jag också runt 1,6 meter ifrån teven.

Nu är ju du en av alla dem som envisas med att göra någonting märkligt så att just du upplever det sämre än din gamla plasma. Och dessutom envisas om och om igen med att dra upp detta som någon allmänt rådande sanning om 1080p på 4K.

Har för mig att du drar för långt i skärpereglagen så att du får distorsion i bilden med vita kantskuggor. Den gamla plasman lät dig dra reglagens överdrifter mycket längre. Sedan har du lärt dig fel om hur bild ska se ut till den grad att du upplever OLED:n som "oskarp" i jämförelse.

En LG OLED BX ger korrekt nivå utan distorsion med skärperelagen på 0. Allt över det adderar distorsion till bilden som inte finns där från början. Dock är reglagen så subtila på moderna TV-modeller att man måste dra reglagen väldigt långt innan det syns i praktiken. Detta till skillnad från äldre TV där extrem distorsion efterfrågades för att förstärka konturer hos suddiga analoga TV-sändningar. Plus att med 1080p på Full HD har man inte så många pixlar att förändra för att förstärka konturer innan man börjar skapa synlig distorsion.

Ställer man en Full HD-OLED bredvid en modern 4K-OLED och jämför en 1080p-källa likt BD med neutral skärpeinställning/skalning är det i grunden samma bild som presenteras. Synar man noga ser man subtila skillnader som kommer av olika tydliga pixelmatriser och olika skalningsalgoritmer. Mer än så är det inte.

Nu finns det förstås produkter som kan göra fel och inte skala korrekt. LG:s OLED är dock inte en av dessa produkter.

Permalänk
Medlem
Skrivet av Laxpudding:

Nu är ju du en av alla dem som envisas med att göra någonting märkligt så att just du upplever det sämre än din gamla plasma. Och dessutom envisas om och om igen med att dra upp detta som någon allmänt rådande sanning om 1080p på 4K.

Har för mig att du drar för långt i skärpereglagen så att du får distorsion i bilden med vita kantskuggor. Den gamla plasman lät dig dra reglagens överdrifter mycket längre. Sedan har du lärt dig fel om hur bild ska se ut till den grad att du upplever OLED:n som "oskarp" i jämförelse.

En LG OLED BX ger korrekt nivå utan distorsion med skärperelagen på 0. Allt över det adderar distorsion till bilden som inte finns där från början. Dock är reglagen så subtila på moderna TV-modeller att man måste dra reglagen väldigt långt innan det syns i praktiken. Detta till skillnad från äldre TV där extrem distorsion efterfrågades för att förstärka konturer hos suddiga analoga TV-sändningar. Plus att med 1080p på Full HD har man inte så många pixlar att förändra för att förstärka konturer innan man börjar skapa synlig distorsion.

Ställer man en Full HD-OLED bredvid en modern 4K-OLED och jämför en 1080p-källa likt BD med neutral skärpeinställning/skalning är det i grunden samma bild som presenteras. Synar man noga ser man subtila skillnader som kommer av olika tydliga pixelmatriser och olika skalningsalgoritmer. Mer än så är det inte.

Nu finns det förstås produkter som kan göra fel och inte skala korrekt. LG:s OLED är dock inte en av dessa produkter.

Du har säkert rätt men kontentan var att avståndet till teven är viktigt om man planerar att köra en lägre upplösning. Lätt att bli besviken på skärpan annars kan jag tänka mig. Beror ju såklart på vad man jämför med också.

Visa signatur

🏬: B550M DS3H 🔲: Ryzen 5 5600X ❄️: Freezer 34 eSports 🏴: RTX 3060 Ti Ventus 2X OC
🗄️: Stronghold 🔌: RM650 (2019) 🎞️: 32 GB DDR4 3200 MHz CL16 💾: CS3030 1 TB
⌨️: E9270P/MK730 (MX Red)/G80-3000N (MX Silent Red) 🖱️: Xlite V2 Mini/G603/MX Vertical
🎧: Edition XS/GSP 370/ATH-SR30BT 📶: Archer C6 📱: Pixel 6a 🖥️: OLED55BX/276E8VJSB

Permalänk
Bildexpert 📺
Skrivet av Scarabeo:

Du har säkert rätt men kontentan var att avståndet till teven är viktigt om man planerar att köra en lägre upplösning. Lätt att bli besviken på skärpan annars kan jag tänka mig. Beror ju såklart på vad man jämför med också.

Det är inte särskilt viktigt med avståndet utan det är mer en individuell och situationsbaserad fråga.

Man kan dock sitta närmare en exempelvis 55-tums 4K-TV som skalar 1080p jämfört med 55 tum Full HD eftersom pixelmatrisen med Full-HD-paneler är så mycket mer framträdande. Individuellt med synförmåga förstås, men 1,6 meter från 55 tum Full HD kan innebära att man ser rutnätet från pixelmatrisen som en direkt hinna/screendoor över bilden.

Fullt tänkbart att man vänjer sig vid matrisen för att den hjälper ögat att fokusera och finna strukturen. När man sedan byter till 4K kanske ögat inte längre uppfattar pixelmatrisen vilket då ger ett mjukare intryck ifall ögat är van med att fokusera på en struktur den inte längre kan uppfatta.

Permalänk
Medlem

Jag har ju en Philips 27tums ips 4k monitor till datorn. kör spelen i 1080p och även testat en native 27 tums FHD monitor.
Med den testade 27 tumsFHD monitorn upplevde jag pixelmatrisen som väl störande jämfört med min gamla mindre FHD skärm.

Däremot kör jag på 27 tums 4k skärmen med 1080p upplösning (från datorns grafikkort ett Gtx1070) så blir bilden mycket bättre just för att jag slipper den jobbiga pixelmatrisen samtidigt som bilden ändå upplevs tillräckligt skarp även om en viss mjukhet finns.
Men den mjukheten är mycket mindre störande än synlig pixelmatris för mig. Andra kanske prioriterar annorlunda.

Just 4k till 1080p är ju jämt delbart och fungerar bra om inte hårdvara eller mjukvara försöker egna trix som sabbar det.

Faktiskt riktigt nöjd med skärmen då den klarar att hantera 24 Bilder/Sekund från mina UHD filmer på Xboxen vilket annars många datorskärmar inte gör, har antagligen med att Philips som stor tv tillverkare insett att man vill använda skärmen även till mediaenheter.

Sedan kan ju sägas att på normalt soffavstånd från en större tv så syns sådana här detaljer betydligt mindre än när man sitter nära en datorskärm så i praktiken är det inget problem på det avståndet med själva upplösningen.