Inlägg

Inlägg som Laxpudding har skrivit i forumet
Av Laxpudding
Skrivet av zogez:

Dock har jag otroligt svårt att se det kan bli sånna skador när den ligger i en kartong. ligger ju helt fastklistrad i figoliten. Den hoppar ju inte runt i kartongen när den trasporteras.

Det enkla svaret är att den var trasig redan när den packades ned

Av Laxpudding

"Dahua" – det dyker upp nya namn hela tiden.

Vad det handlar om är OEM-skärmar, typiskt kinesiska där man sätter på sitt eget varumärke. Samma skärm säljs under andra varumärken världen över. En del butiker försöker lite mer seriöst fast mycket är bara ett logistiksteg bort från Ali Express.

Tricket att köpa skärm är att köpa en skärm som är testad och bekräftad. Även om en skärm är meh och inget särskilt vet man att det kanske är precis så bra den behöver vara för priset. Andra skärmar bekräftas vara lite mer på en ahh-nivå och blir då oftare lite mer populära.

Vad gäller Dahua eller vad det nu kan vara vet vi att det antagligen är på Ali Express-nivå och att det kan vara på meh-nivån men också riskerar vara nere på bläh-nivån. Vi vet inte. Vi kan vara rätt säkra på att det inte är på ahh-nivå för ofta finns det anledning till att man kan spara på komponenter och hålla nere priserna, till exempel välja paneler av sämre sortering.

Och detta behöver inte vara fel. Sätter man ribban tillräckligt lågt kommer allting fungera bra. Har man funderingar om att köpa något som verkligen är bra, då måste man däremot sikta på modeller som är bekräftade.

Av Laxpudding

När du kör 1440p/165 Hz kör du på gränsen av kretsarnas kapacitet för HBR2-nivån vilket kan leda till vissa instabilitetsproblem med exakt timing som följd av lite olika toleranser i hårdvaran. Typiskt för detta är att man bara genom att sänka frekvens lite grann, som du gjort med 160 Hz istället för 165 Hz hamnar inom toleranserna igen och då fungerar det.

Detta kan bero på kabeln men det kan också bero på skärmen och på grafikkortet där uppdateringar till någondera eventuellt kan säkra stabilitet.

Av Laxpudding
Skrivet av Valkaras:

Tack för alla svar! Efter att ha läst det ni skriver så förstår jag att jag kan behålla min gamla TV och inte måste köpa en ny då jag uppgraderar min dator

Din TV fungerar precis som den alltid gjort och nytt grafikkort förändrar ingenting för TV:n som är kvar på sin vanliga kapacitet. Detta är det normala för i stort sett allt du använder ihop med datorn.

Precis som ifall du haft en gammal 1080p/60-skärm. Den fungerar fortfarande exakt som innan i 1080p/60 även om grafikkortet klarar så mycket mer.

Likadant som din gamla USB-prylar. Även om du köper en ny dator med USB-portar som är 10, 20, 40 ggr snabbare etc. kommer dina gamla USB-prylar fortfarande fungera som innan med den kapacitet de en gång var byggda för.

Det är först när du vill att din TV ska svara mot den modernare kapaciteten som grafikkortet ger du måste köpa ny TV. Precis som när du vill ha USB-hårddiskar etc. som tuffar på i samma fart som modernare USB. Förstå då måste du köpa ny hårdvara eftersom det inte går att få gammal hårdvara att bli som ny hårdvara. Din fråga och särskilt rubriken kunde tolkas som en fråga kring detta.

Av Laxpudding
Skrivet av Valkaras:

Min tv är en Samsung med modellkoden UE75KS8005. Anledningen till att jag behöver HDMI 2.1 är att jag tänker köpa en ny dator och jag vet att HDMI 2.0 inte klarar av bandbredden på nya grafikkort. Går det att uppgradera HDMI eller går det att lösa på något annat sätt utan att köpa en ny TV?

Läser jag om din trådstart igen (alltid bra, för ibland tappar man bort sig i diskussionerna) är det uppenbart att du fått det till det där alldeles bakvänt. Eller kanske bara vecklat in tankegångarna kring HDMI-versioner, något som sker alldeles för ofta.

Ditt nya grafikkort kan köra 4K/120 över HDMI och allt där under. Din TV som klarar 4K/60 maximalt är där under. Alltså finns det ingenting som kan bli fel.

Pratar vi bandbredd klarar ditt nya grafikkort 48 Gbps över HDMI. Din TV klarar max 18 Gbps. Då kör grafikkortet den signal som TV:n fungerar med, vilket är 4K/60 och 18 Gbps. Inte svårare än så.

Av Laxpudding
Skrivet av Valkaras:

Jag är nöjd med 4k och 60 Hz, om jag bara vill ha det räcker det med HDMI 2.0 då oavsett vilket spel jag vill spela?

Om du vill ha 4K/60 behöver du 4K/60 och du har redan kapaciteten för 4K/60. Man behöver inte alls blanda in HDMI-versioner i det hela. Utgå från funktionen och du har redan funktionen.

Om du däremot senare vill ha 4K/120 och VRR måste du köpa ny TV eftersom det kräver helt ny hårdvara. Det är inget du kan uppgradera i traditionell mening.

Av Laxpudding
Av Laxpudding

LG byter paneler med inbränning/permanenta förändringar inom reklamationstiden. Med G-serien är det en utökad garanti om fem år.

Av Laxpudding
Skrivet av Leiri:

Tänkte mest då folk på nätet hetsar om att woled är en död teknik med urtvättade färger och qdoled är den bästa tekniken sedan elektriciteten uppfanns då den kan visa blodrött.

När du läser och hör sådant ska du sluta läsa och sluta lyssna.

Det finns skillnader men för att greppa de skillnaderna behöver man någon som guidar där du har en kalibrerad WOLED bredvid kalibrerad QD-OLED samt en referensmonitor, säg en Sony BVM-HX310. Någon måste sedan aktivt guida till att visa skillnaderna där en WOLED kan skifta i färg i vissa nyanser i fråga om hur nära de är referensmonitorn.

Av Laxpudding
Skrivet av Leiri:

Kimmer c4/g4 med mla sänkas till runt 10k tror du eller är det bara köra på en c3 som idag går att få för 9.3 - 10.5?
Är det någon större skillnad mellan woled och qdoled i verkligheten?

Jag vet inte vad saker och ting kostar i framtiden. Lika lite som jag vet vad tomaterna kostar på ICA nästa vecka.

WOLED och QD-OLED har praktiska skillnader och det är också praktiska skillnader mellan WOLED och WOLED eftersom varje tillverkare sätter sin prägel på produkten.

Av Laxpudding

@Valkaras: Du kan fortfarande köra din befintliga TV med 4K/60 som mest Om du vill åt modernare funktioner som exempelvis 4K/120 och 4K/144 samt VRR behöver du köpa en ny TV som har de funktionerna på plats från början.

Av Laxpudding

Detta brukar komma upp då och då. Här är en äldre tråd jag lyckades googla fram:
https://www.sweclockers.com/forum/trad/1662906-ny-skarm-med-r...

Jag skulle säga att en skärm som ser ut sådär ur kartong är en skärm som antingen varit upplockad innan och hanterats ovarsamt eller så är det ett fabrikationsfel som passerat kvalitetskontrollen.

Alltid värt att testa den så att den inte är skador på panelen. Det brukar också avslöja om reporna faktiskt syns eller inte.

Av Laxpudding
Skrivet av fille182:

Hej,

Vad tycker forumet denna är värd?

Inköpt 2021-10-27 kvitto finns

Det är en Sony 2020 85" KD85XH9096 / 4K UHD / HDR / Dolby Vision / HDMI 2.1 / 4K@120hz / eARC / VRR /ALLM

Motsvarande ny modell från Sony är X90L så räkna utifrån den.

Av Laxpudding

Detta låter inte helt obekant och varit uppe tidigare vill jag minnas. Men jag minns inte utfallet eller om det löste sig. Ofta löser det sig med att man helt enkelt skaffar en annan TV.

Du kan alltid höra av dig direkt till Philips support. En chansning och kanske slöseri med tid, men om inte de har fungerande svar så vet du läget.

Philips 4-serier är notorisk enklaste sortens OEM-TV (råkar bara stå "Philips" på kartong och chassi) och därför är det inte säkert Philips själva har kontroll över mjukvaran till produkten.

Av Laxpudding

Förresten, pröva att skanna, QR-koden med mobilen från inets bild tidigare i tråden.

Avslöjar vem som är tillverkaren eller kanske grossisten i detta fall.

Av Laxpudding
Skrivet av Inet:

Hur som helst, vi har faktiskt certifiering på våra kablar, ska däremot uppdatera så det även syns på vår hemsida och inte bara kartongen

Låter prima! Syns det på webben vet man vad det handlar om och då kan de som vet också bekräfta för de som inte vet att era kablar är precis så bra som HDMI kräver att en kabel ska vara.

Av Laxpudding
Skrivet av bloodshed:

Jag vill uppgradera min skärm (LG 27GL83A-B) som har 5 år på nacken men vet inte heller om jag ska gå 4k eller 1440p. Däremot har du ett mycket bättre grafikkort än mig, har ett 3070S, så jag kommer inte klara 4K men man vill ju framtidssäkra!
Jag hittade en video som förklarar lite varför det oftast blir struligt att visa 1440p på en 4K skärm: https://www.youtube.com/watch?v=9k1Mdq1m-7Y

Jag var ett tag helt säker på att jag skulle köpa en AOC Q27G3XMN men har efter det velat fram och tillbaka rätt många gånger. Jag har nu bestämt mig för att inte köpa den efter att jag läst lite kommentarer på rtings på skärmen. Den verkar inte riktigt vara värt de 5000kr den kostar i Sverige hos en vettig återförsäljare (Inet). Black smearing och VRR Flickering (som jag fortfarande inte riktigt har förstått vad det är då jag inte sett det IRL) verkar vara några av problem. Tror att jag kommer spara mina pengar nått år och dra en rejäl uppgradering när nästa generations grafikkort kommer samt köpa en 4K IPS skärm med bra färger. Jag behöver inte HDR men vill ändå åt bra kontrast-ratio. OLED vore trevligt men sitter en hel del och jobbar hemifrån samt spelar spel med en fast UI och vill inte riskera burn-in när skärmen kostar 9-10k+.

Länk till Rting recension

Med LG 27GL83A har du redan en bra skärm av standardklass. Dagens motsvarigheter är sällan bättre utan mest samma lika. Enda sättet att uppgradera är en skärm som tillför något nytt rent tekniskt, likt en FALD för högre kontrast, särskilt du spelar spel som bygger på HDR eller suktar efter djupare svärta. Där är också OLED den stora kungen.

AOC Q27G3XMN är troligtvis en en sidogradering för din del. Du får några tänkbara fördelar likt FALD men också tänkbara ovan nämnda nackdelar.

4K öppnar för en flexibilitet men det kräver då mer av dig som användare. Du kan flexa mycket ännu mer när du väl byter GPU framöver.

En fjärde väg är högre frekvens, vilket är mer relevant om det är främst rappa shooters du spelar.

Av Laxpudding

@bloodshed: VRR är inte som V-sync. VRR är samma sak som adaptiv synk där skärmens uppdatering synkar mot grafikkortets FPS. G-sync och Freesync är Nvidia:s och AMD:s beteckningar för adaptiv synk. VRR, Variable Refresh Rate, är begreppet som kommer från HDMI-standarden.

Alla dessa begrepp är synonyma med varandra i fråga om vad det handlar om: att låta skärmens frekvens (Hz) följa spelets renderade frekvens (FPS).

Detta fungerar per definition upp till skärmens högsta frekvens, det vill säga när du har FPS lägre än 144 på en skärm som klarar 144 Hz. Har man FPS högre än skärmens frekvens (säg 200 FPS på en 144 Hz-skärm) så applicerar inte VRR/Adaptiv synk alls eftersom redan kommit så långt skärmen mäktar med. <- just detta är viktigt, se längst ned.

---

Traditionellt har skärmen hela tiden sin fasta frekvens, likt 144 Hz medan GPU har en varierande frekvens om antal FPS. Detta är dilemma. V-sync ON eller OFF är hur grafikkortet hanterar det dilemmat:

V-sync: ON innebär att GPU väntar in skärmens uppdatering för att uppdatera en komplett bildruta per gång. Optimalt för att få enhetlig grafikrendering men riskerar ge ryck och fördröjning, särskilt när FPS är under skärmens Hz. Detta är en form av pest för egentligen alla spel eftersom man för att undvika rycken måste öka FPS vilket typiskt innebär att man drar ned på grafikkvaliteten. Vilket är supertrist om man spelar för grafikens skull.

V-sync: OFF innebär att GPU uppdaterar när den kan oavsett var skärmen är i sin uppdateringscykel vilket är snabbast men ger tearing/bruten grafik eftersom GPU uppdaterar bilden när den kan. Detta är en form av kolera för vissa typer av spel eftersom upplevelsen riskerar blir sämre. Däremot optimalt för andra typer av spel, särskilt de spel där du har väldig hög FPS från början, likt rappa shooters, eftersom tearingen blir mildare ju högre FPS du har.

Adaptiv sync: Löser då dilemmat där du slipper väljer mellan pest eller kolera med v-sync on/off. Då för spel där FPS dippar lägre än skärmens Hz. Typiskt är detta för spel som är grafiktunga och svåra att få högre FPS med. För spel där där du har väldig hög FPS applicerar inte ens adpativ synk på situationen eftersom FPS redan är bortom vad skärmen kan synka mot.

Alla de här lösningarna har sina situationer där de fungerar bättre och sämre (eller inte alls) och detta varierar med spelen man kör. Kör man grafiktunga spel där du kämpar med att få spelbar FPS är adaptiv sync en utomordentlig lösning som är en av de viktigaste innovationerna senaste 15 åren eftersom det löser ett klassiskt dilemma, särskilt för grafiktunga spel.

Kör du enbart spel som är rappa shooters och har en grafikmotor som kan väldigt högt, säg 500 FPS eller liknande tillför adaptiv synk ingenting per definition. Därför hör du så många skäggiga YT-snubbar och one-liners på forum som menar att adaptiv synk är oviktigt eller meningslöst eller något annat.

Och det stämmer kanske för dem. Spelar du inget annat än Valorant i 700 FPS hela dagarna gör adaptiv synk per definition vare sig till eller ifrån. Men det gör en enorm skillnad om du vill köra Witcher 3 eller Cyberpunk 2077 med ray-tracing och det bitvis dippar ned till låga FPS.

Ergo: När någon snubbe kategorisk avfärdar adaptiv synk då kan man dra slutsatsen att den personer talar enbart från sitt högst egna perspektiv av spelande av en specifik typ av spel. Ska du dra råd från dessa människor, se till att din uppfattning av spelande matchar deras uppfattning av spelande. Annars kan det bli rätt dåliga råd.

Av Laxpudding

VRR Flicker på OLED har jag exempel på här. Jag har endast upplevt detta på laddskärmar och sådant som menyer och inventoryskärm där det är ganska statisk grafik. Väldigt sällan i spelen.

Andra har det påträngande problem och stör sig mycket mer. Jag vet inte vad som skiljer sig om det är inställningar i spel/GPU eller om det är individers känslighet. Förmodligen en kombination av både och.

Orsaken till flimret brukar beskrivas som att drivningen av OLED-panelen inte kan ske lika tillförlitligt när bildfrekvensen varierar och att detta påverkar främst mörka nyanser. Typiskt måste en OLED i högre utsträckning använda temporala halvtoner för mörka nyanser. Det går inte riktigt att få en OLED att lysa tillräckligt lite, utan dioden måste över en tröskel där den då lyser för mycket för den där första nyansen mörkgrått. Vilket man löser genom att modulera dioden och denna modulering blir svårare när bildfrekvensen varierar.

Eller något sådant. I väntan på att någon koreansk ingenjör får ge detaljerna så.

Av Laxpudding

Den där videon är exempel på flera vanliga missuppfattningar. Videoskaparen försöker bevisa eller snarare "bevisa" att 1440p på en 4K-monitor är sämre genom att använda en miniräknare! Det är det första och alldeles hypotetiska steget om vad skalning innebär.

En CPU på 4,0 GHz är dubbelt så snabb som en CPU på 2,0 GHz ifall man använder exakt samma miniräknare. Men jag tror att majoriteten på Swec begriper att det inte automatisk är samma sak som dubbla prestandan. Det finns så sabla mycket mer som påverkar och avgör vad det blir i praktiken när man jämför två CPU:er med olika frekvenser.

Skärmar är inte så värst annorlunda från den insikten.

Verkligheten med skalning och hur det praktiska resultatet blir med en viss skärm, viss GPU och visst spel är givetvis något helt annat och rätt så mycket mer komplicerat än att dra kvoter på en miniräknare. 1080p på en 4K-skärm är heller inte automatiskt så bra som han försöker "bevisa" utan det förutsätter att man använder heltalsskalning. Gör man inte rätt där kan det lika gärna bli godtyckligt sämre. Detta är också en vanlig missuppfattning om 1080p på 4K-skärm.

1440p på 4K blir ofta något mjukare än 1440p native som i sin tur är mer pixeliserat pga av lägre upplösning och synligare pixelstruktur. En del föredrar det ena och andra föredrar det andra, typiskt då baserat på vilken skärm man är van med innan. Detta kompliceras ytterligare av DLSS etc. när vi kan rendera i 1440p och interpolera till 4K vilket fungerar olika bra i olika spel och dessutom fungerar olika bra för olika personer.

----
Sedan lite smådetaljer: Han kallar 1440p/QHD för "2K" vilket är fel då 2K betyder "ungefär 2000 pixlar på bredden" och alltså omfattar dels videovärldens faktiska 2K-monitorer i 17:9 med 2048x1080 och Full HD med 16:9 1920x1080p. 1440p skulle kallas "2.5K" enligt samma logik. Men istället envisas man med att hitta på ännu en beteckning när det redan finns 1440p, QHD och 2560x1440 som berättar vad det handlar om och skapar istället en helt onödig informationskonflikt.

Till och med Wikipedia beskriver 2K som Not to be confused with 1440p.

Han missar att 1440p och 1080p är uppskalning på skärm och kallar det för nedskalning. Det är alltid bilden som skalas upp till en högre upplösning eller skalas ned till en lägre upplösning. 4K-skärmen är alltid 3840x2160 pixlar. Mindre viktigt och jag vet att många har svårt att skilja på detta. Så jag kallar det för "1440p på 4K-skärm" för att vara tydlig.

Att jag skriver som jag gör beror på att jag nu har lite över 10 års erfarenhet av att skala på 4K-skärmar i allt från 24 till 43 tum på skrivbordet och upp till 100 tum på TV-bänken. Jag har också en miniräknare och det första jag lärde mig med den första 4K-skärmen var att den där simpla matematiska teorin bara tog mig så långt.