Inlägg

Inlägg som Laxpudding har skrivit i forumet
Av Laxpudding

Linux är definitivt inte mitt område men dessa symptom är typiska för dåliga kablar oberoende av operativsystemnivå. Samma fenomen kan inträffa mellan en DVD-spelare och TV så inte något som nödvändigtvis har sitt svar i drivrutiner eller kernel. Och för DP är det ett vanligt symptom från en felkopplad DP-kabel.

Nästa steg i felsökningen är att köra med HDMI för att se om symptomen kvarstår. Eller om man så vill, testa med en DP-kabel man vet fungerar i andra sammanhang.

Av Laxpudding

Vad gäller begagnat och reparea själv är så gott som alltid enklare att få tag på en fungerande begagnad TV för betydligt mindre av reparationspriset, smälla upp den direkt på plats och helt enkelt ta den spräckta RU7:n till återvinningen. En snabb titt på blocket visar dock att folk i viss mån övervärderar sin gamla och enkla TV något. Fast det är klart, de som säljer till vettiga priser har antagligen inte annonsen ute så länge medan den är såld. Så det blir ett övervärderingsbias där.

Dagens motsvarighet till TS modell om det ska köpas nytt är CU7xxx-serien (eller CU8xxx som är mer slim och har mer metalldetaljer) och där verkar nypriserna vara runt 8–9000 kronor för 65 tum. 2024-modellerna är DU-serien men de är ju dyra nu.

För begagnat är bokstaven R av betydelse då alla modeller med lägre bokstav – förutom A, B och C, äldre än TS modell från 2019.

Så en begagnad Samsung i C, B, A, T eller jämngamla R. Om modellbeteckningen är J, K, M eller N är den äldre. Ibland går det att fynda begagnade och bättre modeller, likt Q-seriens modeller. Då kan man med lite tur komma undan med en bättre modell för mindre än vad en ny och kanske sämre modell likt nämnda CU7/CU8 kostar.

Av Laxpudding

Den här frågan återkommer ofta och tyvärr, det är kört. En spräckt panel kan inte lagas, bara ersättas som reservdel. Kostnaden för en sådan panel som reservdel, plus själva reparationsarbetet och sådant som fraktkostnader är ofta är på samma nivå som en ny TV. Särskilt för äldre modeller eftersom utvecklingen leder till allt större TV för mindre pengar. Kostnaden att reparera en äldre TV kan därför bli högre än att köpa en ny TV som dessutom är bättre. Återvinningen är det som återstår.

Hemförsäkring kan hjälpa, vilket försäkringsbolaget kan svara på. En fem år gammal modell brukar dock inte värderas högt vilket gör att självrisken kanske blir högre än vad TV:n anses vara värd. Nu kan en RU-modell lanserad 2019 ända vara köpt ganska sent och kanske anses ha något värde kvar, vilket i alla fall kan ge lite hjälp till en ersättare.

Av Laxpudding

Liten men långrandig detalj om DVI på sista med en bild på en DVI-D-DL-kopplad hankontakt – som alltså saknar pinnarna för analog bildsignal – är att avgöra vad som fungerar med DVI baserat på kontaktens utformning endast gäller själva kabeln och hankontaktens pinnar. Kan alltså endast se vad just den kabeln kan överföra, inget mer.

Man kan inte från enbart honkontakten alls avgöra vad som faktiskt fungerar och vad som faktiskt är kopplat bakom. Det enda man kan avgöra från en DVI-honkontakt är när analog bild inte fungerar. Och i sällsynta fall när Dual Link inte fungerar.

Så ser man en DVI-I-honkontakt med alla pinnar öppna utan någon övrig kontext om dess användning har man alltså ingen aning om vad som fungerar eller inte. Kan inte ta något för givet. Det vanligaste exemplet på förvirring är att det väldigt ofta sitter en DVI-I-hona som till synes tar "allt", både DVI-D-DL och analogt men i själva verket är kontakten endast kopplad för DVI-D single link.

Så varför sätta DVI-I-honakontakt på enheter som bara tar DVI-D single link? Detta för att kunna använda vilken DVI-kabel som helst utan att kontakten blockar de oanvänd hanpinnarna i en A-, DL- eller fullkopplad DVI-kabel. I sina sämsta stunder kräver DVI tre olika typer av kablar för fungera. Denna situation löser man med använda en DVI-I-hona så att alla kablar passar.

Och då blir det genast förvirring åt andra hållet, man förväntar sig att fel saker ska fungera.

Alltså har vi den gamla klassikern med Frankenstein-koppling där man tar en HDMI- eller DP-till DVI-adapter och jackar på en DVI-till-VGA-adapter och undrar varför det inte blir bild. Ganska ovanlig idag, men för tio år sedan, phew!

Av Laxpudding
Skrivet av Baxtex:

Ja jag misstänker att det kan vara lite gammalt. Drog hem denna men hade den redan installerad: https://www.nvidia.com/en-us/drivers/nv-uefi-update-x64/ Enligt här har den DP 1.43: https://www.nvidia.com/en-gb/geforce/graphics-cards/geforce-g... 😁

Hänvisningar till specifikationer säger bara så lite hur saker fungerar i praktiken. Det är nog alldeles säkert en typo på Nvidias sida då det inte finns någon Displayport version 1.43 men väl en 1.4a som är förtydliganden runt DSC.

Just den typen av typo är rätt vanlig om det en gång stått 1.43 där 3 hänvisar till den tredje fotnoten i det ursprungliga dokumentet någon klippte och klistrade ifrån.

Grundproblemet är att GTX 1060-generationen utvecklades ett par år innan 5120x1440/144+ Hz-skärmarna kom. Dess hårdvara har aldrig kunnat testköras ordentligt med den typen av skärmar eftersom dessa inte existerade när kretsarna präntades. Det var ett snarlikt problem för flera år sedan med de 2560x1440-skärmar som kom med "överklockning" för 165 Hz. Då var GPU:er märkbart äldre än skärmtypen (likt Nvidias 7xx-modeller) inte kapabla till de sista unsen av bandbredd som överklockningen krävde, trots att det står "DP 1.2" i GPU-specifkationen. Därav att funktionen infördes som överklockning med en friskrivningstext i handböckerna om att det inte fungerar med alla GPU:er. Samma sak här.

Av Laxpudding
Skrivet av niklaeri:

Kan tro då, att dessa skärmar blev för mycket på så sätt de var kopplade när jag provade. Får prova mig fram med olika sätt att koppla kanske. Tilläggas kan ju att den "nya" skärmen som jag kopplade in var HDMI konverterad till DP med adapter.

Det var just spegla skärm 1 till TVn som jag försökte. Det går bra när jag bara har totalt tre skärmar inkopplade, men inte när jag kopplar in en fjärde. Det var där problemet uppstod.

HDMI till DP? Det är extremt ovanligt och kräver relativt dyra prylar vilka dessutom har egen strömförsörjning via USB. Jag gissar att du menar tvärtom, DP-till-HDMI, alltså att du har DP ut på grafikkortet och ansluter via omvandlaren till en monitor eller TV:n via HDMI. Väldigt vanligt att man förväxlar riktningen på omvandlare, vilket alltid förvirrar i sådan här trådar. He-he.

Detta kan faktiskt påverka mer då det kan finnas en uppdelning på hur många HDMI-strömmar korten kan fördela över de fysiska anslutningarna. Beror på adaptern/omvandlaren i fråga men om det är första billigaste DP->HDMI-adaptern du köpte för någon hundralapp eller så måste GPU:n själv alstra två HDMI-strömmar och då kan det vara så att vilken kontakt du använder på grafikkoret spelar roll.

Av Laxpudding
Skrivet av Baxtex:

Köpte en 5120X1440 skärm med 165Hz. Inga problem att köra med min laptop som har USB-C/Thunderbolt. Men min desktop med ett 1060 verkar lite knepigare. Jag kan max välja 144Hz men gör jag det så blir typ texten konstig, typ pixlig. Sänker jag till 120Hz så ser det bättre ut. Jag kör med displayport kabel 1.4. Kan mitt grafikkort vara problemet?

När kabeln inte orkar blir signalen inte överförd i komplett skick och den vanligaste effekten är då svart skärm/”no signal” eller kanske en oanvändbar bild med kraftiga störningar, flimmer etc. Är det mer endast förändrad eller annorlunda grafik pekar det på grafikkortet.

GTX 1060 är 8 år (2016) gammal nu vilket är två år innan de första 5120x1440-skärmarna-skärmarna dök upp på marknaden. Det brukar nämnas i skärmarnas handböckerna att minsta GPU-krav för att full funktionalitet. Minimumkrav är ofta RTX 2xxx-serien som är samtida (2018) med just den här typen av skärmar.

Nu skadar det inte att kolla ifall det finns uppdateringar till grafikkortets bios/uefi hos tillverkaren. Annars är en modernare GPU den förmodligen enda lösningen.

Av Laxpudding

Saxat från: https://www.nvidia.com/sv-se/geforce/graphics-cards/40-series...

Fyra oberoende skärmar körs med 4K vid 120 Hz med DP eller HDMI
Två oberoende skärmar körs med 4K vid 240 Hz eller 8K vid 60 Hz med DSC med DP eller HDMI
Andra skärmkonfigurationer kan vara möjliga baserat på tillgänglig bandbredd

Detta är ofta utspritt på utgångarna så även om man har två 4K/240-skärmar kan de behöva placeras annorlunda på kontakterna, likt att det fungerar om man kör DP port 1 och DP port 3 men inte om man kör port 1 och port 2 samtidigt. Det är sådan info som sällan står i klartext, utan man måste pröva sig fram.

Det brukar gå att tänka att de två första anslutningarna på en 4K/240-bandbredd och tredje och fjärde på ytterligare en 4K/240-bandbredd. Så gäller att sprida ut de mest krävande skärmarna.

Av Laxpudding
Skrivet av Swennis:

Läst lite att några tyckte svärtan va liiite sämre på s90c än c3… undrar om dom menar när det är jätteljust i rummet, så det är Samsung’s reflexfilter som gör der.. för svärtan borde väl va detsamma väl?

Svärtan är i praktiken noll på både. Även om det går att mäta en viss nivå av ljus från en OLED är det på nivåer bortom vad ögat kan uppfatta, särskilt om vi samtidigt har ljus i övriga delar av bilden.

Så när någon beskriver "svärtan som sämre" kan de mena en rad olika saker, likt de du nämnt:

1) Svartnivån är ankrat fel, kanske för högt, dvs svart i bilden återges på panelen som en nivå av mörkgrått. Men kan också vara viceversa, ankrat för lågt så att skuggtoner som ska vara mörkgrå återges som svart. Båda exemplen betyder att inställningarna är fel, i alla fall på en OLED. Med en LCD-panel, särskilt VA, kan det vara vinkeln som är den skillnaden. Två olika personer framför TV:n får olika svartnivåner som följd av de har olika vinkel till panelen.

2) Reflexfiltret plockar upp mer eller mindre ljus och återreflekterar mot svart. Folk i gemen går väldigt sällan runt med luxmätare (knappt ens jag!) och jämför, men ifall man ser en TV i en miljö med 100 lux och nästa i en miljö med 1000 lux är det en extrem skillnad på vad filtret kastar tillbaka. Samtidigt är hjärnan rätt usel på att kvantifiera nivåskillnader av ljus i rum. Vi är logaritmiska där och upplever inte 1000 lux som det 10 ggr ljusare än 100 lux det faktiskt är. Men det har enorm effekt på vad reflexfiltren kastar tillbaka.

3) Hanteringen av lågdagrar/skuggtoner, alltså nyanserna ovanför svart. Där talas det ofta om "sämre svärta" med att det visas för tydliga skuggtoner så att bilden blaskar och blir platt eller att det är svårt att särskilja skuggtoner och den upplevs för mörk. Detta är en kombination av (1) med olika inställningar, särskilt "Gamma"-reglagen med (2) ljusnivån i rummet som påverkan pupillen och därmed hur ögonen får in mer eller mindre ljus. Bildinställningar för rummet med 100 lux är inte optimalt för rummet med 1000 lux och viceversa.

4) Folk letar efter skillnader till den grad att de börjar inbilla sig skillnader. Så fort man jämför apparaterna på olika platser och försöker hålla något slags minne av skillnader är det enkelt att lura sig själv. Är de dessutom inte rätt inställda eller inställda väldigt olika så har man ingen aning om vad man egentligen jämfört.

Av Laxpudding

Modellen har beteckningen D vilket på Samsungsspråk är en 2024-modell och alltså nylanserad och därmed i sin dyraste fas just nu. Är pengarna viktigt, vilket det är för många, då är det runt Black Friday och mellandagarna samt efteråt man börjar köpa modellerna som lanserats under året.

Av Laxpudding
Skrivet av Lyrre:

Jag letar efter en icke kurvad 4k skärm, för att använda till både jobb och gaming.
För det första, så kör jag mycket statiska menyer i de program jag använder i jobbet, och glömmer skärmen på under långa perioder, så oled är i dagsläget uteslutet för mig.

Vilket innebär att det är IPS och miniled jag kikat på, och jag vill införskaffa en med hög Hz för fps-spel. Men där går jag bet, max verkar vara 160 i dagsläget.

Första frågan:
Har jag missat någon platt 32 4k som går över 160 Hz? För jag kan inte hitta någon...

Andra frågan:
De flesta skärmar som skriver ut att de klarar 160 Hz, så gäller det i enbart 4k upplösningen, och som exempel, så verkar de flesta 4k skärmar (enligt manualen) om man ställer dem i 1440p gå i 120-144 Hz, och i 1080p gå i allt från 60 Hz till 144 Hz.

Så frågan då, om jag på min nyinförskaffade 4k skärm som anger 160 Hz, ställer in spelet i 1080p och manualen säger 120 Hz i 1080p upplösning, kommer skärmen då rocka maximalt 120 Hz? Eller skalar skärmen upp spelet till 4k och kör 160 Hz ändå?
Letat runt men hittar inte den frågan och svaret.

Jag hängde inte riktigt med på din fråga, du kanske överkomplicerar situationen?

Om en skärm klarar 4K/160 så är 160 Hz max frekvens oavsett upplösning du kör. Detta är normen. Skulle en skärm av någon någon anledning inte kunna ta emot 1440p eller 1080p i 160 Hz och mot förmodan enbart köra 160 Hz i 4K kan du fortfarande välja att rendera spelen som valfri upplösning borderless och låta GPU skala till 4K/160 eftersom den då håller 4K/160-signalen.

Tabeller som sätter gräns för 1440p och 1080p i max 144 Hz skulle kunna åsyfta gränsen för vad skärmen klarar via HDMI-sina anslutningar. Det är också väldigt vanligt att informationen i manualer om möjliga upplösningar helt enkelt är inkomplett.

Av Laxpudding
Skrivet av Neeon123:

Har idag en QE75Q70R från 2019, men det känns som att QN95C är mer rätt för mig då.

Du kommer med QN85C antagligen få samma eller kanske något sämre reflexfilter men istället betydligt mer ljusstyrka, uppemot dubbla. Q70R är med Samsung sista generationer egna VA-paneler och dessa har väldigt bra grundkontrast utan att blanda in en FALD. QN85C är troligtvis en ADS-panel med låg grundkontrast vilket delvis vägs upp av FALD:en. Samtidigt riskerar en relativt enkel FALD med låg grundkontrast och dessutom högre ljusstyrka, att bli mer synlig med blooming och liknande. När det väl lyser upp har QN85C inte alls svärta och kontrast som Q70R kan naturligt utan FALD.

Med andra ord ett givande och ett tagande med QN85C. Rent tekniskt är det skillnader. Om detta påverkar din upplevelse till det bättre eller om det är något du stör dig på är ju något du bara själv kan avgöra. En del märker inte sådana här skillnader alls och är då toknöjda med 10 tum till.

QN95C är då den TV som på ett tekniskt plan behåller det du har och ger något mer. 4x ljusstyrkan (om det nu skulle behövas) och ett reflexfilter som dämpar speglingar väldigt väl. Betydligt bättre vinklar än Q70R och trots lägre panelkontrast kommer den betydligt bättre FALD:en lyckas rätt bra med att hålla kontrast och svärta.

Av Laxpudding
Skrivet av Neeon123:

Håller på att titta på uppgradering av TVn i vardagsrummet, är inne på Samsung NEO QLED, och specifikt modellerna QN85C och QN95C.

Men har en fundering kring hur "märkbar" skillnaden är mellan en QN85C och en QN95C.
Anledningen till att jag undrar är att 75" QN95C och 85" QN85C kostar lika mycket på Elgiganten.
Så min fundering är ifall tappet i kvalité är värt 10 tum extra eller inte. Om ni förstår hur jag tänker. Är det en bra trade-off osv?

Ifall det är relevant info så kommer TVn i vardagsrummet inte användas för gaming utan bara för att kolla serier, film osv.

Har även en Shield Pro, som jag då också funderar på om den är fortsatt värd att använda till eller inte? Om jag nu byter TV.

Tack!

QN95C är en bättre TV på alla punkter jämfört med QN85C. Mer ljusstyrka och bättre reflexfilter om du ska köra den i ett ljust rum. Bättre FALD för kontrasten i ett mörkt rum. Vad som är "värt det" kan du endast avgöra själv och beror mer på vilken förväntan du har. Går du från en gammal och enkel TV kan den skillnaden du når med QN85C vara så pass stor att du i vilket fall får ett rejält lyft. Är din gamla TV riktigt bra, kanske en äldre motsvarighet till QN95C riskerar en QN85C på sina områden vara en försämring.

Samma sak med Shield Pro. Bara du som kan avgöra om den är "värd att använda" eller om Tizen-systemet är bättre ur din synpunkt. Här är i alla fall skillnaden att du kan testa båda och välja. TV:n behöver man däremot välja rätt från början.

Av Laxpudding
Skrivet av goralux:

Från 1998 till 2013 så sa varje konsol spelare att det mänskliga ögat endast kan se 24/30 frames.

Skulle säga att den diskussionen på sin tid var mer nyanserad än så. Mest att det verkar som det lever kvar något långsint minne från den diskussionens sämsta delar som tvunget måste förvaltas. Jag har i alla fall svårt att se någon poäng med att älta gammalt groll och repetera det om och om igen i varenda tråd om skärmar, FPS och Hertz. Även om man tar hela grejen som någon form av ironiskt skämt har det skämtet ruttnat sedan länge.

Om det är en slags önskan om revansch mot alla PS3-ägare som sårade någons känslor på 00-talet har revanschen ändå kommit eftersom högre FPS idag är på allas agenda. Så släpp och gå vidare.

Av Laxpudding
Skrivet av leskoda:

Bra info! Gillar min skärm mycket men problemet är att den i stort gett börjar ge upp :/ Den stänger av sig själv ibland och display intaget är lite trasigt så den tappar även kontakten då och då...

Då är frågan om hur mycket du använder den för dess G-Syncmodulfunktioner och vilken typ av spel du spelar. Om du inte behöver adaptiv synk eller ULMB är det mer öppet med vad du väljer eftersom det inte finns något du lär sakna eftersom du inte använde det som gjorde skärmen till något extra på sin tid.

Av Laxpudding
Skrivet av Petterk:

@Laxpudding: För att testa borde det mycket riktigt räcka med omvandlaren (HDMI-till-SCART-adaptern), DVD-inspelaren bör kunna visa vad du matar den med. Optimalt kommer det aldrig vara p.g.a. att de problem HDMI och HDCP kan ge och kvalitén du får ut av att spela in kompositvideo.

Ja, fast problemen är på fler plan än den givna förutsättningar likt kompositvideokvalitet etc. Kan handla om hur omvandlaren skapar rätt videofält med korrekt synk som ger ett användbart resultat till att börja med. Majoriteten HDMI-komposit-omvandlare som diskuteras på forum likt Swec åker tillbaka till butiken eller läggs i en låda för det blir interlaceproblem och/eller problem med att bilden är förskjuten eller kröks mot kanter och därmed i praktiken anses oanvändbar.

Det är med andra ord ett rätt utdraget projekt som kräver tid och kanske flera köp med returer och liknande. Enkelt att föreställa sig en lösning likt denna. I praktiken brukar den här typen av försök rinna ut i sanden för det är för mycket tid och energi som krävs.

Av Laxpudding
Skrivet av leskoda:

Tjena allihopa!

Mina skärm håller på att ge sig så det är dags för en ny:)
Spelar bara FPS-spel såsom CS2, Apex och pubg. Den skärmen jag har just nu är en "Aoc g2460pg" och vart nöjd.
Jag vill inte ha större än 24 tum, skärmen jag har nu ligger på 144hz och funderar på om det är värt med högre eller om man inte märker någon skillnad? Min GPU är "RTX 2060" och processor "i7 8700k" om det har någon betydelse
Bonus är om den har tunna kanter på sidorna och uppe på skärmen om ni förstår vad jag menar, även helfärgad helst! Vill att den ska vara stilren liksom

AOC 24" G2460PG är en äldre TN-skärm med 144Hz G-Syncmodul. Som sådan fungerar det väldigt väl med just Nvidia-kort. En kapabel skärm för sin tid och med bra eftersläpskontroll och ULMB. På den tiden kostade den 4000 kr som med inflation borde motsvara en budget på 5000–5500 kronor idag.

Nyare skärmar lär inte fungera bättre i någon större utsträckning, utan de skärmarna är främst billigare. Risken är därför att du får något som egentligen är lite sämre eller inte alls förbättrar det du vill förbättra.

Och det är lite nyckeln här. Vad vill du ska bli bättre? En IPS-panel på dagens billiga skärmar ger bättre vinklar och har bättre färgomfång än dåtidens TN-paneler. Men den lär inte tillföra så mycket mer och riskerar alltså rent av vara sämre ifall bättre betrakningsvinkel inte är ett mål för dig.

Av Laxpudding

En aktiv HDMI-splitter som grenar ena utgången till TV:n och den andra till HDMI->scart-omvandlaren skulle kunna fungera, i alla fall i teorin. Det finns däremot en del potentiella problem som kanske ställer till det. Vad som är enkelt att tänka ut är praktiken inte alltid genomförbart. Just att stacka HDMI-mojänger på varandra brukar kunna ge rätt så varierande resultat.

Ett hinder är mängden HDCP-nycklar som kommer i och med en splitter och en adapter. Så som HDCP-nycklar fungerar är det en nyckel för ljudet och en för bilden. Varje instans därefter behöver en egen nyckel för bilden och en för ljudet. Källorna har begränsat med nycklar (en licenskostnadsfråga) och med splitter + Omvandlare + TV krävs att boxen kan generera 6 st nycklar. Kan boxen endast färre nycklar försvinner ljud och/eller bild i någon enhet.

En bättre HDMI-splitter har nyckelreplikering, något som löser sådant. Men då är de dyrare. Enklare har det inte. Därför kan man få olika resultat med olika splittrar.

På det kommer det sedvanliga problemen med att en splitter fortfarande bara kan ta en signal och skicka den vidare. Gäller att omvandlaren och TV:n kan ta emot exakt samma signaltimings. TV-apparaterna brukar inte vara kinkiga (inte längre) men omvandlaren kan vara det. Där kan också splitters skilja sig med hur väl de handskakar med de individuella enheterna och anpassa utgående signal för varje enhet.

Sedan har vi den stora frågan hur bra HDMI->scart-omvandlaren man väljer faktiskt är och hur man får optimal bild där. Optimal bild för omvandlaren kanske inte är optimal bild för TV:n till exempel.

Det blir då rätt många prylar som ska köpas in, inklusive kablar om det saknas. Och man vet inte om det fungerar innan man testat just den kombinationen av prylar. Ska man börja någonstans är det HDMI->scart-omvandlaren och testa att den ger acceptabel bild till att börja med.

Av Laxpudding

Skulle kunna vara någon form av RF-interferens eller interferens på elen som får skärmens strömdosa att reagera som om att den ska starta – eller att den sviktar i sin försörjning och går ur viloläge, effektivt bootar om skärmen i de fall man får upp logotyperna.

Långsökt och förstås väldigt svårt att bekräfta. Jag har varit med (inte själv, men andra via forum etc.) där liknande problem har visat sig vara att just strömadaptern är på väg att bli dålig. Men då har det också varit avbrott under drift. Slå på någon pryl i närheten och skärmen slocknar plötsligt eller bootar om.

Av Laxpudding

I batteri-inställningarna för Mac OS brukar det finnas en "vakna för nätverksåtkomst" som är på som default. Denna kan ge beteendet och härledas till att det bara ske när TV:n är på. LG:s apparater är väldigt pratsamma så att säga och har man kopplat ihop dem tidigare för Apple-TV-appen eller liknande kan det vara TV:n som väcker Macbooken för att tillkänna ge sin existens, "du kan strömma till mig nu". Detta väcker också anslutna tillbehör likt skärmen.