Inlägg

Inlägg som Hurtigbullen har skrivit i forumet
Av Hurtigbullen
Skrivet av Petterk:

I Intels drivrutiner kom hur som helst denna kommentar i en ändring ganska nyligen, se spoilern.

/* * CEA-861-F: * "When transmitting any RGB colorimetry, the Source should set the * YQ-field to match the RGB Quantization Range being transmitted * (e.g., when Limited Range RGB, set YQ=0 or when Full Range RGB, * set YQ=1) and the Sink shall ignore the YQ-field." */

Dold text

Edit, varför de kör denna lösning i HDMI 2.0 vet jag inte, men resultatet bör bli att du sätter YQ och Q till samma range (YQ=1, Q=2) och då bortser HDMI sink från YQ? Som den ändå borde bortse från när man matar RGB? Hur som helst är det något som Intels drivrutin har fått stöd för, så den skickar säkert ut rätt värde på Q också. Sedan långt tidigare.

Jag såg den patchen innan. Det går inte att veta varför utan att läsa specen och dessutom antagligen ha tillgång till protokoll eller liknande från standardiseringsmötena (så att man ser bakgrunden till varför). En ren gissning från min sida är att det kan vara nån form av skadekontroll av något vanligt fel dom sett, typ att en massa TV apparater kollar på YQ biten istället för Q biten för RGB (vore inte första gången nåt sånt har hänt). Men det är som sagt ren spekulation.

Av Hurtigbullen

Arghh, det suger att inte ha tillgång till nyare specar Snordyra är dom också! Hade dom kostat några hundra hade jag köpt senaste versionerna, men jag tänker inte lägga $350 på att köpa CEA specen och sen hosta upp ytterligare $5000 för få tillgång till HDMI specen bara för att stilla min nyfikenhet.

Dock har jag hittat en par dokument som jag faktiskt kan länka till: Compliance Testing, Functional Testing and Debugging of HDMI Interfaces Application Note (PDF)

Jag antar att det är ok att länka till dokumentet här på forumet eftersom länken går till Rohde & Schwarz websida. Detta är egentligen ett dokument som beskriver en Rohde & Schwarz produkt, men det finns några insikter om HDMI/CEA standarden att hämta i det.

Ett annat dokument är en presentation från ett föredrag som hölls av en kille på Cisco: Colorspaces and HDMI (PDF)

Jag antar även här att dokumentet är ok att länka till eftersom dokumentet finns att tillgå via anordnarens hemsida. Finns en del matnyttigt att plocka i detta dokument också.

Sen har jag faktiskt hittat att HDMI 1.3 specen numera är gratis. Man kan signa upp sig på http://www.hdmi.org/manufacturer/specification.aspx och sen kan man ladda hem den. Eller så går man till Wikipedia och tar den därifrån. Notera dock att man utöver HDMI specen behöver ha fatt i CEA-861-D.

Skrivet av Petterk:

YQ/Q-biten verkar som den ska ignoreras (CEA-861-F) och om TVn eller datorskärmen inte kan eller ska läsa informationen den får så kan den ju inte göra något med den

Jag tror faktiskt inte Q biten ska ignoreras, iaf inte alltid. Kolla i app note:n från Rohde & Schwarz så ser du att det finns testfall för HDMI 1.4. Förvisso bara två testfall, men ändå Jag är lite osäker på om man kan lita på att det som som står i CEA specen gäller för HDMI. HDMI (iaf 1.3) hänvisar till CEA-861, men sen åsidosätter HDMI specen vissa delar (iaf tolkar jag det så).

Det finns säkert fall där source/sink inte kan läsa EDID respektive skicka infoframe, men då är det nog generalknas. En HDMI source ska enligt spec alltid läsa EDID. Vad jag förstår ska en HDMI sink tillhandahålla en EDID (annars tror jag att den blir behandlad som en DVI sink). Det är tom rekommenderat att EDID ska kunna läsas när sinken är avstängd. En source som inte skickar någon infoframe blir nog behandlad som en DVI source.

Skrivet av Petterk:

Ska det se rätt ut med PC till TV tror jag man ändå skulle behöva fippla i menyerna, då den bara ska stänga av bildbehandling när man kör en "IT"-upplösning i princip. Går ju också att skicka att källan är en PC i infoframe, tror ändå inte man kan vänta sig att TVn eller datorskärmen automatiskt ställer in allt rätt. Om den ens skulle försöka det vill säga.

I teorin borde det se rätt ut utan att fippla med något, såtillvida att bilden borde ha rätt gråskala och vara utan färgstick. Däremot kan det ju bli lite mindre detaljrikt. Jag menar, ta exemplet att sinken inte stöder full-range för CE format. Det vet isf PC:n (drivare/grafikkort) och då ska den konvertera sin representation till den som kommer att användas.

Å andra sidan så har vi ju @Laxpudding's erfarenheter (och presentationen jag länkade till ovan) som helt klart visar på att det inte funkar i praktiken.

Skrivet av Laxpudding:

Tack för info! Jag arbetar mer på nivån "Hrrm, en svart låda! Mata in parameter X och se vad som kommer ut" eftersom det aldrig finns någon dokumentation som i klartext beskriver hur sakerna fungerar.

Mest extrema exempel jag träffat på är videoboxar från Black Magic Design vilka flaggar ett signalomfång om 16-255. Men de arbetar endast i 16-235-omfång ifråga om den signal den skickar ut på hårdvara. Internt kan mjukvaran i Davinci Resolve påstå andra nivåer än vad som faktiskt skickas. Ändrar man i Davinci Resolve till Full Levels för 0-255-omfång matchar hårdvara och mjukvara. Fast då ändras inte metadata utan det flaggas fortfarande 16-255-omfång vilket får skärmarna att visa helt fel.

Lite offtopic från Linux-distar (jag har inte hängt med i tråden) men det är ett exempel på att man aldrig kan förutsätta något. Man måste bekräfta med testmönster.

Standarden känns rätt rörig så det förvånar mig inte om det finns en massa hel- eller halvkassa implementationer. Sen är det i min erfarenhet så att standarder och obligatoriska finesser/beteenden i dem inte alltid fullt så obligatoriska som man kan tro. Tillverkare tenderar att behandla saker som testas i ev. typprov som obligatoriska, saker om inte testas i typprov får oftast, artigt uttryckt, "mindre kärlek".

Vill man få koll på vad som egentligen funkar i en spec så brukar det vara bra att börja med att kolla på testfallen i typprovsspecen. Finns det inget testfall för en finess eller ett beteende i typprovsspecen så kan man nog utgå från att det blir strul om man vill nyttja den finessen eller förlita sig på det beteendet.

Jag läste häromkvällen nåt om någon som hade moddat/flashat om EDID rommet i sin TV efter att ha upptäckt att hans HDTV identifierade sig som en gammal 15" CRT tjock-TV

Av Hurtigbullen
Skrivet av Petterk:

Gällande andra svaret, om TVn hade ändrat till rätt nivåer automatiskt (hur nu det skulle gå till, den ser ju bara vilken upplösning, frekvens man kör?) så skulle de inte ens behöva ha en inställning man ändrar manuellt för vilka nivåer man vill köra.

Med en brasklapp om att jag sitter på lastgamla versioner av specarna och att jag inte är specialist på detta:

TV:n kan i EDID skicka med en flagga som säger det går att åsidosätta standard RGB-omfång [CEA-861-D kap 7.5.6] och datorn kan signalera att den åsidosätter RGB-omfånget i en AVI (Auxiliary Video Information) infoframe [CEA-861-D kap 6.4].

Därmed kan datorn upptäcka att för t.ex. 1920x1080p så stöder TV:n valbart RGB-omfång. Datorn kan då mao välja vilket omfång den "vill" använda. I princip kan den försöka använda det som bäst matchar den egna representationen av video, eller så kan det ju vara en inställning som användaren själv får göra.

Dessvärre är både HDMI 1.3 och CEA-861-D specarna motsägelsefulla i sig själva. Mekanismerna för valbart RGB-omfång finns där, men båda specarna säger på flera ställen att Limited-range ska användas för CE video format.

Dock innehåller CEA-861-D kap 6.4 en liten pärla med innebörden (jag vill inte klistra in det stycket här eftersom det inte är en "gratis-spec" samtidigt som jag är osäker på om det är ok, eller hur mycket som är ok, att klistra in här på forumet):

CEA-861-D stöder valbart RGB-omfång. Som standard ska man anta att man videoformatet styr vilket RGB omfång som används. Kvantiseringbitarna tillåter källan att åsidosätta detta standardbeteende.

I samma stycke så sägs det sen att source:en inte får åsidosätta standardbeteendet om inte sink:en explicit sagt att den stöder funktionaliteten.

Fast med tanke på kommentaren från @Laxpudding ovan så är antingen detta helt fel tolkat eller så är det nåt annat som strular till det och förhindrar en bra implementation.

@Laxpudding: Vill passa på att tacka för din informativa artikel!

Av Hurtigbullen
Skrivet av Petterk:

Det är just för att de följer CEA/EIA som detta inträffar, där man manuellt måste ändra i både datorn och TVn (eventuellt att de kör något PC-läge i TVn som redan förväntar sig 0-255).

Man måste ju inte ändra något, Limited range fungerar, men i vissa fall med en aning reducerad kvalitet. Om man prompt vill köra Full-range så kan man behöva ändra manuellt ja.

Ock jag håller med dig. Ställer man om datorn eller TV:n manuellt så att dom inte följer HDMI standarden så sitter felet troligtvis bakom tangentbordet och det ska man inte skylla på OS:et.

Skrivet av Petterk:

TVn kommer inte ändra hur den identifierar sig för att du ändrar till full range (som kan heta normal, PC levels osv) i TVn, samma EDID-information skickas ut i båda fallen.

Visst EDID kommer inte att ändras, men om TV:n stöder Full-range i de videoformat som CEA-861 definierar så borde den också signalera det i EDID informationen (*). I de fallen torde man ju inte heller behöva manuellt ändra nåt på TV:n.

*) Det jag specifikt menar är QS biten i VCDB (CEA-861-D kap 7.5.6)

Skrivet av Petterk:

En monitor (som det finns gott om med HDMI) skickar inte ut information som tyder på att den förväntar sig att man följer CEA/EIA (den kör ju DMT), så där är det inte problem man behöver uppmärksamma.

En bra poäng. Detta har jag faktiskt inte funderat på förut. Är du säker på att monitorer verkligen alltid använder RGB med omfånget 0..255? Jag menar, det är inte säkert att man faktiskt ser någon större skillnad mellan Limited range och Full range, så det kan ju tänkas att Limited range används när man använder CEA/EIA format utan att man märker av det.

Jag kollade lite i HDMI 1.3 specen och jag funderar på om monitorer kanske identifierar sig som DVI enheter (kap 8.3.3). Annars kan jag tänka mig att dom faktiskt nyttjar QS biten.

Skrivet av Petterk:

Tycker för övrigt inte det är tvetydigt när det är etablerade begrepp och jag har använt limited i tråden också.
...
Hårklyveri behöver vi inte ha, ord betyder olika saker och det framgår av hur man formulerar sig. @Laxpudding använder videonivåer respektive datornivåer i sin artikel här på Sweclockers. En videoredigeringssvit däremot kanske kallar RGB limited för studio RGB, men där hör du hur långt ifrån HDMI source och sink vi är.

Du klagade på att jag hittade på egna termer och jag har försökt förklara för dig varför jag uttryckte mig som jag gjorde. Jag förstår din ståndpunkt och du har troligtvis förstått min, så tänker jag tänker inte lägga ner mer tid på att debattera detta.

Däremot fortsätter jag gärna en diskussionen om det tekniska

Av Hurtigbullen
Skrivet av Petterk:

Hade du läst övriga inlägg av mig i tråden hade du inte haft några problem att förstå att jag syftade på 16-235 respektive 0-255. Det finns heller inga andra specifika färgnivåer, och det är RGB det handlar om i båda fallen, då det inte finns någon vits för en PC att byta över till YUV/YCbCr, HDMI ska alltid acceptera RGB.

Jag hade inga problem med att tolka vad du skrev. Jag försökte vara tydlig och försökte uttrycka mig på ett sätt som jag trodde du och andra skulle förstå och samtidigt vara öppen för att jag kunde ha misstolkat vad du skrev. Detta eftersom jag anser att termen videonivåer är tvetydig. Det var inte min mening att väcka anstöt.

Det jag pratar om är Video Quantization Ranges och följer man t.ex. HDMI 1.3 specen så ska alltid Limited range användas för RGB när videoformatet är matchar något av de format som definieras av CEA-861-D (förutom för 640x480p). Hur detta har ändrats i senare versioner av HDMI vet jag inte då jag inte har tillgång till nyare specar.

CEA-861-D specificerar bl.a. en rad vanligt förekommande format som används i film och TV sammanhang. Terminologin där är för övrigt CE video format och IT video format, där det senare används för att benämna alla format som inte definieras i CEA-861-D.

Nu är jag på intet sätt någon expert, men i detta sammanhang uppfattar jag Limited range och Full range som olika videonivåer och mao uppfattar jag termen videonivåer i detta sammanhang som en synonym för Video Quantization Ranges.

Skrivet av Petterk:

Självklart blir det fel om TVn inte kan kommunicera att du ändrat till full/PC-nivåer på TVn. Det är dock inget operativsystems fel.

Som jag förstått det är det inte TV:n som begär nåt från datorn, utan TV:n (som är en HDMI sink) kommunicerar vad den kan till datorn (som är en HDMI source) och sen är det datorn som väljer vad den vill använda (inom ramen för vad standarden tillåter). Vilken Video Quantization Range som används bestäms då antingen implicit av vilket video format som används, eller genom att datorn explicit signalerar detta (i den mån det är möjligt).

Om TVn har någon form av användarinställning som gör att man "tvingar" den att tolka RGB enligt Full range så blir det troligtvis fel om man använder den och det kan man ju, precis som du säger, inte skylla på operativsystemet.

Däremot bör ju operativsystemet/drivrutinen välja bästa möjliga video format och Video Quantization Range utifrån vad TV:n kan och då ska det, givet att TV:n inte är tvingad till Full range, se rätt ut både för video och skrivbord.

Ser det inte rätt ut så är nånting definitivt fel. Felet behöver inte ligga i datorn, men om det ser rätt ut för videoklipp som spelas upp i ett fönster på skrivbordet men fel ut för skrivbordet i övrigt så tycker jag nog att det lutar åt att felet ligger på datorsidan. Spelar man upp video i fullskärm där ett annat video format används än det som används när skrivbordet visas kan ju felet lika gärna vara på TV-sidan.

Av Hurtigbullen

@Petterk: Det är helt enkelt svårt att veta exakt vad du menar eftersom som videonivåer är ett begrepp som används av olika personer i olika sammanhang och dessutom med helt olika kunskap och referensram. Detta gör att det är lätt att prata om varandra och jag försökte helt enkelt vara tydlig med hur jag tolkade dig och vad jag menade.

Av Hurtigbullen
Skrivet av kiyoshi:

Wii U versionen utnyttjar inta alla färger och har även en lägre draw distance men borde ge en ok upplevelse ändå.

Dessutom är ju inte spelsamlingen till WiiU komplett utan Zelda BotW

Av Hurtigbullen
Skrivet av Bogey:

Har själv liknande funderingar, de har ju bra pris på cdon nu (eller vet du bättre? )
Hur bra / nyttig är den där fingeravtrycksläsaren? Hade ju varit fint om man slapp knappa in och komma ihåg en massa coder bara man måste nysa, eller nått.

Nu har jag ju ingen Moto G4, så jag kan ju inte säga hur bra fingeravtrycksläsaren funkar på den, men min Xperia X Compact har fingeravtrycksläsare och det funkar hur bra som helst! Träna in den på de fingrar du normalt använder och sen är det bara att trycka på power-knappen så kommer man direkt till home-screen (eller där man nu var när skärmen släktes).

Av Hurtigbullen
Skrivet av klk:

Ja de har säkert lång uthållighet men jag tror inte de kommer ge sig in i något priskrig, snarare försöker de satsa pengarna på utveckling och så får de ta något år eller två där AMD käkar marknadsandelar.
AMD är troligen en mycket slimmad organisation och har låga operativa kostnader så deras uthållighet är antagligen god med nu när de har en så stark produkt.

Men jag skulle inte bli förvånad om de sänker 7700k till runt 2000 :- inom 2 - 3 månader när AMDs 6 och 4 kärniga dyker upp

Jag håller tummarna för att du har rätt, jag hoppas verkligen att det ska bli medvind för AMD ett tag nu. Det ska hursomhaver bli intressant att se hur det hela utspelar sig.

Av Hurtigbullen
Skrivet av Petterk:

Drivrutinen ger ut det som TVn efterfrågar, videonivåer, precis som händer under Windows. Drivrutinen gör det automatiskt, och även om det kan se rätt ut för video så kommer skrivbordet fortfarande se fel ut, därför får man ställa om till PC-nivåer/full med xrandr. Det är inget fel, det fungerar likadant med samma hårdvara (och annan) under Windows, eftersom TV-apparater verkar fråga/skicka information som säger att de vill ha videonivåer, även om man ändrar till full/PC i menyerna. Det är inget som ska hända med en monitor, vilket är varför alla inte blir tokiga på det.

Det krävs ingen workaround, det är bara att Intel och de flesta andra inte har någon grafisk kontrollpanel. Hur man gör på smidigast sätt, så den ändrar automatiskt till full finns redan beskrivet i tråden, men det är inte intressant för TS som inte kommer pröva något mer utan kör vidare på W10. Intels drivrutiner har inga problem att köra full, och det är som sagt inget som är trasigt från PC:ns sida.

Ska jag vara helt ärlig så låter det där faktisk som ett fel, oavsett om det sker under Linux, Windows eller bådadera. Jag menar, applikationer gör någon form av grafisk presentation och där är det troligen RGB som gäller, sen finns det en framebuffer där bilden är representerad på ett sätt. Denna representation ska sen översättas till en annan representation och skickas över HDMI av grafikkortet och dess drivare. Om signaleringen mellan TV och grafikkort fungerat så vet alla inblandade komponenter vad som gäller och det ska inte behövas något manuellt pillande överhuvudtaget för att detta ska fungera. Om det behövs är det fan fel nånstans.

Om det är problematiskt i både Windows och Linux så är bådadera lika "trasiga" i mina ögon. Att man sen kan kompensera för felet genom en inställning är livet lite enklare och jag kan inte se att det ska göra nån skillnad om man gör det i ett UI eller från kommandorad. Fast ännu bättre vore det om man lagade felet istället

En sak jag inte blir riktigt klok på dock, lite förenklat beskrivet såhär; om grafikkortet/drivisen och TVn förhandlat om limited range, som jag tror är det du menar när du skriver videonivåer (jag är lite osäker om det, för mig är både limited och full range videonivåer) och sen skrivbordet är full-range så borde det resultera i överdriven kontrast och inte grådassig bild. Om man får en grådassig bild i det fall som TS beskriver så verkar det intuitivt som det omvända, dvs att skrivbordet är i limited range och videolänken är satt till full-range.

Av Hurtigbullen
Skrivet av DasIch:

Med risk för att låta som en Linux-fanboy men där är det tillverkarens fel om deras drivrutiner inte fungerar. Jag menar, det kan knappast råda något som helst tvivel om att Windows har det överlägset bästa stödet av drivrutiner. Ingen annan kommer ens i närheten där. Det måste vi ändå kunna enas om är ren fakta.

Jadå, där är vi i eniga Dock kan äldre saker vara kluriga att få igång på senaste Windows och i vissa fall är det lättare att hålla igång äldre hårdvara på Linux, men för gemene man så är det helt klart mycket lättare att köpa prylar och få dom att funka med Windows. Ska man köra Linux så måste man göra en hel del efterforskningar och se till att man köper hårdvara som man vet stöds, på Windows kan man köpa nästan vad som helst och det funkar.

Skrivet av DasIch:

Det betyder förstås inte att allt alltid fungerar bra. Särskilt bärbara är tycks vara ett helvete. Samtliga tillverkare tycks vara rena
sopor, förutom... Apple.

Apple har jag, som kanske framgått ringa, erfarenhet av, men på PC sidan så är väl i princip nästan alla laptoptillverkare lika illa. Man får en uppsättning drivrutiner och har man tur så får man en uppsättning till nästa version av Windows. Uppdateringar på drivrutiner är sällsynta. Tillverkarna vill nog helt enkelt hellre att man köper en ny laptop.

Av Hurtigbullen
Skrivet av martinot:

Dissa alltså inte W10 på nya maskiner. Där trivs det och fungerar det normalt mycket väl (enligt min erfarenhet, och i stort).

Det tror jag säkert och jag kommer få möjlighet att testa tämligen snart tror jag eftersom det är dags för en ny laptop. Om jag sen väljer att köra det eller Linux då återstår att se.

Av Hurtigbullen
Skrivet av DasIch:

UI:t är halvfärdigt, eller snarare 80-90% färdigt. Det är dock ett förbannat bra UI där Microsoft skruvat och finjusterat för att göra det bättre.
På jobbet körde vi fram till slutet av november Windows 7. Jag är van att jobba i det sedan det lanserades. Nu är jag också typen som har väldigt många olika fönster öppna samtidigt. Windows 10 är betydligt mycket snabbare att arbeta i. Jag har bättre koll på vad jag har öppet, hittar saker snabbare och det är mindre krångel samtidigt som det också är trevligare att titta på (vilket förvisso är en smaksak).
Det som blir klumpigt är när man kommer in på gränsdragningen mellan mobila och skrivbords-UI;t. Lyckligtvis är det inte så mycket grottande i kontrollpanelen att det är ett stort problem, men det är verkligen inte en elegant lösning.

Problem med drivrutiner har jag inte märkt en enda gång. Beträffande påtvingade uppdateringar går det också att styra över själv. Dumheterna Windows 10 har för sig är ändå lätta att leva med, eller lätta att få bort.

På min senaste Linux-installation måste jag koppla in ett annat tangentbord för att ens kunna använda det. Dessutom vägrar den ta språkinställningar och keymappings, vilket innebär att tangentbordet som går att använda saknar vissa knappar/tecken. Vi snackar knappar/tecken som är nödvändiga för att konfigurera systemet.

Poängen är, tycka vad man vill om Windows men det ska fan mycket till för att ett tangentbord inte ska fungera eller att det inte ens enkelt går att göra språkinställningar. När var senast någon inte kunde koppla in ett tangentbord till sin Mac eller Windows-dator? Utspilld Jolt-Cola åt sidan så har det nog aldrig hänt mig tidigare. Förutom kanske på min Hackintosh-installation när jag bråkat med ACPI och USB-injectors, varpå vissa USB-portar kunnat dö.

Alltså, det må låta trivialt men gå igenom alla saker du är van vid att de bara funkar. Tangentbord och mus exempelvis. Ingen av dessa saker är längre självklara i Linux. Snarare är det mer sannolikt att något av det kommer strula och för varje grej du hittar finns det minst fem olika lösningar som inte fungerar.

Jadu vi har tydligen helt olika erfarenheter. För mig funkar det klockrent att köra Linux Mint på min laptop, medan Windows 10 strular på samtliga maskiner jag installerat det på. Drivrutiner är ett stort problem, en ens en sån enkel sak som musplattan på laptoppen kan man räkna med att den funkar. Om man har en äldre laptop kan man i bästa fall hitta drivisar för Win8.1 som funkar, men det är inte säkert.

Av Hurtigbullen
Skrivet av DasIch:

Windows 10 är det hittills bästa operativsystemet från Microsoft. Det är för all del inte perfekt utan har sina brister, även om det inte är mycket i den irrationella kritikstormen som är sann.

Vi har nog lite olika åsikt där. För min del anser jag att Win7 var betydligt bättre för det jag använde datorn till. Visst innehåller Win10 en hel del tekniska nyheter och är i det avseendet modernare/bättre än Win7, men de uppväger inte nackdelarna för mig.

Skrivet av DasIch:

Då kör jag ändå MacOS som mitt primära OS, för jag råkar trivas väldigt bra med det.

Det tycker jag att du gör helt rätt i. Man ska använda saker som man trivs och är bekväm med. Själv kan jag inte med MacOS, troligtvis för att jag bara använt det vid ett fåtal tillfällen och då mest undrat vad det är för typ som designade nåt så urbota korkat som <klistra in valfri finess man kan hänga upp sig på här>. Fast det beror ju då på att jag sitter med nåt OS jag är helt rudis på och försöker göra nåt som jag inte vet hur man åstadkommer där och är inte ett fel på MacOS. Lite som förr i tiden när folk tjafsade om att Nokia eller Erissons UI i telfonerna var hopplöst kasst eller världsbäst, det beror ju ffs på vad man är van vid och om man är villig/har tid att lära sig nåt nytt

Skrivet av DasIch:

Du har förstå helt rätt i att det är onödigt att göra detta till en OS-batalj, även om jag kommer här och kastar handsken på marken. Det hänger dock ihop med ursprungsfrågan: Är Linux trasigt? För att besvara en sådan fråga behövs ändå vissa referensramar.

Du tolkar topic vidare än vad jag gör, för mig var sammanhanget är Linux trasigt vad det anbelangar videosignal/full-RGB och inte generellt.

Skrivet av DasIch:

Linux är onödigt invecklat, fragmenterat och drivs i mångt och mycket av ideologi och politisk agenda. Det är i grunden trasigt.

Här är jag återigen av en aning annan åsikt, men jag håller med till viss del. Linux har en hög inlärningströskel och i viss mån är krångligt, speciellt om man försöker lösa nåt problem där det kan vara svårt att söka på nätet av den enkla anledningen att det känns som att man i Linuxvärlden tenderar att ha en helt egen terminologi (känns det som). Har man läst en man-sida så förstår man nog vad jag menar, dom är oftast helt obegripliga om man inte redan kan "ämnet" och vet vad man är ute efter.

Jag kör Linux på jobbet och trivs med det, både min stationära arbetsstation och på min laptop. Laptoppen hade jag från början Windows 7 på, men så småningom kändes det meningslöst eftersom det enda jag använde där som inte funkade bra på Linux var Outlook.

Vi kanske kan enas om att vi har olika åsikt helt enkelt

Av Hurtigbullen
Skrivet av martinot:

Tycker 10:an generellt är helt OK, men samtidigt så känns det som om Microsoft sänkt sig lite kvalitetsmässigt på sistone. Var färre buggar och lite mindre strul för bara 1-2 år sedan. Kanske märks nu att de sparkat många anställda på test- och QA-avdelningen?

Det enda stora som jag ser lite negativt med 10:an, rent funktionellt (tycker som sagt att kvaliteten sjunkit lite på Microsofts kod numera), är att det blivit lite sämre än 8/8.1 gällande touchstödet när man kör i surfplatteläget.

Vad är det som du inte gillar med det?

Det är nog lite off-topic i denna tråden, men eftersom du frågar så försöker jag svara lite kort.

Windows 10 upplever jag som att det strular väldigt mycket och har ett UI:t som känns halvfärdigt. En del av strulet tror jag beror på Microsofts taktik att nästa tvinga på Windows 10 till folk med äldre maskiner (typ 3+ år gamla) där tillverkarna inte har drivrutiner till Windows 10. En annan bidragande orsak till strul tror jag är Windows påtvingade uppgraderingar som är långt ifrån felfria.

För mig innebär det ett konstant pyssel av familjemedlemmars datorer som till synes hittar på saker och slutar funka som dom ska och jag har flera problem med min egen laptop som jag helt enkelt inte får rätt på (som f.ö. är den enda av familjens datorer som är uppgraderad och inte rent installerad). Visst jag kan säkert ta tiden och installera om den, men om jag ändå ska göra allt det jobbet så överväger jag skarpt att köra Linux istället (det enda som jag saknar där är BankId). Om sen Photoshop gick att få igång under Linux hade jag kunna konvertera både sambons och min mors maskiner också.

Av Hurtigbullen
Skrivet av klk:

Frågan är när Intel's prissänkningar kommer och hur stora de blir. de måste nästan halvera priset på 7700k för att inte tappa

Sen lär väl Intel vara vid rätt stadd kassa vid det här laget och krigskassan torde vara välfylld så dom har nog råd med ett priskrig, vilket jag misstänker att AMD inte har. Det ska bli spännande att se Intels motdrag!

I övrigt så hoppas jag på framgångar för AMD nu så att vi vanliga dödliga får ett bra urval av processorer till vettiga priser.

Av Hurtigbullen
Skrivet av anon12433:

"Full RGB" innebär "full color range". D.v.s 0-255 istället för "limited" 16-235 som Linux skickar ut. Om du kör på "Limited" vilket Linux ser ut att göra i alla lägen som standard så kommer bilden se grådassig ut och sakna kontrast. Gråskalan (tror jag) i det lägsta respektive högsta spektrat kommer försvinna då alla nyanser inte kan visas.

Det där är nog inte helt korrekt.

Om du upplever bilden som grådassig så och kontrastfattig så är det snarare så att sändaren (din HTPC) skickar ut det du benämner som limited range nivåer (som härstammar från gamla videostandarder), medan mottagaren förväntar sig full range nivåer.

Detta är jämförbart med det som inte var helt ovanligt vid videokodning/avkodning där man antingen i bitströmmen felaktigt signalerade vilka nivåer som skulle användas eller helt enkelt inte tog hänsyn till vilka nivåer som bitströmmen angav.

Det omvända kan också hända, dvs att sändaren använder full range medan mottagaren förväntar sig limited range. Resultatet blir då en överdriven kontrast där partier av bilden blir helt svart eller helt vit där det egentligen skulle ha varit nära svart eller nära vitt. En del personer upplever detta som bättre iom att kontrasten ökar.

Om båda sändare och mottagare använder rätt nivåer så är skillnaden snarare i upplösningen, dvs den minsta skillnad mellan två gråa nivåer som kan förmedlas. Vilket inte låter som det symptom du beskriver.

Jag skulle snarare tro att det är något signaleringsfel mellan din HTPC och TV (eller inställningsfel). Om du ser till att båda kör samma nivåer så kommer nog bilden se bra ut. Om din HTPC/Linux inte stöder full-range så bode iaf TV:n stöda limited range.

Av Hurtigbullen

Anledningen till att jag skapade tråden var för att höra om någon hade erfarenhet av eller tips på sensorer. Det verkar som att det åtminstone är någon fler än jag som är intresserad av detta så jag tänkte att jag kan dela med mig av det jag läst.

So here goes nothing (med brasklapp om att nedanstående är min bristfälla kunskap om ämnet):

Det finns olika sätt att mäta fuktighet i jord. Dom enkla sensorerna, som den jag länkade till, mäter jordens resistivitet. Resistiviteten varierar bl.a. beroende på mängden fukt i jorden. Mao är det i princip bara en spänning mellan två metallbitar i jorden. Nackdelen med denna metod är att den enbart fungerar pga "föroreningar" i jorden (rent vatten leder som bekant inte ström).

En annan nackdel med metoden är att det blir galvanisk korrosion och metallen vandrar i jorden mellan pinnarna, vilket leder till att sensorerna "slits ut" och "förorenar" jorden, vilket i sin tur påverkar mätvärdena. Det finns en förbättring på detta där man alternerar polerna för att minska problemet.

En annan metod jag läst om är att man mäter jordens kapacitans. Man sticker då typiskt ner ett kretskort i jorden som är så finurligt utformat att den kringliggande jorden används som dielektrikum och då bildar en kondensator. Metallen i sensorn kan då isoleras från fysisk kontakt med jorden. Fukthalten påverkar sen kondensatorns kapacitans. Se PCB as a Capacitive Soil Moisture Sensor.

Vid kapacitiv mätning så verkar det finnas olika sätt att nyttja "kondensatorn". Det enklaste sättet är ju att mäta tiden det tar att ladda upp eller ur den med en känd ström eller last. Nackdelen är att jorden sammansättning också påverkar kapacitansen.

Ett annat sätt är att låta kapacitansen vara en del i en oscillatorkrets som man sen kan mäta frekvensen på för att få ut ett mått på jordens fuktighet. Se Capacitive Liquid Level Sensor.

Ett tredje sätt är att använda kapacitansen som ett filter och sen köra en RF signal genom filtret och mäta hur signalen dämpas (det är iaf så jag uppfatta att det funkar). Väljer man rätt frekvens (ca 100 MHz) så blir tydligen jordens fukthalt en mer prominent del av kapacitansen och får då ett mätvärde som mer beror på fukthalten än jordens sammansättning. Se RF Probe (PDF).

Av Hurtigbullen
Skrivet av Rouge of Darkness:

troligen avger den så ofantligt lite att det inte kommer vara någon fara troligen bara tunna lagret lödtenn de dragit över kopparbanorna som ev kan innehålla bly.

men vill du vara säker sätter du den i en separat avdelning där du planterar något liknande vattenbehovmässigt enbart för mätningen som du inte ska äta men vattnas av samma vattensystem.

Ja det funkar ju, eller så trycker man ner två stänger av någon annan metall med lagom mellanrum , typ två spikar eller nåt, och mäter mellan dom.

Av Hurtigbullen

Tack för länken!

Den länkade vidare till Dickson-sajten och där fanns en stor brasklapp som jag faktiskt inte funderat över; billiga prober som den nedan kan innehålla bly och är därmed inte lämpliga om man odlar mat!

http://dicksonchow.com/projects/plant-friends-mkii/soilprobe.jpg