Inlägg

Inlägg som Dinoman har skrivit i forumet
Av Dinoman
Skrivet av No_Jah:

Ok, men det där är ju typen av dimmer som monteras bakom existerande dimmer eller strömbrytare.
Jag är alltså ute efter en dimmer som har både ratt som man kan vrida på för öka/minska ljuset och trycka på för att slå på/av ljuset, sammtidigt som den ska kunna styras från Home Assistant via wifi.

Ja det är ju drivenheten. Du installerar denna och sedan väljer du valfritt chassi att montera utanpå. Är inte det väldigt bra?

Sen är det ju upp till dig själv om du vill ta risken och bränna ner huset men oavsett ser jag inte hur du ska lyckas komma undan elinstallation i vilket av fallen?

Av Dinoman
Skrivet av No_Jah:

Oj, det kallar jag service, tack för det!

Men det där är ju ingen fysisk dimmer, och ska man använda denna typ av dimmer föredrar jag Shelly som istället använder wifi.

Det finns fler om du söker runt lite.

Jag länkade fel, detta är en dimmer.

https://www.kjell.com/se/produkter/el-verktyg/el-produkter/st...

Av Dinoman

Typ denna?

https://www.kjell.com/se/produkter/el-verktyg/el-produkter/st...

Beroende på vad du är utefter om det är ZigBee eller Z-wave eller Matter t.ex. Ovan är för ZigBee.

Av Dinoman

Ännu en gång gör inte kommentarerna mig besviken. Samma vanliga tugg om att Nvidia är bäst så inget konstigt kontrat med bestörtning över hur alla dessa Nvidia-drönare inte sett ljuset och sanningen med AMD.

Det jag är genuint helt uppgiven över är hus Nvidia för varje generation kopplat järngreppet hårdare och hårdare. Inte helt olikt vad som händer på mobiltelefonsidan med Apple.
Vad händer när den dominanta spelaren helt tar över och kontrollerar all den teknik som styr våra liv? Filosofiskt kanske men så tänker jag och jag är av den uppfattningen att marknaden mår väldigt bra av hälsosamma konkurrenter. 80% av marknaden är mer eller mindre monopol, deras inlåsning av mjukvara låser dessutom fast konsumenten oavsett kvaliten eller prisvärdheten på hårdvaran.

Det är bara etablerade faktum. Själv sitter jag med ett RTX 3080 Ti. 🙃

Av Dinoman
Skrivet av Sando:

...

När det gäller skärmen i fråga så är det ju riktigt skönt att se att nån tillverkare har fattat att alla gamers inte är tonåringar. Ibland vill man ha nåt som passar in i ett vuxet rum, och som kanske är jobbskärm på dagen och spelskärm på kvällen.

Helt enig, jag gillar vad Philips har gjort med Envia. Tydliga spelskärmar till specifikationerna men väldigt enkla och brett tilltalande för den stora majoriteten.

Av Dinoman
Skrivet av Dinkefing:

När ska testpiloterna sluta recensera 1080p skärmar med VA-paneler? När testade de en riktig skärm med minst 1440p med ips-panel sist? Och 24-tums? Det är 2024 snart.

Tomas testade 1440p 144Hz skärmar redan 2018.

Om du kollar mina andra piloter så kommer du se många bildskärmar i andra storlekar och upplösningar.

Jag tycker om att testa både top end och budget, det är många som inte har råd eller behovet av stora och dyra bildskärmar men ändå vill ha låga eftersläp och hög uppdateringsfrekvens. Allt detta erbjuds här.

Av Dinoman
Skrivet av orginallinus:

@Dinoman

RIKTIGT BRA RECENSION!

Så även om jag inte är intresserad av 1080p-skärmar längre, så tittade jag faktiskt på hela videon!

Tack och bock!

Mycket glad att du uppskattade min pilot.

Av Dinoman
Skrivet av CrispVanDahl:

”Time is a flat circle..”

Jag startade mitt konto på Swec i tidernas begynnelse för att återkommande och ständigt stånga mig blodig i meningslösa semantiska dueller mot medmänniskor på detta vidsträckta internet. Än så länge har jag inte blivit besviken.

Av Dinoman
Skrivet av zetruz:

Yes, jag rörde vid den punkten. Men i mitt huvud är den temperaturbaserade effektiviseringen rätt försumbar om vi håller oss under 95 grader på en konsumentprocessor? Men jag kanske har fel där?

Säg om man låser klockhastighet väldigt högt, och låser spänningen, har vi något hum om just hur mycket/lite man kan sänka effekten om man sänker temperaturen från 95 grader till så lite som 75 grader?

Jag vet att Gamers Nexus gjorde en rätt bra genomgång gällande fenomenet för Ryzen, var nog när 1000-serien kom ut, om jag inte minns fel.

Absolut så är skillnaden inte massiv men det gick att se hur frekvensen ökade vid temperatursänkning. Om vi kommer se samma effekt på 14900K låter jag vara osagt men det är samma substrat så samma beteende bör rimligtvis visa sig.

Du får köpa dig produkterna och testa!

Av Dinoman
Skrivet av zetruz:

Det är nästan så enkelt, men inte riktigt. Precis som du säger så har du ofta två begränsande faktorer (värmetak och effekttak) - men det betyder ju att om du tar bort en av de faktorerna så kan det vara så att det inte gör någon skillnad i klockfrekvens, om det andra taket redan var din flaskhals.

Min 7800X3D har ett effekttak och ett värmetak, och faktiskt ett klocktak (5100 MHz tror jag), utöver diverse spänningstak osv. Under singeltrådad belastning slår den alltid i klocktaket, men om du belastar alla trådar så gör den det inte - i mitt fall på grund av effekttak, inte värmetak. Så om jag deliddade den så skulle det gissningsvis inte göra mycket av en skillnad.
(Jag tänker mig att den enda förbättringen skulle komma av att processorn blir lite lite mer effektiv vid lägre temperaturer, och därmed skulle kunna höja klockfrekvensen lite grand vid ett givet effektuttag?)

Edit: Jag är såklart väl medveten om att dessa Intel-prollar är väldigt annorlunda från AMD:s X3D-processorer, men frågan kändes generell nog att svara på.

Jag förenklade, absolut.

Effekt är, som du påpekar, en stor faktor till begränsning av klockfrekvens i dagens processorer, iaf de som ligger i toppskiktet. Vi får dock inte glömma en annan faktor som spelar in när du sänker temperaturerna, det är att läckage i kislet också sjunker. Alltså, ju varmare kislet är, desto mer strömläckage vilket leder till mer värmeutveckling. Så skulle vi titta på en frekvenskurva så är den inte linjär med energiåtgången, utan exponentiell. En faktor i det är just läckage som genrerar värme.

Hade kisel varit en supraledare så hade hela värmediskussionen varit helt meningslös, då ingen värme hade genererats. Kisel har dock ett motstånd i sig som gör att en del av effekten som leds in i kislet kommer gå ut som läckage och värme.

Kyler du kislet så blir strömöverförningen effektiverare, vilket innebär att det går att uppnå samma frekvenser vid lägre effektuttag på grund av mindre läckage.

Så temperaturen är alltid en faktor, däremot så kan det vara som du säger, att när man är långt under en effektbudget, t.ex. vid enkeltrådat, låt säga enbart två kärnor är maxbelastade och resten tar en fika. Ja då spelar temperaturen ingen roll för läckage är försumbart ställt mot effektbudgeten. Processorn kanske fortfarande läcker enorma mängder energi men eftersom det varken leder till för höga temperaturer eller effektuttag så gör en sänkning av en av faktorerna ingen skillnad.

Slutligen, och inte riktat till vad du skrev utan ursprungsinlägget. Om man ska ge sig in och klaga på en sådan extremt duktig techtuber som der8auer så bör man förstå fysiken bakom det för enbart det faktum att hans delidd leder till tio graders delta borde få vem som helst att förstå att det kommer göra stor skillnad i vissa laster. Man borde också förstå vilket enormt jävla jobb det är att dels göra tester och dels spela in, redigera och publicera det högkvalitativa innehåll som han gör. Jag är lite irriterad på hur arroganta vissa personer är, och otacksamma.

Av Dinoman
Skrivet av Nissling:

Här måste jag faktiskt motsäga önskemålet.

Såvida primörerna och vitbalansen ligger rätt, så skall också sekundärerna ligga rätt. Med andra ord ska du inte röra sekundära färger vid kalibrering.

Även om det så finns CMS så är risken ofta stor att den krockar för mycket med färgmatriserna även när man ändrar primörerna och orsakar banding. Kan ofta avslöjas vid mätning om luminansen för respektive färg ligger rätt vid D65 men är helt off vid primörerna (t.ex. att rött är 21 nits vid 100% vitt respektive 25 nits vid 100% sat/100% lum).

Ofta skapar man långt mer märkbara fel än man löser och en modern skärm ska inte heller ha så pass grava fel att CMS ens skall vara nödvändigt. Möjligtvis att golfbanan på CIE1931 blir lite snyggare men någon mer nytta än så är det i princip inte.

EDIT: Förresten, superbra och trevlig videorecension! Mycket uppskattad. 👍

Tack, det värmer! Jag blir glad när mitt hårda arbete uppskattas!

Hmm, jag kanske gjorde en tankevurpa där och antog att ju mer finställda verktyg du har desto större chans för ett bättre resultat. För ungefär tre hundra år sedan när jag jobbade med prepress, alltså förberedelse för tryck, så arbetade vi vid profilering av tryckpressar både med primärfärger fast i det fallet då Cyan, Magenta, Gul och Key samt som då dess sekundärer vilket är röd, grön och blå. Som sagt, jag är inte alls så insatt i denna världen som du är så jag kommer inte ifrågasätta det faktumet. Att justera primärfärger bör vara standard dock.

Och @Daslch du har absolut en poäng med att vi borde kunna begära att skärmarna är bättre kalibrerade från butik, att vitbalans och gamma är korrekt. Anledningen till att detta inte sker tror jag dels handlar om kostnad, det kostar att pengar att lägga tid och energi på något och dels för att i slutändan är det 0,1% av de som köper skärmen bryr sig om detta eller har behovet och de som har behovet, ja de köper inte denna skärmen, eller någon annan spelskärm för den delen, de går på Eizo eller andra professionella märken.

Av Dinoman
Skrivet av cyklonen:

Absolut, men min poäng var att testet var halvfärdigt. Utan att veta vad det extra temperaturutrymmet ger i prestandaökning är det inte så värst intressant information.

Du har höga förväntningar. Att anklaga der8aur för att göra halvfärdiga tester är att stretcha det rejält.

Syftet med videon var att se vad det gav att använda deras produkter istället för original, tempen sjunker dramatiskt. Det kommer säkert uppföljning.

Att göra överklockningstester tar ju också en hel del tid och ja, han vill tjäna pengar och dessutom pusha för sina egna produkter såklart, plus att frågan säkert har kommit från både höger och vänster.

Av Dinoman
Skrivet av DasIch:

Jag skulle inte kalla det vardagsmat med spel som var sjukt svårdrivna. Nog för att funnits en hel del svårdrivna titlar genom åren, men har man suttit på bra hårdvara har den rimliga förväntningen varit att alla spel rullar på bra.

I fallet Cities Skylines 2 snackar vi ett spel som går på knäna med GPU;er för 25 000Kr. Grafiken är dessutom långt ifrån att göra skäl för det. Vi snackar ett episkt misslyckande på nivå med att bajsa på sig offentligt, medan man är ute på en dejt.

Jag tänker på hur ett spel som Supreme Commander presterade när GeForce 8800 Ultra kom ut. Detta var dessutom utan någon som helst AA då det var buggat.

https://images.anandtech.com/reviews/video/nvidia/8800ultra/supc...

Också ett spel där mycket simulation och mycket enheter hanterades på en och samma gång, för sin tid.

Givetvis så var det andra krav kring FPS på den tiden men även då så vill de flesta nå 60+ FPS. Ett spel som Unreal Tournament 3 flöt på rätt fint på den hårdvaran när det då begav sig. Snarare 100+ FPS i lägre upplösningar.

Jag försvarar inte utvecklaren jag tycker bara att det ligger lite orimliga förväntningar när man förutsätter mycket bättre grafik men samtidigt fantastiskt flyt, det är ju ett spel som gör enormt mycket simulationer.

Sen verkar ju utvecklaren själv medveten och missnöjd med prestandamålet så förbättringar är på gång antar jag.

Av Dinoman
Skrivet av DasIch:

Jämför med TV- och mobilmarknaden så är marknaden för datorskärmar pytteliten. Efterfrågan på faktisk kvalitet är i sin tur försvinnande liten - de flesta har inte ens en grundläggande förståelse för det.

Det mesta som säljs är plastigt skräp som faller sönder med tiden. Det brukar vara genomgående dålig TRC, vitbalans åt skogen, ingen kalibrering som når specifika primärer (SRGB, P3, etc), bandning även innan kalibrering/profilering och många är åt helvete för ljusa även på lägsta ljusstyrkan. Firmware/bildprocessering är billigast och sämsta möjliga skit som går att hitta. Finns det ens enda tillverkare som har ett korrekt sRGB-läge? Det brukar vara låst till en ljusstyrka som är alldeles för hög och färgerna är en bra bit ifrån målet. Istället får man allsköns olika bildlägen designade av dårar och idioter.
I bästa fall får man några lägen för gamma, vitbalans och RGB-reglage. Ja, utöver de vanliga kontrast och ljusstyrka då. Alla har inte ens RGB-reglage. Vet inte om den här skärmen har det men Philips 34" QD-OLED tycks sakna det. Borde vara kriminellt att utelämna det.
Varför finns inga konsumentskärmar med en vettig 3DLUT? Finns på vissa TV-apparater. Varför saknas det bra förkalibrerade lägen? Det minsta man kan begära är lägen för sRGB och rec. 709 gamma 2.4. Ska de göra reklam för större färgrymd vore det lämpligt med förkalibrerade lägen även för det. Finns ingen direkt nytta med det om man inte kan träffa en specifik standard, och en mycket stor del av skärmarna är långt ifrån det.

Slutligen har vi problemet med att datorskärmar är dvärgväxta och har låg upplösning.

En skärm för 2500Kr kan förvisso förlåtas mycket men överlag är marknaden för datorskärmar riktigt jäkla kass. Det är på tiden att fler blir förbannade över det.

Oj, en urladdning som hette duga. Vet inte ens var jag ska börja.

Du kan väl inte jämföra en nishad marknad med en så generell som mobilmarknaden eller TV. Skulle de panelerna vara bättre kalibrerade då menar du, mycket tveksam om vi tittar på marknaden i stort.

  • TV-apparater är väl rimligvis också då, plastigt skräp. Mobiltelefoner kan ju falla inom båda men det är ju också en enhet som kostar snart 20k.

  • Vitbalans brukar vara rätt varierat, det är troligen ofta ett medvetet val från tillverkarna då många konsumenter uppfattar en kallare vit (7000K till 8000K) som "vitare", trots att den är åt det blåa hållet. Många skärmar går att kalibrera rätt.

  • Det går mycket bra att kalibrera många monitorer till sRGB. Just denna modellen har något buggat med sitt sRGB-läge dock, föregående modell hade inte det.

  • För ljusa på lägsta ljusstyrkan? 55 nits är väl knappast för ljust hoppas jag, då får man vara migränkänslig för att uppfatta det som för ljusstarkt.

  • De förinställda bildlägena håller jag med om att det är dårskap men det går utmärkt att undvika dessa.

  • Jag håller också med om att primärfärger men även sekundärfärger bör gå att justera och ja det är en blandad kompott men jag anser att det blir bättre och bättre.

  • 3DLUT är en funktion som i princip ingen frågar efter misstänker jag, och det kanske är något som erbjuds på proffesionella modeller som ASUS ProART-serie eller Eizo. Tänk på att bygga in funktioner, både i hårdvara och mjukvara i slutändan kostar pengar. De flesta företagen ser nog ingen som helst vinning att satsa på detta för spelmonitorer. Därav avsaknaden.

  • Datorskärmar är dvärgväxta? Med tanke på det generella avståndet som man sitter på så är det inte direkt orimliga storlekar som finns, jag har testat en 48" 16:9 samt en 38" ultrawide och 48" är alldeles för stort för skrivbord, man får nackspärr. Don efter person antar jag men den kommentaren känns sjukt specifik för dina ändamål.

  • Bli förbannad allt du vill men jag tycker att en hel del av dina "pet peeves" är rätt orimliga och min rekommendation till dig är att du tittar på ett annat segment av bildskärmar än gamingskärmar för de funktioner du förväntar dig finns på proffesionella skärmar. Då får du också betala därefter.

Av Dinoman
Skrivet av cyklonen:

Men låg temp är inget självändamål förutom när det gäller ljudnivå.

Om processorn inte tar skada av den högre temperaturen gör det ingen skillnad. Om man inte använder det skapade temperaturutrymmet till att höja frekvensen, så är det meningslöst.

Testet gjordes med fast spänning och frekvens, vilket så klart är relevant om det är temperaturskillnaden man vill mäta, men det borde ha kompletterats med ett uttömmande test där man ser hur mycket mer prestanda man kan få ut utan att tempen går över det man toppade på innan man tog bort kåpan.

Du har inte fel i sak men samtidigt så kan vi anta att en sänkning med tio grader garanterat kommer leda till bättre prestanda, hur mycket bättre är en annan fråga och väldigt applikationsberoende. Applikationer som belastar alla kärnor och kräver maximal frekvens kommer givetvis att prestera bättre då processorn kan bibehålla sina frekvenser under längre perioder och vi högre värde.

Med dagens moderna processorer som har "boost"-logiker så kommer CPU:n alltid att försöka bibehålla så höga klockfrekvenser som den kan givet att den inte blir begränsad av antingen energiförbrukning eller värme. Om du förbättrar förutsättningarna för en av dessa faktorer så kommer du garanterat att få bättre prestanda i tunga laster.

Av Dinoman
Skrivet av användare-234:

Det är ju ingen skillnad på 120 hz och 240 hz.

Det är de facto skillnad, 240 Hz är dubbla uppdateringshastigheten kontra 120 Hz. Så ja det är en dramatisk skillnad.

Vad du troligtvis är inne på, om du nu inte bara är inne och trollar för att du inte har något bättre för dig, är upplevd skillnad. Om man har svårt att uppleva en ockulär skillnad så kan jag utan problem säga att du kommer känns skillnad i flytet, alltså, musrörelse kontra hur innehållet uppdateras. Där märker du skillnad, jag är inne på det i videon. Sedan är det en åldersfråga och en vanesak.

Som jag också nämner i videon, skillnaden att gå från 30 Hz till 60 Hz är väldigt stor, likaså skillnaden mellan 60 Hz till 120/144 Hz, sedan så avtar den upplevda skillnaden från 120 Hz till 240 Hz. Precis som jag misstänker att det kommer bli svårt att avgöra skillnad på 240 Hz och 480 Hz men om även eftersläpsprestandan hänger med så nog kommer du märka skillnad även där.

Skrivet av 3Dfx Rampage:

Mitt 4k lg tv som används som gaming/datorskärm kostade 5500... På vilket sätt är detta ett bra köp 1080p 24 Tum sketen skärm för över 2000...näää fy...

Om du köpte en LG TV för 5500 kr så uppdaterar sig den garanterat inte med 240 Hz, utan ligger troligen på 60 Hz eller 120 Hz. Dessutom är den <42 tum och är alltså ungefär dubbelt så dyr så jag förstår inte riktigt varför du ger dig in på att jämföra äpplen och päron.

Skrivet av Julkatten:

Finns det fortfarande en marknad för 1080p? Jag råkade testa gaming på 1080p 160Hz häromdagen efter 6-7 år av 1440p 160Hz och tyckte det kändes helt ospelbart. I ett spel som Escape from Tarkov kommer du garanterat halvera* din survival rate i 1080p mot 1440.

*Källa: jag

Jag har personligen inte använt en 1080p skärm privat på säkert tio år. Jag gick 34" ultrawide och har aldrig tittat tillbaka. Är den här skärmen något för mig? Nej. Finns det en marknad för den? Se nedan.

Dold text
Skrivet av SwedenVirre:

Nu är det i stort sätt omöjligt att testa, men det hade varit roligt att få veta hur mycket eftersläp där är eller inte är.

Nog för jag gillar VA väldigt mycket, men till spel har jag aldrig hittat någon jag gillat

Tro mig det hade jag också tyckt varit fantastiskt roligt. Den utrustningen är väldigt dyr dock och min "return-of-investment" på en sådan produkt blir lite lång. Till skillnad från min Colorimeter som jag har privat använding för också.

Men vi får se, kanske att jag gör en inverstering i framtiden, mest för att det är så roligt att pilla med.

Skrivet av DasIch:

I stort sett alla datorskärmar hör hemma på soptippen. Det är tyvärr den krassa verkligheten. Liten marknad och tillverkarna kommer undan med att sälja skräp.

Detta var en intressant kommentar som du verkar ha dragit ur baken.

Givetvis så är det ett tufft marknadsklimat just nu men PC-spelande och PC-monitorer, särskilt spelinriktade diton växer enligt byråer som fokuserar på att mäta sådan här data säger, men du kanske sitter på annan data?

Dold text

" A total of 44.9 million gaming PCs and 17.3 million gaming monitors were shipped during the year, which was well above pre-pandemic levels in 2019."

Så under 2022 såldes det 17 miljoner spelskärmar, PS5 sålde 16-18 miljoner under 2021 plus 2022. Liten marknad säger du?

Det faktum att majoriteten av monitortillverkare satsar på dedikerade spelmärken, såsom Philips gör med Evnia skvallrar också om att det är en marknad som växer och att fler vill ha sin del av kakan.

Många av de spelskärmar som jag har testat, alltså faktiskt haft i mitt hem och testat, är verkligen inte skräp, de allra flesta är riktigt bra. Det är en hälsosam marknad med ett otroligt utbud och med bra konkurrens, till skillnad från t.ex. GPU. Så jag förstår verkligen inte vad din kommentar kommer ifrån för den verkar sakna verklighetsförankring.

Av Dinoman

*triggervarning*

Jag fattar att många här inne är förvånade över prestandakraven men jag måste säga att det är en märklig klagokör som pågår.

Spel som var sjukt svårdrivna när de lanserades var vardagsmat, när det begav sig, ja jag vet att jag är gammal, och hårdvaran som fanns på markaden vi släpptillfället var sällan tillräckligt kraftfull. Man fick tweaka med inställningar och annat för att få till ett bra flyt.

Jag tycker trenden som varit de senaste åren är väldigt bra med fantastiskt optimerade spel som flyter på som en dröm med helt hårdvaran som finns, och konsollerna har nog en stor del med detta att göra.

Utvecklarna av Cities Skylines har fokuserat på visionen som jag ser det och såklart missat bitar av optimeringen så vi får se vad det landar men att vara så dödsfokuserade på grafikprestanda istället för att fokusera på spelidén och att acceptera att man kanske får tweaka lite för att få till ett lagom flyt är inget konstigt. Jag minns hur det var att spela "late game" Civilization när det begav sig, eller Total War Medieval late game. Sirap men spelen var så gradiosa och fantastiska roliga så man satt där och väntade igenom turns som tog typ en till två minuter att bli klara.

Jag kanske är helt fel i hjärnan men jag tycker inte detta är en stor grej.

Av Dinoman

Ska helt klart ta tipset och köpa en i7:a och testa lite 8 GHz överklockning här hemma!

Av Dinoman
Skrivet av snorleffe:

När ska husguden Yoshman komma in och förklara att dessa CPU:er är bättre än AMD:s trots sämre prestanda och typ dubbla effektförbrukningen, och sedan leverera en slutkläm om Apples överlägsenhet?

@Yoshman - handsken är kastad!

Av Dinoman
Skrivet av heyon:

Ang 14900k: Är detta verkligen kriteriet för en "Bra produkt"? Så många listade nackdelar i relation till fördelar, utöver det är den inte bättre för gaming än konkurrentens 2500kr billigare cpu (7800X3D).

Den riskerar också sälja in folk på en plattform som snart går ut. Visst finns det kanske en liten skara användare på plattformen som istället för 13900K bör uppgradera till 14900K om de nu tvunget behöver uppgradera inom ett år. Men är inte det en ganska klen ursäkt för "Bra produkt"?

Inget ont om Intel som så, de rebrandar 13900K och tweakar lite vilket är rimligt ur ett affärsstrategiskt perspektiv. Men denna generationen är inget teknologiskt steg framåt och för de allra flesta är det mest rimligt att undvika den.

Jag kan tycka att den utmärkelsen är helt perfekt avvägd i detta fallet. Många nackdelar och omständigheter att ta i beaktning men det går samtidigt inte att komma ifrån att det är en processor som hör hemma i absoluta toppskiktet. Kundgruppen i det segmentet är oftast inte priskänsliga och kan också tänka sig att lägga pengar på exotisk kylning.