Inlägg

Inlägg som zetruz har skrivit i forumet
Av zetruz

Sorgligt att det var sådana problem till att börja med, det borde faktiskt fångats innan release. Dåligt där, och det tog lite väl lång tid att fixa också. Skönt att problemen äntligen är över i alla fall.

Av zetruz

GamersNexus recension har en väldigt intressant del. De jämförde en Ryzen 7 2700X mot en Ryzen 7 1700, båda vid 4.0 GHz, och kollade hur mycket spänning som krävdes för att den överklockningen skulle vara stabil:

Citat:

To this end, we found that, at a given frequency of 4.0GHz, our R7 2700X held stable at 1.175V input at LLC level 4, which equated to 1.162V VCore at SVI2 TFN. The result was stability in Blender and Prime95 with torturous FFTs, while measuring at about 129W power consumption in Blender. For this same test, our 1700 at 4.0GHz required a 1.425V input at LLC level 5, yielding a 1.425VCore, a 201W power draw – so 70W higher – and pushed thermals to 79 degrees Tdie. That’s up from 57.8 degrees Tdie at the same ambient.

Ryzen 7 1700 @ 4 GHz behövde 1,425 Volt, drog 201 Watt i Blender, och temperaturen blev 79,8 grader Celsius.
Ryzen 7 2700X @ 4 GHz behövde 1,175 Volt, drog 129 Watt i Blender, och temperaturen blev 57,8 grader Celsius.

Det här visar ju egentligen bara hur dumt det är att lägga sin överklockning precis vid gränsen för vad en processor klarar av. Ökningen i energiåtgång (och därför temperaturer) blir extremt hög per 100 MHz vid en processors maxgräns. Gå ned ett par hundra MHz och spara en jävla massa besvär.

Av zetruz
Skrivet av iesa:

Nu visar dom iofs Medelvärde (grön) och lägsta värde (röd) alltså medel fps och lägsta fps. Inte max fps.

och det är helt klart medel fps som är det intressanta. inte hur långt den den dimper ner vid enstaka tillfälle.

Nej, det där är inte helt rätt. I ett spel där grafikkortet flaskhalsar vid 90fps och CPUn vid 140fps så är medel-FPS inte viktig alls på CPU-sidan. Det viktiga är vilka CPU-baserade framedrops du får. Därför testar folk även lägsta-FPS eller lägsta-10%-FPS eller liknande, för framedrops suger.

Av zetruz

Hahaha, GRYM nostalgi från "aaaaAAAAAAAAAAAAAAAAAAAARRRRRRRR!!!!!". Underbart!

Av zetruz
Skrivet av minh:

finns den i 140mm`????

Kommer finnas, men det har tidigare pratats om att det kommer ta minst ett år till att färdigställa 140mm-versionen. Vet inte om den siffran fortfarande gäller efter dessa förseningar, kanske går det fortare att göra klart 140mm-versionen?

Har sett fram emot dessa fläktar sen de först pratades om. Blir de bra så ersätter jag nog två av stock-fläktarna i mitt Define R5. (Men, som sagt, då blir det till att vänta på 140mm...)

Av zetruz

@Laxpudding: Spännande, tack för bra svar!
Finns det någon bra resurs där man kan lära sig mer om HDR code values och liknande detaljer, hellre än det uppenbarligen ytliga jag läst hittills?

Och betyder detta att om filmer med tiden mastras till högre nits, så kommer t.ex. en 2017 års OLED lida av mer och mer white crush (åtminstone i HDR10) ju längre tiden går då nyare filmer är ämnade att vara ljusare och ljusare?

Av zetruz
Skrivet av livsnjutaren:

@zetruz: är inte så inbiten i ämnet så FALD? Vad är det

FALD är "Full-Array Local Dimming", det vill säga att det bakom panelen finns en massa (ofta över 100) LED-lampor istället för, som på de flesta datorskärmar, endast några få LEDs runt kanterna. Fördelen med detta är att du kan släcka individuella lampor och på så vis få mycket högre kontrast än med den mer primitiva kantbelysningen.
Det är med andra ord ett sätt att närma sig kontrasten hos OLED, där istället varenda enskilda pixel kan släckas ned. Det kommer inte nuvarande former av FALD någonsin att slå, men man kan göra en traditionell TV som har mycket bättre bild än en som är kantbelyst.

Av zetruz
Skrivet av Laxpudding:

OLED:n har tack vare detta bra förutsättning för HDR i fråga om just dynamiskt omfång. Men OLED är också ljussvagt 600-700 nits jämfört med en bättre LCD i toppklass som når 1000 och högre likt 1800 nits, likt Sony ZD9. Ögat är kapabelt till att hantera mycket mer ljus än så, därav att HDR10-standarder går upp till 10.000 nits. Därför kommer en välgjord LCD, trots panelkontrast runt 3000:1 att se tydligare och klarare ut i ljusa scener. OLED:n kommer i sin tur vara bättre på mörka scener.

Jag tror det är Dolby Vision som maxar ut vid 10 000 nits. HDR10 är väl 4000?
Men nuvarande filmer mastras i 4000 nits för Dolby Vision och 1000 för HDR10, om jag fattat rätt. Jag vet inte ifall det betyder att ljusa highlights av 4000-nit-mastrat Dolby Vision skulle "förstöras" (white crush, eller vad är termen) på en TV på 10 000 nits.

Av zetruz
Skrivet av Laxpudding:

@zetruz: Det handlar nog "endast" om nästa steg i produktutvecklingen att konstruera och masstillverka en enklare panel med enklare belysning. I ett tidigt skede i en produktutveckling brukar det inte finnas så mycket att spara på sådant. Allt är fortfarande så dyrt att tillverka och då kan man lika gärna gå all in på funktioner.

Det finns idag väldigt få äkta 10 bitars-paneler. Så gott som alla inom kontors-, konsument- och gamingklass kör 8 bitar+FRC för "miljarder färger" och TN-paneler med "8 bitar/16,7 miljoner färger" kör vanligtvis 6 bitar+FRC.

8+FRC är ofta "osynligt" för den genomsnittlige användaren, tillverkarna har blivit mycket bättre på att göra funktionen "osynlig", särskilt när man kan modulera panelen i 120 och 144 Hz. Syns ofta som ett svagt brus i panelen men inte mer.

Tackar vänligt!

Skrivet av superpwnguin:

Vad betyder det här för mig som inget kan om bildskärmar?

Kan man inte köra skärmen i 4K, 144 Hz och HDR?
Det ser ut så från värdena ovan, men då med något som heter 4:2:2. Och vad är det?

4K/120Hz/SDR ser ju ut som en rimlig kompromiss då, men vad är SDR?

Mina googlingar gör mig bara mer osäker.

Bästa hälsningar, och trevlig helg!
/Rikard

4:4:4 vs 4:2:2 är beskrivningar av chroma subsampling som andra beskrivit, en bra artikel finns här.

SDR är, som andra sagt, "standard dynamic range", dvs. inte HDR. Beroende på hur bra skärmen är på att återge HDR kan skillnaden mellan SDR och HDR vara alltifrån minimal (typ edge-lit utan local dimming) till överväldigande (typ OLED). Om backlighten på denna skärm är kompetent (dvs bra responstid) så borde HDR kunna göra stor skillnad i vissa spel som har bra implementeringar av HDR.

I praktiken tror jag allt det här betyder att konsumenten, för att få ut det bästa ur den här skärmen, kommer behöva mixtra med inställningar för att lista ut vad hen föredrar. (98 Hz i HDR och 4:4:4, 120 Hz i SDR och 4:4:4, eller "något däremellan" med 4:2:2 och kanske 144 Hz.) Det blir en jävla massa pill för att lista ut vad man föredrar, helt enkelt.
Man kan ju gissa att dessa skärmar uppdateras med HDMI 2.1 inom ett år eller två, och med nästa DisplayPort-version (som i januari påstods skulle publiceras "inom 18 månader") något år efter det. Då är dessa problem ur världen och man kan köra full-fet 4K / 144Hz 120 Hz / HDR i 4:4:4 så man slipper pilla. Just nu dras hela konceptet med bandbreddsproblem.
Edit: HDMI 2.1 tror jag endast tillåter upp till 120 Hz i 4K/HDR, my bad. Blir nog bara lite mindre bandbreddsproblem med det!

Av zetruz

@Laxpudding: Det verkar som att alla dessa nya skärmar kommer med FALD. Vet du ifall det är trivialt att ta bort FALD-modulen, ersätta den med vanlig edge lighting, och släppa en billigare variant av denna panel som körs utan local dimming?

Och det påstås att denna nya panel är 8-bitars med FRC, och inte riktig 10-bitars. Kan du förklara vad för nackdelar detta betyder för konsumenten?

Tackar för övrigt för bra information!

Av zetruz
Skrivet av livsnjutaren:

Vad tror ni 2-3 år med lanseringar från olika tillverkare innan det är lite vettiga priser? Hur lång tid har det tagit nu med med 2k skärmar? För 25k är inte motiverat för min del. Sen behöver man ju driva dessa skärmar på med något vettigt och det är ju inte precis gratis heller.

Känns som att skärmar med 1440p, VA/IPS, 144 Hz och HDR utan FALD (alltså framför allt 10-bitars-paneler men "traditionellt dålig" kontrast) kan bli en sweet spot i premiumsegmentet.

Av zetruz
Skrivet av BasseBaba:

@zetruz:
Har du mer info om denna ”chroma”?
Min enda erfarenhet är på min Samsung tv, och måste erkänna anser förmodligen är fel på mina ögon.

Jag ser ingen som helst skillnad när jag switchar mellan 4:2:2 och 4:4:4 på min Apple TV, så undrar vad/varför folk verkar göra en så stor grej av det?

Kan det vaea att antingen det material jag tittar på, eller att min tv är för gammal/sunkig, som gör att jag upplever nada skillnad?

Framför allt färgad text (typ UI i spel eller på webben) ska du se en redig skillnad på. Här är en bra artikel som dessutom har ett enkelt test där du kan säkerställa att du faktiskt kör i 4:4:4 och inte bara 4:2:2 i båda fallen. Beror på TV:n.

Skrivet av Datanisse:

25 990:- Instaskip!

iofs kommer de nog sjunka snabbt när liknande skärmar från konkurrenter börja dyka upp.

Nej, det kommer det bog inte. Alla dessa skärmar har samma panel, så priserna kommer troligtvis inte skifta så mycket - samma som 27" 144Hz IPS-skärmar, priserna är mer eller mindre i samma klass. (Plus/minus G-Sync-påslaget, ungefär.)
Det tar nog några år för sådana här specs att nå inte-självmords-priser.

Av zetruz

"Rättning": Denna är 4K och/eller 144 Hz och/eller HDR. Bandbreddsproblem. Dessa specs har framkommit nyligen. Länk

4K/98Hz/HDR - 4:4:4 chroma subsampling (svenska?)
4K/120Hz/HDR - 4:2:2
4K/144Hz/HDR - 4:2:2
4K/120Hz/SDR - 4:4:4

I min mening är detta en panel man kör i 98 Hz och HDR, eller 120 Hz och SDR. Aldrig att jag leker med 4:2:2.

Skrivet av fesoj:

Men skulle de inte överge RoG-linen? Hade för mig de hade något nytt på gång. Skulle inte tacka nej, hursomhelst

På grund av Geforce Partners Program så kommer ASUS sjösätta ett nytt märke för produkter med AMD-grafik. ROG blir exklusivt för Nvidia.

Av zetruz
Skrivet av Flamso:

Inget stöd för VESA-fäste..? På riktigt? Trodde det var standard idag, det borde det verkligen vara.

Jodå, 100x100 VESA-fäste.

Skit i HDR-beteckningen, det är 8 zoner edge lighting i den här skärmen. Det duger inte ens nästan för "riktig HDR", det är på tok för klumpigt för det.
Se istället denna skärm som en 32" 1440p 75 Hz "delvis-Freesync" med VA-panel och bra färgrymder för runt fem lax. Ganska intressant produkt i min mening.
Riktigt dålig fot dock som inte är höj-och-sänkbar. Inte ens säker på att den är tiltbar...

Av zetruz

Logitech G502 Proteus Spectrum. (Dålig bild av min setup.)
Rekommenderar den något väldigt. Bekväm och funktionell. Ett antal överflödiga knappar jag inte använder men vad gör det?

Av zetruz
Skrivet av Ozzed:

Frågan är ju vad AMD ska behöva ta fram innan vissa blir nöjda. Om man går och tror att något kommande AMD-kort kommer kunna mosa Nvidias motsvarighet så lär det aldrig hända, Nvidia har flera tiopotenser mer kapital än AMD, och använder sin dominerande ställning för att fösa ut AMD i marginalen, så det går inte realistiskt förvänta sig att AMD helt plötsligt skall trolla fram en "Nvidia-dödare". Det begriper ni väl?

Man får vara glad för det lilla. Om 5-6% bättre prestanda stämmer så tycker jag det är bra jobbat med tanke på de förutsättningar som AMD trotts allt har.

Men det där håller ju inte riktigt. Se Ryzen.

Skickades från m.sweclockers.com

Av zetruz

Suck. Inte precis oväntat, men lika tråkigt ändå. Poor Ampére.

Av zetruz

Om man kan få upp 2700X i 4,4 GHz på alla trådar, med den förbättrade minneslatensen (och -bandbredden) som andra generationen verkar åtnjuta, så är det en okej uppdatering. Definitivt bättre än väntat men knappast groundbreaking såklart. Ett gött skutt framåt innan Zen 2 nästa år, då får vi se hur racet ser ut.
Ska bli så skoj om några år att hoppa upp från 4c/8t @ 4 GHz. Mumma!

Av zetruz
Skrivet av Trebsor:

Vart kopplar man in skärmen?

Usch ja, en VGA-dongel går säkert på flera hundra för den här proprietära kontakten. Fy satan.

Av zetruz

Låga priser är det viktiga för att VR ska slå.
Använd den låga pixeldensiteten i designen av spelet, så att det inte gör så mycket. Gör grafiken pixlig och enkel - då kan det se bra ut även i låg upplösning och det kräver dessutom inte en monsterdator att driva runt det.