LG gör ultrabreda skärmar med AMD Freesync

Permalänk
Medlem
Skrivet av Sgt. Stinger:

Det medföljer någon mjukvara till vissa LG-skärmar som kan det, och LG's andra ultrabreda skärmar kan ha dual input tydligen.

Det där lät VÄLDIGT intressant!

21:9, OLED, 120Hz, dual input. Curved ~30 tum.

Kommer tillbaka om 10 år :).

Tack!

Permalänk
Medlem
Skrivet av Dussan89:

LG's 34 ultrawide är ju 3440x1440 så borde passa.

Ja, det skulle smaka. Dock är jag extremt nöjd med min Qnix så det dröjer nog med uppgradering.

Permalänk
Skrivet av Zotamedu:

Nej det är rätt få som tycker att Computex var ett skämt. Det är väl du och CJ1strem som fått för er att det är skit utan att egentlige förklara varför. Jag har inte sett eller hört någon som faktiskt var där vara kritisk utan det verkar vara ett fåtal användare som hävdar att det är skit baserat på ganska exakt ingenting. De var tydliga med att det som visades på Computex var tidiga prototyper. Enda rätt bra jobbat att gå från tidiga prototyper till lansering på ett halvår.

De hade för övrigt ett andra demo på Computex med en skärm som där de kunde stänga av och sätta på Freesync. Men det är klart att du inte nämner det.

Varför tror du att det kommer bli sämre? Är det för att det inte sitter en lös dyr FPGA i skärmen? Eller är det för att det är öppet eller är det helt enkelt fel färg på loggan?

Självfallet ska jag motivera varför jag tycket så.
Notera att jag inte har sett Sweclockers intervju eller nyheter. Har haft Engelska sidor som informationskälla.

Det har att göra med upplägget, mm och att man inte har fått så mycket att gå efter. Mycket snack har det varit, och som jag skrev så hoppas jag att det blir bra, men med endast drivrutiner så kommer det bli lika bra som Gsync? Känns lite far-fetched. Har inte sett demon på Computex där dom stänger av och sätter på FreeSync, länk tack. Dessutom så ska man ju ha två likadana skärmar om man ska illustrera vinst, vilket dom inte hade. Man får känslan att nu vill AMD bara hänga med och det blir bara en sörja utav det.

Jag vill inte bidra med negativ energi, det är inte min avsikt. Jag är bara skeptisk. Jag är bara en konsument, där den bästa tekniken finns dit vänder jag mig till oavsett färg på loggan.

Permalänk
Medlem

Då får det bli en sån i födelsedagspresent till mig själv, får väl sätta de befintliga tre skärmarna på en arm ovanför eller alternera med dom i portrait-mode...

Visa signatur

Riggen:ASRock X570M Pro4 - AMD Ryzen 7 3700X - Corsair 32GB DDR4 3200MHz - Corsair MP510 960Gb NVME - EVGA 1080ti SC2 - 3x Samsung 840 500GB - EVGA SuperNOVA G1+ 650W - Fractal Design Meshify C Mini Dark TG
NAS: FreeNAS @ HP Proliant MicroServer Gen 8 - Xeon E3-1230 V2 - 16Gb Kingston ECC RAM - Intel 530 120Gb - IBM m1015/LSI 9220-8i - 4x WD Red 3Tb

Permalänk
Medlem

Hade tänkt göra ett datorbygge med lg 34um95, men då kanske det blir att vänta he.

Permalänk
Medlem
Skrivet av Asusboy:

Hade tänkt göra ett datorbygge med lg 34um95, men då kanske det blir att vänta he.

Samma, precis beställt nytt mobo cpu och minne till mitt 295x2 så jag väntar ivrigt att se vad som kommer.

Skickades från m.sweclockers.com

Visa signatur

EVGA RTX 3080 / 5800x / Gigabyte X570 I AORUS PRO WIFI / Ballistix 32GB 3200mhz / Corsair SF750 750W / Gigabyte 48" AORUS FO48U OLED 4K 120 Hz

Permalänk
Medlem
Skrivet av XHI:

Jag säger då det. LG 4 life!

Trodde aldrig någon skulle säga det om gamla Lucky Goldstar:)

Visa signatur

/havoc

Permalänk
Medlem
Skrivet av Ashzala:

Vad händer om jag startar ett spel i fusllskärmsläge? Verkar inte som att det kommer fungera så bra tyvärr.

Ok, du vill ha full stöd även i sådana lägen. Blir nog tuffare, utan att veta alltför mycket om det kan jag tänka mig att helskärmsläge går in djupare på hårdvaran, hur resurser tilldelas etc. Maila Nvidia/AMD och fråga?

Permalänk
Medlem
Skrivet av Da´Russian Stallion:

Det fungerar inte på det sättet. Alls. Och det jag tror att du föreslår, även om det rent tekniskt inte skulle fungera allas, skulle ge upphov till tearing. Din lösning är i princip som att köra med V-sync av. eller köra adaptive vsync.

Mycket förenklat så är ju Gsync/freesync, precis som Vsync, fast på en hårdvarunivå, samt mer dynamisk. Dvs skärmen kan visa ett spann mellan säg 25-120Hz. När grafikkortet då visar 40FPS så anpassar sig skärmen och synkar till 40 hz, dvs inte enbart att den växlar ner till 40 hz, utan faktiskt sunkroniserar varje frame, så du inte får någon tearing. Din maxfps antar jag fortfarande blir beroedne på skärmens maximala uppdateringsfrekvens, i detta fallet 120hz/120fps. Om det inte är så att dessa skärman dynamiskt stänger av syncroniseringen. Så även Gsync/freesync lär käka upp lite prestanda, har ingen koll på hur mycket dock. Det hjälper också enbart mot tearing, det hjälper inte mot ghosting, rörelseoskärpa som hänger ihop med panelens responstid.

Vi är fortfarande långt ifrån den perfekta skärmen. I min värld skulle den perfekta skärmen ha 144hz, 4k upplösning, OLED, Gsync/freesync, IPS, Halvmatt yta, under 8Ms GTG responstid. Får vänta några år...

En skärm kan aldrig visa fler bilder än vad den är gjord för (med undantag för att vissa paneler kan överklockas lite). Detta med tearing verkar vara olika från skärm till skärm också har jag märkt. min gamla apple cinema display HD, verkar ha som minst tearing runt 70FPS av någon anledning, runt 50-60 är det mycket, över 80 är det också mycket. på 70 är det otroligt lite. har ingen bra teknisk förklaring för det, men har märkt liknande beteende på alla skärmar jag testat, de har någon form av "sweet spot".

Hur ska du ha OLED och IPS samtidigt?
Btw när OLED kommer är det ~0ms som gäller, som på goda CRT tiden.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Da´Russian Stallion:

Det fungerar inte på det sättet. Alls. Och det jag tror att du föreslår, även om det rent tekniskt inte skulle fungera allas, skulle ge upphov till tearing. Din lösning är i princip som att köra med V-sync av. eller köra adaptive vsync.

Mycket förenklat så är ju Gsync/freesync, precis som Vsync, fast på en hårdvarunivå, samt mer dynamisk. Dvs skärmen kan visa ett spann mellan säg 25-120Hz. När grafikkortet då visar 40FPS så anpassar sig skärmen och synkar till 40 hz, dvs inte enbart att den växlar ner till 40 hz, utan faktiskt sunkroniserar varje frame, så du inte får någon tearing. Din maxfps antar jag fortfarande blir beroedne på skärmens maximala uppdateringsfrekvens, i detta fallet 120hz/120fps. Om det inte är så att dessa skärman dynamiskt stänger av syncroniseringen. Så även Gsync/freesync lär käka upp lite prestanda, har ingen koll på hur mycket dock. Det hjälper också enbart mot tearing, det hjälper inte mot ghosting, rörelseoskärpa som hänger ihop med panelens responstid.

Ditt svar gav mig en tankeställare och funderade lite mer på mitt förslag. Och tror faktiskt att jag måste ge dig rätt. Mitt misstag var att jag inte inte tog hänsyn till möjliga frekvenssteg. Men lite till funderande gav mig en möjlig fullösning. Om den lilla lådan enkelt kan ge ut dynamisk EDID-information kan det hjälpa genom att låta den acceptera en uppdateringsfrekvens som ligger lite under förväntad uppdateringshastighet i ett spel.

Med några enkla exempel, vi har en freesync-skärm som kan uppdatera i allt mellan 1 och 60 Hz. grafikkortet är kapabelt att rendera ett spel normalt sett över 60 fps. Här blir det som med en helt vanlig v-sync-lösning låst till 60 fps. Ingen tearing men om det tillfälligt dippar under 60 fps kommer den falla hela vägen till 30 fps etc.

Vill vi istället spela ett spel som kommer pendla mellan 40 och 60 fps kan låda säga att den accepterar en uppdateringshastighet på 40 fps och vi kan köra v-sync på denna frekvens. Jämna 40 fps är bättre än att det pendlar mellan 30 och 60. Nackdelen är givetvis att om spelet någon gång skulle sjunka under 40 fps skulle nästa steg bli 20 fps.. : (

Sedan lådan tagit emot bilden skulle den givetvis synka den till skärmen, precis som det är meningen med Freesync.

Är det en perfekt lösning - absolut inte. Och det är fullt möjligt att jag överskattar hur enkelt ny EDID-information kan läsas in. Men för någon som inte vill skaffa ett nytt grafikkort med synkstöd kan det vara ett potentiellt sätt att både undvika tearing och samtidigt undvika att uppdateringshastigheten sjunker kraftigt i tyngre spel.

Jaja, är ju bara spekulation. : )

Permalänk
Medlem
Skrivet av skewgen:

Hur ska du ha OLED och IPS samtidigt?
Btw när OLED kommer är det ~0ms som gäller, som på goda CRT tiden.

Skickades från m.sweclockers.com

Det har du såklart rätt Miss av mig.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem
Skrivet av hakro807:

Ditt svar gav mig en tankeställare och funderade lite mer på mitt förslag. Och tror faktiskt att jag måste ge dig rätt. Mitt misstag var att jag inte inte tog hänsyn till möjliga frekvenssteg. Men lite till funderande gav mig en möjlig fullösning. Om den lilla lådan enkelt kan ge ut dynamisk EDID-information kan det hjälpa genom att låta den acceptera en uppdateringsfrekvens som ligger lite under förväntad uppdateringshastighet i ett spel.

Med några enkla exempel, vi har en freesync-skärm som kan uppdatera i allt mellan 1 och 60 Hz. grafikkortet är kapabelt att rendera ett spel normalt sett över 60 fps. Här blir det som med en helt vanlig v-sync-lösning låst till 60 fps. Ingen tearing men om det tillfälligt dippar under 60 fps kommer den falla hela vägen till 30 fps etc.

Vill vi istället spela ett spel som kommer pendla mellan 40 och 60 fps kan låda säga att den accepterar en uppdateringshastighet på 40 fps och vi kan köra v-sync på denna frekvens. Jämna 40 fps är bättre än att det pendlar mellan 30 och 60. Nackdelen är givetvis att om spelet någon gång skulle sjunka under 40 fps skulle nästa steg bli 20 fps.. : (

Sedan lådan tagit emot bilden skulle den givetvis synka den till skärmen, precis som det är meningen med Freesync.

Är det en perfekt lösning - absolut inte. Och det är fullt möjligt att jag överskattar hur enkelt ny EDID-information kan läsas in. Men för någon som inte vill skaffa ett nytt grafikkort med synkstöd kan det vara ett potentiellt sätt att både undvika tearing och samtidigt undvika att uppdateringshastigheten sjunker kraftigt i tyngre spel.

Jaja, är ju bara spekulation. : )

Ja, det är inte helt dumt. Men provlemet blir att det ska synkas på flera instanser nu vilket inför latenser. Det ska först synkas mellan "lådan" och grafikkortet. Sen ska signalen synkas IGEN mellan lådan och skärmen. Dödar det inte syftet lite? Om skärmen själv inte kan hantera dynamiska uppdateringsfrekvenser hjälper det ju inte att "lådan" skickar olika frekvenser till skärmen. Du kommer få en skärm som blinkar och ställer om sig till olika Hz så långt det går. eller så får du ha någon form av mjukvara i "lådan" som kör vanlig Vsync mot skärmen och vi är tillbaka till ruta 1 igen

I dagens läge är Vsync egentligen inte så dumt. Om nu alla speltillverkare lade in stöd för tripple buffering. Med tripple buffering fungerar vsync väldigt bra imo, om man inte är galet kräsen gällande input-lag, som i tex Counter Strike, men i de flesta fall fungerar det väldigt bra. Med tripple buffering får du inte problemet med att FPS:en droppar ner till 30 så fort den är under 60hz/60fps.

Läs mer här:
http://www.anandtech.com/show/2794/2

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Skrivet av Da´Russian Stallion:

Ja, det är inte helt dumt. Men provlemet blir att det ska synkas på flera instanser nu vilket inför latenser. Det ska först synkas mellan "lådan" och grafikkortet. Sen ska signalen synkas IGEN mellan lådan och skärmen. Dödar det inte syftet lite? Om skärmen själv inte kan hantera dynamiska uppdateringsfrekvenser hjälper det ju inte att "lådan" skickar olika frekvenser till skärmen. Du kommer få en skärm som blinkar och ställer om sig till olika Hz så långt det går. eller så får du ha någon form av mjukvara i "lådan" som kör vanlig Vsync mot skärmen och vi är tillbaka till ruta 1 igen

I dagens läge är Vsync egentligen inte så dumt. Om nu alla speltillverkare lade in stöd för tripple buffering. Med tripple buffering fungerar vsync väldigt bra imo, om man inte är galet kräsen gällande input-lag, som i tex Counter Strike, men i de flesta fall fungerar det väldigt bra. Med tripple buffering får du inte problemet med att FPS:en droppar ner till 30 så fort den är under 60hz/60fps.

Läs mer här:
http://www.anandtech.com/show/2794/2

Trippel ihop med direktx visar varje bildruta , open GL slänger i stället bildrutorna i trippel (när dom inte hinner visas).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av elajt_1:

Ja 21:9 är fint, men det kan knappast kompensera för 3st 16:9 skärmar i bredd, iallafall inte för spel

Däremot så är det svårt att slå 16:9+21:9+16:9 i eyefinity, helt underbart att spela i 6400x1080

Skickades från m.sweclockers.com

Visa signatur

R5 3600 | 5700 xt | XPG SPECTRIX 3200MHz 16GB | B450i Aorus Pro WIFI | Corsair SF750v2 | Evolv Shift Air |
Galleri: Aether | Chandra

-=CITERA FÖR SVAR=-