Forumdelen sponsras av

Freesync eller Adaptive-sync på en G-sync skärm?

Trädvy Permalänk
Medlem
Registrerad
Apr 2012

Freesync eller Adaptive-sync på en G-sync skärm?

Vad förhindrar en G-sync skärm rent tekniskt att köra Freesync eller VESA Adaptive-sync. Får inte en G-sync skärm göra detta pga Nvidia eller AMD?

9900K | Gigabyte Z390 Auros Pro Wifi | 16 GB Corsair V LPX 3200 | Gigabyte 2080 Ti 11GB Gaming OC | Acer XB271HU
7700K | Asus z270F | Msi 1080 Ti Gaming X
2500K | Asus Z77 | 16 GB | Asus R9 290X
Acer Windows Mixed Reality Headset

Trädvy Permalänk
Medlem
Registrerad
Jun 2015

Mer eller mindre inget. Bara nvidia's egen girighet. De vill tvinga alla att använda sin alternativ istället för att använda öppna standarder.

Case: Fractal Design Define S with 4x Noctua NF-A14 (3x in 1x out)/ Motherboard: Asus Crosshair 6 Hero (6004 Bios) / CPU: AMD Ryzen 7 1700X / CPU Cooler: Noctual NH-D15 / PSU: Corsair RM850 / RAM: Corsair Vengeance LPX DDR4 @3200Hz 16GB (2x8) / GPU: MSI RX Vega 64 with Raijintek Morpheus II with 2x Noctua NF-F12 PWN / Main SSD: Crucial MX300 750 GB / Dropbox SSDs: 2xSamsung 850 EVO 500 GBx2 / Storage HDD: Seagate Barracuda 1TB / 2xSamsung U28E590 + Acer CB290C / Keyboard: Logitech G413 / Mouse: Mission SG GGM 3.5 MMO Mouse

Trädvy Permalänk
Medlem
Registrerad
Apr 2012

Så om en skärm ska få innehålla en gsync-modul får den ej använda någon annan adaptive-sync teknik, inte ens VESA adaptive-sync (vad det nu är)?

9900K | Gigabyte Z390 Auros Pro Wifi | 16 GB Corsair V LPX 3200 | Gigabyte 2080 Ti 11GB Gaming OC | Acer XB271HU
7700K | Asus z270F | Msi 1080 Ti Gaming X
2500K | Asus Z77 | 16 GB | Asus R9 290X
Acer Windows Mixed Reality Headset

Trädvy Permalänk
Medlem
Plats
The Culture
Registrerad
Feb 2013
Skrivet av Bernd_P1:

Mer eller mindre inget. Bara nvidia's egen girighet. De vill tvinga alla att använda sin alternativ istället för att använda öppna standarder.

Eller så kan man uttrycka det som att det är två konkurrerande standarder. Nvidia utvecklade G-Sync på eget bevåg ur egen ficka och vill så klart behålla teknologin för sig själva (de är ett vinstdrivande företag). När AMD såg vad Nvidia lyckats med så lanserade de FreeSync och sedan dess har fanboys forumfäktat...

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Trädvy Permalänk
Medlem
Plats
Finland
Registrerad
Apr 2005

Själva gsync modulen tror jag inte de tjänar så mycket på men att GSYNC kräver nvidia kort och vice versa är mera viktigt för dem och det vill de jätte gärna hålla fast vid även om Nvidia lätt kunde ge stöd i sina kort för Freesync också, så vore det ju som att ge gratis marknadsandelar bort åt konkurrenten typ. Det är vi konsumenter som förlorar som vanligt.

Lustigt hur man lyckats få Nvidia att verka dryg på denna punkt då det var de som först tog fram denna typ av lösning som är en otroligt bra sådan också men så countrade AMD med en öppen gratis standard och får Nvidia att verka dryga då de vägrar ge sig (förstår nog dem men ändå är det lite lustigt det hela).

Det bästa vore om man skulle lyckas få en skaplig sorts standard att kunna mixa både AMD och Nvidia kort med varann och ändå kunna låta båda samarbeta (lite lika som SLI/Crossfire men inte riktigt lika bra optimerat vore förstås att vänta sig), dock har ju Nvidia mera att förlora på det än AMD pga Nvidias gsync är dyrare och icke standard lösning.

Intel® Core i5-4670K @ 4.4GHz | ASRock Z87 Extreme 6 | G.Skill Sniper 2x8GB @ DDR3-1866 CL9 | Samsung 840 Pro 128GB + Evo 850 500GB | Gigabyte GTX 970 G1 (överklockat) | SuperFlower Titanium 1000W | BenQ ZOWIE XL2540 240Hz | Phanteks PH-TC14PE | M-Audio Q40 hörlurar | Logitech MX-518 | Razer Mantis Speed | Windows 10 x64 Professional

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Aug 2007
Skrivet av cyprus:

Så om en skärm ska få innehålla en gsync-modul får den ej använda någon annan adaptive-sync teknik, inte ens VESA adaptive-sync (vad det nu är)?

Adaptive sync = freesync
För AMD så får de det men nVidia vill inte.

Spel: Ryzen 7 1800x, R9 270, 16GB DDR4 Flare X
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, Vega 64
Lista beg. priser GPUer ESD for dummies

Trädvy Permalänk
Medlem
Registrerad
Jun 2015
Skrivet av RPGWiZaRD:

Själva gsync modulen tror jag inte de tjänar så mycket på men att GSYNC kräver nvidia kort och vice versa är mera viktigt för dem och det vill de jätte gärna hålla fast vid även om Nvidia lätt kunde ge stöd i sina kort för Freesync också, så vore det ju som att ge gratis marknadsandelar bort åt konkurrenten typ. Det är vi konsumenter som förlorar som vanligt.

Lustigt hur man lyckats få Nvidia att verka dryg på denna punkt då det var de som först tog fram denna typ av lösning som är en otroligt bra sådan också men så countrade AMD med en öppen gratis standard och får Nvidia att verka dryga då de vägrar ge sig (förstår nog dem men ändå är det lite lustigt det hela).

Det bästa vore om man skulle lyckas få en skaplig sorts standard att kunna mixa både AMD och Nvidia kort med varann och ändå kunna låta båda samarbeta (lite lika som SLI/Crossfire men inte riktigt lika bra optimerat vore förstås att vänta sig), dock har ju Nvidia mera att förlora på det än AMD pga Nvidias gsync är dyrare och icke standard lösning.

var snäll och titta på priserna på skärmarna av samma modell där enda skillnaden är "Freesync" och "G-Sync". bruka hamna runt 2000 till 3000 kr.
så Nvidia tjänner dubbelt och kunden få betala dubbelt. Skärmtillverkaren måste först köpa in G-Sync modulen och ge kostnaden vidare till kunden. så i princip blir det du som betala dubbelt.
men största "skämten" är G-Sync på bärbara. då finns det nämligen ingen modul och man kör det via andra vägar. så finns egentligen ingen ursäkt för modulen annat än att stänga in sina kunder.

Skrivet av Bascule666:

Eller så kan man uttrycka det som att det är två konkurrerande standarder. Nvidia utvecklade G-Sync på eget bevåg ur egen ficka och vill så klart behålla teknologin för sig själva (de är ett vinstdrivande företag). När AMD såg vad Nvidia lyckats med så lanserade de FreeSync och sedan dess har fanboys forumfäktat...

roligt att just du kalla andra för fanboys när det är du som måste komma med ursäkt för ett företag. Finns INGEN anledning varför Nvidia inte kunde stöda både sin egen format och den öppna standarden adaptiv sync.

Case: Fractal Design Define S with 4x Noctua NF-A14 (3x in 1x out)/ Motherboard: Asus Crosshair 6 Hero (6004 Bios) / CPU: AMD Ryzen 7 1700X / CPU Cooler: Noctual NH-D15 / PSU: Corsair RM850 / RAM: Corsair Vengeance LPX DDR4 @3200Hz 16GB (2x8) / GPU: MSI RX Vega 64 with Raijintek Morpheus II with 2x Noctua NF-F12 PWN / Main SSD: Crucial MX300 750 GB / Dropbox SSDs: 2xSamsung 850 EVO 500 GBx2 / Storage HDD: Seagate Barracuda 1TB / 2xSamsung U28E590 + Acer CB290C / Keyboard: Logitech G413 / Mouse: Mission SG GGM 3.5 MMO Mouse

Trädvy Permalänk
Medlem
Registrerad
Apr 2012

Jag vet inte om jag var oklar (C2H5OH). Förbjuder Nvidia explicit skärmtillverkarna att tillämpa Vesa Adaptive Sync (Freesync) om de ska få använda Gsync-modulen i skärmen. Jag förstår att Nvidia (särskilt) och AMD vill låsa in sina grafikkort till en skärm. Men borde inte t.ex Asus eller Acer stödja båda standarder när man ändå har en Gsync-modul i skärmen?

9900K | Gigabyte Z390 Auros Pro Wifi | 16 GB Corsair V LPX 3200 | Gigabyte 2080 Ti 11GB Gaming OC | Acer XB271HU
7700K | Asus z270F | Msi 1080 Ti Gaming X
2500K | Asus Z77 | 16 GB | Asus R9 290X
Acer Windows Mixed Reality Headset

Trädvy Permalänk
Medlem
Registrerad
Apr 2012
Skrivet av Bernd_P1:

Mer eller mindre inget. Bara nvidia's egen girighet. De vill tvinga alla att använda sin alternativ istället för att använda öppna standarder.

Jo jag vet att Nvidia är giriga, men de är ju jäkligt bra också. Jag tycker inte att inlåsningen till skärmar är så jäkla kul. Jag bytte grafikkort från R9 290X (det mest prisvärda jag NÅGONSIN köpt) och en Freesync-skärm (AOC G2460PF), till ett 1080Ti och Gsync ACER XB271HU.

Nu hade jag en del problem med freesync med den skärmen, men uppgraderingen kostade 14666Kr. Alldeles för mycket pengar kan man tycka för tre tum + IPS + en del kraft. Hade varit bra om man kunde slänga i ett AMD NAVI eller någon värsting-GPU från AMD om två år och få adaptive-sync att funka, men icke. Inlåst

9900K | Gigabyte Z390 Auros Pro Wifi | 16 GB Corsair V LPX 3200 | Gigabyte 2080 Ti 11GB Gaming OC | Acer XB271HU
7700K | Asus z270F | Msi 1080 Ti Gaming X
2500K | Asus Z77 | 16 GB | Asus R9 290X
Acer Windows Mixed Reality Headset

Trädvy Permalänk
Medlem
Registrerad
Jun 2015
Skrivet av cyprus:

Jag vet inte om jag var oklar (C2H5OH). Förbjuder Nvidia explicit skärmtillverkarna att tillämpa Vesa Adaptive Sync (Freesync) om de ska få använda Gsync-modulen i skärmen. Jag förstår att Nvidia (särskilt) och AMD vill låsa in sina grafikkort till en skärm. Men borde inte t.ex Asus eller Acer stödja båda standarder när man ändå har en Gsync-modul i skärmen?

Ja och nej. Finns väl inga papper på att Nvidia har direkt förbjudit tillverkarna att få det och funka i samma skärm. Men Tycket att det prata en väldigt tydligt språk när skärm tillverkarna släppa 2 versioner av en skärm, en med freesync och en med g-sync, och enda skillnaden blir vilken teknik som används same att g-sync skärmen i snitt kosta 2000 till 3000 kr mer.
en sak att komma ihåg är också att öppna standarder kosta tillverkarna "inget" då de inte behöver betala någon licensavgift (t.ex. adaptiv sync, Displayport mm) medans slutna standarder också kräver det (t.ex. HDMI, G-sync mm.)

Case: Fractal Design Define S with 4x Noctua NF-A14 (3x in 1x out)/ Motherboard: Asus Crosshair 6 Hero (6004 Bios) / CPU: AMD Ryzen 7 1700X / CPU Cooler: Noctual NH-D15 / PSU: Corsair RM850 / RAM: Corsair Vengeance LPX DDR4 @3200Hz 16GB (2x8) / GPU: MSI RX Vega 64 with Raijintek Morpheus II with 2x Noctua NF-F12 PWN / Main SSD: Crucial MX300 750 GB / Dropbox SSDs: 2xSamsung 850 EVO 500 GBx2 / Storage HDD: Seagate Barracuda 1TB / 2xSamsung U28E590 + Acer CB290C / Keyboard: Logitech G413 / Mouse: Mission SG GGM 3.5 MMO Mouse

Trädvy Permalänk
Medlem
Registrerad
Feb 2012
Skrivet av Bascule666:

Eller så kan man uttrycka det som att det är två konkurrerande standarder. Nvidia utvecklade G-Sync på eget bevåg ur egen ficka och vill så klart behålla teknologin för sig själva (de är ett vinstdrivande företag). När AMD såg vad Nvidia lyckats med så lanserade de FreeSync och sedan dess har fanboys forumfäktat...

Känns konstigt att kalla G-Sync för en standard då den är proprietär. (för NVidia kanske det är en standard men inte för resten av världen)
VESA är en internationell standard, AMD använder sig av Adaptive Sync standarden (lanserades även tillsammans med DP 1.2a) så nej jag tror inte att AMD blev avundsjuka och helt plötsligt utvecklade och lanserade en ny standard tillsammans med VESA som dom kort därefter använde sig av.

AMD kallar sin implementering av Adaptive Sync för FreeSync, kravet är GPU med stöd/DP1.2a, nästa generation av FreeSync kallas FreeSync2 kravet där är antagligen bara hårdare krav på skärmtillverkaren (latenser, upplösning med mera) så att användare ska få en bättre upplevelse.

NVidia hade väll 90% av marknaden en gång i tiden och dom har säkert behållt, blir isf en väldigt ensidig forumfäktning där 9/10 har ett NVidia kort och det bör ju knappt existera, men gång på gång så är AMD trådarna fyllda med rappakalja, man kan ju undra var det kommer ifrån.

Trädvy Permalänk
Medlem
Plats
Finland
Registrerad
Apr 2005
Skrivet av Bernd_P1:

var snäll och titta på priserna på skärmarna av samma modell där enda skillnaden är "Freesync" och "G-Sync". bruka hamna runt 2000 till 3000 kr.
så Nvidia tjänner dubbelt och kunden få betala dubbelt. Skärmtillverkaren måste först köpa in G-Sync modulen och ge kostnaden vidare till kunden. så i princip blir det du som betala dubbelt.
men största "skämten" är G-Sync på bärbara. då finns det nämligen ingen modul och man kör det via andra vägar. så finns egentligen ingen ursäkt för modulen annat än att stänga in sina kunder.

Men min poäng här som jag trodde jag inte skulle behöva förklara i detalj då jag tycker det är så självklart att mängden GSYNC moduler/skärmar som säljs är försvinnande liten i förhållande till antalet GPUer som företaget säljer. Att utveckla GSYNC har ju kostat och kostar dem en hel del också, Nvidia har alla möjliga system som GameWorks, HairWorks, PhysX förut osv. vars huvudsakliga syfte är att locka till sig fler kunder så marknadsandelarna för GPUerna växer, GSYNC har också samma syfte, att stärka GPU försäljningen, det är hur Nvidia fungerar och AMD kontrade med Freesync för det var såpass nyttig egenskap att de blev rädda att de skulle förlora lite kunder annars då det är ju klart att Nvidia aldrig skulle ge AMDs kort stöd för GSYNC även om det är tekniskt möjligt.

Jag försvarar inte Nvidia men jag ville korrigera att Nvidia knappast tjänar någon betydlig summa på antalet sålda gsync moduler, utan det är bara ett sätt bland många andra att försöka locka till sig mera GPU kunder. Hade AMD kommit ut med tekniken först hade de varit i samma position som Nvidia är nu med att inte ge någon alls stöd åt sin konkurrent, de gör inte gentjänster åt varandra då man tävlar om samma kunder. Som sagt därför är konsumenterna förlorarna. Lösningen borde ha först kommit från skärmtillverkarna eller som display standard för att vi skulle ha undvikit dessa två läger.

Sen är det ju förstås taktiskt smart att AMD drar nytta av VESA Freesync standarden istället för att utveckla en egen propritär lösning till GSYNC, det ligger i deras taktik just nu att försöka få Nvidia se ut som den stora stygga vargen som mjölkar kunder och är giriga.

Intel® Core i5-4670K @ 4.4GHz | ASRock Z87 Extreme 6 | G.Skill Sniper 2x8GB @ DDR3-1866 CL9 | Samsung 840 Pro 128GB + Evo 850 500GB | Gigabyte GTX 970 G1 (överklockat) | SuperFlower Titanium 1000W | BenQ ZOWIE XL2540 240Hz | Phanteks PH-TC14PE | M-Audio Q40 hörlurar | Logitech MX-518 | Razer Mantis Speed | Windows 10 x64 Professional

Trädvy Permalänk
Medlem
Registrerad
Jun 2015
Skrivet av RPGWiZaRD:

Men min poäng här som jag trodde jag inte skulle behöva förklara i detalj då jag tycker det är så självklart att mängden GSYNC moduler/skärmar som säljs är försvinnande liten i förhållande till antalet GPUer som företaget säljer. Att utveckla GSYNC har ju kostat och kostar dem en hel del också, Nvidia har alla möjliga system som GameWorks, HairWorks, PhysX förut osv. vars huvudsakliga syfte är att locka till sig fler kunder så marknadsandelarna för GPUerna växer, GSYNC har också samma syfte, att stärka GPU försäljningen, det är hur Nvidia fungerar och AMD kontrade med Freesync för det var såpass nyttig egenskap att de blev rädda att de skulle förlora lite kunder annars då det är ju klart att Nvidia aldrig skulle ge AMDs kort stöd för GSYNC även om det är tekniskt möjligt.

Jag försvarar inte Nvidia men jag ville korrigera att Nvidia knappast tjänar någon betydlig summa på antalet sålda gsync moduler, utan det är bara ett sätt bland många andra att försöka locka till sig mera GPU kunder. Hade AMD kommit ut med tekniken först hade de varit i samma position som Nvidia är nu med att inte ge någon alls stöd åt sin konkurrent, de gör inte gentjänster åt varandra då man tävlar om samma kunder. Som sagt därför är konsumenterna förlorarna. Lösningen borde ha kommit från skärmtillverkarna för att vi skulle ha undvikit dessa två läger.

Nej. bara nej. nvidia har inte tagit fram PhysX. dem har bara köpt upp det:
https://en.wikipedia.org/wiki/PhysX
dessutom har dem blockerat PhysX för AMD användare. Innan Nvidia köpte upp det så funkade fint att köra PhysX även på AMD's GPU:er. Men sen stängde Nvidia av den funktionen. vilket också leda till att PhysX belasta CPU:n mer vilket leda till prestandasförlust för AMD GPU:er.
Och nej, AMD "kontrade" inte med Freesync. Freesync är bara AMD's merknadsföringsnamn på den öppna adaptive v-sync standarden. se även inlägget ovanför din.

Case: Fractal Design Define S with 4x Noctua NF-A14 (3x in 1x out)/ Motherboard: Asus Crosshair 6 Hero (6004 Bios) / CPU: AMD Ryzen 7 1700X / CPU Cooler: Noctual NH-D15 / PSU: Corsair RM850 / RAM: Corsair Vengeance LPX DDR4 @3200Hz 16GB (2x8) / GPU: MSI RX Vega 64 with Raijintek Morpheus II with 2x Noctua NF-F12 PWN / Main SSD: Crucial MX300 750 GB / Dropbox SSDs: 2xSamsung 850 EVO 500 GBx2 / Storage HDD: Seagate Barracuda 1TB / 2xSamsung U28E590 + Acer CB290C / Keyboard: Logitech G413 / Mouse: Mission SG GGM 3.5 MMO Mouse

Trädvy Permalänk
Medlem
Registrerad
Apr 2012

Så det är alltså skärmtillverkarna som vill tjäna pengar på olika modeller som inte stödjer båda tekniker. Nvidia har inget att säga till om, de bara säljer sin GSync-modul till skärmtillverkarna utan krav. Jag pratar om skärmtillverkare INTE grafikkort. Har man en Gsync-modul i skärmen borde det vara trivialt för en skärmtillverkare att stödja Adaptive Sync (eller Freesync) genom Displayport kan man tycka.

9900K | Gigabyte Z390 Auros Pro Wifi | 16 GB Corsair V LPX 3200 | Gigabyte 2080 Ti 11GB Gaming OC | Acer XB271HU
7700K | Asus z270F | Msi 1080 Ti Gaming X
2500K | Asus Z77 | 16 GB | Asus R9 290X
Acer Windows Mixed Reality Headset

Trädvy Permalänk
Medlem
Registrerad
Jun 2015
Skrivet av cyprus:

Så det är alltså skärmtillverkarna som vill tjäna pengar på olika modeller som inte stödjer båda tekniker. Nvidia har inget att säga till om, de bara säljer sin GSync-modul till skärmtillverkarna utan krav. Jag pratar om skärmtillverkare INTE grafikkort. Har man en Gsync-modul i skärmen borde det vara trivialt för en skärmtillverkare att stödja Adaptive Sync (eller Freesync) genom Displayport kan man tycka.

åter igen. finns inga direkta bevis för det då papper som skulle bevisa det står under NDA. men tror inte att tillverkarna är så jätte sugen att tillverka 2 exakt lika skärmar bara att en har en viss modul i sig. det är bara extra kostnader för de. de skulle nog blir jätte glad om dem slapp det och kunde göra en skärm som stödja båda. Så finns igen väg att säga det med 100% säkerhet men det är nog Nvidia som är boven då dem inte vill stödja öppna standarder som är fritt för skärmtillverkarna att använda.

Case: Fractal Design Define S with 4x Noctua NF-A14 (3x in 1x out)/ Motherboard: Asus Crosshair 6 Hero (6004 Bios) / CPU: AMD Ryzen 7 1700X / CPU Cooler: Noctual NH-D15 / PSU: Corsair RM850 / RAM: Corsair Vengeance LPX DDR4 @3200Hz 16GB (2x8) / GPU: MSI RX Vega 64 with Raijintek Morpheus II with 2x Noctua NF-F12 PWN / Main SSD: Crucial MX300 750 GB / Dropbox SSDs: 2xSamsung 850 EVO 500 GBx2 / Storage HDD: Seagate Barracuda 1TB / 2xSamsung U28E590 + Acer CB290C / Keyboard: Logitech G413 / Mouse: Mission SG GGM 3.5 MMO Mouse

Trädvy Permalänk
Medlem
Plats
The Culture
Registrerad
Feb 2013
Skrivet av Bernd_P1:

var snäll och titta på priserna på skärmarna av samma modell där enda skillnaden är "Freesync" och "G-Sync". bruka hamna runt 2000 till 3000 kr.
så Nvidia tjänner dubbelt och kunden få betala dubbelt. Skärmtillverkaren måste först köpa in G-Sync modulen och ge kostnaden vidare till kunden. så i princip blir det du som betala dubbelt.
men största "skämten" är G-Sync på bärbara. då finns det nämligen ingen modul och man kör det via andra vägar. så finns egentligen ingen ursäkt för modulen annat än att stänga in sina kunder.

roligt att just du kalla andra för fanboys när det är du som måste komma med ursäkt för ett företag. Finns INGEN anledning varför Nvidia inte kunde stöda både sin egen format och den öppna standarden adaptiv sync.

Skrivet av cyprus:

Jo jag vet att Nvidia är giriga, men de är ju jäkligt bra också. Jag tycker inte att inlåsningen till skärmar är så jäkla kul. Jag bytte grafikkort från R9 290X (det mest prisvärda jag NÅGONSIN köpt) och en Freesync-skärm (AOC G2460PF), till ett 1080Ti och Gsync ACER XB271HU.

Nu hade jag en del problem med freesync med den skärmen, men uppgraderingen kostade 14666Kr. Alldeles för mycket pengar kan man tycka för tre tum + IPS + en del kraft. Hade varit bra om man kunde slänga i ett AMD NAVI eller någon värsting-GPU från AMD om två år och få adaptive-sync att funka, men icke. Inlåst

Skrivet av lappen81:

Eh va?

Jag tror inte att du kan kalla G-Sync för en standard om den är proprietär. (för NVidia kanske det är en standard men inte för resten av världen)
VESA är en internationell standard, AMD använder sig av Adaptive Sync standarden (lanserades även tillsammans med DP 1.2a) så nej jag tror inte att AMD blev avundsjuka och helt plötsligt utvecklade och lanserade en ny standard kort därefter.

AMD kallar sin implementering av Adaptive Sync för FreeSync, kravet är GPU med stöd/DP1.2a, nästa generation av FreeSync kallas FreeSync2 kravet där är antagligen bara hårdare krav på skärmtillverkaren (latenser, upplösning med mera) så att användare ska få en bättre upplevelse.

NVidia hade väll 90% av marknaden en gång i tiden och dom har säkert behållt, blir isf en väldigt ensidig forumfäktning där 9/10 har ett NVidia kort

Alltså, nu ska vi ta det lite lugnt här...

Du har ett företag som lägger ner X antal miljoner dollar på att utveckla en helt ny teknologi för att synkronisera grafikkortets output med skärmens input, en innovation som gör en extremt stor skillnad för alla som spelar spel på PC. Vad man kommer fram till att för att få den bästa prestandan och det mest konsekventa resultatet är att skärmen behöver en ny kretsuppsättning som ditt företag tillhandahåller. Priset är X dollar. Du jobbar intimt med skärmtillverkarna för att nå optimala resultat. Allt detta har kostat dig en bra hög med pengar.

Några månader senare kommer en konkurrent med en hyfsad kopia av din ansträngning. Inte lika bra men utan behov av extra kretsar i skärmarna. Lösningen är ganska ok men med en del problem. Samarbete mellan "uppfinnaren" av standarden och skärmtillverkarna är ganska skakig, minst sagt.

Varför i hela friden skulle du låta din konkurrent få del av kakan? Om man är idealist och värnar om öppen mjukvara kanske detta är en konstig fråga men Nvidia lever på att tjäna pengar precis som ALLA andra bolag. Varför skulle man släppa några innovationer gratis, det vore fullständigt korkat.

Det är därför Nvidia aldrig kommer att köra Adaptive Sync och för att få glädjen av att köra G-Sync så får du betala vad det kostar. Med tanke på att G-Sync har funkat så otroligt mycket bättre än FreeSync sedan det släpptes är jag beredd att säga att det var värt det. Inga barnsjukdomar, inga "mystiska" skuggningar", inga sladdproblem, mm. mm. G-Sync funkar rakt av utan strul men med en högre prislapp, du väljer vad som är värt mest.

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Trädvy Permalänk
Medlem
Registrerad
Apr 2012
Skrivet av Bascule666:

Alltså, nu ska vi ta det lite lugnt här...

Du har ett företag som lägger ner X antal miljoner dollar på att utveckla en helt ny teknologi för att synkronisera grafikkortets output med skärmens input, en innovation som gör en extremt stor skillnad för alla som spelar spel på PC. Vad man kommer fram till att för att få den bästa prestandan och det mest konsekventa resultatet är att skärmen behöver en ny kretsuppsättning som ditt företag tillhandahåller. Priset är X dollar. Du jobbar intimt med skärmtillverkarna för att nå optimala resultat. Allt detta har kostat dig en bra hög med pengar.

Några månader senare kommer en konkurrent med en hyfsad kopia av din ansträngning. Inte lika bra men utan behov av extra kretsar i skärmarna. Lösningen är ganska ok men med en del problem. Samarbete mellan "uppfinnaren" av standarden och skärmtillverkarna är ganska skakig, minst sagt.

Varför i hela friden skulle du låta din konkurrent få del av kakan? Om man är idealist och värnar om öppen mjukvara kanske detta är en konstig fråga men Nvidia lever på att tjäna pengar precis som ALLA andra bolag. Varför skulle man släppa några innovationer gratis, det vore fullständigt korkat.

Det är därför Nvidia aldrig kommer att köra Adaptive Sync och för att få glädjen av att köra G-Sync så får du betala vad det kostar. Med tanke på att G-Sync har funkat så otroligt mycket bättre än FreeSync sedan det släpptes är jag beredd att säga att det var värt det. Inga barnsjukdomar, inga "mystiska" skuggningar", inga sladdproblem, mm. mm. G-Sync funkar rakt av utan strul men med en högre prislapp, du väljer vad som är värt mest.

Nej jag struntar i om Nvidia stödjer Freesync Lsync eller Psync likaså om AMD skulle betala Nvidia för att stödja Gsync. Jag pratar om att SKÄRMTILLVERKARNA ej får stödja annat än G-sync på en G-sync skärm. Är det fastslaget att Nvidia håller skärmtillverkarna i ett strupgrepp vad gäller G-sync och att släppa in annan teknik?

9900K | Gigabyte Z390 Auros Pro Wifi | 16 GB Corsair V LPX 3200 | Gigabyte 2080 Ti 11GB Gaming OC | Acer XB271HU
7700K | Asus z270F | Msi 1080 Ti Gaming X
2500K | Asus Z77 | 16 GB | Asus R9 290X
Acer Windows Mixed Reality Headset

Trädvy Permalänk
Medlem
Plats
I en byhåla
Registrerad
Feb 2010
Skrivet av Bernd_P1:

Mer eller mindre inget. Bara nvidia's egen girighet. De vill tvinga alla att använda sin alternativ istället för att använda öppna standarder.

Tycker öppna källor har ofta mer problem än sin egen exklusiva av densamme.

G-Sync är kung!

Nuvarande PC -> 4670k - 16GB RAM - GTX 980Ti - EVGA Supernova G2 750W
Uppgradering 2018 -> 6850k - MSI x99a Goodlike Gaming - 64GB@3000MHz - M.2 SSD - 2TB SSD
Konsoler -> PS4 Pro - Xbox One X

Trädvy Permalänk
Medlem
Plats
-
Registrerad
Sep 2004
Skrivet av cyprus:

Så det är alltså skärmtillverkarna som vill tjäna pengar på olika modeller som inte stödjer båda tekniker. Nvidia har inget att säga till om, de bara säljer sin GSync-modul till skärmtillverkarna utan krav. Jag pratar om skärmtillverkare INTE grafikkort. Har man en Gsync-modul i skärmen borde det vara trivialt för en skärmtillverkare att stödja Adaptive Sync (eller Freesync) genom Displayport kan man tycka.

Såvitt jag förstår så är "Gsync-modulen" i praktiken en komplett ersättare till panelens ordinarie drivkretsar, och såvitt jag läst är Nvidia rätt strikta kring hur skärmtillverkarna får använda modulen.
Allt sker i nära samarbete med Nvidia, och de slutvaliderar den färdiga produkten... Och jag gissar att de även har restriktioner på att skärmtillverkaren inte får bygga på någon extra funktionalitet "utanför" gsync-modulen.
Dvs Nvidia snarare än skärmtillverkarna är "boven" i det här dramat såvitt jag uppfattat det hela.

maybe i'm a one trick pony
but i ride it ride it ride it ride it
ride it honey

Trädvy Permalänk
Medlem
Plats
The Culture
Registrerad
Feb 2013
Skrivet av cyprus:

Nej jag struntar i om Nvidia stödjer Freesync Lsync eller Psync likaså om AMD skulle betala Nvidia för att stödja Gsync. Jag pratar om att SKÄRMTILLVERKARNA ej får stödja annat än G-sync på en G-sync skärm. Är det fastslaget att Nvidia håller skärmtillverkarna i ett strupgrepp vad gäller G-sync och att släppa in annan teknik?

Vet ej

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Trädvy Permalänk
Medlem
Registrerad
Apr 2012
Skrivet av Roger W:

Såvitt jag förstår så är "Gsync-modulen" i praktiken en komplett ersättare till panelens ordinarie drivkretsar, och såvitt jag läst är Nvidia rätt strikta kring hur skärmtillverkarna får använda modulen.
Allt sker i nära samarbete med Nvidia, och de slutvaliderar den färdiga produkten... Och jag gissar att de även har restriktioner på att skärmtillverkaren inte får bygga på någon extra funktionalitet "utanför" gsync-modulen.
Dvs Nvidia snarare än skärmtillverkarna är "boven" i det här dramat såvitt jag uppfattat det hela.

Så Nvidia har skärmtillverkarna i ett punggrepp. (Eller strupgrepp, eller något annat slags grepp.)

9900K | Gigabyte Z390 Auros Pro Wifi | 16 GB Corsair V LPX 3200 | Gigabyte 2080 Ti 11GB Gaming OC | Acer XB271HU
7700K | Asus z270F | Msi 1080 Ti Gaming X
2500K | Asus Z77 | 16 GB | Asus R9 290X
Acer Windows Mixed Reality Headset

Trädvy Permalänk
Medlem
Plats
The Culture
Registrerad
Feb 2013
Skrivet av cyprus:

Nej jag struntar i om Nvidia stödjer Freesync Lsync eller Psync likaså om AMD skulle betala Nvidia för att stödja Gsync. Jag pratar om att SKÄRMTILLVERKARNA ej får stödja annat än G-sync på en G-sync skärm. Är det fastslaget att Nvidia håller skärmtillverkarna i ett strupgrepp vad gäller G-sync och att släppa in annan teknik?

Nej! Det är inte fastslaget.

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Trädvy Permalänk
Medlem
Registrerad
Jun 2015
Skrivet av Sebastian V:

Tycker öppna källor har ofta mer problem än sin egen exklusiva av densamme.

G-Sync är kung!

kanske dags att uppgradera för dig till Windows 10 S då

https://www.microsoft.com/sv-se/windows/windows-10-s

tänk och slippa alla dessa förbaskade öppna program och alla risker de innebär.

du få bara använda det som finns i windows store dvs det microsoft har godkänt.

låter ju perfekt för dig

Case: Fractal Design Define S with 4x Noctua NF-A14 (3x in 1x out)/ Motherboard: Asus Crosshair 6 Hero (6004 Bios) / CPU: AMD Ryzen 7 1700X / CPU Cooler: Noctual NH-D15 / PSU: Corsair RM850 / RAM: Corsair Vengeance LPX DDR4 @3200Hz 16GB (2x8) / GPU: MSI RX Vega 64 with Raijintek Morpheus II with 2x Noctua NF-F12 PWN / Main SSD: Crucial MX300 750 GB / Dropbox SSDs: 2xSamsung 850 EVO 500 GBx2 / Storage HDD: Seagate Barracuda 1TB / 2xSamsung U28E590 + Acer CB290C / Keyboard: Logitech G413 / Mouse: Mission SG GGM 3.5 MMO Mouse

Trädvy Permalänk
Medlem
Registrerad
Jun 2015
Skrivet av cyprus:

Så Nvidia har skärmtillverkarna i ett punggrepp. (Eller strupgrepp, eller något annat slags grepp.)

troligen ja. har dem gjord såna avtal med tillverkarna så dem mest troligen under NDA (Non-disclosure agreement) dvs skulle tillverkarna berätta att Nvida förbjuder de att använda G-Sync och Adaptiv Sync i samma skärm så kommer Nvidia stämmer de.

Case: Fractal Design Define S with 4x Noctua NF-A14 (3x in 1x out)/ Motherboard: Asus Crosshair 6 Hero (6004 Bios) / CPU: AMD Ryzen 7 1700X / CPU Cooler: Noctual NH-D15 / PSU: Corsair RM850 / RAM: Corsair Vengeance LPX DDR4 @3200Hz 16GB (2x8) / GPU: MSI RX Vega 64 with Raijintek Morpheus II with 2x Noctua NF-F12 PWN / Main SSD: Crucial MX300 750 GB / Dropbox SSDs: 2xSamsung 850 EVO 500 GBx2 / Storage HDD: Seagate Barracuda 1TB / 2xSamsung U28E590 + Acer CB290C / Keyboard: Logitech G413 / Mouse: Mission SG GGM 3.5 MMO Mouse

Trädvy Permalänk
Bildexpert 📺
Thomas Ytterberg
Registrerad
Mar 2013

G-sync är rätt mycket mer än enbart själva adaptiva synkroniseringen. Det är en bokstavlig G-sync-modul med komplett kretsuppsättning/scaler som reglerar hela panelen. Så att konstruera en skärm som är både och är ungefär lika praktiskt som ett moderkort som har dubbla CPU-socklar och dubbla kretsuppsättningar för att köra både AMD och Intel samtidigt.

Det gör man inte. Man bygger två separat datorer istället. Ena baserad på Intel och andra på AMD. Samma sak hos skärmtillverkarna. Man bygger två separata skärmar istället. En skärm baserad på G-Syncmodulen och den andra på någon annan tillverkares kretsuppsättningar och scaler.

Det är också förklaringen till att nya G-Sync-modeller är likadana i fråga om anslutningar med en enda Displayport och en enda strypt HDMI. Det är vad Nvidia ger med G-Syncmodulen. Kör man något annat kan man ha anslutningar lite som man vill.

Trädvy Permalänk
Medlem
Registrerad
Apr 2012
Skrivet av Laxpudding:

G-sync är rätt mycket mer än enbart själva adaptiva synkroniseringen. Det är en bokstavlig G-sync-modul med komplett kretsuppsättning/scaler som reglerar hela panelen. Så att konstruera en skärm som är både och är ungefär lika praktiskt som ett moderkort som har dubbla CPU-socklar och dubbla kretsuppsättningar för att köra både AMD och Intel samtidigt.

Det gör man inte. Man bygger två separat datorer istället. Ena baserad på Intel och andra på AMD. Samma sak hos skärmtillverkarna. Man bygger två separata skärmar istället. En skärm baserad på G-Syncmodulen och den andra på någon annan tillverkares kretsuppsättningar och scaler.

Det är också förklaringen till att nya G-Sync-modeller är likadana i fråga om anslutningar med en enda Displayport och en enda strypt HDMI. Det är vad Nvidia ger med G-Syncmodulen. Kör man något annat kan man ha anslutningar lite som man vill.

Varför skulle inte en premium skärm från någon tillverkare och då pratar vi om >10000kr kunna stödja båda standarder. Jag vet att att Gsync är en separat modul ( den fanns väl till och med att köpa och installera på någon Asus-skärm till en början). Jag tycker inte din jämförelse med dubbla CPU-socklar och dubbla kretsuppsättningar kostnadsmässigt kan jämföras med G-sync modul plus en scaler för freesync. Jag tror skärmtillverkarna tyvärr har ett avtal med Nvidia. Vill ni ha G-sync-modul i er skärm så gäller den tekniken och igen annan.

9900K | Gigabyte Z390 Auros Pro Wifi | 16 GB Corsair V LPX 3200 | Gigabyte 2080 Ti 11GB Gaming OC | Acer XB271HU
7700K | Asus z270F | Msi 1080 Ti Gaming X
2500K | Asus Z77 | 16 GB | Asus R9 290X
Acer Windows Mixed Reality Headset

Trädvy Permalänk
Medlem
Plats
Sverige
Registrerad
Sep 2002
Skrivet av Herr Kantarell:

Adaptive sync = freesync
För AMD så får de det men nVidia vill inte.

Adaptive-Sync och FreeSync inte samma sak, men de bygger på samma teknik.

"Could you please explain the difference between AMD FreeSync and VESA Adaptive-Sync?
– VESA DisplayPort Adaptive-Sync is a new component of the DisplayPort 1.2a specification that allows a graphics card to control the refresh rate of a display over a DisplayPort link. As it seems there is some confusion, I want to emphasize that DisplayPort Adaptive-Sync is not FreeSync. By itself, DisplayPort Adaptive-Sync is a building block that provides a standard framework a source device, e.g. a graphics card, can depend on to execute dynamic refresh rates.
DisplayPort Adaptive-Sync is an important development in our industry, however, because there now exists an industry-standard framework that dynamic refresh rate technologies, like Project FreeSync, can rely on to deliver end-user benefits: no tearing, minimal input latency, smooth framerates, etc. Make no mistake, providing dynamic refresh rates to users still takes a lot of ‘secret sauce’ from the hardware and software ends of our products, including the correct display controllers in the hardware and the right algorithms in AMD Catalyst."

https://linustechtips.com/main/topic/155709-amd-freesync-inte...

Intel Core i5 8400 * Corsair LPX 16GB 3000MHz * MSI Z370 Gaming Pro Carbon * Gigabyte Aorus GTX 1080Ti * Samsung 970 EVO 500GB + Samsung 850 EVO 250GB + Samsung 860 EVO 500GB * Fractal Design Define S * Corsair RM750x

Trädvy Permalänk
Bildexpert 📺
Thomas Ytterberg
Registrerad
Mar 2013
Skrivet av cyprus:

Jag tror skärmtillverkarna tyvärr har ett avtal med Nvidia. Vill ni ha G-sync-modul i er skärm så gäller den tekniken och igen annan.

Så kan det säkert vara. Teknik, affärer och avtal går hand i hand. Produktegenskaper är resultat av såväl tekniska som ekonomiska och marknadsmässiga beslut. Jag skulle till och med säga att G-sync är steget längre, att det är Nvidia som i hög grad utvecklar G-sync-skärmen åt tillverkarna.

Men det är fortfarande ett praktisk teknisk hinder att bygga en skärm som låter dig välja mellan två olika scalers och kretsuppsättningar. Det har hittills mig veterligen aldrig tillverkats någon kommersiell produkt avsedd för en volymmarknad som har den möjligheten. Precis som med moderkort som hanterar två olika sorters CPU:er från två olika tillverkare samtidigt. Hur många sådana finns det?