Permalänk
Entusiast
Skrivet av Oggaaaa:

Fattar inte hypen riktigt. Det är ju bara att låsa fps:en till 120 så blir det ju samma sak. Sen så är det inte så mkt tearing om man har över 120fps på en 120hz.

Är väl beredd att hålla med här faktiskt.
När man låser FPS:en till 120/144FPS på en skärm som klarar det så är tearingen nästan obefintlig men då måste man också ha hästkrafterna för att få så hög FPS och det kan man ju se som en nackdel.

Det blir nog ett köp av G-sync skärm med 3840x2160@60Hz-upplösning för mig

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Avstängd
Skrivet av furuliden:

Snackar du om FPS limit? Det hjälper inte ett dugg mot screen tearing.
Sedan så får man andra fördelar med G-sync samt light boost. Bilden kommer bli mycket skarpare och tydligare. Du får även bra flyt vid låga fps med G-sync.

Det finns inget bra flyt med låg fps.

Visa signatur

FD refine S Msi x99s sli plus 5930k@4400mhz NH-D14 Asus GTX 980 Strix SLI 16gb gskill ripjaws ddr4 3ghz Os Samsung 950 pro 512gb NVME Spel samsung 840/850 evo/pro Win 10 Pro Corsair Ax850 Gold Asus PG278Q Rog Swift

Permalänk
Inaktiv
Skrivet av Tumnus:

Har aldrig resonerat hur smart det är eller hur ekonomiskt det är. Tycker det är synd ur en entusiastsynpunkt. Man ska sträva efter öppenhet för det gynnar entusiasterna och marknaden generellt. Därför gillar jag AMDs upplägg bättre med Mantle och TressFX.

ja jag tycker också att de ska vara fritt fram för amd att utnyttja tekniken då jag föredrar dem men jag som försäljare skulle aldrig ge bort någonting gratis till min ända konkurrent.. de skulle få in fan så mycket mindre pengar, de är väl mäst pga physx och 3d grejen som folk är så kåta på nvidia.. (utom fanboys)

Permalänk
Avstängd
Skrivet av mikegnorp:

G-Sync är hårdvara och bara hårdvara. Lägger man ner några miljoner $ i utveckling så vill man ha tillbaka de ingenjörs timmarna och inte genast ge bort ritningen till värsta konkurrenten. Fråga Intel om de vill ge bort konstuktionsritningen till Haswell till AMD.

Nu håller inte det resonemanget heller eftersom Nvidia inte licensierar ut tekniken (vilket hade varit någorlunda bra iallafall) utan LÅSER IN HELA tekniken till att BARA fungera på Nvidias GPU. Sedan så håller inte heller din jämförelse. Haswell är en arkitektur som både kostar många gånger mer och är dessutom betydligt mer komplex än vad G-sync är.

Alltså min åsikt är..

Tjäna pengar på tekniken? Inget emot.
Låsa in en teknik bara för att AMD inte ska ens få en chans att få den? Helt emot. Är inte bra för marknaden eller framtiden. Nvidia nischar medvetet sina produkter till den gräns att man undrar om de är medvetna om att de dödar sin egen teknologi. Se vad som hände med PhysX.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Inaktiv
Skrivet av Tumnus:

Nu håller inte det resonemanget heller eftersom Nvidia inte licensierar ut tekniken (vilket hade varit någorlunda bra iallafall) utan LÅSER IN HELA tekniken till att BARA fungera på Nvidias GPU. Sedan så håller inte heller din jämförelse. Haswell är en arkitektur som både kostar många gånger mer och är dessutom betydligt mer komplex än vad G-sync är.

Alltså min åsikt är..

Tjäna pengar på tekniken? Inget emot.
Låsa in en teknik bara för att AMD inte ska ens få en chans att få den? Helt emot. Är inte bra för marknaden eller framtiden. Nvidia nischar medvetet sina produkter till den gräns att man undrar om de är medvetna om att de dödar sin egen teknologi. Se vad som hände med PhysX.

svårt att tänka mig att någon tycker att det är bra det vi argumenterar emot om är att det är självklart att de gärna försöker vara de ända som säljer grafikkort.
ursäkta om de känns som påhopp men tycker att diskussionen e lite underlig när folk missuppfattas hela tiden

Permalänk

Läste att G-sync korten kommer kosta runt 1000 lappen.
Köp en 144hz från Asus som kommer vara kompatibel med G-sync när det kommer?
Det finns ju redan två skärmar de gått ut med och sagt att de kommer klara av g-sync..
Självklart är det värt med en 120/144 om du har en 60 - 75hz idag

Visa signatur

citera för svar
Glassbilen spelar bara när det är helt slut på glass

Permalänk
Skrivet av Tumnus:

Nu håller inte det resonemanget heller eftersom Nvidia inte licensierar ut tekniken (vilket hade varit någorlunda bra iallafall) utan LÅSER IN HELA tekniken till att BARA fungera på Nvidias GPU. Sedan så håller inte heller din jämförelse. Haswell är en arkitektur som både kostar många gånger mer och är dessutom betydligt mer komplex än vad G-sync är.

Alltså min åsikt är..

Tjäna pengar på tekniken? Inget emot.
Låsa in en teknik bara för att AMD inte ska ens få en chans att få den? Helt emot. Är inte bra för marknaden eller framtiden. Nvidia nischar medvetet sina produkter till den gräns att man undrar om de är medvetna om att de dödar sin egen teknologi. Se vad som hände med PhysX.

Eftersom tekniken är helt ny och delvis oprövad så har nVidia inte funderat på licensiering ännu, enligt Tom Petersen på nVidia, men han utesluter det inte.
Eftersom G-sync tekniken går ut på att GPUn bestämmer när skärmen skall uppdatera och inte som det är idag, att skärmen uppdaterar sig efter bestämda intervall, så är teknikern djupt förankrad i GPUn och man kan ju förstå att nVidia inte har varit ute och handlat AMD kort och skruvar i dom, "just for kicks".

Och varför skulle inte jämförselsen med Intel inte hålla?? Jag tror nog att tekniken och utvecklingskostanden är dyr och avancerad nog för att man inte skall ge bort den. Tycker jämförselsen är klockren. Sen kan jag hålla med om att det är farligt att hålla det alldeles för sig självt. Men om det funkar lika bra som man kan hoppas är utvecklingspotentialen enorm. Tänk på på plattor och mobiler. Skulle spara mycket batteri mm om man förminskar g-sync för att passa sådana prylar.

Permalänk
Skrivet av jonas1972:

Det finns inget bra flyt med låg fps.

Med G-sync jo, och inom rimliga gränser. 40 fps med G-Sync blir som 60 fps utan G-Sync.

Permalänk
Avstängd
Skrivet av mikegnorp:

Eftersom tekniken är helt ny och delvis oprövad så har nVidia inte funderat på licensiering ännu, enligt Tom Petersen på nVidia, men han utesluter det inte.
Eftersom G-sync tekniken går ut på att GPUn bestämmer när skärmen skall uppdatera och inte som det är idag, att skärmen uppdaterar sig efter bestämda intervall, så är teknikern djupt förankrad i GPUn och man kan ju förstå att nVidia inte har varit ute och handlat AMD kort och skruvar i dom, "just for kicks".

Och varför skulle inte jämförselsen med Intel inte hålla?? Jag tror nog att tekniken och utvecklingskostanden är dyr och avancerad nog för att man inte skall ge bort den. Tycker jämförselsen är klockren. Sen kan jag hålla med om att det är farligt att hålla det alldeles för sig självt. Men om det funkar lika bra som man kan hoppas är utvecklingspotentialen enorm. Tänk på på plattor och mobiler. Skulle spara mycket batteri mm om man förminskar g-sync för att passa sådana prylar.

Sett till historik så skulle det förvåna mig ganska rejält om Nvidia licensierar ut G-sync. Haswell och G-Sync är som äpplon och päron.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av mikegnorp:

Eftersom tekniken är helt ny och delvis oprövad så har nVidia inte funderat på licensiering ännu, enligt Tom Petersen på nVidia, men han utesluter det inte.
Eftersom G-sync tekniken går ut på att GPUn bestämmer när skärmen skall uppdatera och inte som det är idag, att skärmen uppdaterar sig efter bestämda intervall, så är teknikern djupt förankrad i GPUn och man kan ju förstå att nVidia inte har varit ute och handlat AMD kort och skruvar i dom, "just for kicks".

Och varför skulle inte jämförselsen med Intel inte hålla?? Jag tror nog att tekniken och utvecklingskostanden är dyr och avancerad nog för att man inte skall ge bort den. Tycker jämförselsen är klockren. Sen kan jag hålla med om att det är farligt att hålla det alldeles för sig självt. Men om det funkar lika bra som man kan hoppas är utvecklingspotentialen enorm. Tänk på på plattor och mobiler. Skulle spara mycket batteri mm om man förminskar g-sync för att passa sådana prylar.

Djupt förankrad i GPU? komigen, detta är bara data som skickas till skärmen som säger till att skärmen skall uppdatera sig. Förmodligen har de en skärm som är helt enkelt interrupt baserad och ritar om så fort den får ett interrupt från GPUn.

Detta är exakt samma sak som nVidia har gjort på alla andra områden. CUDA? PhysX? OC nedlåsning på Linux?, Linux drivrutinen som begränsas bara för att vara under Windows versionen? Listan kan göras bra lång här.

En sån här sak borde gå igenom ett organ för att komma fram till en standard. VESA kanske.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Avstängd
Skrivet av Commander:

Djupt förankrad i GPU? komigen, detta är bara data som skickas till skärmen som säger till att skärmen skall uppdatera sig. Förmodligen har de en skärm som är helt enkelt interrupt baserad och ritar om så fort den får ett interrupt från GPUn.

Detta är exakt samma sak som nVidia har gjort på alla andra områden. CUDA? PhysX? OC nedlåsning på Linux?, Linux drivrutinen som begränsas bara för att vara under Windows versionen? Listan kan göras bra lång här.

En sån här sak borde gå igenom ett organ för att komma fram till en standard. VESA kanske.

Listan kan göras lång.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Skrivet av Commander:

Djupt förankrad i GPU? komigen, detta är bara data som skickas till skärmen som säger till att skärmen skall uppdatera sig. Förmodligen har de en skärm som är helt enkelt interrupt baserad och ritar om så fort den får ett interrupt från GPUn.

Detta är exakt samma sak som nVidia har gjort på alla andra områden. CUDA? PhysX? OC nedlåsning på Linux?, Linux drivrutinen som begränsas bara för att vara under Windows versionen? Listan kan göras bra lång här.

En sån här sak borde gå igenom ett organ för att komma fram till en standard. VESA kanske.

Ja inte f-n vet jag. Jag citerar Tom Petersen på nVidia..och sen har du nog rätt att det är skitenkelt eftersom det inte gjorts tidigare och AMD och Intel kommer nog ut men en lösning nästa vecka.
Och vem f-n bryr sig om Linux då det inte finns några spel att prata om eftersom G-sync är byggt för att förbättra spelupplevelsen..
Du får väl ringa och gnälla på någon eller bli kreativ.

Permalänk
Medlem
Skrivet av mikegnorp:

Ja inte f-n vet jag. Jag citerar Tom Petersen på nVidia..och sen har du nog rätt att det är skitenkelt eftersom det inte gjorts tidigare och AMD och Intel kommer nog ut men en lösning nästa vecka.
Och vem f-n bryr sig om Linux då det inte finns några spel att prata om eftersom G-sync är byggt för att förbättra spelupplevelsen..
Du får väl ringa och gnälla på någon eller bli kreativ.

Spel på Linux finns det avsevärt för. Detta är inte heller bara för spel eftersom grafikkort renderar på Desktop och annat så du måste inte ha pong.exe för att få det att funka. Tearing finns på alla miljöer och är jobbigt extremt om man tittar på film eller sitter helt enkelt på desktop och drar fönster.

Sen att andra inte kommit ut med kan vi ju spekulera, likaså på så många andra områden varför och varför inte. Jag är bara så trött på nVidia we ment to close this down metoden på allt de rör eller utvecklar. Fixa en standard istället sen vem som producerar chippet skiter jag i. nVidia 3D vision all over här. Köp en skärm för en GPU tillverkare är bara idiotiskt så långt det bara går. Snart kommer väl nVidia möss som bara funkar på deras GPU?

Detta är trevlig sak från nVidia men det är inte så de hittat en ny kvark.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Skrivet av Commander:

Spel på Linux finns det avsevärt för. Detta är inte heller bara för spel eftersom grafikkort renderar på Desktop och annat så du måste inte ha pong.exe för att få det att funka. Tearing finns på alla miljöer och är jobbigt extremt om man tittar på film eller sitter helt enkelt på desktop och drar fönster.

Sen att andra inte kommit ut med kan vi ju spekulera, likaså på så många andra områden varför och varför inte. Jag är bara så trött på nVidia we ment to close this down metoden på allt de rör eller utvecklar. Fixa en standard istället sen vem som producerar chippet skiter jag i. nVidia 3D vision all over här. Köp en skärm för en GPU tillverkare är bara idiotiskt så långt det bara går. Snart kommer väl nVidia möss som bara funkar på deras GPU?

Detta är trevlig sak från nVidia men det är inte så de hittat en ny kvark.

Det är därför att det är i "tjäna pengar" industrin och om de upptäcker att det finns pengar att tjäna att ge bort tekniken till andra så kan alla vara lugna att de kommer att göra det. Sedan står det alla fritt att köpa ett nVidia kort, en G-sync skärm och spela spel i Windows..eller inte.

Permalänk
Avstängd
Skrivet av mikegnorp:

Det är därför att det är i "tjäna pengar" industrin och om de upptäcker att det finns pengar att tjäna att ge bort tekniken till andra så kan alla vara lugna att de kommer att göra det. Sedan står det alla fritt att köpa ett nVidia kort, en G-sync skärm och spela spel i Windows..eller inte.

Man kan tjäna pengar även om man inte låser in teknik som G-sync Titta på AMD tex. Finns en rad med teknologier som Nvidia har dragit mattan under sina egna fötter med. Saker som tex. 3D vision, PhysX, CUDA bara för att nämna några.. Det finns en orsak varför PhysX finns i typ 20 titlar och de flesta är flera år gamla..

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
99:e percentilen

Jag provade G-Sync på DreamHack och ja, det är en bra grej, men det är verkligen inte natt och dag jämfört med vanlig 120/144 Hz. (Det är orättvist att jämföra det med 60 Hz.)

Tearing blir mindre synligt för varje ökning i uppdateringsfrekvens på vanliga skärmar. Jag störde mig konstant på tearing när jag körde 60 Hz, men nu när jag kör 110 Hz gör jag inte det överhuvudtaget. (Jag kan se det om jag vill, men det påverkar inte min spelupplevelse.)

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem

Den stora fördelen med g-sync är ju inte att det fixar tearing (det syns ganska lite på 120hz + ändå), utan att man oavsett framerate får samma mjukhet som v-sync, fast helt utan input lag och utan att behöva överdimensionera hårdvara/tweaka settings som man måste med vsync.

Men då den enda gsyncskärmen som skall komma inom kort är VG248QE, så tror jag ändå att eizo FG2421 är den bästa gamingskärmen då den har så mycket bättre bildkvalitet, bäst kontrast/svärta av alla LCD som finns, slipper krångel med tredjepartshack som inte alltid fungerar för att få igång strobemode etc.

Permalänk
Medlem
Skrivet av Tumnus:

Nu håller inte det resonemanget heller eftersom Nvidia inte licensierar ut tekniken (vilket hade varit någorlunda bra iallafall) utan LÅSER IN HELA tekniken till att BARA fungera på Nvidias GPU. Sedan så håller inte heller din jämförelse. Haswell är en arkitektur som både kostar många gånger mer och är dessutom betydligt mer komplex än vad G-sync är.

Alltså min åsikt är..

Tjäna pengar på tekniken? Inget emot.
Låsa in en teknik bara för att AMD inte ska ens få en chans att få den? Helt emot. Är inte bra för marknaden eller framtiden. Nvidia nischar medvetet sina produkter till den gräns att man undrar om de är medvetna om att de dödar sin egen teknologi. Se vad som hände med PhysX.

Det du skriver är inte korrekt. G-sync är inte en enkel lösning och har tagit långt tid att utveckla. Orsaken AMD gör Mantle öppet är för att fler spelutvecklare ska känna sig manade att använda det. G-sync är inte beroende av spelutvecklare därför den går använda i vilket spel som helst oavsett om den stöds eller ej. AMD har vidare gjort True Audio på serien 290 och den är låst till den egna GPU:n och är inte öppen för andra att använda. Ditt resonemang håller inte och det är tydligt du måste läsa på mer om det du skriver eller att du medvetet väljer att bortse från vissa aspekter. Jag tycker det är tråkigt att inte alla tekniker är öppna, men så ser dessvärre marknaden ut och det är inte bara Nvidia:s fel.

Visa signatur

CPU: i7-5930K GPU: 2x 1080 TI SLI MODERKORT: ASUS X99-DELUXE

Permalänk
Skrivet av Tumnus:

Man kan tjäna pengar även om man inte låser in teknik som G-sync Titta på AMD tex. Finns en rad med teknologier som Nvidia har dragit mattan under sina egna fötter med. Saker som tex. 3D vision, PhysX, CUDA bara för att nämna några.. Det finns en orsak varför PhysX finns i typ 20 titlar och de flesta är flera år gamla..

Jag tror dig...men AMD är inte i "ge bort" branschen heller. Jag skall köpa en G-Sync skärm så fort det kommer en 30" klassen direkt.