Freesync vs. G-sync - vad händer vid låg FPS

Permalänk
Skrivet av snajk:

Många har väl redan svarat på detta men i alla fall.

Freesync stöder en större skala av hastigheter (9-240Hz) men de få skärmar som kommit hittills stöder de hastigheter du nämner.

Ghosting varierar beroende på inställning och skärmkvalitet. Det finns ingen anledning att det skulle vara sämre på den ena eller andra tekniken.

Under stödd uppdateringsfrekvens fungerar en freesync-skärm som en vanlig skärm, du kan själv välja ifall den ska köra V-Sync och alltså lägga in kopior av frames mellan de riktiga framesen eller ej. I dagsläget gör G-sync inte det utan den kör V-sync automatiskt. Det gäller även över stödd frekvens som du nämner. Alltså kan man välja ifall man vill ha tearing eller stuttering, på G-sync är det stuttering som gäller, just nu i alla fall.

Båda teknikerna fungerar bara över DP men Freesync tillåter andra ingångar på skärmen, vilken standard som krävs är mindre intressant för det är bara de senaste korten från båda tillverkarna som stöder tekniken och då har man rätt utgångar i alla fall.

Antal ingångar har väldigt lite att göra med lagg och det är inget krav med flera ingångar, bara en möjlighet.

Jag sa aldrig licenspengar bara att det kostar en hel del att implementera G-sync och inte Freesync. Stöd för Freesync redan är inbyggt de scalers som används av skärmtillverkarna så det blir en mycket billigare implementation. Det är därför G-sync-skärmar är så dyra medan Freesync ligger mycket närmare samma skärm utan adaptive sync. Det är inte licenskostnader men du måste betala ganska mycket för en scaler som brister i funktionalitet bara för att den ska stöda G-sync liksom.

Nvidia kommer förstås att jobba på att minska eller helt eliminera dessa skillnader så långt som möjligt innan Freesync blir vanligare och i slutändan lär de vara väldigt likvärdiga när det gäller funktionalitet och bildkvalitet och sannolikt även kostnad för skärmtillverkaren. Då är den stora skillnaden som är kvar att Freesync är öppet för andra tillverkare att använda i sina grafikkort och det är ju en väldigt trevlig sak i mina ögon. Dock har det förstås inte så stor betydelse så länge det bara är Intel som tillverkar grafikprocessorer mer än dessa två då Intelgrafiken inte är så mycket att ha för spel i alla fall. Men sannolikheten är rätt så stor att Nvidia kommer att stöda Freesync (då det är en del av DP-standarden), kanske inte nu men på sikt, och då har ju den tekniken vunnit liksom.

Jag gillar det du skriver Håller helt med om fler ingångar ger inga nackdelar, finns redan nu ute skärmar med många ingångar som min U2312HM (kanske ingen extrem mängd), men tar oftast under 1ms att byta bild (neråt 0,6 och sämst 10ms), alltså lika snabb som en TN och näst intill ingen eftersläp alls.

Så antingen har han blandat ihop det med annat eller så försöker han få g-sync låta bättre än det är.
Är bra en frivillig del av DP standarden och om AMD lyckas hålla sig flytande gissar jag det kan bli så med DP 1,3 och 1,4 i värsta fall.
Nvidia blir ju inte av med DP licensen att inte följa just a.

Men har liten teori att nya 900 kan möjligen ha stöd för freesync (så dom har lite backup i fall g-sync försvinner riktigt fort). Har än som tur är inte kommit i närheten av så många g-sync skärmar som freesync skärmar som ska komma i år, så än lever hoppet att g-sync kommer sakta försvinna till nästa år.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av snajk:

Många har väl redan svarat på detta men i alla fall.

Freesync stöder en större skala av hastigheter (9-240Hz) men de få skärmar som kommit hittills stöder de hastigheter du nämner.

Ghosting varierar beroende på inställning och skärmkvalitet. Det finns ingen anledning att det skulle vara sämre på den ena eller andra tekniken.

Under stödd uppdateringsfrekvens fungerar en freesync-skärm som en vanlig skärm, du kan själv välja ifall den ska köra V-Sync och alltså lägga in kopior av frames mellan de riktiga framesen eller ej. I dagsläget gör G-sync inte det utan den kör V-sync automatiskt. Det gäller även över stödd frekvens som du nämner. Alltså kan man välja ifall man vill ha tearing eller stuttering, på G-sync är det stuttering som gäller, just nu i alla fall.

Båda teknikerna fungerar bara över DP men Freesync tillåter andra ingångar på skärmen, vilken standard som krävs är mindre intressant för det är bara de senaste korten från båda tillverkarna som stöder tekniken och då har man rätt utgångar i alla fall.

Antal ingångar har väldigt lite att göra med lagg och det är inget krav med flera ingångar, bara en möjlighet.

Jag sa aldrig licenspengar bara att det kostar en hel del att implementera G-sync och inte Freesync. Stöd för Freesync redan är inbyggt de scalers som används av skärmtillverkarna så det blir en mycket billigare implementation. Det är därför G-sync-skärmar är så dyra medan Freesync ligger mycket närmare samma skärm utan adaptive sync. Det är inte licenskostnader men du måste betala ganska mycket för en scaler som brister i funktionalitet bara för att den ska stöda G-sync liksom.

Nvidia kommer förstås att jobba på att minska eller helt eliminera dessa skillnader så långt som möjligt innan Freesync blir vanligare och i slutändan lär de vara väldigt likvärdiga när det gäller funktionalitet och bildkvalitet och sannolikt även kostnad för skärmtillverkaren. Då är den stora skillnaden som är kvar att Freesync är öppet för andra tillverkare att använda i sina grafikkort och det är ju en väldigt trevlig sak i mina ögon. Dock har det förstås inte så stor betydelse så länge det bara är Intel som tillverkar grafikprocessorer mer än dessa två då Intelgrafiken inte är så mycket att ha för spel i alla fall. Men sannolikheten är rätt så stor att Nvidia kommer att stöda Freesync (då det är en del av DP-standarden), kanske inte nu men på sikt, och då har ju den tekniken vunnit liksom.

Ghosting, uppenbarligen så används videominnet i scalern för att göra motionblur reducerande beräkningar något freesync får lösa på något annat sätt. Det är väll bara att söka på freesync och ghosting så ser du hur stort problemet är.

Under 36 fps på rog skärmen så börjar gsync att hämta senaste bilden i sitt egna videominne och ökar tiil 72 hz fast grafikkortet tror fortfarande att den kör 36hz. Ner mot 20fps så tredubblas bilden osv. Denna teknik kan inte freesync använda då det inte finns någon hårdvara som kan lösa detta, möjligt att de kan lösa det med driver och lasta grafikortet men just nu är det vsync on eller off.

Fler ingångar innbär iregel mer postprocessing och högre inputlag förknippa inte detta med responstid.

Ang bakåtkompabilitet så fixar 680gtx gsync om jag inte har fel medans freesync så är det inte ens alla korten i 2xx serien som klarar det. Rätta mig om jag har fel.

Varför är det så svårt att insee att en teknik som kostar mer troligen är "bättre". Ja amd har beta drivers men deras teknik skulle kommit i slutet av december var fösta budet. Nu 4 månader senare så är det beta. Undertiden så tror jag knappast nvidia sovit.

Permalänk
Medlem
Permalänk
Medlem

Note to readers: I have seen this firsthand on the Acer FreeSync monitor I’m reviewing, and PC Perspective noticed it with 2 additional FreeSync monitors, the BenQ XL2730Z and LG 34UM67. To illustrate the problem they recorded the aforementioned monitors running AMD’s Windmill demo, as well as the same demo running on a G-Sync enabled Asus ROG Swift. Ignore the stuttering you see (this is a result of recording at high speed) and pay attention to the trailing lines, or ghosting. I agree that it’s jarring by comparison.

Tom Petersen: “We don’t do that. We have anti-ghosting technology so that regardless of framerate, we have very little ghosting. See, variable refresh rates change the way you have to deal with it. Again, we need that module. With AMD, the driver is doing most of the work. Part of the reason they have such bad ghosting is because their driver has to specifically be tuned for each kind of panel. They won’t be able to keep up with the panel variations. We tune our G-Sync module for each monitor, based on its specs and voltage, which is exactly why you won’t see ghosting from us.

https://m.youtube.com/watch?v=-ylLnT2yKyA

Men enligt flera som svarat här så är det ingen skillnad i ghosting mellan freesync och gsync.

Permalänk
Avstängd
Skrivet av grahnen:

Ghosting, uppenbarligen så används videominnet i scalern för att göra motionblur reducerande beräkningar något freesync får lösa på något annat sätt. Det är väll bara att söka på freesync och ghosting så ser du hur stort problemet är.

Några FS-displayer verkar ha lite problem med ghosting, många har det inte så det är väl bara att köpa en av dem som inte har problemet i fråga.

Citat:

Under 36 fps på rog skärmen så börjar gsync att hämta senaste bilden i sitt egna videominne och ökar tiil 72 hz fast grafikkortet tror fortfarande att den kör 36hz. Ner mot 20fps så tredubblas bilden osv. Denna teknik kan inte freesync använda då det inte finns någon hårdvara som kan lösa detta, möjligt att de kan lösa det med driver och lasta grafikortet men just nu är det vsync on eller off.

Vad du beskriver är V-sync fast med bilddubblingen i skärmen istället för i grafikkortet. Nvidia hävdar att det är en jätteskillnad men jag kan inte riktigt se det. Just nu är det, utanför spec, V-sync on eller off i FS men i G-sync så är det ju bara V-sync on (fast hanterat av Nvidias scaler i skärmen istället för i grafikkortet) liksom.

Citat:

Fler ingångar innbär iregel mer postprocessing och högre inputlag förknippa inte detta med responstid.

Inte nödvändigtvis och sällan märkbart på något sätt, sen är det inte ett krav att ha flera ingångar på skärmen bara för att den har Freesync utan det går utmärkt att bygga skärmar med endast DP om man vill det. Alltså har G-sync en begränsning här som inte Freesync har.

Citat:

Ang bakåtkompabilitet så fixar 680gtx gsync om jag inte har fel medans freesync så är det inte ens alla korten i 2xx serien som klarar det. Rätta mig om jag har fel.

Jo, G-sync har funnits ute längre och stöds av fler grafikkort. Fler skärmar också men det lär ju ändras snart.

Citat:

Varför är det så svårt att insee att en teknik som kostar mer troligen är "bättre". Ja amd har beta drivers men deras teknik skulle kommit i slutet av december var fösta budet. Nu 4 månader senare så är det beta. Undertiden så tror jag knappast nvidia sovit.

Nu gör du en väldig tankevurpa. Det finns massvis av anledningar som något kan hålla ett högre pris än konkurrenterna och att produkten faktiskt är bättre är bara en anledning i mängden. Anledningen till Nvidias lösning kostar mer är för att den kräver specifik hårdvara i skärmen som skärmtillverkaren måste köpa från Nvidia och anledningen att de valde den lösningen var för att de scalers som fanns när Nvidia började med detta inte stödde adaptiva uppdateringsfrekvenser. Men det gör de som finns på marknaden nu och således behövs ingen proprietär hårdvara för AMDs lösning utan istället använder de den öppna standarden som finns. Alltså är Nvidias lösning dyrare för att de inte väntade på en standard utan byggde sin egen lösning.

Och just det är ju den största fördelen med AMDs lösning: Det är en (relativt) öppen standard som inte nödvändigtvis kostar några extra pengar för konsumenten och som inte låser fast konsumenten till bara en typ av grafikkort i framtiden. I övrigt är lösningarna väldigt lika varandra och de skillnader som finns lär inte finnas inom kort (förutom Nvidias krav på specifik hårdvara, om de behåller det eller ej beror på marknadsstrategin och inte på tekniken), så då är frågan öppen eller stängd, mer pengar och mer inlåsning eller mindre pengar och mindre inlåsning. Ganska enkelt val i min ögon.

Sen kanske de skärmar med Freesync som precis lanserats inte är de allra bästa i alla kategorier direkt men snart så kommer det att finnas många fler att välja på.

Permalänk

Ja och dom klamrar sig fast vid sin teknik. Finns inga fördelar för konsumenter att stödja låst teknik (kan låta som någon bra grej och ja "g-sync fungerar bättre nu"). Vad händer senare när ni sitter med g-sync skärmar ni måste byta för nästa gen grafikkort stödjer inte tekniken eller att grafikkortet har dom satt 1500kr dyrare än amds kort för samma prestanda?

Nvidia lägger sig redan nu högre pris än amd.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av snajk:

Några FS-displayer verkar ha lite problem med ghosting, många har det inte så det är väl bara att köpa en av dem som inte har problemet i fråga.

Du kan idag inte köra overdrive ihop med freesync vilket är kanske det största argumentet för gsync idag. Att hålla på och sia om framtiden då får man väll ta med att gsync förmodligen kommer utvecklas med.

Skrivet av snajk:

Vad du beskriver är V-sync fast med bilddubblingen i skärmen istället för i grafikkortet. Nvidia hävdar att det är en jätteskillnad men jag kan inte riktigt se det. Just nu är det, utanför spec, V-sync on eller off i FS men i G-sync så är det ju bara V-sync on (fast hanterat av Nvidias scaler i skärmen istället för i grafikkortet) liksom.

Utanför spec? Så om gsync har lagt till en funktion som inte fanns med från början så får inte det räknas med för det är utanför spec. Men freesync så är det okej att prata om saker som kommer lösas på sikt? Förövrigt så slipper man tearing och microstutter i låga fps enligt den video som pcperspectiv har lagt ut. Freesync så får man välja på tearing eller microstutter i låga fps. Vilket blir ännu mer tydligt då endel fs skärmar inte går ner till 30 fps ens utan att växla över.

Skrivet av snajk:

Inte nödvändigtvis och sällan märkbart på något sätt, sen är det inte ett krav att ha flera ingångar på skärmen bara för att den har Freesync utan det går utmärkt att bygga skärmar med endast DP om man vill det. Alltså har G-sync en begränsning här som inte Freesync har.

Freesync funkar väll bara över dp med? Så freesync har väll samma begränsning. Ja du kan använda skärmen utan freesync på de andra ingångarna menar du?

Skrivet av snajk:

Jo, G-sync har funnits ute längre och stöds av fler grafikkort. Fler skärmar också men det lär ju ändras snart.

När gsync kom i juli förra året i juli strax efter kom 980gtx så hela 700serien bakåtkompatibel och stora delar av 600serien. När amd släpper så fungerar det inte ens fullt ut med den serien som säljs nu. Oavsett så när gsync kom så var det bättre bakåtkompabilitet.

Skrivet av snajk:

Nu gör du en väldig tankevurpa. Det finns massvis av anledningar som något kan hålla ett högre pris än konkurrenterna och att produkten faktiskt är bättre är bara en anledning i mängden. Anledningen till Nvidias lösning kostar mer är för att den kräver specifik hårdvara i skärmen som skärmtillverkaren måste köpa från Nvidia och anledningen att de valde den lösningen var för att de scalers som fanns när Nvidia började med detta inte stödde adaptiva uppdateringsfrekvenser. Men det gör de som finns på marknaden nu och således behövs ingen proprietär hårdvara för AMDs lösning utan istället använder de den öppna standarden som finns. Alltså är Nvidias lösning dyrare för att de inte väntade på en standard utan byggde sin egen lösning.

Och just det är ju den största fördelen med AMDs lösning: Det är en (relativt) öppen standard som inte nödvändigtvis kostar några extra pengar för konsumenten och som inte låser fast konsumenten till bara en typ av grafikkort i framtiden. I övrigt är lösningarna väldigt lika varandra och de skillnader som finns lär inte finnas inom kort (förutom Nvidias krav på specifik hårdvara, om de behåller det eller ej beror på marknadsstrategin och inte på tekniken), så då är frågan öppen eller stängd, mer pengar och mer inlåsning eller mindre pengar och mindre inlåsning. Ganska enkelt val i min ögon.

Sen kanske de skärmar med Freesync som precis lanserats inte är de allra bästa i alla kategorier direkt men snart så kommer det att finnas många fler att välja på.

Tankevurpa? Jag syftar på att man får vad man betalar för "oftast". Det brukar marknaden se till att det som är bra oftast blir dyrt för man kan ta ut ett högre pris. Gsync modulen kostar inga 1500kr för oem det kan jag lova dig. Man sätter 1500kr dyrare för man tror man kan få ut det(acer xb270hu och asus skärmen med fs som kommer snart). För mig så har gsync IDAG en teknik som har bäst lösning i låga fps och möjlighet overdrive i högre fps där motionblur blir ett problem. Jag upplever detta bättre än freesync då deras fördel är att det bygger på en standard som ger lägre produktionskostnader. När/om freesync löser problem jag nämnde innan så är jag beredd att ändra min åsikt. Men idag så tycker jag gsync har bäst funktion och dyrast pris.

Permalänk
Medlem
Skrivet av Broken-arrow:

Ja och dom klamrar sig fast vid sin teknik. Finns inga fördelar för konsumenter att stödja låst teknik (kan låta som någon bra grej och ja "g-sync fungerar bättre nu"). Vad händer senare när ni sitter med g-sync skärmar ni måste byta för nästa gen grafikkort stödjer inte tekniken eller att grafikkortet har dom satt 1500kr dyrare än amds kort för samma prestanda?

Nvidia lägger sig redan nu högre pris än amd.

Och du tror att om amd hamnar i omvänd sitution så kommer de vara snälla och ge bort utvecklingstid gratis till folk som köper nvidia grafikkort och lg skärmar. De skulle alltså hålla på och finslipa freesync så nvidia ägare får använda det gratis. Nja AMD vill väll precis som nvidia tjäna så mycket pengar de kan. Stösta anledningen till att de hoppade på öppna tåget var nog för de inte hade lika stor plånbok att utveckla något liknande. Sen använder de en öppen teknik som marknadsföring.

Permalänk
Skrivet av grahnen:

Och du tror att om amd hamnar i omvänd sitution så kommer de vara snälla och ge bort utvecklingstid gratis till folk som köper nvidia grafikkort och lg skärmar. De skulle alltså hålla på och finslipa freesync så nvidia ägare får använda det gratis. Nja AMD vill väll precis som nvidia tjäna så mycket pengar de kan. Stösta anledningen till att de hoppade på öppna tåget var nog för de inte hade lika stor plånbok att utveckla något liknande. Sen använder de en öppen teknik som marknadsföring.

Nej, jag tror inte dom har "råd" att vara så sjysta då. Men grejen är att jag bry mig inte vilket märke som står bakom tekniken utan bara att dom samsas under samma standard.

Tyvärr är detta tyvärr inte som fajten mellan HD-DVD och blu-ray. Där det ändå oavsett vem som vann skulle det bli nya standarden. Skulle inte fungerat att trycka en film i tre upplagor, blir riktigt dyrt. Är det tankesättet jag menar.

NU finns det ju en standard och Nvidia känns ju som motvalsen att inte vilja följa några standarder alls. Hade dom kunnat hade Nvidia utvecklat egen special skärmkontakt som bara funkar med vissa skärmar (som är riktigt dyra), lite den nivån tycker jag dom ligger på (köper företag och sen blir tekniken bortglömd i stället). Men AMD om dom hade resurserna säkert gjort något liknande, men svårt att sia om nu.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Broken-arrow:

Nej, jag tror inte dom har "råd" att vara så sjysta då. Men grejen är att jag bry mig inte vilket märke som står bakom tekniken utan bara att dom samsas under samma standard.

Tyvärr är detta tyvärr inte som fajten mellan HD-DVD och blu-ray. Där det ändå oavsett vem som vann skulle det bli nya standarden. Skulle inte fungerat att trycka en film i tre upplagor, blir riktigt dyrt. Är det tankesättet jag menar.

NU finns det ju en standard och Nvidia känns ju som motvalsen att inte vilja följa några standarder alls. Hade dom kunnat hade Nvidia utvecklat egen special skärmkontakt som bara funkar med vissa skärmar (som är riktigt dyra), lite den nivån tycker jag dom ligger på (köper företag och sen blir tekniken bortglömd i stället). Men AMD om dom hade resurserna säkert gjort något liknande, men svårt att sia om nu.

Jag skulle väll önska att samsung köpte upp amd och lär både nvidia och intel att vara lite mer ödemjuka. =).

Permalänk
Medlem

Måste säga att G-Sync är en betydligt mognare och robustare implementation. Kan AMD fixa sin? Troligtvis men som det är idag så är G-Sync bättre och värt pengarna.

Visa signatur

Arch Linux - i5 12500@4.75GHz - Asrock B760M PG Riptide - 32GB DDR5 6000MHz - RTX 2070 Super - 1TB SN770 - 1TB SN550 - U32PWQU 4K
Dell Latitude 7400 2 in 1 - Arch Linux - i5 8265u

Permalänk
Avstängd
Skrivet av grahnen:

Du kan idag inte köra overdrive ihop med freesync vilket är kanske det största argumentet för gsync idag. Att hålla på och sia om framtiden då får man väll ta med att gsync förmodligen kommer utvecklas med.

Tanken med adaptiva uppdateringsfrekvenser är väl att slippa hålla på att mecka med skärmen för att få den att visa bra bild, eller?

Citat:

Utanför spec? Så om gsync har lagt till en funktion som inte fanns med från början så får inte det räknas med för det är utanför spec. Men freesync så är det okej att prata om saker som kommer lösas på sikt? Förövrigt så slipper man tearing och microstutter i låga fps enligt den video som pcperspectiv har lagt ut. Freesync så får man välja på tearing eller microstutter i låga fps. Vilket blir ännu mer tydligt då endel fs skärmar inte går ner till 30 fps ens utan att växla över.

Vad jag menade med utanför spec är alltså utanför skärmens rapporterade uppdateringsfrekvenser. Om skärmen stöder 40-144 Hz så hade 30 FPS legat utanför specen och då gäller V-sync på ifall det är en G-sync implementation men valbart om det är Freesync. Alltså får man välja på eventuell tearing eller stuttering med freesync medan G-sync i samma situation kommer att få stuttering. Jag förstår inte hur du kan se denna begränsning som ett plus. Sen kommer sannolikt Nvidia att stöda att stänga av V-sync utanför spec så småningom, men de gör inte det nu och vi kan inte vara helt säkra på att de kommer att göra det heller.

Citat:

Freesync funkar väll bara över dp med? Så freesync har väll samma begränsning. Ja du kan använda skärmen utan freesync på de andra ingångarna menar du?

Precis. Man kan ha en skärm med mer än en ingång, koppla in mer än en enhet till den. Till exempel så att man kan koppla in sin laptop utan att behöva någon adapter och utan att behöva koppla ur speldatorn.

Citat:

När gsync kom i juli förra året i juli strax efter kom 980gtx så hela 700serien bakåtkompatibel och stora delar av 600serien. När amd släpper så fungerar det inte ens fullt ut med den serien som säljs nu. Oavsett så när gsync kom så var det bättre bakåtkompabilitet.

Jo, det är en fördel av att lägga tekniken i den separata hårdvarumodulen i skärmen. Freesync stöds inte av så många grafikkort men i gengäld kommer det att stödas av många fler skärmar eftersom alla nya skärmar redan har stöd för det i hårdvaran så allt som krävs är en mjukvaru-uppdatering.

Citat:

Tankevurpa? Jag syftar på att man får vad man betalar för "oftast". Det brukar marknaden se till att det som är bra oftast blir dyrt för man kan ta ut ett högre pris. Gsync modulen kostar inga 1500kr för oem det kan jag lova dig. Man sätter 1500kr dyrare för man tror man kan få ut det(acer xb270hu och asus skärmen med fs som kommer snart). För mig så har gsync IDAG en teknik som har bäst lösning i låga fps och möjlighet overdrive i högre fps där motionblur blir ett problem. Jag upplever detta bättre än freesync då deras fördel är att det bygger på en standard som ger lägre produktionskostnader. När/om freesync löser problem jag nämnde innan så är jag beredd att ändra min åsikt. Men idag så tycker jag gsync har bäst funktion och dyrast pris.

Tja, vi kan ju spekulera i vad modulen kostar men det är mindre intressant, poängen är att en skärm med Freesync är ganska mycket billigare än motsvarande skärm med G-sync idag utan att ge några direkta fördelar. Nvidia kommer säkerligen att sänka kostnaden för sin modul, de är så illa tvungna om de ska konkurrera med Freesync, men frågan är om de kan eller vill få ner priset i samma nivå som en mer normal scaler.

Du kanske tycker det är värt 1500 extra att kunna köra overdrive men det tycker inte jag. AMDs lösning för låga FPS är inte sämre i sig men det beror på kvaliteten på skärmen.

Nvidia pratade vitt och brett om hur mycket bättre G-sync var tills AMD släppte Freesync, sen har det varit väldigt tyst. Vad tror du det beror på om inte att Nvidia insåg att deras teknik inte var så mycket bättre trots sitt högre pris liksom?

Permalänk
Medlem
Skrivet av snajk:

Tanken med adaptiva uppdateringsfrekvenser är väl att slippa hålla på att mecka med skärmen för att få den att visa bra bild, eller?

Vad jag menade med utanför spec är alltså utanför skärmens rapporterade uppdateringsfrekvenser. Om skärmen stöder 40-144 Hz så hade 30 FPS legat utanför specen och då gäller V-sync på ifall det är en G-sync implementation men valbart om det är Freesync. Alltså får man välja på eventuell tearing eller stuttering med freesync medan G-sync i samma situation kommer att få stuttering. Jag förstår inte hur du kan se denna begränsning som ett plus. Sen kommer sannolikt Nvidia att stöda att stänga av V-sync utanför spec så småningom, men de gör inte det nu och vi kan inte vara helt säkra på att de kommer att göra det heller.

För mig så var overdrive på normal väldigt uppskattat på rog skärmen. Stor skillnad. Enligt filmen ovan från pcperspektiv så blir det varken microstutter eller tearing för gsync under 36fps på rog skärmen. Jag själv upplevde inte detta heller. Men du har en annan åsikt helt enkelt och jag utgår från att du kollat upp det du dementerar. Overdrive behöver man inte pilla med du blandar inte ihop det med ulmb nu? Efter att jag kollat så mycket jag kan så tror jag att jag uppskattar xb270hu bättre än asus skärmen med samma panel. Jag kan ha ptur och få en som blöder mycket iofs. Men det borde vara samma för asus

Permalänk
Avstängd
Skrivet av grahnen:

För mig så var overdrive på normal väldigt uppskattat på rog skärmen. Stor skillnad. Enligt filmen ovan från pcperspektiv så blir det varken microstutter eller tearing för gsync under 36fps på rog skärmen. Jag själv upplevde inte detta heller. Men du har en annan åsikt helt enkelt och jag utgår från att du kollat upp det du dementerar. Overdrive behöver man inte pilla med du blandar inte ihop det med ulmb nu? Efter att jag kollat så mycket jag kan så tror jag att jag uppskattar xb270hu bättre än asus skärmen med samma panel. Jag kan ha ptur och få en som blöder mycket iofs. Men det borde vara samma för asus

Det blir ingen tearing under specade hastigheter för att skärmen kör V-sync och då får man ingen tearing, det är ju hela poängen. Däremot hade man riskerat micro stuttering ifall grafikkortet faktiskt varit belastat på riktigt och inte bara dragits ner i hastighet manuellt, det går inte att komma ifrån just eftersom den kör V-sync. Freesync betyder inte att detta försvinner eller så, men det betyder att man kan välja att få tearing istället för stuttering om man föredrar det (alltså med eller utan V-sync). Sen kan man förstås diskutera hur stort problem det verkligen är, om man hamnar under specad uppdateringsfrekvens ofta så bör man dra ner sina inställningar (eller köpa ett bättre grafikkort) liksom.

Permalänk
Medlem
Skrivet av snajk:

Det blir ingen tearing under specade hastigheter för att skärmen kör V-sync och då får man ingen tearing, det är ju hela poängen. Däremot hade man riskerat micro stuttering ifall grafikkortet faktiskt varit belastat på riktigt och inte bara dragits ner i hastighet manuellt, det går inte att komma ifrån just eftersom den kör V-sync. Freesync betyder inte att detta försvinner eller så, men det betyder att man kan välja att få tearing istället för stuttering om man föredrar det (alltså med eller utan V-sync). Sen kan man förstås diskutera hur stort problem det verkligen är, om man hamnar under specad uppdateringsfrekvens ofta så bör man dra ner sina inställningar (eller köpa ett bättre grafikkort) liksom.

Jag vet inte hur jag ska vara tydlig nog.

Under 36fps så börjar gsynk modulen att dubbla frames för att man inte ska uppleva att panelen börjar blinka. Detta sätt gsync moduelen gör det på under 36 fps och ner till 0 fps gör att jag varken upplevede stuttering eller tearing. Med freesync så får man välja på vsync på eller av vilket innebär stuttering eller tearing. Det blir ännu mer tydligt på fs skärmar som går kanske ner till 45hz.

Här vinner gsync i dagsläget.

Att kunna ha overdrive aktivt minskar motionblur ganska mycket när vi pratar högre fps. Detta upplevede jag göra väldigt stor skillnad under de 6 mån jag hade min rog skärm. Då var detta en tn panel, Jag kan tänka mig att de ips paneler som kommer så uppskattas overdrive ännu mer.

Här vinner gsync i dagsläget.

Detta gör att jag tycker gsync är värt sitt högre pris för hårdvara som det är nu. Sen är det olyckligt att man inte kan enas om en teknik.

Permalänk
Skrivet av grahnen:

Jag skulle väll önska att samsung köpte upp amd och lär både nvidia och intel att vara lite mer ödemjuka. =).

Ja precis Som jag sagt förut och tål att sägas igen rösta med plånboken. Visa Nvidia att detta beteende inte är okej!!

Skrivet av Fire_Ice:

Måste säga att G-Sync är en betydligt mognare och robustare implementation. Kan AMD fixa sin? Troligtvis men som det är idag så är G-Sync bättre och värt pengarna.

Kan hålla med i det mesta. Men, ett stort men här. Värt pengarna? innan free-sync recensionen ja/nja, nu är rätt tveksam till det.
Du som kund har makten att säga till Nvidia att sluta med proprietära teknik.

Jag skulle sätta något på att det inom några månader kommer vara betydligt bättre drivers till just adaptive-sync. Dom släppt en för att visa att tekniken faktiskt fungerar och men var inte färdig.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Skrivet av grahnen:

Jag vet inte hur jag ska vara tydlig nog.

Under 36fps så börjar gsynk modulen att dubbla frames för att man inte ska uppleva att panelen börjar blinka. Detta sätt gsync moduelen gör det på under 36 fps och ner till 0 fps gör att jag varken upplevede stuttering eller tearing. Med freesync så får man välja på vsync på eller av vilket innebär stuttering eller tearing. Det blir ännu mer tydligt på fs skärmar som går kanske ner till 45hz.

Här vinner gsync i dagsläget.

Att kunna ha overdrive aktivt minskar motionblur ganska mycket när vi pratar högre fps. Detta upplevede jag göra väldigt stor skillnad under de 6 mån jag hade min rog skärm. Då var detta en tn panel, Jag kan tänka mig att de ips paneler som kommer så uppskattas overdrive ännu mer.

Här vinner gsync i dagsläget.

Detta gör att jag tycker gsync är värt sitt högre pris för hårdvara som det är nu. Sen är det olyckligt att man inte kan enas om en teknik.

Om jag inte fattar det fel så hoppar den väl över bildrutor om den går under 30FPS?

Jag ser det i alla fall inte så farligt om det är mellan 144 och 40 (får ju sätt grafiken så man håller runt 70/90FPS). Men en annan skärm jag såg här är det ju mellan 75 och 48. Inte lika bra.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem

G-Sync har stora nackdelar med.

Fördelarna G-Sync har mot Freesync är vid låg FPS <40

G-Sync kommer säga till monitorn att rendera varje frame två gånger vid 30-40, trippelt vid 15-30 osv.
Freesyncs problem här är att det blir ospelbart under <40fps, det sägs att den gör det värre än vanligt under <40fps.

Sen finns det rykten att G-Sync ger mindre Ghosting, men BenQ/Swift har olika paneler + Asus har alltid haft bättre Anti-Ghosting/Motion Blur.

FreeSync Pros :
– Easier to confederate into a wider operation of monitors due to miss of any additional hardware.
– Significantly reduction costly than G-Sync, no chartering fees.
– Enables all a common guard facilities and arrangement outputs.
– Gives we a choice of V-Sync on or Off.
FreeSync Cons :
– Doesn’t work next a smallest modernise rate, amplifying a ripping and input-lag issues during low FPS.
– Currently singular to 6 graphics cards and 6 APUs.

G-Sync Pros :
– Offers a improved knowledge than FreeSync next a smallest modernise rate of a monitor.
– Compatible with a wider operation of graphics cards.
G-Sync Cons :
– Requires dedicated hardware in a guard and final chartering fees.
– Limits guard features, sound and arrangement outlay options.
– Measurably some-more costly than FreeSync.
– Currently doesn’t give we a choice to invalidate V-Sync above a limit modernise rate of a monitor.

tl;dr G-Sync är inte i närheten värt 1500kronor extra och sen har den stora nackdelar(en ingång, V-Sync alltid på, framebuffering ger performance hit, +1500Kr).

Visa signatur

Gpu: EVGA GeForce GTX 1080 TI FE Kraken G10+H110 Psu:Corsair AX760 Mb: Gigabyte Aorus Gaming 7 Cpu: Intel 8700k @5.2GHz @ 1.385V Cpu-kylare:EVGA CLC 280 Chassi:Define R5 Minne:G.Skill Ripjaws V 3600Mhz CL16 SSD:OCZ Arc 240GB HDD: Toshiba 3TB A-600

Permalänk
Medlem

Av allt att döma använder Benq XL2730Z en likadan TN-panel som ASUS ROG Swift PG278Q.

Det stämmer inte då menar du?

Jag märkte stor skillnad mellan overdrive på normal jämfört med off. Extreme gjorde dock knappt någon skillnad. Vad jag kunnat läsa så går det inte köra overdrive ihop med freesync

Permalänk
Skrivet av grahnen:

Av allt att döma använder Benq XL2730Z en likadan TN-panel som ASUS ROG Swift PG278Q.

Det stämmer inte då menar du?

Jag märkte stor skillnad mellan overdrive på normal jämfört med off. Extreme gjorde dock knappt någon skillnad. Vad jag kunnat läsa så går det inte köra overdrive ihop med freesync

Thomas skrev om detta i en tråd och han sa att man inte kan lita på att två skärmar från olika tillverkare men exakt samma panel presterar lika, beror hur dom implanterar övrig teknik också.

ASus har ju släppt en IPS free-sync panel den skulle jag villa se ett test på.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Avstängd
Skrivet av grahnen:

Jag vet inte hur jag ska vara tydlig nog.

Under 36fps så börjar gsynk modulen att dubbla frames för att man inte ska uppleva att panelen börjar blinka. Detta sätt gsync moduelen gör det på under 36 fps och ner till 0 fps gör att jag varken upplevede stuttering eller tearing. Med freesync så får man välja på vsync på eller av vilket innebär stuttering eller tearing. Det blir ännu mer tydligt på fs skärmar som går kanske ner till 45hz.

Men det är ju det som är V-sync. När/om grafikkortet inte hinner rita upp en ny bild i tid till nästa skärmuppdatering så visas föregående bild (istället för halva föregående och halva nästa eller så). Alltså är Freesync med V-sync samma sak som G-sync när grafikkortet inte hinner med uppdateringarna. Skillnaden är att det är grafikkortet som sköter detta i AMDs implementation och Nvidias scaler i skärmen i deras implementation. Oavsett så är det hårdvara från grafikkortstillverkaren som sköter det.

Citat:

Här vinner gsync i dagsläget.

Nej, här vinner Freesync (eller vinner och vinner, fördel Freesync i alla fall) eftersom man själv får välja beteende mellan samma som G-sync eller tvärtom att låta skärmen rita delar av bilder så fort de är klara.

Citat:

Att kunna ha overdrive aktivt minskar motionblur ganska mycket när vi pratar högre fps. Detta upplevede jag göra väldigt stor skillnad under de 6 mån jag hade min rog skärm. Då var detta en tn panel, Jag kan tänka mig att de ips paneler som kommer så uppskattas overdrive ännu mer.

Här vinner gsync i dagsläget.

Yes, det är en fördel. Personligen så stör jag mig oerhört på alla artefakter som overdrive skapar och således kan jag inte köra det, alltså är det ingen fördel för mig, men gör man inte det så är det ju det.

Fortfarande handlar det om mycket små tekniska skillnader mellan lösningarna i vissa specifika edge-cases som dessutom kommer att minska allt eftersom teknikerna mognar. Således blir de andra skillnaderna mycket viktigare i jämförelsen och pris, framtidsmöjligheter, öppenhet och liknande talar ju för Freesync liksom.

Citat:

Detta gör att jag tycker gsync är värt sitt högre pris för hårdvara som det är nu. Sen är det olyckligt att man inte kan enas om en teknik.

Tja det kanske du tycker men jag tycker inte du har motiverat varför någon annan ska tycka så.

Sen har man ju enats om en teknik, VESA har en implementation av Adaptive Sync i DP-standarden och det är den som Freesync använder och således är det den man enats om. G-sync kan säkert anpassas så att den också använder denna standard men inte så länge den kräver Nvidias scaler.

Permalänk
Medlem
Skrivet av grahnen:

Av allt att döma använder Benq XL2730Z en likadan TN-panel som ASUS ROG Swift PG278Q.

Det stämmer inte då menar du?

Jag märkte stor skillnad mellan overdrive på normal jämfört med off. Extreme gjorde dock knappt någon skillnad. Vad jag kunnat läsa så går det inte köra overdrive ihop med freesync

Swift/2730Z har olika paneler och samma panel betyder inte samma skärm, BenQ/Asus använder olika OD metoder, Asus brukar nästan alltid vara bättre.

Sen om det inte funkar så är det bara en tidsfråga tills det gör, detta är inget hårdvarubegränsat.

PCPer är inget jag skulle lita på då dom är klart på Nvidias sida, deras video om FreeSync Vs G-Sync Ghostin är inget jag skulle lita på.

Visa signatur

Gpu: EVGA GeForce GTX 1080 TI FE Kraken G10+H110 Psu:Corsair AX760 Mb: Gigabyte Aorus Gaming 7 Cpu: Intel 8700k @5.2GHz @ 1.385V Cpu-kylare:EVGA CLC 280 Chassi:Define R5 Minne:G.Skill Ripjaws V 3600Mhz CL16 SSD:OCZ Arc 240GB HDD: Toshiba 3TB A-600

Permalänk
Medlem
Skrivet av Helllodar:

PCPer är inget jag skulle lita på då dom är klart på Nvidias sida, deras video om FreeSync Vs G-Sync Ghostin är inget jag skulle lita på.

Ytterliggare ett opartiskt och faktaspäckat påstående! Jag antar att du har bevis för det du skriver?

Visa signatur

Money frees you from doing things you dislike. Since I dislike doing nearly everything, money is handy.

Permalänk
Medlem
Skrivet av snajk:

Men det är ju det som är V-sync. När/om grafikkortet inte hinner rita upp en ny bild i tid till nästa skärmuppdatering så visas föregående bild (istället för halva föregående och halva nästa eller så). Alltså är Freesync med V-sync samma sak som G-sync när grafikkortet inte hinner med uppdateringarna. Skillnaden är att det är grafikkortet som sköter detta i AMDs implementation och Nvidias scaler i skärmen i deras implementation. Oavsett så är det hårdvara från grafikkortstillverkaren som sköter det.

Vänta lite nu Vsync on. För mig innefattar det ofta att jag är tvungen att begränsa spelets motor till att tex kör max 59fps om du kör vsync on på en 60hz panel för att slippa att det känns som allt laggar efter. Samt att med vsync on tappar du ofta mycket prestanda om du inte kör med tripple buffer och då får du ännu äldre buffrade frames vilket gör att det segar ännu mer.

Vad är det för artifakter som du upplever med OD satt på normal på rog skärmen? Jag har synat den skärmen rätt så rejält då jag gått igenom 7st innan jag hävde köpet. Vill påstå att jag inte sett några artifakter såvida du inte kör på extreme.

Permalänk
Medlem
Skrivet av Helllodar:

Swift/2730Z har olika paneler och samma panel betyder inte samma skärm, BenQ/Asus använder olika OD metoder, Asus brukar nästan alltid vara bättre.

Sen om det inte funkar så är det bara en tidsfråga tills det gör, detta är inget hårdvarubegränsat.

ROG 27"WS AU Optronics TN Film (M270Q002 V0)
BENQ 27"WS AU Optronics TN Film (M270DTN01.0)

Samma är det inte som du säger frågan är hur många 144hz tn paneler AU Optronics gör. Om man inte kan jämföra dessa då går det helt enkelt inte jämföra gsyncskärm med Freesyncskärm då det säkert alltid rör sig om olika rev av paneler.

Acer xb270hu 27"WS AU Optronics AHVA (M270DAN02.3)
Asus MG279Q ?

Dessa skärmar går isåfall inte jämföra. Eller ja priset kanske man kan jämföra för där är freesync billigast fast det vet man väll inte om det inte är samma modellbetekning på panelen.

För mig är det intressant vad som fungerar idag. Du får gärna posta ett datum då od kommer fungera med freesync. Du behöver inte ge ett exact datum, bara hur många veckor eller månader det är kvar. Om det är som du säger så kommer alla freesync skärmar vara bakåtkomplatibla och få denna funktion ganska snart eller?

Permalänk
Avstängd
Skrivet av grahnen:

Vänta lite nu Vsync on. För mig innefattar det ofta att jag är tvungen att begränsa spelets motor till att tex kör max 59fps om du kör vsync on på en 60hz panel för att slippa att det känns som allt laggar efter. Samt att med vsync on tappar du ofta mycket prestanda om du inte kör med tripple buffer och då får du ännu äldre buffrade frames vilket gör att det segar ännu mer.

Om du kör 59FPS med V-Sync igång så får du ju 30 bilder per sekund på skärmen. Men nu pratade vi om att köra V-sync på skärmar med adaptive sync när frekvensen ligger utanför vad deras adaptive sync klarar av och alla skärmar med adaptive sync klarar 59 Hz utan problem. Det känns som jag har sagt detta några gånger nu men: Med G-sync så blir det V-sync vid frekvenser som ligger utanför skärmens adaptive sync refresh rate och med Freesync så kan du välja om den ska göra på det viset eller inte.

Citat:

Vad är det för artifakter som du upplever med OD satt på normal på rog skärmen? Jag har synat den skärmen rätt så rejält då jag gått igenom 7st innan jag hävde köpet. Vill påstå att jag inte sett några artifakter såvida du inte kör på extreme.

Jag har inte pratat om just den skärmen, bara att overdrive i mina ögon tenderar att skapa artefakter som jag stör mig på rejält. Men det beror förstås på hur hårt man kör det osv. Jag har aldrig upplevt att det är värt att köra det dock. Oavsett så lär Freesync stöda overdrive ganska snart precis som G-sync lär stöda valbart beteende utanför skärmens stödda refresh rate snart. Det är två konkurrerande men väldigt likartade tekniker och det är självklart att de bara kommer att närma sig varandra i funktionalitet och kvalitet allt eftersom teknikerna mognar.

Permalänk
Skrivet av grahnen:

Vänta lite nu Vsync on. För mig innefattar det ofta att jag är tvungen att begränsa spelets motor till att tex kör max 59fps om du kör vsync on på en 60hz panel för att slippa att det känns som allt laggar efter. Samt att med vsync on tappar du ofta mycket prestanda om du inte kör med tripple buffer och då får du ännu äldre buffrade frames vilket gör att det segar ännu mer.

Vad är det för artifakter som du upplever med OD satt på normal på rog skärmen? Jag har synat den skärmen rätt så rejält då jag gått igenom 7st innan jag hävde köpet. Vill påstå att jag inte sett några artifakter såvida du inte kör på extreme.

Bara undrar vad man ska kalla Nvidias teknik egentligen. För det låter som någon typ av v-sync, men ändå inte stämmer till 100%.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem

En sak som jag tycker glöms bort är att freesync bara stöds av 3 grafikkort. 260x, 290 och 290x samt att det kommer bli 5 mest troligt i nästa generation medan G-sync stöds av alla nvidias grafikkort. Alltså om en ska köpa en freesync skärm måste en ganska ofta också köpa nytt grafikkort sedan många sitter kvar på exempelvis 280x eller 7970.

Visa signatur

Stationär: Fractal Design Torrent, Gigabyte Z690 AORUS ELITE AX, 13600K, Corsair Venegeance 6000mhz, 1TB PCIE 4.0 Kingston, 1TB Corsair MP400, Gainward RTX 4090 Phantom.

Permalänk
Skrivet av TobbeH94:

En sak som jag tycker glöms bort är att freesync bara stöds av 3 grafikkort. 260x, 290 och 290x samt att det kommer bli 5 mest troligt i nästa generation medan G-sync stöds av alla nvidias grafikkort. Alltså om en ska köpa en freesync skärm måste en ganska ofta också köpa nytt grafikkort sedan många sitter kvar på exempelvis 280x eller 7970.

Sitter på 670 och väljer hellre att byta grafikkort för att få öppen standard. Jag lär aldrig låsa skärmen till vist märke grafikkort.

Är ju som att ge Nvidia tillåtelse att fortsätta bete sig som dom gör nu.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Broken-arrow:

Sitter på 670 och väljer hellre att byta grafikkort för att få öppen standard. Jag lär aldrig låsa skärmen till vist märke grafikkort.

Är ju som att ge Nvidia tillåtelse att fortsätta bete sig som dom gör nu.

Fast om deras egen teknologi är bättre är det väl klart de vill ha den för sig själva?

Visa signatur

Stationär: Fractal Design Torrent, Gigabyte Z690 AORUS ELITE AX, 13600K, Corsair Venegeance 6000mhz, 1TB PCIE 4.0 Kingston, 1TB Corsair MP400, Gainward RTX 4090 Phantom.