AMD Freesync i praktiken

Permalänk
Medlem
Skrivet av MakeCoke:

I Anandtechs recension så stod det att vid tiden när Nvidia började utvecklingen av G-Sync fanns inte Adaptive Sync tillgänglig.

När AMD började utvecklingen av Freesync fanns inte heller Adaptive Sync tillgängligt.

Stöd för Variabel V-blank vill jag minnas ha läst att AMD introducerade med HD5k, som en strömbesparande möjlighet för laptoptillverkarna, även om användningen av det har varit ytterst begränsad.

När G-Sync presenterades insåg AMD att Variabel V-blank lätt kunde användas till samma sak om tillverkarna av fristående skärmar uppdaterade scalern.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem

Det enda som saknas är bra skärmar alla skärmar är för små 40" eller större eller varför inte 3 i 1 rundad så man blir innesluten.(då inte 3st 16.9 skärmar utan kanske 16.10 eller ännu mindre 4.3?)
Åtminstånde så händer det något nu med 4k ,freesync ,g-sync men större tack
21:9 hade varit ett alternativ om den var på 40" eller mer 34 känns för smått.

Visa signatur

Arne Berg

Permalänk
Medlem

Så nästa gång man köper skärm blir frågan: "ska jag låsa mig till AMD eller nvidia?"

Permalänk
Medlem
Skrivet av biorrith:

Så nästa gång man köper skärm blir frågan: "ska jag låsa mig till AMD eller nvidia?"

Ska det inte komma skärmar med båda?

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Medlem

Så med andra ord:

G-sync fördelar:
- Funkar garanterat ner till 30 Hz oavsett G-sync skärm.
- Fanns ute på marknaden 8 månader tidigare än Freesync. (Inte egentligen en fördel längre, men värt att nämna oavsett. Pionjären ska ha cred.)

Freesync fördelar:
- Öppen standard = bra för oss konsumenter.
- Billigare** då ingen G-sync modul (som kostar extra) krävs.
- Med rätt skärm fungerar Freesync ända ner till 9 Hz. (Återstår dock att se. Själv är jag nöjd om det går ner till 20-30 Hz.)
- Flera anslutningar än Display Port möjliga.
- Fungerar med andra upplösningar än skärmens egen nativa. (Ingen stor sak, men skönt med möjligheten att sänka upplösningen i vissa spel för att öka FPS:en och därmed nå sync-intervallet.
- Går att stänga av v-sync. (Återstår att se om det är relevant.)

Har jag missat något?
Ska bli intressant hur Asus har tänkt lösa detta, i och med att de verkar planera en skärm med både G-sync och Freesync.

**Kan bli en ganska stor prisskillnad.
BenQ XL2730Z var nere och vände på strax under 5000:- för några dagar sedan, och Acer XG270HU ligger runt 5000:-
Asus PG278Q Swift ligger fortfarande däremot fortfarande runt 7000-7500:-. =/

Känns som att G-sync-skärmarna måste komma ner en hel del i pris.

Edit: URLs.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av biorrith:

Så nästa gång man köper skärm blir frågan: "ska jag låsa mig till AMD eller nvidia?"

Nja du skall nog fråga dig ska jag låsa mig till Nvidia's G-Sync eller satsa på ett öppet VESA certifierat alternativ som Nvidia har all möjlighet att välja att stödja (och garanterat kommer göra).

Visa signatur

/havoc

Permalänk
Medlem
Skrivet av Minsc S2:

Nu undrar man ju istället varför Nvidia envisades med att bygga in en modul i skärmarna, när AMD bevisar att det inte alls behövs?

Ja, det är en fråga som jag också ställer mig. Jag har en G-Sync skärm och kan inte vara utan funktionen, men när funktionaliteten är i princip identisk i Freesync ställer jag mig också frågan. Verkar som Nvidias ingenjörer valt helt fel spår och missat en betydligt enklare lösning.

Permalänk
Avstängd
Skrivet av Ratatosk:

En fråga, påverkas effektförbrukningen av Freesync?

Undrar hur många av de alla olyckskorpar som sa att detta kommer aldrig att fungera, nu kommer att erkänna att de hade fel, jag har inga större illusioner.

Fast... nu funkar det ju faktiskt inte riktigt som det ska.

Flamebait
Visa signatur

Intel Core i5 2500k | Asus Geforce GTX 980 | MSI Z68A-GD65 G3 Rev B3 | 8GB G.Skill ARES | BeQuiet! SP7 500w | WD Black 1tb | WD Green 500gb | Hitachi 320gb | Creative X-Fi Titanium Fatality pro | Razer Kraken | Razer Naga Molten | Qpad-MK85 | Antec 1200 | LG 42" IPS LED

Permalänk
Medlem
Skrivet av Minsc S2:

Så med andra ord:

G-sync fördelar:
- Funkar garanterat ner till 30 Hz oavsett G-sync skärm.
- Fanns ute på marknaden 8 månader tidigare än Freesync. (Inte egentligen en fördel längre, men värt att nämna oavsett. Pionjären ska ha cred.)

Freesync fördelar:
- Öppen standard = bra för oss konsumenter.
- Billigare** då ingen G-sync modul (som kostar extra) krävs.
- Med rätt skärm fungerar Freesync ända ner till 9 Hz. (Återstår dock att se. Själv är jag nöjd om det går ner till 20-30 Hz.)
- Flera anslutningar än Display Port möjliga.
- Fungerar med andra upplösningar än skärmens egen nativa. (Ingen stor sak, men skönt med möjligheten att sänka upplösningen i vissa spel för att öka FPS:en och därmed nå sync-intervallet.
- Går att stänga av v-sync. (Återstår att se om det är relevant.)

Har jag missat något?
Ska bli intressant hur Asus har tänkt lösa detta, i och med att de verkar planera en skärm med både G-sync och Freesync.

**Kan slå på ganska stor prisskillnad.
BenQ XL2730Z va nere och vände på 4890:- för en vecka sedan, och Acer XG270HU ligger runt 5000:-
Asus PG278Q Swift ligger fortfarande däremot fortfarande runt 7000-7500:-. =/

BenQ är väl bara ett lågprismärke med inte så hög standard/kvalite, likadant asus skärmar även om dom blivit bättre. Har inte sett något annat än mellanstorlek & billigare skärmar än så länge med freesync eller g-sync, det viktigaste för mig när jag köper skärm så vill jag ha kvalite & bra specar inte bara nån nymodighet som freesync eller g sync främst vill jag ha en bra skärm.

Visa signatur

Arne Berg

Permalänk
Medlem

Ett prestandatest utan någon skärm? Detta är ett textinlägg och inget test.

För övrigt så fungerar Freesync-skärmar nästan alltid i samma spann som G-Sync skärmar, i vissa fall i bredare spann.
Dessutom är den open source, billigare etc etc etc. Den är bättre på egentligen alla sätt.

Men det finns mer. Vissa skärmar som officiellt inte stöder Freesync kan ändå fungera som Freesync-skärmar, eftersom Freesync är egentligen bara adaptive sync med ett viss garanterat spann. T.ex. Asus nya 27" IPS 144 Hz skärm har stöd för adaptive sync.

Den stora frågan är egentligen inte om Freesync - som är överlägsen GSync - utan kring AMD.

Om man köper en skärm idag så bör man förvänta sig att använda den i iaf 5 år. 3 år för entuiaster. Kommer AMD att finnas om 5 år? Det är en öppen fråga.

Permalänk
Medlem
Skrivet av Ase:

BenQ är väl bara ett lågprismärke med inte så hög standard/kvalite

Detta låter väldigt mycket som hörsägen och skvaller. Har du något belägg för att BenQ skulle vara budget?

Själv har jag använt BenQ från och till dom senaste 4 åren och har varit hur nöjd som helst med skärmarna (GL2450, XL2410T, XL2420T, XL2730Z), och dom använder sig också väldigt mycket av BenQ i e-sports sammanhang, så något rätt måste ju BenQ ändå göra?

Skrivet av Umbrellas:

Ett prestandatest utan någon skärm? Detta är ett textinlägg och inget test.

Det lär dyka upp en recension på BenQ XL2730Z här väldigt snart. Är faktiskt lite förvånad att den inte släpps i samband med nyheten om Freesync.

Skrivet av Umbrellas:

Om man köper en skärm idag så bör man förvänta sig att använda den i iaf 5 år. 3 år för entuiaster. Kommer AMD att finnas om 5 år? Det är en öppen fråga.

AMDs grafikkorts-divison lär finnas kvar i någon form, även om själva AMD (mot förmodan) skulle gå i konkurs.
Det går ganska bra för GPU-AMD, till skillnad från CPU-AMD.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av Minsc S2:

Detta låter väldigt mycket som hörsägen och skvaller. Har du något belägg för att BenQ skulle vara budget?

Själv har jag använt BenQ från och till dom senaste 4 åren och har varit hur nöjd som helst med skärmarna (GL2450, XL2410T, XL2420T, XL2730Z), och dom använder sig också väldigt mycket av BenQ i e-sports sammanhang, så något rätt måste ju BenQ ändå göra?

Att man använder något inom gamingkretsar är knappast garanati på kvalite. Snarare betyder det oftast överpriser för undermålig kvalite.

Permalänk
Medlem

Bra artikel, saknar bara information om hur funktionaliteten är om man skulle vilja spela i stereoskopisk 3d, eller för den delen kolla film i 3d.

Vet inte om någon av de aktuella skärmarna för G-Sync och FreeSync som finns ute idag stödjer 3d, men är adaptiv synkronisering tänkt att stödjas även i stereoskopi? För även om både AMD och Nvidia behandlar vanlig stereoskopisk 3d styvmoderligt sen hajpen gick över är det ju samma sak i grunden med stereoskopi för de idag mer trendiga vr-headseten som de båda springer benen av sig för att hänga på, och de borde väl också beröras av adaptiv synkronisering.

Så, HD3D + FreeSync, 3D Vision + G-Sync? Fungerar, fungerar inte? Hur är det tänkt? Någon som vet?

Permalänk
Medlem
Skrivet av Arie:

Att man använder något inom gamingkretsar är knappast garanati på kvalite. Snarare betyder det oftast överpriser för undermålig kvalite.

Eftersom du fortfarande inte verkar har något konkret exempel att komma med, så får vi väl båda vänta på recensionen av BenQ XL2730Z helt enkelt.

Är dessutom en viss skillnad på professionell esport och "gamingkretsar".

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Avstängd

ropen skall skalla AMD för alla!

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av Minsc S2:

Eftersom du fortfarande inte verkar har något konkret exempel att komma med, så får vi väl båda vänta på recensionen av BenQ XL2730Z helt enkelt.

Är dessutom en viss skillnad på professionell esport och "gamingkretsar".

BenQ skärmar är billiga & oftast prisvärda men är inte av högsta kvalite jag köper skärm kanske vart 5e år eller ännu längre tid imellan så vill ha en skärm med högsta möjliga kvalite så brukar hamna i cad spannet eller där under för mig, jag lägger typ 10k när jag köper skärm tror den billigaste skärm jag köpt gått på 7k & det var på slutet av 90 talet (datorns hårdvara e annat där byts det friskt)
P.S har haft flera BenQ skärmar på jobbet & för att läsa office & mejl e dom perfekta sen som sagt så är dom ofta prisvärda men det säjer inget om kvalite utan bara prestanda/spec. per krona.

Visa signatur

Arne Berg

Permalänk
Avstängd

Hoppas att Intel anammar VESA Adaptive-Sync (aka AMD FreeSync).

Permalänk
Entusiast
Skrivet av MakeCoke:

Du kanske noterade att G-Sync kom ut ett år tidigare än Freesync?

Edit: Var det verkligen AMD som "kom på" Adaptive Sync? Har för mig att jag läste om att de utnyttjat tekniken och att den redan fanns i vissa laptops för att spara ström?

Definitionsfråga det där. Adaptive sync har varit en del av eDP (embedded Display Port) ett tag och där var det tänkt att den skulle användas för att spara ström i laptopar och liknande. AMD tittade på funktionen och kom fram till att den kunde användas till mer och övertalade därför VESA att lägga till den som frivilligt tillägg till DP 1.2a. Sen har de fixat lite specifikationer runt det utöver hårdvaran och mjukvaran till sina grafikkort. Så man kan säga att de tog en befintlig standard och utvecklade den till något mer användbart. Högst oklart om någon faktiskt använde funktionen i eDP men det fanns ju i alla fall scalers som hade visst stöd tidigare. Men det ska ju finnas stöd från grafikkortet också.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Jag är förvånad av att folk här fortfarande inte har förstått att Nvidia och AMD har helt olika affärsmodeller. AMD satsar på öppna standarder som per definition öppnar upp för konkurrens från andra aktörer, men man menar att fördelarna ändå är större än nackdelarna då AMD då också kan använda andras innovationer som också ryms inom begreppet "öppen standard" räknar man med att det i det långa loppet gagnar alla medverkande inklusive dom själva förstås.

Nvidia har de senaste åren gått från en liknande approach till att satsa på en stängd "proprietär" affärsmodell.
Första steget var väl när man köpte upp Ageia. Vem minns inte när Nvidia låste möjligheten att använda ett Radeonkort för grafik och ett Nvidiakort för fysik? Det var verkligen inte av tekniska skäl man gjorde så.

G-synk är också ett sätt att låsa in konsumenten till vara tvungen att köpa Nvidiakort. Rent tekniskt finns där heller ingen anledning till att det inte skulle gå att köra på ett Radeonkort då logiken ju sitter i modulen i skärmen och inte i grafikkortet. Dessutom, nu när det kom fram att G-synk för bärbara datorer inte behövde någon speciell extramodul blir saken ännu tydligare.

Gameworks är ytterligare ett exempel på hur man jobbar på att skaffa sig en fördel mot konkurrenten genom att skapa färdiga moduler för att hantera vissa effekter. Visst det är ju skönt och smidigt för spelutvecklare att slippa utveckla dessa själva så vad är problemet? Problemet är att koden till dessa är låsta och stängda DLL:er som AMD inte har någon som helst möjlighet att optimera till deras grafikkort.

Det är ganska uppenbart att Nvidia har bestämt sig för att försöka kopiera Apples affärsmodell.

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Entusiast
Skrivet av bopp:

Bra artikel, saknar bara information om hur funktionaliteten är om man skulle vilja spela i stereoskopisk 3d, eller för den delen kolla film i 3d.

Vet inte om någon av de aktuella skärmarna för G-Sync och FreeSync som finns ute idag stödjer 3d, men är adaptiv synkronisering tänkt att stödjas även i stereoskopi? För även om både AMD och Nvidia behandlar vanlig stereoskopisk 3d styvmoderligt sen hajpen gick över är det ju samma sak i grunden med stereoskopi för de idag mer trendiga vr-headseten som de båda springer benen av sig för att hänga på, och de borde väl också beröras av adaptiv synkronisering.

Så, HD3D + FreeSync, 3D Vision + G-Sync? Fungerar, fungerar inte? Hur är det tänkt? Någon som vet?

Tillverkas det ens datorskärmar med 3D fortfarande? Var och varannan TV har ju stöd för 3D idag och även många projektorer men dog inte det ut på datorskärmar?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

nu ångrar man sig att man inte väntade några månader till innan man bytte till en 4K skärm.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av Zotamedu:

Definitionsfråga det där. Adaptive sync har varit en del av eDP (embedded Display Port) ett tag och där var det tänkt att den skulle användas för att spara ström i laptopar och liknande. AMD tittade på funktionen och kom fram till att den kunde användas till mer och övertalade därför VESA att lägga till den som frivilligt tillägg till DP 1.2a. Sen har de fixat lite specifikationer runt det utöver hårdvaran och mjukvaran till sina grafikkort. Så man kan säga att de tog en befintlig standard och utvecklade den till något mer användbart. Högst oklart om någon faktiskt använde funktionen i eDP men det fanns ju i alla fall scalers som hade visst stöd tidigare. Men det ska ju finnas stöd från grafikkortet också.

Okej, tack för förklarandet. Oavsett så var det smart av AMD att använda den tekniken, alternativet hade väl varit en egen proprietär standard, och det hade varit betydligt sämre för oss konsumenter. Men en annan relevant fråga är huruvida Apaptive sync fanns till eDP när Nvidia började utveckla G-Sync, det jag citerade från Anandtech verkade säga att så inte var fallet?

Skrivet av jacozz:

Jag är förvånad av att folk här fortfarande inte har förstått att Nvidia och AMD har helt olika affärsmodeller. AMD satsar på öppna standarder som per definition öppnar upp för konkurrens från andra aktörer, men man menar att fördelarna ändå är större än nackdelarna då AMD då också kan använda andras innovationer som också ryms inom begreppet "öppen standard" räknar man med att det i det långa loppet gagnar alla medverkande inklusive dom själva förstås.

Nvidia har de senaste åren gått från en liknande approach till att satsa på en stängd "proprietär" affärsmodell.
Första steget var väl när man köpte upp Ageia. Vem minns inte när Nvidia låste möjligheten att använda ett Radeonkort för grafik och ett Nvidiakort för fysik? Det var verkligen inte av tekniska skäl man gjorde så.

G-synk är också ett sätt att låsa in konsumenten till vara tvungen att köpa Nvidiakort. Rent tekniskt finns där heller ingen anledning till att det inte skulle gå att köra på ett Radeonkort då logiken ju sitter i modulen i skärmen och inte i grafikkortet. Dessutom, nu när det kom fram att G-synk för bärbara datorer inte behövde någon speciell extramodul blir saken ännu tydligare.

Gameworks är ytterligare ett exempel på hur man jobbar på att skaffa sig en fördel mot konkurrenten genom att skapa färdiga moduler för att hantera vissa effekter. Visst det är ju skönt och smidigt för spelutvecklare att slippa utveckla dessa själva så vad är problemet? Problemet är att koden till dessa är låsta och stängda DLL:er som AMD inte har någon som helst möjlighet att optimera till deras grafikkort.

Det är ganska uppenbart att Nvidia har bestämt sig för att försöka kopiera Apples affärsmodell.

Det har nog inte undgått någon.

Det mest absurda måste ändå vara att man inte kan använda deras handkontroll med ett AMD-kort (ja, en helt vanlig handkontroll likt X360 kontrollen tilll PC). Helt galet...

Visa signatur

Bästa trådstarten någonsin.

Asus Zenbook UX430: 8550U, MX150, 16 GiB, 1 TB

Permalänk
Medlem
Skrivet av Buio:

Ja, det är en fråga som jag också ställer mig. Jag har en G-Sync skärm och kan inte vara utan funktionen, men när funktionaliteten är i princip identisk i Freesync ställer jag mig också frågan. Verkar som Nvidias ingenjörer valt helt fel spår och missat en betydligt enklare lösning.

De lurade dig helt enkelt precis som med gtx 970.

De hoppades AMD skulle ha fullt upp med annat. Precis som de trodde att de skulle komma undan med 4GB gtx 970.

Sen när de blir påkomna så är det ju bara att säga att man gjort en ärlig miss och sen är det glömt 6 mån senare. Easy money...

Permalänk
Medlem

Tack för en trevligt titt på Freesync Thomas!

Sen funderar jag på om detta kan tänkas hitta in i TV-apparater, för är det några enheter som verkligen skulle tjäna på att få bättre flyt trots seg hårdvara så är det ju de AMD-utvecklade konsollerna. Fast de kanske inte stöder FreeSync?

Visa signatur

Storburk: Ryzen 7 3700X, MSI B450M Mortar, FD Define Mini, CM M2 Silent 720W, 32 GB, RX 5700 XT 8GB, NVME SSD + HDD - HTPC: Ryzen 5 2400G, 16 GB, NVME SSD, BeQuiet 550W

Permalänk
Inaktiv

Något som också är värt att tänka på är att den nu ganska gamla R9 290 och 290X hade hårdvarustödet för FreeSync/Adaptive Sync redan vid lanseringen hösten 2013. Det är skärmarna (främst scalers?) samt mjukvarubiten som tagit tid. Synd att det tog sådan tid men med facit i hand så verkar AMD och partners ha gjort det bättre valet.

Permalänk
Medlem
Skrivet av jacozz:

Jag är förvånad av att folk här fortfarande inte har förstått att Nvidia och AMD har helt olika affärsmodeller. AMD satsar på öppna standarder som per definition öppnar upp för konkurrens från andra aktörer, men man menar att fördelarna ändå är större än nackdelarna då AMD då också kan använda andras innovationer som också ryms inom begreppet "öppen standard" räknar man med att det i det långa loppet gagnar alla medverkande inklusive dom själva förstås.

Nvidia har de senaste åren gått från en liknande approach till att satsa på en stängd "proprietär" affärsmodell.
Första steget var väl när man köpte upp Ageia. Vem minns inte när Nvidia låste möjligheten att använda ett Radeonkort för grafik och ett Nvidiakort för fysik? Det var verkligen inte av tekniska skäl man gjorde så.

G-synk är också ett sätt att låsa in konsumenten till vara tvungen att köpa Nvidiakort. Rent tekniskt finns där heller ingen anledning till att det inte skulle gå att köra på ett Radeonkort då logiken ju sitter i modulen i skärmen och inte i grafikkortet. Dessutom, nu när det kom fram att G-synk för bärbara datorer inte behövde någon speciell extramodul blir saken ännu tydligare.

Gameworks är ytterligare ett exempel på hur man jobbar på att skaffa sig en fördel mot konkurrenten genom att skapa färdiga moduler för att hantera vissa effekter. Visst det är ju skönt och smidigt för spelutvecklare att slippa utveckla dessa själva så vad är problemet? Problemet är att koden till dessa är låsta och stängda DLL:er som AMD inte har någon som helst möjlighet att optimera till deras grafikkort.

Det är ganska uppenbart att Nvidia har bestämt sig för att försöka kopiera Apples affärsmodell.

Amd fick använda phys-x mot att dom betalade precis som att intel betalar AMD för 64 bit men AMD tackade nej till phys x sen har vi ju mantle, AMD ska nog vara glada för alla patent som dom har, så dom överlever & får massa pengar av Intel. Sen gillar jag också öppen marknad där patent nog är största hindret Via får inte säljas för då tappar dom x86 rättigheten som ett annat exempel .Det företag mest gör är att försöka tjäna pengar, ingen av dom är en ängel & den andra en djävul dom påminner nog väldigt mycket om varandra. Linux är nog mer öppet & nu kan man ju inte köpa ett matrox längre eftersom det också är AMD så skulle snarare behövas fler konkurrenter inte 2+intel.
Om det sitter AMD eller Nvidia i min burk bryr jag mig inte om eller Intel eller VIA eller AMD som cpu spelar inte heller någon roll bara jag får ny teknik bra pestanda & slipper Google så e jag nöjd.

Visa signatur

Arne Berg

Permalänk
Avstängd
Skrivet av Dimestam:

Hur är det relevant? Nvidia har väl minst samma möjligheter som AMD att arbeta tillsammans med VESA för att ta fram gemensamma standarder.

Men som någon sa tidigare. Nvidia är ju inte Nvidia om de inte försöker låsa in så mycket teknik de bara kan till deras egna GPU:er.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av Ase:

Ja om inte hårdvaran kan hålla 60 fps på min 60hz skärm så uppstår det tearing men kan fortfarande inte säga att jag haft dom bekymmren med något modernt spel. (Visuellt sett) men & andra sidan så har jag ej testat en 144hz skärm för den delen heller kan hända att jag skulle ändra mig då.

Du drabbas tearing även om grafikkortet kan putta ut fler ramar per sekund än vad skärmen behöver. Ju högre FPS desto mindre är problemet, men det är alltid där så länge du inte synkroniserar uppdatering av skärm och grafikkort.

Permalänk
Medlem

Vänta kan ett r9 290 köra freesync? enligt specs så har mitt grafikkort displayport 1.2 så den borde inte kunna teoretiskt? Eller är det en senare revision som har 1.2a?

Visa signatur

Gaming: MSI X570 MPG Gaming Plus -- AMD Ryzen 9 5900X -- Sapphire Radeon RX 6800 XT NITRO+ -- G.Skill 32GB 3600MHz CL14 -- Samsung 960 EVO 1TB -- 2x ASUS MG278Q -- Arch-based EndeavourOS
VR: ASRock B550M-ITX/ac -- AMD Ryzen 5 5600G -- ASUS RTX 3070 -- Corsair 16GB 3600MHz CL18 -- Kingston A2000 250GB -- Windows 10

Permalänk
Medlem
Skrivet av Heineken89:

Vänta kan ett r9 290 köra freesync? enligt specs så har mitt grafikkort displayport 1.2 så den borde inte kunna teoretiskt? Eller är det en senare revision som har 1.2a?

Ja dessa ska klara det enligt AMD

R9 295X2, 290X, R9 290, R9 285, R7 260X and R7 260