Användare får Freesync att fungera med grafikkort från Nvidia

Permalänk
Melding Plague

Användare får Freesync att fungera med grafikkort från Nvidia

Flera användare uppges ha fått Freesync att fungera med grafikkort från Nvidia. Detta genom att använda två grafikdelar, med en från respektive tillverkare.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Detta är ju guld, utbudet på freesync skärmar är ju betydligt bättre!

Visa signatur

7800X3D - 4090 FE

Permalänk
Medlem

Jag ger det ett par dagar innan Nvidia släpper en ny drivrutin vilket helt plötsligt gör detta omöjligt.

Visa signatur

ASRock B450M Pro4 | Ryzen 5 5600 | Corsair LPX 2x16GB @ 3600

Permalänk
Medlem

Skulle det fungera just nu menar ni?
fan jag sitter ju på en Ryzen 1600x och ett 1070! men en freesync pga tidigare kort...haleluja?

Permalänk
Medlem
Skrivet av RX1:

Jag ger det ett par dagar innan Nvidia släpper en ny drivrutin vilket helt plötsligt gör detta omöjligt.

Ska bli intressant att se vilket "säkerhetshål" som måste täppas till och som då dessvärre stoppar möjligheten att köra FreeSync.

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5800X3D, Msi B450 Tomahawk, RX 7800XT, 32 Gb Corsair Vengeance Pro, vattenkylning.

Permalänk
Medlem

Stödjer inte Intel någon form av adaptiv sync, i så fall så kanske det går att göra en liknande lösning med Intel CPUer. Speciellt då utbudet av Intel processorer med inbyggd grafikdel är ju klart överlägset AMDs.

Dock så tycker jag att de skall komma överens om en standard och köra på den istället, bättre för oss konsumenter.
Tyvärr är det väl pengarna som styr..

Skrivet av beardedpear:

Skulle det fungera just nu menar ni?
fan jag sitter ju på en Ryzen 1600x och ett 1070! men en freesync pga tidigare kort...haleluja?

Du har ju ingen inbyggd GPU i din Ryzenprocessor, så nej.

Permalänk
Medlem

Påminner mig om när folk ville köra nvidias physx eller vad det heter i spel och använde ett gammalt nvidia kort för den delen medan grafiken kunde skötas av annat kort, dom tog bort det sen har jag för mig?

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

Nu är inte jag med. Om AMD-kortet av de två står för renderingen och Nvidiakortet bara visar bild, vad tjänar man på det här jämfört med att bara ha ett AMD-kort om det ändå är där rendering sker och därmed där kraften behövs?

"För att lyckas med detta används en grafikdel från AMD, antingen separat eller den inbyggda i företagets senaste Ryzen-processorer, tillsammans med ett grafikkort från Nvidia. I båda fallen går det ut på att användaren manuellt väljer att visa bilden från grafikkortet från Nvidia medan grafikkretsen från AMD står för renderingen och Freesync."

Det som hade varit spännande vore väl snarare tvärt om att renderingen skedde i Nvidia-kortet som kan vara mer kraftfullt och bildvisning/synkronisering går genom AMD-kortet för att få Nvidias starkare prestanda att funka med Freesync-skärmar?

Visa signatur

Bara fanboys kallar folk för fanboy!

Permalänk
Inaktiv

Vendor lock-in borde vara olagligt, i praktiken är det svårt men de borde ligga på.
https://en.wikipedia.org/wiki/Vendor_lock-in

Sedan hade jag allt köpt en rätt modell av skärm till grafikkortet. Problemet är dock om man i efterhand vill byta monitorer.

Samtidigt är Freesync och g sync rätt nischade funktioner, hade skärmat inte alls fungerat så hade nog EU sagt ifrån, precis som de gjorde förr i tiden när alla mobiltillverkare hade olika laddare.

Permalänk
Skrivet av loefet:

Stödjer inte Intel någon form av adaptiv sync, i så fall så kanske det går att göra en liknande lösning med Intel CPUer. Speciellt då utbudet av Intel processorer med inbyggd grafikdel är ju klart överlägset AMDs.

Dock så tycker jag att de skall komma överens om en standard och köra på den istället, bättre för oss konsumenter.
Tyvärr är det väl pengarna som styr..

Freesync är en VESA standard som är en del av displayport sedan v1.2, skulle Intel vilja så skulle de kunna stödja det med en drivrutinsuppdatering.

Visa signatur

Huvudburk: POP_OS! 22.04 | Ryzen 3900X | Asus Prime B350m-a | 32GB RAM | Sapphire RX 6800 | Sleeper-chassi (Tänk P4)
Xbox: POP_OS! 22.04 | Ryzen 5600G | B550I AORUS PRO AX | 16GB RAM | Urholkad OG Xbox som chassi

Permalänk
Medlem

Ingen högoddsare att Nvidia kommer och förstör detta. Det här bevisar ju bara att det är en artificiell tramsbegränsning. Helt sjukt att vilken skärm man kan utnyttja fullt ut och inte är låst till vilken grafikkortstillverkare man har.

Tycker som andra att det ska bli intressant att se vilken oficiell anledning de kommer ange för sabotaget.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av beardedpear:

Skulle det fungera just nu menar ni?
fan jag sitter ju på en Ryzen 1600x och ett 1070! men en freesync pga tidigare kort...haleluja?

Från artikeln:
"För att lyckas med detta används en grafikdel från AMD, antingen separat eller den inbyggda i företagets senaste Ryzen-processorer, tillsammans med ett grafikkort från Nvidia."

Visa signatur

• be quiet! 500DX • Strix 850W Gold • 3080 Strix OC • Z490-F Strix • 10700K • be quiet! Dark Rock Pro 4 • G.Skill 3200MHz CL14 2x16GB • 970 EVO plus 1TB • 860 EVO 1TB • Sound blaster AE-5 • MDR-XB950N1 ModMic V4 • Logitech G Pro • Apex M750 TKL PUBG edition • Secretlab TITAN SoftWeave stol • Acer Predator XB273UGX@270hz • Win 11 pro •

Permalänk
Medlem

Detta lär nog inte vara så länge, som när man kunde vid ett litet tag kunna överklocka på en 6500 utan K.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem

Kul detta ändå. Gillar fulhack.

Jag är så glad att jag inte är allergisk mot AA och inte känner att jag behöver Gsync eller freesync.
Har sparat mig massor med pengar och frustration.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

"Nvidia har heller inget sätt att säkerställa att användarna får en bra upplevelse med skärmarna, då de inte kvalitetssäkras på samma sätt som de med G-Sync-moduler."

Nvidia kan säkerställa att jag får en dålig upplevelse genom att plocka bort den här möjligheten.

Visa signatur

CPU: Ryzen 5 1600 GPU: Asus GeForce GTX 1060 6GB DUAL Moderkort: MSI B350M Mortar
RAM: 16GB Corsair Vengeance DDR4 3200MHz PSU: Corsair RM750X
Laptop: ThinkPad T480s, Core i7 8550U, 16GB RAM Mobil: Samsung Galaxy S10

Permalänk
Medlem
Skrivet av Aka_The_Barf:

Påminner mig om när folk ville köra nvidias physx eller vad det heter i spel och använde ett gammalt nvidia kort för den delen medan grafiken kunde skötas av annat kort, dom tog bort det sen har jag för mig?

Orsaken till att du blir påmind om detta kanske kan vara för att det nämns i artikeln?

Skrivet av Masyve:

Nu är inte jag med. Om AMD-kortet av de två står för renderingen och Nvidiakortet bara visar bild, vad tjänar man på det här jämfört med att bara ha ett AMD-kort om det ändå är där rendering sker och därmed där kraften behövs?

Det som hade varit spännande vore väl snarare tvärt om att renderingen skedde i Nvidia-kortet som kan vara mer kraftfullt och bildvisning/synkronisering går genom AMD-kortet för att få Nvidias starkare prestanda att funka med Freesync-skärmar?

Enligt Reddit-tråden så handlar det precis som du säger om att NVIDIA-kortet sköter renderingen av spelet, men att AMD-kortet står för kommunikationen med bildskärmen. D.v.s. bildrutorna går NVIDIA -> AMD -> skärm. Frågan är dock hur den lösningen fungerar när man går utanför FreeSync-intervallet?

Skrivet av Ozzed:

Ingen högoddsare att Nvidia kommer och förstör detta. Det här bevisar ju bara att det är en artificiell tramsbegränsning.

Det är inte någon artificiell begränsning, NVIDIA-korten har inte stöd för FreeSync. Vilket är orsaken till denna lösning, där ett AMD-kort krävs för att kommunicera med en FreeSync-skärm. NVIDIA skulle förstås kunna implementera stöd för FreeSync i sina kort, men det är en helt annan diskussion.

Permalänk
Medlem
Skrivet av perost:

Det är inte någon artificiell begränsning, NVIDIA-korten har inte stöd för FreeSync. Vilket är orsaken till denna lösning, där ett AMD-kort krävs för att kommunicera med en FreeSync-skärm. NVIDIA skulle förstås kunna implementera stöd för FreeSync i sina kort, men det är en helt annan diskussion.

Det är det visst. Nvidias hårdvara skulle mycket väl kunna stödja Freesync. Det är ju en helt öppen standard.

Sen arr man nu hittat vägar runt detta visar ju bara ytterligare på det, och som sagt... Jag tror inte det är någon högoddsare att Nvidia täpper igen det här "hålet" som användare nu har hittat. I nuvarande utförande är det ju verkligen ett specialfall, och inte så användbart vad jag förstått det som, men tror ändå Nvidia kommer stoppa detta.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av perost:

Det är inte någon artificiell begränsning, NVIDIA-korten har inte stöd för FreeSync. Vilket är orsaken till denna lösning, där ett AMD-kort krävs för att kommunicera med en FreeSync-skärm. NVIDIA skulle förstås kunna implementera stöd för FreeSync i sina kort, men det är en helt annan diskussion.

Använder inte Nvidia också Freesync till den inbyggda skärmen i laptops, för att slippa strömslukande extra kretsar, men kallar det fortfarande "G-sync"?

Skrivet av Nyheten:

De båda teknikerna är dock låsta till respektive tillverkare, vilket innebär att G-Sync endast kan användas med grafikkort från Nvidia och detsamma gäller för AMD.

Freesync är inte alls låst till någon. Det är Nvidia som aktivt väljer att inte stödja den.

Permalänk
Medlem
Skrivet av Ozzed:

Det är det visst. Nvidias hårdvara skulle mycket väl kunna stödja Freesync. Det är ju en helt öppen standard.

Men då kan man ju inte göra hutlösa prispåslag på monitorer för att de skall ha en liten modul som gör att deras standard fungerar.
Svårare än så är det ju inte.

Permalänk
Medlem

Finns även looking glass som utvecklas av "Jeff" tillsammans med Wendell på level1, där framebuffern kopieras från ena grafikkortet till den andra, så du kan rendera i nvidia, kopiera fbuffer till amd kort kopplat till freesync skärm och vise versa om jag minns rätt.
Som det ser ut idag så är latensen en bildruta ifrån.

Dold text
Permalänk
Medlem

"Troligt är att Nvidia kommer att uppdatera sin drivrutiner för att förhindra detta."

Nvidia tänker alltid på kundens bästa om dom kommer tillta denna utökning av begränsningar.

Permalänk
Medlem

Som tidigare sagts men bör påpekas - FreeSync är inte låst på något vis. Att aktörer utöver AMD aktivt väljer att inte stödja det betyder inte att det är låst till AMD.

Skickades från m.sweclockers.com

Permalänk
Medlem

Tänker osökt på filmen "Hon dansade en sommar", eller som här, tills nästa drivrutinspatch.

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|

Permalänk
Medlem

"De båda teknikerna är dock låsta till respektive tillverkare... "

Detta är väl ändå ett stort faktafel? FREEsync är väl öppet att använda för andra tillverkare?

Permalänk
Medlem

Bör finnas skärmar med både freesync och g-sync, men det tillåter väl inte nvidia...

Why don't monitors come with both G-sync and Freesync?
https://www.reddit.com/r/buildapc/comments/8sd4w5/why_dont_mo...

Visa signatur

Nerd is the new Cool

Permalänk
Medlem
Skrivet av Grilljohan:

Freesync är en VESA standard som är en del av displayport sedan v1.2, skulle Intel vilja så skulle de kunna stödja det med en drivrutinsuppdatering.

Inte riktigt, Freesync är inte vesa standarden, VESA Adaptive sync är det. Freesync är bara AMD sätt att säga "Denna skärm klarar de av oss satta specifikationer på en produkt för att kunna kallas AMD Freesync".

Om du kollar vissa skärmar så står det Adaptive sync istället för freesync, vilket innebär att någon av AMD regler inte uppfyllts, oftast typ freesync intervallet.

Därför har vi så få Freesync 2 modeller hittills, få tillverkare lyckas uppfylla AMD krav på Freesync 2 vilket är HDR, Low frame rate och low latency.

https://www.techspot.com/article/1630-freesync-2-explained/

Visa signatur

i7 7700k @4.7ghz - 16gb ram @3000mhz - 8gb RTX 3070 - Acer 34 ed347ckr 100hz - Oculus Quest2

Permalänk
Medlem
Skrivet av Ozzed:

Det är det visst. Nvidias hårdvara skulle mycket väl kunna stödja Freesync. Det är ju en helt öppen standard.

Vilket som jag skrev är en helt annan diskussion. Detta handlar inte om att NVIDIA egentligen har stöd för FreeSync och att någon kommit på hur man utnyttjar det, det handlar endast om att man kan skicka bilden från ett grafikkort (sannolikt av valfritt märke) till ett AMD-kort för att kunna utnyttja AMDs stöd för FreeSync.

Permalänk
Inaktiv

För oss mindre begåvade, kan någon praktisk förklara hur man ska dra nytta av detta hack?
Har man ett slött Ati grafikkort och ett supersnabbt Nvida, så kan man nu koppla in sin Freesync skärm på Nvida grafikkortet och låta ens superslöa Ati grafikkort som kanske levererar 5fps, driva lasten emot freesync.
Vad är då poängen med detta? Man lär ju få bättre och jämföra fps att enbart låta Nvida kortet göra allt.

Permalänk
Medlem
Skrivet av anon159643:

För oss mindre begåvade, kan någon praktisk förklara hur man ska dra nytta av detta hack?
Har man ett slött Ati grafikkort och ett supersnabbt Nvida, så kan man nu koppla in sin Freesync skärm på Nvida grafikkortet och låta ens superslöa Ati grafikkort som kanske levererar 5fps, driva lasten emot freesync.
Vad är då poängen med detta? Man lär ju få bättre och jämföra fps att enbart låta Nvida kortet göra allt.

Nej, nu har du nog fått det om bakfoten. Om du kopplar in AMD-kortet får du tillgång till Freesync, men du kan ändå låta Nvidia-kortet göra tungjobbet. Sen skickas den färdigprocessade high-fps-bilden vidare ut genom AMD-kortet bara. (om JAG förstått det hela rätt)

Visa signatur

Speldator :[I] AMD 5600X - 16GB fläskigt ram - AMD 580RX - AOC 32" Wide
HTPC : i5 3450S - 8GB G.Skill - Streacom F8

Permalänk
Medlem
Skrivet av ajp_anton:

Använder inte Nvidia också Freesync till den inbyggda skärmen i laptops, för att slippa strömslukande extra kretsar, men kallar det fortfarande "G-sync"?

De använder en liknande lösning verkar det som, men huruvida det faktiskt är FreeSync de använder eller om de implementerat någon egen lösning vet jag inte. NVIDIA själva säger förstås att det är deras egen lösning, men jag har inte sett något bevis varken för eller emot.

Skrivet av anon159643:

För oss mindre begåvade, kan någon praktisk förklara hur man ska dra nytta av detta hack?
Har man ett slött Ati grafikkort och ett supersnabbt Nvida, så kan man nu koppla in sin Freesync skärm på Nvida grafikkortet och låta ens superslöa Ati grafikkort som kanske levererar 5fps, driva lasten emot freesync.
Vad är då poängen med detta? Man lär ju få bättre och jämföra fps att enbart låta Nvida kortet göra allt.

AMD-kortet används endast för att visa bildrutorna som NVIDIA-kortet renderar, så att AMD-kortet kan snacka FreeSync med skärmen. Så skärmen ansluts till AMD-kortet, och det krävs troligtvis ingen nämnvärd kraft från AMD-kortets sida.