Nvidia gör uppgraderingspaket med G-Sync för Asus VG248QE

Permalänk
Medlem
Skrivet av LucaBoo:

Skruva i datorer gör jag gärna. Att öppna en skärm... tror inte det. Väntar nog in integrerade skärmar innan jag ens funderar på att "uppgradera".

Det är inte så svårt, bytte ut kretskortet i min Crossover 27q så jag kunde klocka den. Är man bara försiktig funkar det mesta.

Permalänk
Medlem
Skrivet av Shockwave:

Kolla Youtube, Hardwarecanucks och LinusTechTips har redan visat skillnaden mellan de två från Nvidias evenemang. Dock är detta inget test, utan bara hur det ser ut visuellt, men jag tror att PC Perspective kommer att göra ett bra test på frame-tearing osv senare eftersom de har varit väldigt inblandade i AMDs frame-relay-problem.

Vad har frame relay med detta att göra? Det är något helt annat

Intressant teknik. Dock så finns det redan i DVI som många har sagt. Det måste nog komma ner i pris för att ha en chans. Samt att det inte får vara för mycket premium på skärmar som säljs med det.

Mvh
Mayth

Permalänk

Det här känns bara onödigt, modulen kostar som en billigare skärm. så som jag förstår det så hjälper det bara om du går under skärmens refresh rate samt att den såklart som allt från Nvidia endast fungerar med Nvidia.

Ni som klagar på Mantle, mantle ska fungera till alla kort, men den är designad med GCN i baktanke. det borde dock ge en boost för Nvidia kort också pga mindre overhead

Visa signatur

Chassi: Cooler Master HAF X 942 CPU: Intel 3770k @ 4.2 Ghz CPU Kylare: Corsair H80 Ram:16 Gig Balistic X 1600 MhzGPU: Sapphire Radeon R9 290X med Arctic Accelero Xtreme MB: MSI Z77A-GD65 PSU: Chieftec Nitro 750w 80+ Bronze SSDer: Crucial M4 64gb + 2st KINGSTON SSDNOW V+200 128gb i Raid 0Hårddiskar: 2st WD Black 1TB i raid 0 + en WD Green 2TB

Permalänk

Med tanke på att grafikkorten inte hänger med utvecklingen i upplösning så är den här typen av lösningar nog helt nödvändig.

Visa signatur

NES.

Permalänk
Medlem

Skall de börja knô in mer bôs i skärmarna som gör dem 15 hundra spänn dyrare? Tack, men jag tror jag står över. Köper hellre en extra skärm, man kan aldrig ha för många skärmar.

Visa signatur

Min dator
Storrökande, astmatisk hamster i ett rostigt hamsterhjul.

Permalänk
Medlem

Folk borde verkligen tänka sig för innan dom häver ur sig, hälften av alla kommentarer i denna tråd är negativa, ingen tvingar er att köpa det? Det är en svinbra grej som borde kommit för många år sedan, Nvidia tog ett steg i rätt riktning och gjorde något åt det, dom ska endast ha beröm, ändå får dom massor med struntprat från folk som dom inte ens riktar sig till, ni som inte bryr er, vad gör ni i tråden o skriver massa skräp om det för? Det påverkar inte er på något vis, ni behöver aldrig köpa det, ni kan sitta med er screen tearing bäst ni vill.

Kommer personligen inte att införskatta det inom den närmsta framtiden, det är en grej jag absolut vill ha, men detta är för tidigt, om ett år kanske det finns i ett dussintals skärmar på marknaden som endast tar ett par hundralappar extra för det inbyggt, då kan jag tänka mig köpa det, bara för det inte är bra pris nu betyder inte att det är en värdelös "idé och produkt". (Det är som att säga att Titan är sämsta grafikkortet på marknaden för att den är dyr)

Visa signatur

Projektlogg: Vector Qlimax

X APEX, 8700K @ 5200MHz, Trident Z 16GB @ 4133MHz CL16, RTX 2080 Ti, 970 M.2 SSD, RM1000x, EK A240

Permalänk
Medlem
Skrivet av Holm01:

Möts av rubriken att just den skärmen jag har kommer fungera, frid och fröjd tills "användaren själv får montera ett nytt kretskort". Känns inte som att många kommer börja skruva i skärmen för detta...

De borde erbjuda möjligheten att komma in med sin skärm och få kortet fastmonterat, även om det så skulle kosta extra.

Visa signatur

Asus Rog Strix B550-F Gaming | AMD Ryzen 7 5800x3D | Nvidia RTX 3090 | 32gb 3600mhz cl16 DDR4 RAM | 1x 2tb FireCuda 530 gen 4 nvme ssd | 2x 1tb Crucial MX500 sata3 ssd | Creative SoundblasterX AE-5 | 850w 80+ Gold

Permalänk
Medlem
Skrivet av Ratatosk:

Ja Mantle var ett jävligt dåligt exempel, har du något bra?

Nej, men så förvånande att just du skulle komma till en nyhet om Nvidia och försöker trycka till mig. I'm so shocked. Var har du Tumnus nånstans? Eftersom du förmodligen är guldmedaljör i selektiv läskunnighet så antar jag att du aldrig läste mitt första inlägg?

Visa signatur

7800X3D • 4080S • 32GB • 2TB • 1440p 165 Hz
3700X • 3070 • 32GB • 2TB • 1080p 144Hz

Permalänk
Medlem
Skrivet av zhrooms:

Folk borde verkligen tänka sig för innan dom häver ur sig, hälften av alla kommentarer i denna tråd är negativa, ingen tvingar er att köpa det? Det är en svinbra grej som borde kommit för många år sedan, Nvidia tog ett steg i rätt riktning och gjorde något åt det, dom ska endast ha beröm, ändå får dom massor med struntprat från folk som dom inte ens riktar sig till, ni som inte bryr er, vad gör ni i tråden o skriver massa skräp om det för? Det påverkar inte er på något vis, ni behöver aldrig köpa det, ni kan sitta med er screen tearing bäst ni vill.

Kommer personligen inte att införskatta det inom den närmsta framtiden, det är en grej jag absolut vill ha, men detta är för tidigt, om ett år kanske det finns i ett dussintals skärmar på marknaden som endast tar ett par hundralappar extra för det inbyggt, då kan jag tänka mig köpa det, bara för det inte är bra pris nu betyder inte att det är en värdelös "idé och produkt". (Det är som att säga att Titan är sämsta grafikkortet på marknaden för att den är dyr)

Det som är komiskt är att folk ser detta som en ny grej. Idén och tekniken har funnits sedan länge i DVI protokollet. Så det ska inte ha något cred för att komma med något nytt i detta fallet. De kan vara värda cred för detta för att de gör ett nytt försök med idén.

Dock så kommer det antagligen bli låst till Nvidia kort som vanligt. Så det finns en stor risk att det blir en flop.

Mvh
Mayth

Permalänk
Medlem
Skrivet av zhrooms:

Folk borde verkligen tänka sig för innan dom häver ur sig, hälften av alla kommentarer i denna tråd är negativa, ingen tvingar er att köpa det? Det är en svinbra grej som borde kommit för många år sedan, Nvidia tog ett steg i rätt riktning och gjorde något åt det, dom ska endast ha beröm, ändå får dom massor med struntprat från folk som dom inte ens riktar sig till, ni som inte bryr er, vad gör ni i tråden o skriver massa skräp om det för? Det påverkar inte er på något vis, ni behöver aldrig köpa det, ni kan sitta med er screen tearing bäst ni vill.

Kommer personligen inte att införskatta det inom den närmsta framtiden, det är en grej jag absolut vill ha, men detta är för tidigt, om ett år kanske det finns i ett dussintals skärmar på marknaden som endast tar ett par hundralappar extra för det inbyggt, då kan jag tänka mig köpa det, bara för det inte är bra pris nu betyder inte att det är en värdelös "idé och produkt". (Det är som att säga att Titan är sämsta grafikkortet på marknaden för att den är dyr)

Negativa kommentarer kommer oftast från personer med AMD-GPU i signaturen.. Är knappast förvånad.

Permalänk
Avstängd

Perfekt, kan inte vänta tills BenQ släpper uppföljaren till XL2411T med G-Sync, sedan är det bara att smaska på med ett 780 Ti ;D

Visa signatur

Asus Maximus IV Gene-Z - Intel Core i7 2600K - Corsair Vengeance 1866 MHz 4x4 GB - Asus GTX 670 DirectCU II
BenQ XL2410T - Zowie AM - Zowie Swift - Qpad MK-85

iPhone 5S - iPad Air

Permalänk
Discokungen

Det känns mest som en sätt att försöka få ett övertag mot AMD. Hoppas det blir vettiga för alla!

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk

känns lite överdrivet, kör aldrig med vsync/frame limiter på spel (så länge det inte är gamla spel, tex Vice city, San andreas m.m.), screen tearing vänjer man sig med...

JA, jag har spelat/spelar Far Cry 3 och har 60 Hz skärm så jag vet vad screen tearing är.

Men för ett förmånligt pris så gärna, dem kan passa på att vara lite snälla mot oss AMD användare med...

Visa signatur

Tafelwasser

, CITERA FÖR SVAR

Pimpim666 : Skaffa flickvän så minskar risken för att ni går in på sidor med virus.
Nivity: Tror nog det ökar med flera tusen % istället, tjejer klickar ju på vad fan som helst som ploppar upp på skärmen.

Permalänk
Entusiast
Skrivet av 11k:

1. Tress fx är inte stort alls och eyefinity? Då ska ju nvidia dela deras surround.

Skickades från m.sweclockers.com

TressFx är öppet och går även att använda på Nvidias kort. Det är det som är skillnaden mellan AMD och Nvidia. AMD har en förmåga att satsa på öppna lösningar medan nästan allt Nvidia gör är stängt till deras egen hårdvara. Till exempel PhysX och CUDA.

Skrivet av Mayth:

Det som är komiskt är att folk ser detta som en ny grej. Idén och tekniken har funnits sedan länge i DVI protokollet. Så det ska inte ha något cred för att komma med något nytt i detta fallet. De kan vara värda cred för detta för att de gör ett nytt försök med idén.

Dock så kommer det antagligen bli låst till Nvidia kort som vanligt. Så det finns en stor risk att det blir en flop.

Mvh
Mayth

Det är redan bekräftat att det är låst till Nvidia och dessutom krävs 650 Ti Boost eller snabbare för att använda det. Tycker det är lite synd att det inte var gänget bakom Displayport som utvecklade det då det hade varit helt oberoende av grafikkortstillverkare. Det hade också ökat sannolikheten för stor spridning markant.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av anon158432:

Är du säker på att "adjustable refresh rate" gör samma sak dvs synkar skärmen med grafikkortet i realtid? I så fall är ju G-play inget nytt överhuvudtaget...

Hursomhelst kan man ju hoppas att detta sätter press på skärmtillverkarna att utveckla något som fungerar på alla grafikkort.

Exakt samma sak vet jag inte. Inte läst på exakt vad DVI har för overhead och så. Möjligt att det här är mycket bättre och att DVI motsvarigheten är rätt dålig. Eftersom den inte används ALLS så måste det ju vara något dåligt med den.

Visa signatur

Hayabusa T3 | Venum Elite Evo | UFC Venum Pro Line

Permalänk
Hjälpsam
Skrivet av €lysian:

Nej, men så förvånande att just du skulle komma till en nyhet om Nvidia och försöker trycka till mig. I'm so shocked. Var har du Tumnus nånstans? Eftersom du förmodligen är guldmedaljör i selektiv läskunnighet så antar jag att du aldrig läste mitt första inlägg?

Du har alltså inget bra exempel.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

Du har alltså inget bra exempel.

Jo då, för all del. Om du ber mig riktigt snällt så ska jag överväga att svara dig.

Visa signatur

7800X3D • 4080S • 32GB • 2TB • 1440p 165 Hz
3700X • 3070 • 32GB • 2TB • 1080p 144Hz

Permalänk
Hjälpsam
Skrivet av €lysian:

Jo då, för all del. Om du ber mig riktigt snällt så ska jag överväga att svara dig.

Snälla!
Försöker inte alls trycka till dig, vi pratar om grafikkort inte liv och död.
Jo kanske trycka till en liten del av dig, vad jag vill få fram är att AMD tenderar till att använda sig av mer öppna lösningar än Nvidia gör, man kan fråga sig varför, kan vara att Nvidia anser sig vara så stora att de kan styra marknaden eller att AMD tror sig vinna mer på öppna lösningar i längden.
Jag tycker att G-Sync verkar vara en bra grej, hoppas bara att det inte blir en sluten lösning, så att det riskerar att rinna ut i sanden, som PhysX gjorde.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Det här är en så pass revolutionerande teknik att om några år kommer alla skärmar att stöda det, och troligen alla grafikkort också på ett eller annat sätt.
Det är sant som nån sa att tekniken i princip är gammal och att DVI har haft stöd för variabel updaterings frekvens, men grejen är att inga tillverkare har använt tekniken.

Ni som sitter med 120hz+ skärmar och menar att ni inte lider av tearing har både rätt och fel. Ni HAR tearing men eftersom skärmen uppdateras så snabbt så märker man knappt av det, men det finns där.

Det fina med G-sync är att oberoende om spelet varierar kraftigt i fps, med dippar under 60 ner mot 30fps, så kommer upplevelsen att vara felfri, utan tearing, stutter och input lag. Jag tror nog det ändå kommer att märkas ifall det börjar dippa ner mot 30fps, men det kommer i alla fall inte att hacka och flimra.

G-sync innebär alltså dynamisk uppdateringsfrekvens för monitorn (för varje frame). Alltihop har svängts bak-fram kan man säga. Nu kommer grafikkortet att takta skärmen och inte tvärtom.

Här är en bra video som förklarar det mesta:

Permalänk
Medlem
Skrivet av Semjonov:

1400kr, fail.

G-sync, visst bra grej kanske. Knappast en nödvändighet. Jag själv märker inte av några problem med v-sync, kanske för att jag är ouppmärksam. Men det är absolut inte värt 1400 spänn!

Vore istället bättre att göra någon standardisering för alla skärmar och gpuer. Skulle bli billigare med.

Men hardcore nvidia fanbois kommer väl säkert köpa ändå.

Permalänk
Medlem
Skrivet av Itchy Trojan:

Ett test som gämför with/without hade inte suttit fel, med tanke på den prislappen

http://www.engadget.com/2013/10/18/nvidia-g-sync/

Skrivet av backfeed:

Hade missat att det krävdes särskild hårdvara i skärmen. Vilket opraktiskt skräp.

Lycka till att lösa det i mjukvara. Fail-kommentar.

Visa signatur

// Jay-C
CPU: i7 2600K @ 4.5GHz 1.35V (load) w/ H80i v2 | GPU: GTX 1660 GAMING
SSD: MX500 500GB | MB: P8Z68-V Pro | RAM: 2x8GB G.Skill 2133 MHz CL11
APU: X-Fi Titanium Pro | PSU: AX850
Samla alla dina betalkort, gratis valutaväxling, Google Pay m.m. med Curve. £5 bonus med länken: https://www.curve.app/join#EAVGZ56E

Permalänk
Medlem

Självklart ska väll ett företag få ta patent på sina egna uppfinningar. Alla som gnäller verkar vara majoriteten AMD nissar. Vill ni ha g sync så skaffa er ett grönt kort då eller låt bli och hoppas att AMD ordnar något liknande för er.

Visa signatur

GPU 2080Ti Moderkort ROG Crosshair VIII Formula x570
CPU 5900x Minne Corsair 32GB 3600Mhz Nätagg Corsair AX 1200i
Chassi Lian-Li PC-O7S
Skärm C49RG9x 120Hz Hårddisk Corsair MP600 Kylning husradiator, EK Blocks

Permalänk
Skrivet av 11k:

1. Tress fx är inte stort alls och eyefinity? Då ska ju nvidia dela deras surround.

Skickades från m.sweclockers.com

Tror helt du missuppfattat min kommentar, jag frågade vilka stora grejer AMD hade som de faktiskt delade med sig av, och vilka "stora" grejer de hade överhuvudtaget, och fortsatte med att fråga om det var Eyefinity eller Tress FX du syftade på var de stora grejer AMD var generösa nog att dela med sig av.

Visa signatur

| Mobo: B550 AORUS ELITE V2 | CPU: Ryzen 5600x | RAM: 32GB @ 3600MHz | GPU: Asus GTX 1070 ROG| |PSU:RM750x | Chassi: Fractal Design Define R5 | SSD: OCZ Vertex3 120GB + Force GT 240GB | HDD: 6TB | Skärm: Foris FS2333 | |Ljud: Xonar Essence STX |

Permalänk
Entusiast
Skrivet av neumanix:

Det här är en så pass revolutionerande teknik att om några år kommer alla skärmar att stöda det, och troligen alla grafikkort också på ett eller annat sätt.
Det är sant som nån sa att tekniken i princip är gammal och att DVI har haft stöd för variabel updaterings frekvens, men grejen är att inga tillverkare har använt tekniken.

Ni som sitter med 120hz+ skärmar och menar att ni inte lider av tearing har både rätt och fel. Ni HAR tearing men eftersom skärmen uppdateras så snabbt så märker man knappt av det, men det finns där.

Det fina med G-sync är att oberoende om spelet varierar kraftigt i fps, med dippar under 60 ner mot 30fps, så kommer upplevelsen att vara felfri, utan tearing, stutter och input lag. Jag tror nog det ändå kommer att märkas ifall det börjar dippa ner mot 30fps, men det kommer i alla fall inte att hacka och flimra.

G-sync innebär alltså dynamisk uppdateringsfrekvens för monitorn (för varje frame). Alltihop har svängts bak-fram kan man säga. Nu kommer grafikkortet att takta skärmen och inte tvärtom.

Här är en bra video som förklarar det mesta:

http://www.youtube.com/watch?v=GtYqG7Xl-SU

Det måste hända något revolutionerande i tekniken först för det är än så länge dyrt. Nvidia ska ju sälja det för 1400 kr nu och de har sagt att de räknar med att få ner priset till under 100 USD senare. Det betyder att tekniken fortfarande kommer stå för en betydande del av kostnaden för skärmar i det lägre segmentet. Så det kommer inte komma till alla skärmar men det har potential att bli vanligt bland skärmar som är speciellt inriktade mot spel.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av €lysian:

Ja, vilket konstigt företag Nvidia är som tar fram ny teknik till sina egna produkter.
AMD Mantle är inte en sådan teknik menar du?

Mantle är ju öppet, det är bara att Mantle endast supportar GCN-kort, vilket endast AMD:s kort är.

Permalänk
Hjälpsam
Skrivet av Lasergurka:

Tror helt du missuppfattat min kommentar, jag frågade vilka stora grejer AMD hade som de faktiskt delade med sig av, och vilka "stora" grejer de hade överhuvudtaget, och fortsatte med att fråga om det var Eyefinity eller Tress FX du syftade på var de stora grejer AMD var generösa nog att dela med sig av.

Mantle är väl det jag tänker på först, AMD har varit drivande för OpenCL och fysikacceleration via denna, deras lösning för 3D på skärmen är också öppen.
Eyfinity är ju inte öppen men det handlar ju heller inte om någon unik hårdvara, det som krävs är ju bara några skärmar.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Skrivet av Ratatosk:

Mantle är väl det jag tänker på först, AMD har varit drivande för OpenCL och fysikacceleration via denna, deras lösning för 3D på skärmen är också öppen.
Eyfinity är ju inte öppen men det handlar ju heller inte om någon unik hårdvara, det som krävs är ju bara några skärmar.

På vilket sätt är ett grafikkort från AMD inte någon "unik", eller som jag antar att du menar; specifik hårdvara? Något som både mantle och eyefinity kräver.

Visa signatur

| Mobo: B550 AORUS ELITE V2 | CPU: Ryzen 5600x | RAM: 32GB @ 3600MHz | GPU: Asus GTX 1070 ROG| |PSU:RM750x | Chassi: Fractal Design Define R5 | SSD: OCZ Vertex3 120GB + Force GT 240GB | HDD: 6TB | Skärm: Foris FS2333 | |Ljud: Xonar Essence STX |

Permalänk
Hjälpsam
Skrivet av Lasergurka:

På vilket sätt är ett grafikkort från AMD inte någon "unik", eller som jag antar att du menar; specifik hårdvara? Något som både mantle och eyefinity kräver.

Eyefinity är ju bara tre skärmar som man ansluter till grafikkort, Nvidias motsvarighet heter ju något med souround, förstår inte frågan där.
Vad jag förstår skall inte Mantle vara unikt för GCN.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Xeno88:

Ännu en sak som NVIDIA gör som bara fungerar på deras kort. Intressant hur AMD nästan alltid använder öppna tekniker medans NVIDIA låser allt.

Så Mantle fungerar direkt med nVIDIA kort? Det visste jag inte.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Skrivet av Ratatosk:

Eyefinity är ju bara tre skärmar som man ansluter till grafikkort, Nvidias motsvarighet heter ju något med souround, förstår inte frågan där.
Vad jag förstår skall inte Mantle vara unikt för GCN.

Eyefinity är ju bara tre skärmar som man ansluter till AMD-grafikkort, jo precis, alltså något som man kräver specifik hårdvara för. Det finns ingen fråga här att förstå, eftersom ingenting frågades gällande det

Mantle går det i teorin att lägga till stöd för, ja, men är ju helt klart optimerat för AMD, och kommer ju självklart flyta piss för andra. Användare med AMD-kort kan ju fritt använda PhysX som de vill också, sen att det måste drivas av CPU och inte flyter för skit, det är väl då irrelevant det också?

Visa signatur

| Mobo: B550 AORUS ELITE V2 | CPU: Ryzen 5600x | RAM: 32GB @ 3600MHz | GPU: Asus GTX 1070 ROG| |PSU:RM750x | Chassi: Fractal Design Define R5 | SSD: OCZ Vertex3 120GB + Force GT 240GB | HDD: 6TB | Skärm: Foris FS2333 | |Ljud: Xonar Essence STX |