Funderar på SLI, två av samma sort eller olika?

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Apr 2010

Funderar på SLI, två av samma sort eller olika?

Funderar på att hoppa på SLI. Jag har idag ett 970 Strix och undrar om man måste köra ett likadant eller om man kan
köra med ett annat märke?

1.) Hur funkar det med överklockning sen, ska man klocka korten likadant eller kan det ena kortet klockas högre på GPU/minnet?

2.) Är det bara stoppa in korten och koppla på SLI-bryggan och starta upp som vanligt eller?

3.) Spelar det någon roll vilket kort man kopplar in skärmkabeln till?

Sorry för n00b-frågor. :-/

Intel i7-4790K | Palit GeForce GTX 1080 Super Jetstream | Noctua NH-D15 | Corsair Vengeance Low Profile 32GB DDR3 PC3-12800 | Samsung SSD 840 EVO 250 GB | Asus Z97-A

Trädvy Permalänk
Medlem
Registrerad
Maj 2010

Du kan ha olika märken. Och när de klockas, så klockas de tillsammans. Så den högsta stabila klocken du kan få, är begränsad av det minst stabila kortet.

Och sist jag kom ihåg när jag körde SLI, så är det typ bara att koppla in skitet och sen aktivera i nvidia kontroll panelen.

Kommer inte ihåg om det spelar roll vart man kopplar in skärm kabeln. Men det ska nog kvitta. Men om du kan, sätt det i det översta kortet.

Du bör dock även investera i extra chassi fläktar om du har plats. Då dubbla korten kommer leda till ökade temperaturer. Speciellt om det är eftermarknads kylare på dem. Då de har tendens att dumpa ut mycket av värmen i chassit. Jämfört med standard kylare som pumpar ut mesta av värmen ut ur chassit.

CPU: i7-2700K @ 4.6GHz, Corsair H110 MB: Sabertooth Z77 Mem: Corsair Vengeance 4x4GB DDR3 @ 1600 MHz CL9 GPU: Radeon RX Vega 56 SSD: Samsung 850 Pro 256GB Case: CM Storm Stryker PSU: Corsair RM 750W Audio: Sound Blaster Omni, Logitech Z-5500 Display: Acer 35" Predator XZ350CU OS: Win10 Pro

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Nov 2013

SLI är ganska kräset så ja, du bör ha två av samma kort

AMD FX-8350|Sapphire R9 280|Obsidian 800D|Argon AR01

Trädvy Permalänk
Medlem
Plats
Betelgeuse
Registrerad
Jun 2010

Av olika märke spelar ingen större roll(kör så själv) men de bör vara ganska lika och ha näst intill samma klock efter att du slutfört din klockning.

Det som ParasiteX sade om att om du klockar en så klockas andra stämmer beroende på vilket sätt du gör detta på, så läs på lite på det sätt du tänk klocka korten med.

Skriv gärna mera här om du får problem efter klocken då saker kan bli ostabila, även att ett kort klarar det men inte andra då det andra kortet kan ha bättre strömtillförsel eller andra inställningar.

//RK

Core I7 4790k @ 4.5 Ghz med HT / 2x6 Gb corsair 1600 Mhz / MSI Z97S SLI PLUS / GTX 680 SLI/ 250 Gb SSD Samsung / 950W Corsair TX / kylning: helblocks LQ moderkort och CPU block på 3 st 2x120 mm.

Trädvy Permalänk
Medlem
Plats
Västra götaland
Registrerad
Sep 2012

Uppmärksamma bara att gtx 970 SLI kan få problem med VRAM vilket kan hindra dig från högre inställningar trots att beräkningskraften finns där. (Det har ju bara 3.5GB användbart och det ändras inte i SLI.)

Kan låta oavsiktligt aggressiv.
Citera eller @philipborg om du vill att jag ska läsa dina svar.

Trädvy Permalänk
Medlem
Plats
Halmstad
Registrerad
Nov 2012
Skrivet av mame:

Funderar på att hoppa på SLI. Jag har idag ett 970 Strix och undrar om man måste köra ett likadant eller om man kan
köra med ett annat märke?

1.) Hur funkar det med överklockning sen, ska man klocka korten likadant eller kan det ena kortet klockas högre på GPU/minnet?

2.) Är det bara stoppa in korten och koppla på SLI-bryggan och starta upp som vanligt eller?

3.) Spelar det någon roll vilket kort man kopplar in skärmkabeln till?

Sorry för n00b-frågor. :-/

Går bra och köra vilket GTX 970 som helst

1. korten anpassas efter det kortet med lägst överklockning och inne i windows när du gör din överklockning görs det samtidigt på båda korten.

2. Ja, glöm inte aktivera SLI i nvidia inställningar när du kommer in i windows!

3. Översta kortet? kanske inte spelar någon roll testa om du vill

GTX 970 förövrigt suger något enormt att satsa på som SLI kort med minnesbuggen och framtida speltitlar som vill ha mer grafikminne för när du passerar 3,5gb använt minne kommer spelen börja glitcha och din fps kommer sjunka med 60-80%

CPU: i7 3770k @ 4.2ghz + Be Quiet! Dark Rock Pro 3 Moderkort: Asrock Z77 Extreme6 Minnen: Corsair Vengeance Pro 4x4gb 2133mhz GPU: MSI GTX 980 Ti Gaming SSD: 2x Samsung 840 Pro 256gb RAID 0 Nätagg: Corsair AX 850 80+ Gold Chassi: Fractal Design Define C Windowed Edition

Trädvy Permalänk
Medlem
Plats
Betelgeuse
Registrerad
Jun 2010

Oftast är det bara anmärkningsvärt dock vid 4 k upplösning när du behöver mera än 3.5-4 gig VRAM.

Core I7 4790k @ 4.5 Ghz med HT / 2x6 Gb corsair 1600 Mhz / MSI Z97S SLI PLUS / GTX 680 SLI/ 250 Gb SSD Samsung / 950W Corsair TX / kylning: helblocks LQ moderkort och CPU block på 3 st 2x120 mm.

Trädvy Permalänk
Medlem
Plats
Västra götaland
Registrerad
Sep 2012
Skrivet av rkfreestyler:

Oftast är det bara anmärkningsvärt dock vid 4 k upplösning när du behöver mera än 3.5-4 gig VRAM.

Nej, börjar redan strypa vid 1080p idag.

Skickades från m.sweclockers.com

Kan låta oavsiktligt aggressiv.
Citera eller @philipborg om du vill att jag ska läsa dina svar.

Trädvy Permalänk
Medlem
Plats
Betelgeuse
Registrerad
Jun 2010

Inget jag märkt av förutom GTA 5, har kunnat tagit de tyngsta titlarna(förutom RTS som jag ej spelar så kan ej yttra mig där) på ultra 1080p utan problem

Core I7 4790k @ 4.5 Ghz med HT / 2x6 Gb corsair 1600 Mhz / MSI Z97S SLI PLUS / GTX 680 SLI/ 250 Gb SSD Samsung / 950W Corsair TX / kylning: helblocks LQ moderkort och CPU block på 3 st 2x120 mm.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Sep 2013
Skrivet av philipborg:

Uppmärksamma bara att gtx 970 SLI kan få problem med VRAM vilket kan hindra dig från högre inställningar trots att beräkningskraften finns där. (Det har ju bara 3.5GB användbart och det ändras inte i SLI.)

Men kommer inte DirectX 12 erbjuda memory stacking så att de med 970 i SLI kan använda 7 GB VRAM?

Main || Intel Core i7 980X @ 4.12GHz || ASUS Rampage III Gene || Corsair Vengeance 6x4GB @ 1800MHz || EVGA GTX 780 Reference || Creative Sound Blaster ZxR || 2x Intel 530 240 GB || Western Digital Blue WD10EZEX 1000 GB || ASUS VG248QE (no G-sync) ||
Laptop || Lenovo Thinkpad X220 4291-37G ||
Project: Pentium Clockbox || Intel Pentium G3258 ||

Trädvy Permalänk
Medlem
Plats
Västra götaland
Registrerad
Sep 2012
Skrivet av Icte:

Men kommer inte DirectX 12 erbjuda memory stacking så att de med 970 i SLI kan använda 7 GB VRAM?

Nej och ja. Det kommer hjälpa, men ingen dubblering. Vi kanske tittar på 10% högst.

Skickades från m.sweclockers.com

Kan låta oavsiktligt aggressiv.
Citera eller @philipborg om du vill att jag ska läsa dina svar.

Trädvy Permalänk
Medlem
Plats
Betelgeuse
Registrerad
Jun 2010

Skulle tro samma som philipborg, dx12 är nog ingen uppenbarelse mjukvara så att säga.

Core I7 4790k @ 4.5 Ghz med HT / 2x6 Gb corsair 1600 Mhz / MSI Z97S SLI PLUS / GTX 680 SLI/ 250 Gb SSD Samsung / 950W Corsair TX / kylning: helblocks LQ moderkort och CPU block på 3 st 2x120 mm.

Trädvy Permalänk
Medlem
Registrerad
Jul 2011
Skrivet av ParasiteX:

Du kan ha olika märken. Och när de klockas, så klockas de tillsammans. Så den högsta stabila klocken du kan få, är begränsad av det minst stabila kortet.

Skrivet av Oliver91:

1. korten anpassas efter det kortet med lägst överklockning och inne i windows när du gör din överklockning görs det samtidigt på båda korten.

man kan klocka dem separat om man vill
det är bara att bocka ur den här rutan

Skrivet av utsatt_unge496:

SLI är ganska kräset så ja, du bör ha två av samma kort

herregud nej, 8 år gammal myt.

| Fractal Design XL R2| 2x Gigabyte 680 Gtx@1254/7300mhz | Asrock Z77 OC Formula | 3570k@4.5ghz(1.36v) & Phanteks PH-TC14PE | 16gig hyperx beast series@2133mhz | Fractal Design Newton R2, 1000W 80+ | Samsung SSD Basic 840-Series 512GB | 2TB Toshiba 7200rpm SATA6 | 9x Scythe Glide Stream 2000rpm | 2x Bitfenix Recon Fan Controller | BenQ 27'' XL2720T 120Hz + Dell UltraSharp 27" U2713HM IPS 2560x1440 | Sennheiser HD595

Trädvy Permalänk
Medlem
Plats
Halmstad
Registrerad
Nov 2012
Skrivet av deadich:

man kan klocka dem separat om man vill
det är bara att bocka ur den här rutan
http://i.imgur.com/7bKrcFz.png

herregud nej, 8 år gammal myt.

Varför finns den funktionen? blir det inte struttering om de kör på olika?

Skickades från m.sweclockers.com

CPU: i7 3770k @ 4.2ghz + Be Quiet! Dark Rock Pro 3 Moderkort: Asrock Z77 Extreme6 Minnen: Corsair Vengeance Pro 4x4gb 2133mhz GPU: MSI GTX 980 Ti Gaming SSD: 2x Samsung 840 Pro 256gb RAID 0 Nätagg: Corsair AX 850 80+ Gold Chassi: Fractal Design Define C Windowed Edition

Trädvy Permalänk
Medlem
Registrerad
Maj 2010
Skrivet av deadich:

man kan klocka dem separat om man vill
det är bara att bocka ur den här rutan

Skrivet av Oliver91:

Varför finns den funktionen? blir det inte struttering om de kör på olika?

Det är nog mest där för att man kan ha kort med olika fabriks klocks. Så dom som vill kan ändra dem seperat.. Men som sagt, det är rätt meningslöst då det kommer bara köra efter det slöaste kortet.

CPU: i7-2700K @ 4.6GHz, Corsair H110 MB: Sabertooth Z77 Mem: Corsair Vengeance 4x4GB DDR3 @ 1600 MHz CL9 GPU: Radeon RX Vega 56 SSD: Samsung 850 Pro 256GB Case: CM Storm Stryker PSU: Corsair RM 750W Audio: Sound Blaster Omni, Logitech Z-5500 Display: Acer 35" Predator XZ350CU OS: Win10 Pro

Trädvy Permalänk
Medlem
Plats
Västerås
Registrerad
Dec 2011
Skrivet av Icte:

Men kommer inte DirectX 12 erbjuda memory stacking så att de med 970 i SLI kan använda 7 GB VRAM?

Skrivet av philipborg:

Nej och ja. Det kommer hjälpa, men ingen dubblering. Vi kanske tittar på 10% högst.

Skickades från m.sweclockers.com

Blev nästan lite glad där ett tag

Du kan köra skärmarna på vilket kort som helst, bara alla skärmar sitter i samma kort.

Dator: Intel I7 8700k | GTX 1080 | MSI KraitGaming | Corsair 16GB | 500GB SSD | R4 Fönster | Evga SuperNova G2 750 |
Skärmar: BenQ 24 120Hz | Asus 24 144Hz |
Tangentbord/Mus/Lurar: Ducky SHINE 3 TKL MX Red | Sensei | Sennheiser PC373D |
Tillbehör: Ducky Wrist Rest | SteelSeries QcK+ | Telefon: OnePlus 3

Trädvy Permalänk
Proffsmoddare
Plats
Skutskär
Registrerad
Jul 2005

Fascinerande att alla säger att det ska bli VRAM-bekymmer i alla upplösningar över 1920x1080. Jag kör i 3440x1440 med mina dubbla 970's och har inga större bekymmer i de spel jag kör. BF4 går alldeles utmärkt i hyfsat höga settings, Dying light funkade det också... det finns säkert vissa speltitlar där man stöter på patrull. Men att generellt säga att allt över 1920x1080 kommer funka piss pga VRAM-felet är att ta i ganska rejält...

Trädvy Permalänk
Medlem
Plats
Uppsala
Registrerad
Apr 2011
Skrivet av Zpnk:

Fascinerande att alla säger att det ska bli VRAM-bekymmer i alla upplösningar över 1920x1080. Jag kör i 3440x1440 med mina dubbla 970's och har inga större bekymmer i de spel jag kör. BF4 går alldeles utmärkt i hyfsat höga settings, Dying light funkade det också... det finns säkert vissa speltitlar där man stöter på patrull. Men att generellt säga att allt över 1920x1080 kommer funka piss pga VRAM-felet är att ta i ganska rejält...

Och hur fungerar det i GTA5 då?

Silverstone RV02-E "vit", Z97-DELUXE/USB 3.1, 4790K@4,4GHz, Corsair 1600MHz 16GB, Intel 730 480GB, GTX Titan X, Phillips BDM4350UC@3840x2160 ,HRT Music Streamer II, Sennheiser HDVA600, HD800.

Trädvy Permalänk
Proffsmoddare
Plats
Skutskär
Registrerad
Jul 2005
Skrivet av Puttefnasket:

Och hur fungerar det i GTA5 då?

Inte spelat, så har inte en susning

http://www.guru3d.com/articles-pages/gta-v-pc-graphics-perfor...

Trädvy Permalänk
Medlem
Registrerad
Feb 2003
Skrivet av philipborg:

Nej och ja. Det kommer hjälpa, men ingen dubblering. Vi kanske tittar på 10% högst.

Skickades från m.sweclockers.com

Källa på detta tack? Känns som löst snack ur luften.

.:. 101218 - Mitt allt .:.
http://www.escapefromtarkov.se/ - Svensk EFT Discord

Trädvy Permalänk
Medlem
Plats
Västra götaland
Registrerad
Sep 2012
Skrivet av Tomika:

Källa på detta tack? Känns som löst snack ur luften.

PCI-E lanes är för långsamma för att grafikkorten ska kunna ha helt separat data. Källa kan jag tag fram nästa gång jag sitter vid en dator, samt vidare förklaring. Siffran jag sa var däremot en uppskattning utav mig som jag kom fram till med alkohol i blodet ivf så får du inte helt dubbla är vad jag ville säga.

Skickades från m.sweclockers.com

Kan låta oavsiktligt aggressiv.
Citera eller @philipborg om du vill att jag ska läsa dina svar.

Trädvy Permalänk
Medlem
Registrerad
Feb 2003
Skrivet av philipborg:

PCI-E lanes är för långsamma för att grafikkorten ska kunna ha helt separat data. Källa kan jag tag fram nästa gång jag sitter vid en dator, samt vidare förklaring. Siffran jag sa var däremot en uppskattning utav mig som jag kom fram till med alkohol i blodet ivf så får du inte helt dubbla är vad jag ville säga.

Skickades från m.sweclockers.com

Jag ser gärna källa på detta
Det går utmärkt att köra separata grafikkort på ett och samma moderkort för att dela upp gpu per skärm/användare. Och har inte märkt där att det skulle saknas bandbredd samt förlorad prestanda.
Om mjukvara kan använda separata grafikkort precis som idag men med bättre protokoll så ser jag inte heller någon begränsning i form av delad data. Den smällen tar ju processorn?

.:. 101218 - Mitt allt .:.
http://www.escapefromtarkov.se/ - Svensk EFT Discord

Trädvy Permalänk
Medlem
Registrerad
Mar 2014
Skrivet av philipborg:

Nej och ja. Det kommer hjälpa, men ingen dubblering. Vi kanske tittar på 10% högst.

Skickades från m.sweclockers.com

Vad jag läst så rör det sig om 50-70%. Tex 4+4=6gb+. Fast det är knappast några säkra källor.

| View 31 TG | Asus ROG Crosshair VI Hero | Corsair RMX 1000W | AMD R7 1800X |
| EVGA Geforce GTX 1080 Ti FE | G.Skill TridentZ 16GB 3000MHz CL15 |
| Asus Strix Raid DLX | Acer 27" Predator XB271HK G-Sync 4K IPS | Tobii 4C |
| LG OLED55B6V | nVidia Shield V2 |

Trädvy Permalänk
Medlem
Plats
Västra götaland
Registrerad
Sep 2012
Skrivet av Tomika:

Jag ser gärna källa på detta
Det går utmärkt att köra separata grafikkort på ett och samma moderkort för att dela upp gpu per skärm/användare. Och har inte märkt där att det skulle saknas bandbredd samt förlorad prestanda.
Om mjukvara kan använda separata grafikkort precis som idag men med bättre protokoll så ser jag inte heller någon begränsning i form av delad data. Den smällen tar ju processorn?

Den snabbaste PCI-E lane hastigheten som vi har idag är PCI-E 3.0 16x och har bara strax under 16GB/s i hastighet. Det är inte konstigt att dela upp per skärm och sådant men att skyffla flera GB med data per frame går inte bra. Om man skulle ha sann, alltså hela minnet kan delas, så måste PCI-E lane ha en hastighet som tillåter att tillräckligt mycket data överförs utan problem mellan dem olika korten, alltså troligen större delen av minnet per frame. Detta problemet blir ännu värre desto fler kort man har.

Skickades från m.sweclockers.com

Kan låta oavsiktligt aggressiv.
Citera eller @philipborg om du vill att jag ska läsa dina svar.

Trädvy Permalänk
Medlem
Plats
Västra götaland
Registrerad
Sep 2012
Skrivet av Storage Jar:

Vad jag läst så rör det sig om 50-70%. Tex 4+4=6gb+. Fast det är knappast några säkra källor.

Jag tror inte det är jätte osannolikt och det kommer vara större % ökar desto mindre minne. Min siffra var det alkoholen som kom på. Ville förklara att det är inte *2 vi kommer se.

EDIT: Procentantalet kommer variera mellan spel till spel och även GPU till GPU.

Skickades från m.sweclockers.com

Kan låta oavsiktligt aggressiv.
Citera eller @philipborg om du vill att jag ska läsa dina svar.

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Feb 2006
Skrivet av Storage Jar:

Vad jag läst så rör det sig om 50-70%. Tex 4+4=6gb+. Fast det är knappast några säkra källor.

Alltså det beror helt på vilken applikation du gör och hur det är gjort. För vissa saker kommer man kanske kunna få ut 100%, för andra 0%.

Idag brukar man ju låta de olika grafikkorten rendera varannan bild, eller hälften av bilden var. Med den metoden kommer du ju inte vinna mycket alls i minne, då båda korten måste utföra samma jobb.

Gör man däremot lite annorlunda, och låter de olika korten göra olika saker så skulle man ju kunan låta båda korten ha modeller, men ett tar shaders och ett tar texturer så skulle man kunna vinna mycket.

Allt är upp till hur utvecklarna designar spelet särskilt för flera grafikkort. Det är väldigt svårt att lösa problem likt detta och kunna spara minne. Cache is king.

Man kan läsa lite mer här, om man tycker det är kul http://wccftech.com/geforce-radeon-gpus-utilizing-mantle-dire...

Trädvy Permalänk
Medlem
Registrerad
Feb 2003

Skulle varje kort kunna rita upp sin egna bild och därmed ha tillgång till sina totala mängden vram så skulle dom ju kunna nyttja totalt 8gb (om vi tar två 290 som ett exempel), då materialet inte speglas utan varje kort jobbar parallellt. Men latens kanske är boven i varför man inte använder en sådan teknik.

Vi nyttjar ju samma teknik för crossfire/sli som man gjorde på 2000 talet. Kanske dags för en ny lösning istället, eller att tillverkare faktiskt släpper kort med en sjujäkla mängd vram, typ 6gb minimum.

Men men tiden lär visa.

.:. 101218 - Mitt allt .:.
http://www.escapefromtarkov.se/ - Svensk EFT Discord

Trädvy Permalänk
Medlem
Registrerad
Mar 2014
Skrivet av Killbom:

Alltså det beror helt på vilken applikation du gör och hur det är gjort. För vissa saker kommer man kanske kunna få ut 100%, för andra 0%.

Idag brukar man ju låta de olika grafikkorten rendera varannan bild, eller hälften av bilden var. Med den metoden kommer du ju inte vinna mycket alls i minne, då båda korten måste utföra samma jobb.

Gör man däremot lite annorlunda, och låter de olika korten göra olika saker så skulle man ju kunan låta båda korten ha modeller, men ett tar shaders och ett tar texturer så skulle man kunna vinna mycket.

Allt är upp till hur utvecklarna designar spelet särskilt för flera grafikkort. Det är väldigt svårt att lösa problem likt detta och kunna spara minne. Cache is king.

Man kan läsa lite mer här, om man tycker det är kul http://wccftech.com/geforce-radeon-gpus-utilizing-mantle-dire...

Tack. Äntligen en vettig förklaring

| View 31 TG | Asus ROG Crosshair VI Hero | Corsair RMX 1000W | AMD R7 1800X |
| EVGA Geforce GTX 1080 Ti FE | G.Skill TridentZ 16GB 3000MHz CL15 |
| Asus Strix Raid DLX | Acer 27" Predator XB271HK G-Sync 4K IPS | Tobii 4C |
| LG OLED55B6V | nVidia Shield V2 |

Trädvy Permalänk
Medlem
Registrerad
Jul 2011
Skrivet av ParasiteX:

Men som sagt, det är rätt meningslöst då det kommer bara köra efter det slöaste kortet.

Nej varför skulle dom göra det? Eller det kanske dom gör förresten, måste kolla upp det här. Det beror kanske på vad det är för arbete de sysslar med. man kan ju köra mining och sånt t.ex.

Skrivet av Oliver91:

Varför finns den funktionen? blir det inte struttering om de kör på olika?

Skickades från m.sweclockers.com

Njae, grafikkorten ligger ju ändå på olika load osv.

| Fractal Design XL R2| 2x Gigabyte 680 Gtx@1254/7300mhz | Asrock Z77 OC Formula | 3570k@4.5ghz(1.36v) & Phanteks PH-TC14PE | 16gig hyperx beast series@2133mhz | Fractal Design Newton R2, 1000W 80+ | Samsung SSD Basic 840-Series 512GB | 2TB Toshiba 7200rpm SATA6 | 9x Scythe Glide Stream 2000rpm | 2x Bitfenix Recon Fan Controller | BenQ 27'' XL2720T 120Hz + Dell UltraSharp 27" U2713HM IPS 2560x1440 | Sennheiser HD595

Trädvy Permalänk
Inaktiv
Registrerad
Jan 2002
Skrivet av mame:

Funderar på att hoppa på SLI. Jag har idag ett 970 Strix och undrar om man måste köra ett likadant eller om man kan
köra med ett annat märke?

2.) Är det bara stoppa in korten och koppla på SLI-bryggan och starta upp som vanligt eller?

3.) Spelar det någon roll vilket kort man kopplar in skärmkabeln till?

Sorry för n00b-frågor. :-/

Blanda som du vill, så länge det är 970.
2. yes! gjorde så själv för en vecka sedan.
3. lät kortet som redan hade skärmkabeln ansluten ha kvar den. drivrutinerna aktiverade själv SLI och jag behövde inte pilla alls.

Har du pengarna så kör på helt enkelt. Se mer nedan

Skrivet av Zpnk:

Fascinerande att alla säger att det ska bli VRAM-bekymmer i alla upplösningar över 1920x1080. Jag kör i 3440x1440 med mina dubbla 970's och har inga större bekymmer i de spel jag kör. BF4 går alldeles utmärkt i hyfsat höga settings, Dying light funkade det också... det finns säkert vissa speltitlar där man stöter på patrull. Men att generellt säga att allt över 1920x1080 kommer funka piss pga VRAM-felet är att ta i ganska rejält...

Precis, fungerar utmärkt att köra GTA V i högre upplösningar (exempelvis 3840*2160). Folk som säger något annat har ju inte testat själva. Att det inte "går" är trams. Mina två settings som jag blandat mellan, till höger är de som rekommenderas av nvidia, till vänster är mina egna inställningar som jag gjort efter nvidias guide. Var själv lite tveksam till att köpa ett 970 till "då det inte går pga minnet bla bla bla" men testade ändå och det fungerar ju alldeles utmärkt.

Spelet ser ut som gud själv hade gjort det och flyter på som en dröm.

Min setup:
970 SLI (ett från Asus, ett från MSI) senaste drivisar.
i5, 16gb ram, ssd