Funderar på SLI, två av samma sort eller olika?

Permalänk
Medlem

Funderar på SLI, två av samma sort eller olika?

Funderar på att hoppa på SLI. Jag har idag ett 970 Strix och undrar om man måste köra ett likadant eller om man kan
köra med ett annat märke?

1.) Hur funkar det med överklockning sen, ska man klocka korten likadant eller kan det ena kortet klockas högre på GPU/minnet?

2.) Är det bara stoppa in korten och koppla på SLI-bryggan och starta upp som vanligt eller?

3.) Spelar det någon roll vilket kort man kopplar in skärmkabeln till?

Sorry för n00b-frågor. :-/

Visa signatur

Intel i7-4790K | Palit GeForce GTX 1080 Super Jetstream | Noctua NH-D15 | Corsair Vengeance Low Profile 32GB DDR3 PC3-12800 | Samsung SSD 840 EVO 250 GB | Asus Z97-A

Permalänk
Medlem

Du kan ha olika märken. Och när de klockas, så klockas de tillsammans. Så den högsta stabila klocken du kan få, är begränsad av det minst stabila kortet.

Och sist jag kom ihåg när jag körde SLI, så är det typ bara att koppla in skitet och sen aktivera i nvidia kontroll panelen.

Kommer inte ihåg om det spelar roll vart man kopplar in skärm kabeln. Men det ska nog kvitta. Men om du kan, sätt det i det översta kortet.

Du bör dock även investera i extra chassi fläktar om du har plats. Då dubbla korten kommer leda till ökade temperaturer. Speciellt om det är eftermarknads kylare på dem. Då de har tendens att dumpa ut mycket av värmen i chassit. Jämfört med standard kylare som pumpar ut mesta av värmen ut ur chassit.

Visa signatur

CPU: Ryzen 7 3700X MB: X570 Aorus Ultra Mem: Corsair Vengeance RGB Pro 2x16GB DDR4 @ 3200 MHz CL16 GPU: Radeon RX Vega 56 SSD: Corsair Force MP510 960GB Case: FD Meshify C PSU: Corsair RM 750W Display: Acer 35" Predator XZ350CU OS: Win10 Pro

Permalänk

SLI är ganska kräset så ja, du bör ha två av samma kort

Visa signatur

AMD Ryzen 5 3600 | Sapphire R9 280

Permalänk

Av olika märke spelar ingen större roll(kör så själv) men de bör vara ganska lika och ha näst intill samma klock efter att du slutfört din klockning.

Det som ParasiteX sade om att om du klockar en så klockas andra stämmer beroende på vilket sätt du gör detta på, så läs på lite på det sätt du tänk klocka korten med.

Skriv gärna mera här om du får problem efter klocken då saker kan bli ostabila, även att ett kort klarar det men inte andra då det andra kortet kan ha bättre strömtillförsel eller andra inställningar.

//RK

Visa signatur

🎮 → Core i9 10900K • Gigabyte RTX 3080 • 64GB DDR4 • MSI MPG Z490 Carbon EK X
🖥️ → Skärm: Acer XZ350CU Curved 35"• 🥽 → VR: Ocolus rift S
💻 → Laptop: Alienware Area 51M
🎧 → Corsair Void PRO wireless
🖱️ → Alienware AW558 | ⌨️ → Razer blakcwidow chroma v2

Permalänk
Medlem

Uppmärksamma bara att gtx 970 SLI kan få problem med VRAM vilket kan hindra dig från högre inställningar trots att beräkningskraften finns där. (Det har ju bara 3.5GB användbart och det ändras inte i SLI.)

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem
Skrivet av mame:

Funderar på att hoppa på SLI. Jag har idag ett 970 Strix och undrar om man måste köra ett likadant eller om man kan
köra med ett annat märke?

1.) Hur funkar det med överklockning sen, ska man klocka korten likadant eller kan det ena kortet klockas högre på GPU/minnet?

2.) Är det bara stoppa in korten och koppla på SLI-bryggan och starta upp som vanligt eller?

3.) Spelar det någon roll vilket kort man kopplar in skärmkabeln till?

Sorry för n00b-frågor. :-/

Går bra och köra vilket GTX 970 som helst

1. korten anpassas efter det kortet med lägst överklockning och inne i windows när du gör din överklockning görs det samtidigt på båda korten.

2. Ja, glöm inte aktivera SLI i nvidia inställningar när du kommer in i windows!

3. Översta kortet? kanske inte spelar någon roll testa om du vill

GTX 970 förövrigt suger något enormt att satsa på som SLI kort med minnesbuggen och framtida speltitlar som vill ha mer grafikminne för när du passerar 3,5gb använt minne kommer spelen börja glitcha och din fps kommer sjunka med 60-80%

Visa signatur

R7 5800X3D / RX 6950 XT / 32GB Ram / 1TB SSD / X570 Bräda / 850w Nätagg.
32 Tums Skärm 1440p 144hz Curved VA panel.

Permalänk

Oftast är det bara anmärkningsvärt dock vid 4 k upplösning när du behöver mera än 3.5-4 gig VRAM.

Visa signatur

🎮 → Core i9 10900K • Gigabyte RTX 3080 • 64GB DDR4 • MSI MPG Z490 Carbon EK X
🖥️ → Skärm: Acer XZ350CU Curved 35"• 🥽 → VR: Ocolus rift S
💻 → Laptop: Alienware Area 51M
🎧 → Corsair Void PRO wireless
🖱️ → Alienware AW558 | ⌨️ → Razer blakcwidow chroma v2

Permalänk
Medlem
Skrivet av rkfreestyler:

Oftast är det bara anmärkningsvärt dock vid 4 k upplösning när du behöver mera än 3.5-4 gig VRAM.

Nej, börjar redan strypa vid 1080p idag.

Skickades från m.sweclockers.com

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk

Inget jag märkt av förutom GTA 5, har kunnat tagit de tyngsta titlarna(förutom RTS som jag ej spelar så kan ej yttra mig där) på ultra 1080p utan problem

Visa signatur

🎮 → Core i9 10900K • Gigabyte RTX 3080 • 64GB DDR4 • MSI MPG Z490 Carbon EK X
🖥️ → Skärm: Acer XZ350CU Curved 35"• 🥽 → VR: Ocolus rift S
💻 → Laptop: Alienware Area 51M
🎧 → Corsair Void PRO wireless
🖱️ → Alienware AW558 | ⌨️ → Razer blakcwidow chroma v2

Permalänk
Medlem
Skrivet av philipborg:

Uppmärksamma bara att gtx 970 SLI kan få problem med VRAM vilket kan hindra dig från högre inställningar trots att beräkningskraften finns där. (Det har ju bara 3.5GB användbart och det ändras inte i SLI.)

Men kommer inte DirectX 12 erbjuda memory stacking så att de med 970 i SLI kan använda 7 GB VRAM?

Visa signatur

12c/24t 4.0GHz (Zen2) • 2x16GiB 3200MHz C14 • RTX 2080 FE 1965MHz 7000MHz • X570 I PW • Ghost S1 MKII

Permalänk
Medlem
Skrivet av Icte:

Men kommer inte DirectX 12 erbjuda memory stacking så att de med 970 i SLI kan använda 7 GB VRAM?

Nej och ja. Det kommer hjälpa, men ingen dubblering. Vi kanske tittar på 10% högst.

Skickades från m.sweclockers.com

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk

Skulle tro samma som philipborg, dx12 är nog ingen uppenbarelse mjukvara så att säga.

Visa signatur

🎮 → Core i9 10900K • Gigabyte RTX 3080 • 64GB DDR4 • MSI MPG Z490 Carbon EK X
🖥️ → Skärm: Acer XZ350CU Curved 35"• 🥽 → VR: Ocolus rift S
💻 → Laptop: Alienware Area 51M
🎧 → Corsair Void PRO wireless
🖱️ → Alienware AW558 | ⌨️ → Razer blakcwidow chroma v2

Permalänk
Medlem
Skrivet av ParasiteX:

Du kan ha olika märken. Och när de klockas, så klockas de tillsammans. Så den högsta stabila klocken du kan få, är begränsad av det minst stabila kortet.

Skrivet av Oliver91:

1. korten anpassas efter det kortet med lägst överklockning och inne i windows när du gör din överklockning görs det samtidigt på båda korten.

man kan klocka dem separat om man vill
det är bara att bocka ur den här rutan

Skrivet av utsatt_unge496:

SLI är ganska kräset så ja, du bör ha två av samma kort

herregud nej, 8 år gammal myt.

Visa signatur

| Fractal Design XL R2| 2x Gigabyte 680 Gtx@1254/7300mhz | Asrock Z77 OC Formula | 3570k@4.5ghz(1.36v) & Phanteks PH-TC14PE | 16gig hyperx beast series@2133mhz | Fractal Design Newton R2, 1000W 80+ | Samsung SSD Basic 840-Series 512GB | 2TB Toshiba 7200rpm SATA6 | 9x Scythe Glide Stream 2000rpm | 2x Bitfenix Recon Fan Controller | BenQ 27'' XL2720T 120Hz + Dell UltraSharp 27" U2713HM IPS 2560x1440 | Sennheiser HD595

Permalänk
Medlem
Skrivet av deadich:

man kan klocka dem separat om man vill
det är bara att bocka ur den här rutan
http://i.imgur.com/7bKrcFz.png

herregud nej, 8 år gammal myt.

Varför finns den funktionen? blir det inte struttering om de kör på olika?

Skickades från m.sweclockers.com

Visa signatur

R7 5800X3D / RX 6950 XT / 32GB Ram / 1TB SSD / X570 Bräda / 850w Nätagg.
32 Tums Skärm 1440p 144hz Curved VA panel.

Permalänk
Medlem
Skrivet av deadich:

man kan klocka dem separat om man vill
det är bara att bocka ur den här rutan

Skrivet av Oliver91:

Varför finns den funktionen? blir det inte struttering om de kör på olika?

Det är nog mest där för att man kan ha kort med olika fabriks klocks. Så dom som vill kan ändra dem seperat.. Men som sagt, det är rätt meningslöst då det kommer bara köra efter det slöaste kortet.

Visa signatur

CPU: Ryzen 7 3700X MB: X570 Aorus Ultra Mem: Corsair Vengeance RGB Pro 2x16GB DDR4 @ 3200 MHz CL16 GPU: Radeon RX Vega 56 SSD: Corsair Force MP510 960GB Case: FD Meshify C PSU: Corsair RM 750W Display: Acer 35" Predator XZ350CU OS: Win10 Pro

Permalänk
Medlem
Skrivet av Icte:

Men kommer inte DirectX 12 erbjuda memory stacking så att de med 970 i SLI kan använda 7 GB VRAM?

Skrivet av philipborg:

Nej och ja. Det kommer hjälpa, men ingen dubblering. Vi kanske tittar på 10% högst.

Skickades från m.sweclockers.com

Blev nästan lite glad där ett tag

Du kan köra skärmarna på vilket kort som helst, bara alla skärmar sitter i samma kort.

Permalänk
Entusiast

Fascinerande att alla säger att det ska bli VRAM-bekymmer i alla upplösningar över 1920x1080. Jag kör i 3440x1440 med mina dubbla 970's och har inga större bekymmer i de spel jag kör. BF4 går alldeles utmärkt i hyfsat höga settings, Dying light funkade det också... det finns säkert vissa speltitlar där man stöter på patrull. Men att generellt säga att allt över 1920x1080 kommer funka piss pga VRAM-felet är att ta i ganska rejält...

Permalänk
Medlem
Skrivet av Zpnk:

Fascinerande att alla säger att det ska bli VRAM-bekymmer i alla upplösningar över 1920x1080. Jag kör i 3440x1440 med mina dubbla 970's och har inga större bekymmer i de spel jag kör. BF4 går alldeles utmärkt i hyfsat höga settings, Dying light funkade det också... det finns säkert vissa speltitlar där man stöter på patrull. Men att generellt säga att allt över 1920x1080 kommer funka piss pga VRAM-felet är att ta i ganska rejält...

Och hur fungerar det i GTA5 då?

Permalänk
Entusiast
Skrivet av Puttefnasket:

Och hur fungerar det i GTA5 då?

Inte spelat, så har inte en susning

http://www.guru3d.com/articles-pages/gta-v-pc-graphics-perfor...

Permalänk
Medlem
Skrivet av philipborg:

Nej och ja. Det kommer hjälpa, men ingen dubblering. Vi kanske tittar på 10% högst.

Skickades från m.sweclockers.com

Källa på detta tack? Känns som löst snack ur luften.

Visa signatur

Star Citizen ❤

Permalänk
Medlem
Skrivet av Tomika:

Källa på detta tack? Känns som löst snack ur luften.

PCI-E lanes är för långsamma för att grafikkorten ska kunna ha helt separat data. Källa kan jag tag fram nästa gång jag sitter vid en dator, samt vidare förklaring. Siffran jag sa var däremot en uppskattning utav mig som jag kom fram till med alkohol i blodet ivf så får du inte helt dubbla är vad jag ville säga.

Skickades från m.sweclockers.com

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem
Skrivet av philipborg:

PCI-E lanes är för långsamma för att grafikkorten ska kunna ha helt separat data. Källa kan jag tag fram nästa gång jag sitter vid en dator, samt vidare förklaring. Siffran jag sa var däremot en uppskattning utav mig som jag kom fram till med alkohol i blodet ivf så får du inte helt dubbla är vad jag ville säga.

Skickades från m.sweclockers.com

Jag ser gärna källa på detta
Det går utmärkt att köra separata grafikkort på ett och samma moderkort för att dela upp gpu per skärm/användare. Och har inte märkt där att det skulle saknas bandbredd samt förlorad prestanda.
Om mjukvara kan använda separata grafikkort precis som idag men med bättre protokoll så ser jag inte heller någon begränsning i form av delad data. Den smällen tar ju processorn?

Visa signatur

Star Citizen ❤

Permalänk
Medlem
Skrivet av philipborg:

Nej och ja. Det kommer hjälpa, men ingen dubblering. Vi kanske tittar på 10% högst.

Skickades från m.sweclockers.com

Vad jag läst så rör det sig om 50-70%. Tex 4+4=6gb+. Fast det är knappast några säkra källor.

Visa signatur

| Fractal Design Define Mini C | MSI Z490M MPG GAMING EDGE | Corsair RM750X 750W v2 | Intel Core i5 10600K |
|GIGABYTE RTX 3070 AORUS Master |Corsair 32GB DDR4 3200MHz CL16 |
| Asus Strix Raid DLX | Acer 27" Predator XB271HK G-Sync 4K IPS | Tobii 4C |
| LG OLED55B6V | nVidia Shield V2 |

Permalänk
Medlem
Skrivet av Tomika:

Jag ser gärna källa på detta
Det går utmärkt att köra separata grafikkort på ett och samma moderkort för att dela upp gpu per skärm/användare. Och har inte märkt där att det skulle saknas bandbredd samt förlorad prestanda.
Om mjukvara kan använda separata grafikkort precis som idag men med bättre protokoll så ser jag inte heller någon begränsning i form av delad data. Den smällen tar ju processorn?

Den snabbaste PCI-E lane hastigheten som vi har idag är PCI-E 3.0 16x och har bara strax under 16GB/s i hastighet. Det är inte konstigt att dela upp per skärm och sådant men att skyffla flera GB med data per frame går inte bra. Om man skulle ha sann, alltså hela minnet kan delas, så måste PCI-E lane ha en hastighet som tillåter att tillräckligt mycket data överförs utan problem mellan dem olika korten, alltså troligen större delen av minnet per frame. Detta problemet blir ännu värre desto fler kort man har.

Skickades från m.sweclockers.com

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem
Skrivet av Storage Jar:

Vad jag läst så rör det sig om 50-70%. Tex 4+4=6gb+. Fast det är knappast några säkra källor.

Jag tror inte det är jätte osannolikt och det kommer vara större % ökar desto mindre minne. Min siffra var det alkoholen som kom på. Ville förklara att det är inte *2 vi kommer se.

EDIT: Procentantalet kommer variera mellan spel till spel och även GPU till GPU.

Skickades från m.sweclockers.com

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Inaktiv
Skrivet av Storage Jar:

Vad jag läst så rör det sig om 50-70%. Tex 4+4=6gb+. Fast det är knappast några säkra källor.

Alltså det beror helt på vilken applikation du gör och hur det är gjort. För vissa saker kommer man kanske kunna få ut 100%, för andra 0%.

Idag brukar man ju låta de olika grafikkorten rendera varannan bild, eller hälften av bilden var. Med den metoden kommer du ju inte vinna mycket alls i minne, då båda korten måste utföra samma jobb.

Gör man däremot lite annorlunda, och låter de olika korten göra olika saker så skulle man ju kunan låta båda korten ha modeller, men ett tar shaders och ett tar texturer så skulle man kunna vinna mycket.

Allt är upp till hur utvecklarna designar spelet särskilt för flera grafikkort. Det är väldigt svårt att lösa problem likt detta och kunna spara minne. Cache is king.

Man kan läsa lite mer här, om man tycker det är kul http://wccftech.com/geforce-radeon-gpus-utilizing-mantle-dire...

Permalänk
Medlem

Skulle varje kort kunna rita upp sin egna bild och därmed ha tillgång till sina totala mängden vram så skulle dom ju kunna nyttja totalt 8gb (om vi tar två 290 som ett exempel), då materialet inte speglas utan varje kort jobbar parallellt. Men latens kanske är boven i varför man inte använder en sådan teknik.

Vi nyttjar ju samma teknik för crossfire/sli som man gjorde på 2000 talet. Kanske dags för en ny lösning istället, eller att tillverkare faktiskt släpper kort med en sjujäkla mängd vram, typ 6gb minimum.

Men men tiden lär visa.

Visa signatur

Star Citizen ❤

Permalänk
Medlem
Skrivet av anon81912:

Alltså det beror helt på vilken applikation du gör och hur det är gjort. För vissa saker kommer man kanske kunna få ut 100%, för andra 0%.

Idag brukar man ju låta de olika grafikkorten rendera varannan bild, eller hälften av bilden var. Med den metoden kommer du ju inte vinna mycket alls i minne, då båda korten måste utföra samma jobb.

Gör man däremot lite annorlunda, och låter de olika korten göra olika saker så skulle man ju kunan låta båda korten ha modeller, men ett tar shaders och ett tar texturer så skulle man kunna vinna mycket.

Allt är upp till hur utvecklarna designar spelet särskilt för flera grafikkort. Det är väldigt svårt att lösa problem likt detta och kunna spara minne. Cache is king.

Man kan läsa lite mer här, om man tycker det är kul http://wccftech.com/geforce-radeon-gpus-utilizing-mantle-dire...

Tack. Äntligen en vettig förklaring

Visa signatur

| Fractal Design Define Mini C | MSI Z490M MPG GAMING EDGE | Corsair RM750X 750W v2 | Intel Core i5 10600K |
|GIGABYTE RTX 3070 AORUS Master |Corsair 32GB DDR4 3200MHz CL16 |
| Asus Strix Raid DLX | Acer 27" Predator XB271HK G-Sync 4K IPS | Tobii 4C |
| LG OLED55B6V | nVidia Shield V2 |

Permalänk
Medlem
Skrivet av ParasiteX:

Men som sagt, det är rätt meningslöst då det kommer bara köra efter det slöaste kortet.

Nej varför skulle dom göra det? Eller det kanske dom gör förresten, måste kolla upp det här. Det beror kanske på vad det är för arbete de sysslar med. man kan ju köra mining och sånt t.ex.

Skrivet av Oliver91:

Varför finns den funktionen? blir det inte struttering om de kör på olika?

Skickades från m.sweclockers.com

Njae, grafikkorten ligger ju ändå på olika load osv.

Visa signatur

| Fractal Design XL R2| 2x Gigabyte 680 Gtx@1254/7300mhz | Asrock Z77 OC Formula | 3570k@4.5ghz(1.36v) & Phanteks PH-TC14PE | 16gig hyperx beast series@2133mhz | Fractal Design Newton R2, 1000W 80+ | Samsung SSD Basic 840-Series 512GB | 2TB Toshiba 7200rpm SATA6 | 9x Scythe Glide Stream 2000rpm | 2x Bitfenix Recon Fan Controller | BenQ 27'' XL2720T 120Hz + Dell UltraSharp 27" U2713HM IPS 2560x1440 | Sennheiser HD595

Permalänk
Inaktiv
Skrivet av mame:

Funderar på att hoppa på SLI. Jag har idag ett 970 Strix och undrar om man måste köra ett likadant eller om man kan
köra med ett annat märke?

2.) Är det bara stoppa in korten och koppla på SLI-bryggan och starta upp som vanligt eller?

3.) Spelar det någon roll vilket kort man kopplar in skärmkabeln till?

Sorry för n00b-frågor. :-/

Blanda som du vill, så länge det är 970.
2. yes! gjorde så själv för en vecka sedan.
3. lät kortet som redan hade skärmkabeln ansluten ha kvar den. drivrutinerna aktiverade själv SLI och jag behövde inte pilla alls.

Har du pengarna så kör på helt enkelt. Se mer nedan

Skrivet av Zpnk:

Fascinerande att alla säger att det ska bli VRAM-bekymmer i alla upplösningar över 1920x1080. Jag kör i 3440x1440 med mina dubbla 970's och har inga större bekymmer i de spel jag kör. BF4 går alldeles utmärkt i hyfsat höga settings, Dying light funkade det också... det finns säkert vissa speltitlar där man stöter på patrull. Men att generellt säga att allt över 1920x1080 kommer funka piss pga VRAM-felet är att ta i ganska rejält...

Precis, fungerar utmärkt att köra GTA V i högre upplösningar (exempelvis 3840*2160). Folk som säger något annat har ju inte testat själva. Att det inte "går" är trams. Mina två settings som jag blandat mellan, till höger är de som rekommenderas av nvidia, till vänster är mina egna inställningar som jag gjort efter nvidias guide. Var själv lite tveksam till att köpa ett 970 till "då det inte går pga minnet bla bla bla" men testade ändå och det fungerar ju alldeles utmärkt.

Spelet ser ut som gud själv hade gjort det och flyter på som en dröm.

Min setup:
970 SLI (ett från Asus, ett från MSI) senaste drivisar.
i5, 16gb ram, ssd