Varför dog SLI ut? Är det förlegad teknologi idag?

Permalänk
Medlem

Varför dog SLI ut? Är det förlegad teknologi idag?

Hur kommer det sig att SLI dog ut efter att ha varit så populärt?

Är det en förlegad teknologi idag eller är det fortfarande en bra lösning om man vill köra på lite äldre kort, t.ex två stycken GTX 980?

Visa signatur

MSI B450 TOMAHAWK MAX | AMD Ryzen 7 3700X + Noctua NH-U12S | Gigabyte RTX 2080 Windforce OC 8GB | 32GB Kingston HyperX Fury 3200MHz | Seasonic Focus GX 750W | WD Green SN350 2TB | 32" LG UltraGear 32GP850

Lenovo LOQ 15APH8 | AMD Ryzen 7 7840HS | RTX 4060 8GB | 2X8GB Samsung 5600MHz | WD Green SN350 2TB

Permalänk
Medlem

Dyrt och jävligt jobbigt med profiler som funkade ibland.

Visa signatur

Jag är så progg att jag lyssnar på konceptalbum på shuffle

Permalänk
Medlem
Skrivet av favouredhawk:

Hur kommer det sig att SLI dog ut efter att ha varit så populärt?

Är det en förlegad teknologi idag eller är det fortfarande en bra lösning om man vill köra på lite äldre kort, t.ex två stycken GTX 980?

Verkligen inte en bra lösning idag och har varit dött i bra många år nu. Så rekommenderar att du inte köper två äldre toppkort för att köra SLI, det är inte lönt besväret (och funkar antagligen inte i 90% av moderna spel ändå).

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem

Grafikkorten började ju bli så pass kraftfulla att det inte fanns något större behov av att ha 2st för att kunna köra i högre upplösningar och uppdateringsfrekvenser, så det bidrog nog en hel del.

Permalänk
Hedersmedlem

Jag körde själv 980 Ti SLI ett bra tag, men det kändes som att stödet för det och funktionaliteten försämrades med varje ny drivrutin.
När jag testat igen har jag nästan alltid upplevt att det varit bättre flyt och resultat med bara ett kort än om jag använt två.

Så min bedömning är att SLI idag inte upplevs ha åldrats väl. Det beror väl kanske mer på vad du tänkt spela. FPS med fokus på multiplayer hade jag nog skippat i och med den stuttering som alltid kommer med SLI, men stadsbyggarspel, Civilization och simulatorer kan nog vara värda att prova det med.

Permalänk
Medlem
Skrivet av Enlightener:

Jag körde själv 980 Ti SLI ett bra tag, men det kändes som att stödet för det och funktionaliteten försämrades med varje ny drivrutin.

Tanken att ta två grafikkort och låta dem dela på arbetsbördan är väl god, det fungerar ju rätt bra för processorer. Men dels måste arbetsbördan fördelas så jämnt som möjligt och dels måste arbetet som sker på grafikkorten synkas ibland. Som jag förstår det var mycket av detta implementerat i drivrutinerna, så det blev väl i längden för mycket jobb med att underhålla dessa för en vinst i prestanda som blev mindre och mindre i förhållande till alternativet att helt enkelt göra ett snabbare grafikkort.

Visa signatur

Bra, snabbt, billigt; välj två.

Ljud
PC → ODAC/O2 → Sennheiser HD650/Ultrasone PRO 900/...
PC → S.M.S.L SA300 → Bowers & Wilkins 607

Permalänk
Medlem

Saknar den gyllene tiden, man köpte ett dyrt grafikkort och sedan ett begagnat några år senare... Otroligt prisvärt, och det fanns bra stöd i drivrutinerna. Minns hur jag kunde köra Dragon Age på hög grafik med mina två GTX 275.

Tror det va när DX11 kom som 99% av all support helt plötsligt försvann, det hamnade på utvecklarnas tallrik att få det att fungera och det gjorde dom aldrig. Så RIP.

Permalänk
Hedersmedlem
Skrivet av Phod:

Tanken att ta två grafikkort och låta dem dela på arbetsbördan är väl god, det fungerar ju rätt bra för processorer. Men dels måste arbetsbördan fördelas så jämnt som möjligt och dels måste arbetet som sker på grafikkorten synkas ibland. Som jag förstår det var mycket av detta implementerat i drivrutinerna, så det blev väl i längden för mycket jobb med att underhålla dessa för en vinst i prestanda som blev mindre och mindre i förhållande till alternativet att helt enkelt göra ett snabbare grafikkort.

Absolut, idén är god och det fungerade ju dessutom rätt väl på 3dfx:s tid. Som nedanstående också nämner, det blev väldigt bökigt att implementera det i spel för DX 11 vilket nog dessutom gjorde det mer resurskrävande att få till bra stöd i drivrutinerna.

Skrivet av Chromatic:

Saknar den gyllene tiden, man köpte ett dyrt grafikkort och sedan ett begagnat några år senare... Otroligt prisvärt, och det fanns bra stöd i drivrutinerna. Minns hur jag kunde köra Dragon Age på hög grafik med mina två GTX 275.

Tror det va när DX11 kom som 99% av all support helt plötsligt försvann, det hamnade på utvecklarnas tallrik att få det att fungera och det gjorde dom aldrig. Så RIP.

Nu kanske jag är lite konspiratorisk, men jag tror ju heller inte att Nvidia var motiverade att hålla SLI i framkant när de såg att folk köpte gamla begagnade kort för SLI istället för att byta upp sig.
DX11 var definitivt bökigt, men jag hade ändå hopp för DX12 och deras asynchronous compute. Tyvärr blev det för lite för sent och numer gör ju priserna att det heller inte i teorin är intressant med SLI-lösningar.

Permalänk
Medlem

Man kan leka i PC building Simulator och köra 3090 i SLI. Trevlig prestanda om det hade varit på riktigt....

Visa signatur

⚙️ Asus ROG Strix Maximus 13 Hero; Core i9, (11900K); ASUS ROG Ryujin 360mm; RTX 3090 ROG Strix; G.Skill Trident Z Royal DDR4-4600 CL20 DC - 64GB ; Samsung 980 Pro 2TB M.2; PSU: ASUS ROG Thor 1200W. CASE: ASUS ROG Strix Helios GX601. 🖥️Asus ROG PG279Q 2560x1440 🖥️, 🖥️🖥️HTC Vive Cosmos Elite, Vive Wireless. ⌨️Steelseries Apex Pro 🖱️Steelseries Rival 600

Permalänk
Medlem
Skrivet av Enlightener:

Absolut, idén är god och det fungerade ju dessutom rätt väl på 3dfx:s tid. Som nedanstående också nämner, det blev väldigt bökigt att implementera det i spel för DX 11 vilket nog dessutom gjorde det mer resurskrävande att få till bra stöd i drivrutinerna.

Nu kanske jag är lite konspiratorisk, men jag tror ju heller inte att Nvidia var motiverade att hålla SLI i framkant när de såg att folk köpte gamla begagnade kort för SLI istället för att byta upp sig.
DX11 var definitivt bökigt, men jag hade ändå hopp för DX12 och deras asynchronous compute. Tyvärr blev det för lite för sent och numer gör ju priserna att det heller inte i teorin är intressant med SLI-lösningar.

Ja du har nog helt rätt i det. Inte lönsamt när folk kan återanvända sina grafikkort precis.

Permalänk
Medlem

Flera anledningar:

- Dom flesta spelen var dåligt optimerade för SLI, så prestandan kunde ofta inte nyttjas.
- Kom med diverse egna problem i form av microstutter och dylikt som singel-GPU slapp.
- Högre temperatur.
- Högre ljudnivå.
- Men framför allt: GPU-prestandan skenade iväg så pass att behovet mer eller mindre dog ut. För 10 år tvingades man nästan använda SL/CF för att maxxa många spel. Idag klarar ett ensamt highend-kort utan problem samma scenario.

Det är inte så konstigt att stödet från Nvidia och AMD minskade när dom såg vart trenden var på väg.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem

Att det dog nu är väl för att det fungerade dåligt i flera år innan, och nu gav man upp.

Det tekniska problemet är att de två korten antingen renderar varannan bildruta - s.k. alternate frame rendering - eller så renderar de halva bildrutan var - split frame rendering. AFR innebär att latencyn går upp, processen blir mindre effektiv för att man inte kan utnyttja cachad information lika bra, och man får microstuttering om man inte kompenserar för det (genom att lägga till ännu mer latency). SFR kräver stöd från spelet. Med DirectX 12 fanns "explicit multi-adapter" som innebar att man skulle kunna koda spelet för att stödja SFR direkt med APIn, men det verkar ingen ha gjort. Det var väl för mycket jobb för alltför liten marknad.

Problemet för tillverkarna är att den enda situationen där SLI har en poäng för dem är högst upp, ovanför det bästa singel-kortet. De som absolut vill ha mer prestanda än säg ett GTX 680 kunde leverera, kunde köpa två stycken 680 (eller 670) och komma upp på en ny nivå. Det som beskrivs i tråden, att man uppgraderar sitt mellanklasskort med ett likadant efter ett par år, är ingen bra lösning för Nvidia eller AMD. De vill mycket hellre att du köper ett nytt kort. Det finns ingen anledning för dem att jobba för att stödja detta.

Nvidias lösning på det "hål" som uppstod i pyramiden när SLI försvann blev att göra ännu mer absurt jättelika kort, som levererade den prestandan i ett chip. Ett GA102 (3090) är ganska lagom två stycken GK104 (680). Där har du deras ersättning till SLI.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Om jag inte minns fel så gick det nog mot perma-death när stödet för SLI skulle upprätthållas av spelutvecklarna och inte drivrutinsutvecklaren. Vilket företag vill investera extra resurser i det här läget?

Visa signatur

Endeavour OS(arch) - Cassini Nova

Permalänk
Medlem

Körde länge dubbla 980ti i SLI (2016-2019) och fram till jag bytte så fungerade det bra för allt jag kastade på dom. Men inget jag hade kunnat köra på idag för inga spel är optimerade för det. Där har man väl den största boven i dramat och att nyare kort presterar såpass väl ensamma att det inte behövs, man vinner helt enkelt ingenting på det

900 serien var dom sista som gick bra i SLI i min mening om man skulle ha det till spel.

Permalänk
Medlem
Skrivet av Señor Hallon:

Dyrt och jävligt jobbigt med profiler som funkade ibland.

Dyrt är det väl verkligen inte? Om man kan få till en bra skalning kan man ju köpa två grafikkort med riktigt bra prestanda per krona för att på så kan man få grym prestanda för en liten peng.

Tänk om man kunde få ut 90-100 % skalning med RX 6600, då hade man fått monsterprestanda för ca 6500 kr.

Visa signatur

🏬: B550M DS3H 🔲: Ryzen 5 5600X ❄️: Freezer 34 eSports 🏴: RTX 3060 Ti Ventus 2X OC
🗄️: Stronghold 🔌: RM650 (2019) 🎞️: 32 GB DDR4 3200 MHz CL16 💾: CS3030 1 TB
⌨️: E9270P/MK730 (MX Red)/G80-3000N (MX Silent Red) 🖱️: Xlite V2 Mini/G603/MX Vertical
🎧: Edition XS/Astro A50/GSP 370/ATH-SR30BT/TAT2206 📶: Archer C6 📱: Pixel 6a
🖥️: OLED55BX/276E8VJSB

Permalänk
Rekordmedlem

Det kanske kommer tillbaka i ny version för VR med ett kort per bildvisare.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem

7950GX2 Masterrace

Bethesda spel hade enorma problem med stutters, mina 5850 gick inte att spela med

Visa signatur

| ASUS ROG Crosshari VIII Dark Hero | AMD Ryzen 5950X | Noctua D15 Chromax | G.Skill TridentZ Royal Gold 32GB DDR4 @ 3600Mhz CL14 | Palit GeForce RTX 2080 Ti 11GB GamingPro OC | 2x WD SN850 1TB @RAID 0 + 2x Samsung 860 EVO 1TB @RAID 0 | Corsair HX 1000W | Corsair Obsidian 1000D | LG 34'' 34GN850 |

Monitor Audio Platinum PL100 II + Advance Paris X-P500 + Advance Paris X-A160
Klipsch R-115SW
Sennheiser HD650

Permalänk
Medlem

Vi kan väl alla vara ärliga om att vi körde Crossfire / SLI av den enkla anledningen att det var jävligt fränt, och hade egentligen inget med prestanda att göra...

Körde 5770 x 2, 5870x2 och GTX970 i SLI, men det funkade väl okej men ofta fick man köra på en ensam...

Visa signatur

Krusidullen är stulen

Permalänk
Medlem

Jag körde dubbla 580, det var tider det!

Visa signatur

:(){ :|:& };:

🏊🏻‍♂️   🚴🏻‍♂️   🏃🏻‍♂️   ☕

Permalänk
Medlem

Sli fungerade nog bäst när voodoo använde det. minns att jag hade 2 kort och det fungerade så gott som på alla spel på den tiden.

Modern SLI teknik fungerar inte lika bra PGA många orsaker. En av de största är nog att moderna spel helt enkelt inte stödjer det så bra och där det fungerade så fick man ofta problem med "stutter" eller som i mitt fall artefakter med 7900gt.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

Jag funderade på SLI men det var ju inte så att prestandan dubblerades direkt.. Man fick ju bara en ynka ökning på 20+- % så när de nya korten kom spöade de ju förra generationens kort i SLI samtidigt som förra generationens toppkort inte droppade extremt mycket i pris så istället för att köpa ett till av förra generationens toppkort för 6000 (till SLI) var det bättre att köpa nya generationens kort för 7000 och få bättre prestanda...

Det var iallafall så jag upplevde det hela. Hade prestandan dubblerats eller att 2 av fg generation i sli skulle varit bättre än 1 av nya generationen så hade det varit värt det.

Visa signatur

I7 920 @ 4,2GHz, Gigabyte GA-X58A-UD7, 6 GB Coirsair XMS 7-7-7-20-1, Noctua D-14, Gigabyte 9800GT, Coirsair 650W, Egenmoddat Chassi med 290mm frontfläktar, 2 st 120mm top fläktar och 1 90mm fläkt där bak.

Permalänk
Medlem

För mig dog det ut när man hade alldeles för lite grafik-minne och alldeles för mycket GPU prestanda.

Spelade ingen roll hur fort det gick. Det var inget som flöt ändå tack vare det delade grafikminnet.. När jag bytte från 2x 560 Ti till AMD R9 290 så både drog AMD kortet mer ström och var 3 gånger så stort och högljutt. Ens tanken på två sådana fick man slå ihjäl ganska omgående.

Skrivet av hybris6:

Jag funderade på SLI men det var ju inte så att prestandan dubblerades direkt.. Man fick ju bara en ynka ökning på 20+- % så när de nya korten kom spöade de ju förra generationens kort i SLI samtidigt som förra generationens toppkort inte droppade extremt mycket i pris så istället för att köpa ett till av förra generationens toppkort för 6000 (till SLI) var det bättre att köpa nya generationens kort för 7000 och få bättre prestanda...

Om jag inte gått och blivit helt senil här så vill jag minnas att prestandan nära dubblades. Mina 2x 560 Ti hade beräkningskraft som ett 590(hette det så?) men ungefär lika mycket minne som en diskett.

Tittar man här så ser det ut som man fick ca +90% GPU prestanda.
https://www.sweclockers.com/test/17877-hostens-grafikkort-i-s...

Permalänk

Det var så skönt att slippa se tvelander skryta om sina 3st Titan kort

@tvelander

Permalänk
Snusfri

Jag har varit sugen ett tag på att köra 3090 SLI, men kanske gör det med 4090 istället.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem

Mot slutet av SLI/crossfire eran var det roligare i benchmarks än i spel, säger sig själv att det inte håller i längden

Visa signatur

i7 2600k | P8P67Deluxe | Noctua NH-D14 | KFA2 GTX1080 EXOC | Corsair 750W | Corsair Obsidian 800D | Dell U2412M
America's Army: Proving Grounds

Permalänk
Medlem

Senast jag körde två kort var crossfire med Sapphire HD 4830..

Visa signatur

12600KF - NH-D15 - PRIME Z690 - Corsair 32GB - RTX 3070 - 2x SN570 500GB/1TB - RM750 - Meshify 2 C
Logitech G915 TKL - G Pro Wireless - Pro X - Odyssey G7 27"

Better Sweclockers

Permalänk
Medlem

Ett grafikkort idag kostar ju samma som två borde kosta, så folk har väl helt enkelt inte råd och då minskar intresset.

Samt att folk blir arga när kort drar mer ström, och två grafikkort drar ju dubbelt så mycket som ett, så... När "smärtgränsen" verkar gå vid ~300W för folk så är väl intresset för att dubblera det till 600W ganska svalt

Själv skulle jag gärna köra SLI om det fanns bra stöd och jag hade råd, och jag tycker även att det ine borde finnas någon TDP-gräns på korten när man klockar själv, men det är en annan diskussion

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Master of Overkill

Det som hände va att Nvidia sluta hantera det och la det på utvecklarna.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Master of Overkill
Skrivet av Dinkefing:

Det var så skönt att slippa se tvelander skryta om sina 3st Titan kort

@tvelander

3? 4a om jag får lov å be!
Skryta neaah mer jävligt kul med fet hårdvara hade haft 2x 3090 idag om spel hade funkat med det

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

Jag körde crossfire eller SLI i massor av år, både då jag ville ha morgondagens kraft idag, men också för att jag körde eyefinity/surround och 75% av 4k kräver än idag en hel del kraft. Jag använde det från 2007 fram till 2020 när det fick kasta in handduken.

När SLI återintroducerades med vad nvidia kallade "Big Bang" (2006-2007) så gav det ~20% performance increase på mina 8800GT och de flesta problemen var relaterade till en av de två renderingsteknikerna med SLI som kallades SFR - Split Frame Rendering - Detta läge krävde mest av drivrutinerna och var det som oftast orsakade problem. Senare blev stödet bättre för den simplare implmentationen "AFR - Alternate Frame Rendering, där korten renderar en frame var. När tekniken mognade run 2013-2014?, gav tekniken inte sällan en ökning av prestandan med upp till 90%.

2018? kom en ny kanutjämningsteknik som heter / kallas för Temporal Anti Aliasing, vilket läser nägra frames framåt, vilket är fullkomligt inkompatibelt med AFR utan då måste man nyttja SFR (om ens det funkade?), och då blir det implementerings/drivrutinsproblem och att spelmotorerna började anamma den tekniken, var början på döden för SLI/CF. - Exempel var The Division, som hade nära 100% skalning med SLI, och The Division 2, som hade TAA, och hade 0% skalning på SLI.

Det är inte omöjligt att utfasningen hade ekonomiska anledningar hos GPU tillverkarna också, men det är mest spekulationer från min sida och jag har inga belägg direkt.

Det här med att det skulle varit massa problem att använda var allt som oftast problem för mellansegmentet, som visste lite för mycket och pillade lite för mycket, men inte visste nog för att lösa det hela vägen. Kombinera gärna med lite olika varianter av grafikkort, och vi hade ett recept för frustration.

Allt som oftast var det helt plug & play, antingen fungerade det, eller så fungerade det inte, men det var otroligt sällan det var någon negativ effekt. Jag har aldrig själv upplevt negativ effekt, men jag har läst om det, så det måste ju finnas, men jag finner det mycket underligt att jag i nära 15 års tid varit otroligt problemfri, medans i dessa trådar det låter på väldigt många som att det var nåt form av raketforskning - Matchande kort, adekvat kräm och en helvetes massa kylning, sen var det bara att tuta på. I de fallen det var negativ skalning var ATI/nvidia snabba på att disabla stödet i drivrutinerna, så man behövde aldrig själv göra någonting.