Nya erbjudanden i Komplett Geek Week

Varför dog SLI ut? Är det förlegad teknologi idag?

Permalänk
Medlem

Varför dog SLI ut? Är det förlegad teknologi idag?

Hur kommer det sig att SLI dog ut efter att ha varit så populärt?

Är det en förlegad teknologi idag eller är det fortfarande en bra lösning om man vill köra på lite äldre kort, t.ex två stycken GTX 980?

Permalänk
Medlem

Dyrt och jävligt jobbigt med profiler som funkade ibland.

Permalänk
Medlem
Skrivet av favouredhawk:

Hur kommer det sig att SLI dog ut efter att ha varit så populärt?

Är det en förlegad teknologi idag eller är det fortfarande en bra lösning om man vill köra på lite äldre kort, t.ex två stycken GTX 980?

Verkligen inte en bra lösning idag och har varit dött i bra många år nu. Så rekommenderar att du inte köper två äldre toppkort för att köra SLI, det är inte lönt besväret (och funkar antagligen inte i 90% av moderna spel ändå).

Permalänk
Medlem

Grafikkorten började ju bli så pass kraftfulla att det inte fanns något större behov av att ha 2st för att kunna köra i högre upplösningar och uppdateringsfrekvenser, så det bidrog nog en hel del.

Permalänk
Chefredaktör

Jag körde själv 980 Ti SLI ett bra tag, men det kändes som att stödet för det och funktionaliteten försämrades med varje ny drivrutin.
När jag testat igen har jag nästan alltid upplevt att det varit bättre flyt och resultat med bara ett kort än om jag använt två.

Så min bedömning är att SLI idag inte upplevs ha åldrats väl. Det beror väl kanske mer på vad du tänkt spela. FPS med fokus på multiplayer hade jag nog skippat i och med den stuttering som alltid kommer med SLI, men stadsbyggarspel, Civilization och simulatorer kan nog vara värda att prova det med.

Permalänk
Medlem
Skrivet av Enlightener:

Jag körde själv 980 Ti SLI ett bra tag, men det kändes som att stödet för det och funktionaliteten försämrades med varje ny drivrutin.

Tanken att ta två grafikkort och låta dem dela på arbetsbördan är väl god, det fungerar ju rätt bra för processorer. Men dels måste arbetsbördan fördelas så jämnt som möjligt och dels måste arbetet som sker på grafikkorten synkas ibland. Som jag förstår det var mycket av detta implementerat i drivrutinerna, så det blev väl i längden för mycket jobb med att underhålla dessa för en vinst i prestanda som blev mindre och mindre i förhållande till alternativet att helt enkelt göra ett snabbare grafikkort.

Permalänk
Medlem

Saknar den gyllene tiden, man köpte ett dyrt grafikkort och sedan ett begagnat några år senare... Otroligt prisvärt, och det fanns bra stöd i drivrutinerna. Minns hur jag kunde köra Dragon Age på hög grafik med mina två GTX 275.

Tror det va när DX11 kom som 99% av all support helt plötsligt försvann, det hamnade på utvecklarnas tallrik att få det att fungera och det gjorde dom aldrig. Så RIP.

Permalänk
Chefredaktör
Skrivet av Phod:

Tanken att ta två grafikkort och låta dem dela på arbetsbördan är väl god, det fungerar ju rätt bra för processorer. Men dels måste arbetsbördan fördelas så jämnt som möjligt och dels måste arbetet som sker på grafikkorten synkas ibland. Som jag förstår det var mycket av detta implementerat i drivrutinerna, så det blev väl i längden för mycket jobb med att underhålla dessa för en vinst i prestanda som blev mindre och mindre i förhållande till alternativet att helt enkelt göra ett snabbare grafikkort.

Absolut, idén är god och det fungerade ju dessutom rätt väl på 3dfx:s tid. Som nedanstående också nämner, det blev väldigt bökigt att implementera det i spel för DX 11 vilket nog dessutom gjorde det mer resurskrävande att få till bra stöd i drivrutinerna.

Skrivet av Chromatic:

Saknar den gyllene tiden, man köpte ett dyrt grafikkort och sedan ett begagnat några år senare... Otroligt prisvärt, och det fanns bra stöd i drivrutinerna. Minns hur jag kunde köra Dragon Age på hög grafik med mina två GTX 275.

Tror det va när DX11 kom som 99% av all support helt plötsligt försvann, det hamnade på utvecklarnas tallrik att få det att fungera och det gjorde dom aldrig. Så RIP.

Nu kanske jag är lite konspiratorisk, men jag tror ju heller inte att Nvidia var motiverade att hålla SLI i framkant när de såg att folk köpte gamla begagnade kort för SLI istället för att byta upp sig.
DX11 var definitivt bökigt, men jag hade ändå hopp för DX12 och deras asynchronous compute. Tyvärr blev det för lite för sent och numer gör ju priserna att det heller inte i teorin är intressant med SLI-lösningar.

Permalänk
Medlem

Man kan leka i PC building Simulator och köra 3090 i SLI. Trevlig prestanda om det hade varit på riktigt....

Permalänk
Medlem
Skrivet av Enlightener:

Absolut, idén är god och det fungerade ju dessutom rätt väl på 3dfx:s tid. Som nedanstående också nämner, det blev väldigt bökigt att implementera det i spel för DX 11 vilket nog dessutom gjorde det mer resurskrävande att få till bra stöd i drivrutinerna.

Nu kanske jag är lite konspiratorisk, men jag tror ju heller inte att Nvidia var motiverade att hålla SLI i framkant när de såg att folk köpte gamla begagnade kort för SLI istället för att byta upp sig.
DX11 var definitivt bökigt, men jag hade ändå hopp för DX12 och deras asynchronous compute. Tyvärr blev det för lite för sent och numer gör ju priserna att det heller inte i teorin är intressant med SLI-lösningar.

Ja du har nog helt rätt i det. Inte lönsamt när folk kan återanvända sina grafikkort precis.

Permalänk
Medlem

Flera anledningar:

- Dom flesta spelen var dåligt optimerade för SLI, så prestandan kunde ofta inte nyttjas.
- Kom med diverse egna problem i form av microstutter och dylikt som singel-GPU slapp.
- Högre temperatur.
- Högre ljudnivå.
- Men framför allt: GPU-prestandan skenade iväg så pass att behovet mer eller mindre dog ut. För 10 år tvingades man nästan använda SL/CF för att maxxa många spel. Idag klarar ett ensamt highend-kort utan problem samma scenario.

Det är inte så konstigt att stödet från Nvidia och AMD minskade när dom såg vart trenden var på väg.

Permalänk
Medlem

Att det dog nu är väl för att det fungerade dåligt i flera år innan, och nu gav man upp.

Det tekniska problemet är att de två korten antingen renderar varannan bildruta - s.k. alternate frame rendering - eller så renderar de halva bildrutan var - split frame rendering. AFR innebär att latencyn går upp, processen blir mindre effektiv för att man inte kan utnyttja cachad information lika bra, och man får microstuttering om man inte kompenserar för det (genom att lägga till ännu mer latency). SFR kräver stöd från spelet. Med DirectX 12 fanns "explicit multi-adapter" som innebar att man skulle kunna koda spelet för att stödja SFR direkt med APIn, men det verkar ingen ha gjort. Det var väl för mycket jobb för alltför liten marknad.

Problemet för tillverkarna är att den enda situationen där SLI har en poäng för dem är högst upp, ovanför det bästa singel-kortet. De som absolut vill ha mer prestanda än säg ett GTX 680 kunde leverera, kunde köpa två stycken 680 (eller 670) och komma upp på en ny nivå. Det som beskrivs i tråden, att man uppgraderar sitt mellanklasskort med ett likadant efter ett par år, är ingen bra lösning för Nvidia eller AMD. De vill mycket hellre att du köper ett nytt kort. Det finns ingen anledning för dem att jobba för att stödja detta.

Nvidias lösning på det "hål" som uppstod i pyramiden när SLI försvann blev att göra ännu mer absurt jättelika kort, som levererade den prestandan i ett chip. Ett GA102 (3090) är ganska lagom två stycken GK104 (680). Där har du deras ersättning till SLI.

Permalänk
Medlem

Om jag inte minns fel så gick det nog mot perma-death när stödet för SLI skulle upprätthållas av spelutvecklarna och inte drivrutinsutvecklaren. Vilket företag vill investera extra resurser i det här läget?

Permalänk
Medlem

Körde länge dubbla 980ti i SLI (2016-2019) och fram till jag bytte så fungerade det bra för allt jag kastade på dom. Men inget jag hade kunnat köra på idag för inga spel är optimerade för det. Där har man väl den största boven i dramat och att nyare kort presterar såpass väl ensamma att det inte behövs, man vinner helt enkelt ingenting på det

900 serien var dom sista som gick bra i SLI i min mening om man skulle ha det till spel.

Permalänk
Medlem
Skrivet av Señor Hallon:

Dyrt och jävligt jobbigt med profiler som funkade ibland.

Dyrt är det väl verkligen inte? Om man kan få till en bra skalning kan man ju köpa två grafikkort med riktigt bra prestanda per krona för att på så kan man få grym prestanda för en liten peng.

Tänk om man kunde få ut 90-100 % skalning med RX 6600, då hade man fått monsterprestanda för ca 6500 kr.

Permalänk
Rekordmedlem

Det kanske kommer tillbaka i ny version för VR med ett kort per bildvisare.

Permalänk
Medlem

7950GX2 Masterrace

Bethesda spel hade enorma problem med stutters, mina 5850 gick inte att spela med

Permalänk
Medlem

Vi kan väl alla vara ärliga om att vi körde Crossfire / SLI av den enkla anledningen att det var jävligt fränt, och hade egentligen inget med prestanda att göra...

Körde 5770 x 2, 5870x2 och GTX970 i SLI, men det funkade väl okej men ofta fick man köra på en ensam...

Permalänk
Medlem

Jag körde dubbla 580, det var tider det!

Permalänk
Medlem

Sli fungerade nog bäst när voodoo använde det. minns att jag hade 2 kort och det fungerade så gott som på alla spel på den tiden.

Modern SLI teknik fungerar inte lika bra PGA många orsaker. En av de största är nog att moderna spel helt enkelt inte stödjer det så bra och där det fungerade så fick man ofta problem med "stutter" eller som i mitt fall artefakter med 7900gt.

Permalänk
Medlem

Jag funderade på SLI men det var ju inte så att prestandan dubblerades direkt.. Man fick ju bara en ynka ökning på 20+- % så när de nya korten kom spöade de ju förra generationens kort i SLI samtidigt som förra generationens toppkort inte droppade extremt mycket i pris så istället för att köpa ett till av förra generationens toppkort för 6000 (till SLI) var det bättre att köpa nya generationens kort för 7000 och få bättre prestanda...

Det var iallafall så jag upplevde det hela. Hade prestandan dubblerats eller att 2 av fg generation i sli skulle varit bättre än 1 av nya generationen så hade det varit värt det.

Permalänk
Medlem

För mig dog det ut när man hade alldeles för lite grafik-minne och alldeles för mycket GPU prestanda.

Spelade ingen roll hur fort det gick. Det var inget som flöt ändå tack vare det delade grafikminnet.. När jag bytte från 2x 560 Ti till AMD R9 290 så både drog AMD kortet mer ström och var 3 gånger så stort och högljutt. Ens tanken på två sådana fick man slå ihjäl ganska omgående.

Skrivet av hybris6:

Jag funderade på SLI men det var ju inte så att prestandan dubblerades direkt.. Man fick ju bara en ynka ökning på 20+- % så när de nya korten kom spöade de ju förra generationens kort i SLI samtidigt som förra generationens toppkort inte droppade extremt mycket i pris så istället för att köpa ett till av förra generationens toppkort för 6000 (till SLI) var det bättre att köpa nya generationens kort för 7000 och få bättre prestanda...

Om jag inte gått och blivit helt senil här så vill jag minnas att prestandan nära dubblades. Mina 2x 560 Ti hade beräkningskraft som ett 590(hette det så?) men ungefär lika mycket minne som en diskett.

Tittar man här så ser det ut som man fick ca +90% GPU prestanda.
https://www.sweclockers.com/test/17877-hostens-grafikkort-i-s...

Permalänk
Medlem

Det var så skönt att slippa se tvelander skryta om sina 3st Titan kort

@tvelander

Permalänk
Snusfri

Jag har varit sugen ett tag på att köra 3090 SLI, men kanske gör det med 4090 istället.

Permalänk
Medlem

Mot slutet av SLI/crossfire eran var det roligare i benchmarks än i spel, säger sig själv att det inte håller i längden

Permalänk
Medlem

Senast jag körde två kort var crossfire med Sapphire HD 4830..

Permalänk
Medlem

Ett grafikkort idag kostar ju samma som två borde kosta, så folk har väl helt enkelt inte råd och då minskar intresset.

Samt att folk blir arga när kort drar mer ström, och två grafikkort drar ju dubbelt så mycket som ett, så... När "smärtgränsen" verkar gå vid ~300W för folk så är väl intresset för att dubblera det till 600W ganska svalt

Själv skulle jag gärna köra SLI om det fanns bra stöd och jag hade råd, och jag tycker även att det ine borde finnas någon TDP-gräns på korten när man klockar själv, men det är en annan diskussion

Permalänk
Master of Overkill

Det som hände va att Nvidia sluta hantera det och la det på utvecklarna.

Permalänk
Master of Overkill
Skrivet av Dinkefing:

Det var så skönt att slippa se tvelander skryta om sina 3st Titan kort

@tvelander

3? 4a om jag får lov å be!
Skryta neaah mer jävligt kul med fet hårdvara hade haft 2x 3090 idag om spel hade funkat med det

Permalänk
Medlem

Jag körde crossfire eller SLI i massor av år, både då jag ville ha morgondagens kraft idag, men också för att jag körde eyefinity/surround och 75% av 4k kräver än idag en hel del kraft. Jag använde det från 2007 fram till 2020 när det fick kasta in handduken.

När SLI återintroducerades med vad nvidia kallade "Big Bang" (2006-2007) så gav det ~20% performance increase på mina 8800GT och de flesta problemen var relaterade till en av de två renderingsteknikerna med SLI som kallades SFR - Split Frame Rendering - Detta läge krävde mest av drivrutinerna och var det som oftast orsakade problem. Senare blev stödet bättre för den simplare implmentationen "AFR - Alternate Frame Rendering, där korten renderar en frame var. När tekniken mognade run 2013-2014?, gav tekniken inte sällan en ökning av prestandan med upp till 90%.

2018? kom en ny kanutjämningsteknik som heter / kallas för Temporal Anti Aliasing, vilket läser nägra frames framåt, vilket är fullkomligt inkompatibelt med AFR utan då måste man nyttja SFR (om ens det funkade?), och då blir det implementerings/drivrutinsproblem och att spelmotorerna började anamma den tekniken, var början på döden för SLI/CF. - Exempel var The Division, som hade nära 100% skalning med SLI, och The Division 2, som hade TAA, och hade 0% skalning på SLI.

Det är inte omöjligt att utfasningen hade ekonomiska anledningar hos GPU tillverkarna också, men det är mest spekulationer från min sida och jag har inga belägg direkt.

Det här med att det skulle varit massa problem att använda var allt som oftast problem för mellansegmentet, som visste lite för mycket och pillade lite för mycket, men inte visste nog för att lösa det hela vägen. Kombinera gärna med lite olika varianter av grafikkort, och vi hade ett recept för frustration.

Allt som oftast var det helt plug & play, antingen fungerade det, eller så fungerade det inte, men det var otroligt sällan det var någon negativ effekt. Jag har aldrig själv upplevt negativ effekt, men jag har läst om det, så det måste ju finnas, men jag finner det mycket underligt att jag i nära 15 års tid varit otroligt problemfri, medans i dessa trådar det låter på väldigt många som att det var nåt form av raketforskning - Matchande kort, adekvat kräm och en helvetes massa kylning, sen var det bara att tuta på. I de fallen det var negativ skalning var ATI/nvidia snabba på att disabla stödet i drivrutinerna, så man behövde aldrig själv göra någonting.