Nvidia förbereder nygammal teknik för SLI

Permalänk
Melding Plague

Nvidia förbereder nygammal teknik för SLI

En nygammal teknik för att fördela renderingen över flera samtida grafikkort finns redan på plats i Nvidias drivrutiner.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Proffsmoddare

Kul att det händer något med SLI/NVlink!

Har SLI i datorn nu och ofta så ligger GPU-användningen på det andra kortet på 0%. "Intressanta" problem som ibland uppkommer i spel/program löses magiskt när man deaktiverar SLI och kör enbart med ett kort. Märker att ofta går till och med FPSen upp vid användning av 1 kort.

Men det krävs också såklart att speltillverkarna hoppar på tåget och lägger in stödet.

Visa signatur

[Project]
WING X99

Permalänk
Medlem

Saknar helt klart att kunna köra flera GPUer med hyfsat stöd.
Det här är ett steg i rätt riktning.

Visa signatur

Ryzen 5800X3D | 64 GB Ram | 7900 XTX | Seagate FireCuda 520 2TB * 3

Permalänk
Hedersmedlem

Det här lär klart öka försäljningen för Nvidias grafikkort när det plötsligt kommer vara meningsfullt att ha mer än ett igen för spel. Perfekt!

Förtydligade: Meningsfullt *för spel*
Permalänk
Medlem

Om man använder korten för CUDA-beräkningar (t ex i 3D-rendering) så räcker det att ha det extra kortet inkopplat fristående, så det har hela tiden varit meningsfullt att ha fler än ett kort, även utan en fungerande SLI/NVlink.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Hedersmedlem
Skrivet av cyklonen:

Om man använder korten för CUDA-beräkningar (t ex i 3D-rendering) så räcker det att ha det extra kortet inkopplat fristående, så det har hela tiden varit meningsfullt att ha fler än ett kort, även utan en fungerande SLI/NVlink.

Jo, det är helt korrekt. Jag menade "för spel", men det framgick inte av mitt inlägg. Jag har nu redigerat det.

Permalänk
Medlem

2090ti på ingång ?

Skickades från m.sweclockers.com

Permalänk
Medlem

Kommer ni ihåg när 2 stycken GTX 460 var något av det mest prisvärda man kunde köra? Presterade typ som ett GTX 580 - men när GTX 480 var the shit.

Har kört SLI till och från under många år. Det är ett bra sätt att få ut lite extra tid ur ett grafikkort som egentligen är för gammalt. Personligt är det alldeles för mycket "små skitproblem" som gör att det är irriterande att köra med. Jag har aldrig haft så konstiga problem med min dator som när man kör SLI. (Eller crossfire för den delen)

Visa signatur

Gaming: RTX 2070 & 3770k
Studier: MacBook pro retina 13
Ljud: QH-1339 & ett par rackans smidiga AirPods
Telefon: iPhone 6s plus
Skärm: ASUS 27" ROG Swift PG279Q med sån där g-sync

Permalänk
Hjälpsam

Det som är gammalt och dött, skall man inte gräva upp, man skall låta det ligga begravet.
Det har jag sett på film.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Det är ju knappast förvånande att man avvecklade stöd för multi-GPU för att sen implementera det som feature när utvecklingen vad gäller pris/prestanda mer eller mindre stagnerat. Men visst... den här nyare varianten verkar ju lovande. De ojämna renderingstider som kommer med klassisk SLI/Crossfire är ju ibland så illa att den nära på dubbla bildfrekvensen inte hjälper speciellt mycket för upplevelsen jämfört med endast ett kort, låg bildfrekvens men jämna renderingstider.

Frågan är hur det här kommer se ut när tekniken stöter på patrull? Typ delar av bilden som inte synkar?

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem

Så.. på samma sätt som cinebench renderar upp bilden i rutor mao?
Om det är fallet så är det ju bara visa upp cinebench benchmark för att alla ska fatta direkt hur det funkar.

Jag antar att detta är kopplat till dX12 och möjligheten att använda flera kort utan att behöva bryggor och sånt. Vilket verkar super intressant, men samtidigt så verkar ju SLI funktionalitet vara dött och Nvidia verkar inte så sugna på att satsa på detta. Så är väl inget vi får se av förens kanske om flera år.

edit: iofs... finns ju en annan möjlighet hur detta kan användas. Om man har flera GPU'er på samma kort. Frågan här är väl om nvidia har planer på att "limma ihop" flera gpuer i still med vad AMD planerar att göra. (nån gång i framtiden,,, kom igen,,, vilken dag som helst nu..)

Permalänk
Medlem
Skrivet av Ratatosk:

Det som är gammalt och dött, skall man inte gräva upp, utan låta ligga begravet, det har jag sett på film.

Jag har lärt mig att man kan lära sig av människans tidigare misstag genom att upplevt dem eller läsa om dem.
Tyvärr fungerar människan mycket dåligt med just sådan lärdom *snip*

I detta fallet låter dock tekniken ganska lovande även om den är återanvänd.

Skickades från m.sweclockers.com

Permalänk
Medlem

Den magiska nyckeln här borde ju vara att få DirectX/Vulkan etc. att se en SLI setup som ett enda fysiskt grafikkort. Omöjligt?

Visa signatur

Das Haus, det bästa inom House.

| Asrock X670 SL | Ryzen 7800X3D | 32GB 6000mhz CL30 | Radeon 6950XT Red Devil | Kingston KC3000 2tb M.2 | 20tb+ HDD | Dell UP3017 30" 2560x1600 |

Permalänk
Avstängd

nvlink lever och skalar bättre än sli.
fattar inte vad alla bölar om att det är dött med 2 grafikkort

Permalänk
Medlem
Skrivet av Ratatosk:

Det som är gammalt och dött, skall man inte gräva upp, man skall låta det ligga begravet.
Det har jag sett på film.

Har du sett Jurtjyrkogården? 😁

Skickades från m.sweclockers.com

Visa signatur

Ryzen 7 5800X, 32GB DDR4 @ 3600mHz, 7900XTX, 4,5 TB SSD

Permalänk
Medlem
Skrivet av Triton242:

2090ti på ingång ?

Skickades från m.sweclockers.com

*Super

Visa signatur

7800X3D • 4080S • 32GB • 2TB • 1440p 165 Hz
3700X • 3070 • 32GB • 2TB • 1080p 144Hz

Permalänk
Proffsmoddare
Skrivet av cyklonen:

Om man använder korten för CUDA-beräkningar (t ex i 3D-rendering) så räcker det att ha det extra kortet inkopplat fristående, så det har hela tiden varit meningsfullt att ha fler än ett kort, även utan en fungerande SLI/NVlink.

NVlink kan idag i många 3D-rendingsprogram dubbla mängden minne för beräkningar. Tidigare har de krävts att korten har en varsin kopia i minnet för att fungera korrekt. Men som jag förstått det nu så kan man tex med dubbla grafikkort dubblera både mängden minne och cuda-kärnor.

Visa signatur

[Project]
WING X99

Permalänk
Hedersmedlem
Skrivet av Triton242:

2090ti på ingång ?

Skickades från m.sweclockers.com

Tänker du på ett kort med 2 GPU:er? Ungefär som Radeon HD 6990 alltså.

Permalänk
Medlem
Skrivet av Brodholm:

NVlink kan idag i många 3D-rendingsprogram dubbla mängden minne för beräkningar. Tidigare har de krävts att korten har en varsin kopia i minnet för att fungera korrekt. Men som jag förstått det nu så kan man tex med dubbla grafikkort dubblera både mängden minne och cuda-kärnor.

Se där, det är ju bra!

Men det jag skrev gäller ändå, eftersom man med "separata" kort ändå får ut hela beräkningskraften, om än med begränsat minne.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem

förhoppningsvis om det ska bli något bra så ska det fungera till alla spel utan optimeringar... men vi får väl se

Permalänk
Avstängd

Detta är en tidig indikering på att samsung 7nm försenas och att nvidia förbereder för multi die gpus på grafikkorten igen för att öka prestandan. Och möjligt att sli gör en comeback med nästa gen gpus.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk

Detta lär spä på ryktena om en MCM GPU från Nvidia.

Skickades från m.sweclockers.com

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Master of Overkill

Gillar SLI still 3x 1080ti WoW Super ultra wide med 200 % ress scale har 100 % GPU usage alla 3 korten.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

Tror det är för att utvecklare är så fruktansvärt usla på att lägga in stöd för Explicit Multi-Gpu i spel.
Bättre låta Nvidia göra allt jobbet åt dom.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Hjälpsam
Skrivet av Hugashaka:

Har du sett Jurtjyrkogården? 😁

Skickades från m.sweclockers.com

Jäklar vilken otäck film.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Synd att SLI dog alltså, det var så jävla prisvärt att köpa ett fint kort och sedan ett till begagnat efter några år, runt 2009 iaf, man fick nästan dubbelt upp prestanda för knappt någon peng alls...

Those times are gone

Permalänk
Medlem
Skrivet av pv2b:

Tänker du på ett kort med 2 GPU:er? Ungefär som Radeon HD 6990 alltså.

Jag tänker mycket riktigt på 2 GPUer på ett kort.
Fast jag namnger efter Nvidias 590 och 690 som båda är 2st gpuer per kort.

Skickades från m.sweclockers.com

Skrivet av Varg:

Först måste vanliga icke super lanseras, sedan kan de släppa ett super

Permalänk
Medlem
Skrivet av Triton242:

Jag tänker mycket riktigt på 2 GPUer på ett kort.
Fast jag namnger efter Nvidias 590 och 690 som båda är 2st gpuer per kort.

Skickades från m.sweclockers.com

Först måste vanliga icke super lanseras, sedan kan de släppa ett super

Företaget som tycker att 20 kommer efter 10 kan nog göra undantag där också

Visa signatur

7800X3D • 4080S • 32GB • 2TB • 1440p 165 Hz
3700X • 3070 • 32GB • 2TB • 1080p 144Hz

Permalänk
Medlem

Kan de få bot på problemen som alltid funnits och göra det enkelt för utvecklare att implementera så kan det vara intressant. På den tiden man körde det så fick man väldigt ofta stänga av Crossfire/SLI för att ens kunna spela.

Visa signatur

Citera så att jag hittar tillbaka! AMD Ryzen 7 5800X3D | MSI B450 Tomahawk Max | 32GB Ballistix @ 3733/16 | EVGA 2070 | Crucial MX500 2TB | EVGA G2 750W | Windows 10

Permalänk
Medlem

MCM är ju framtiden. Och det där kan vara ett första steg. Både AMD och Intel har ju också indikterat att det är den vägen grafikkort ska gå under flera års tid. Chiplets, höghastighetsgränssnitt och HBM är ju en del i den utvecklingen. Framtiden är väl att få flera chip att agera som en GPU. Men tills man har fixat det så kan SLI/CF-teknik vara ett mellansteg. Man har inte råd att vara den som sitter kvar med en krets när konkurrenterna pumpar ut kort med fyra eller fler billiga chiplets per kort.