Monsterbygge med 4 x 1080ti, råd gällande kylning

Permalänk

Monsterbygge med 4 x 1080ti, råd gällande kylning

Håller på att bygga ihop en ny arbetsdator (jobbar med 3Danimation och gpu rendering)
Slog till på en threadripper 1950x och ska köpa ett eatx kort till det. Kommer köra vattenkylning på cpun, men helst vill jag slippa vattenkylning på gpuerna då jag redan har 3st refkort och ska köpa ett till. Klarar man att stacka 4st refkort 1080ti utan överhettning? Om inte, vad behöver jag för att bygga ett vattenkylningsystem för alla fyra?

Visa signatur

/Erik

Permalänk
Medlem

Referens kort SKA gå att köra i 4-way. Men varmt blir det, ingen tvekan om det. Däremot inte farliga temperaturer.

Visa signatur

.:. Expect disappointment and you won't be disappointed .-. Inaktiv/AFK sedan 2024-06-04 19:39 .:.

Permalänk
Skrivet av Tomika:

Referens kort SKA gå att köra i 4-way. Men varmt blir det, ingen tvekan om det. Däremot inte farliga temperaturer.

Tack för svar. Ja varmt lär det bli. Brukar ligga runt 84 grader med två gpuer och det har hållit ett antal år. Så om det rör sig om dessa temperaturer är det lungt antar jag?

Några rekommendationer på chassi för eatx?

Skickades från m.sweclockers.com

Visa signatur

/Erik

Permalänk
Medlem

Håller du 84c med 2 GPUer så kommer det nog bli finsk bastu med 4st. Jag skulle inte vilja ha korten att gå mycket varmare än 84c iaf.

Skulle utan tvekan satsat på 4st EK block, en D5 pump och så många radiatorer du kan få in. Då kommer dom gå svalt och fint = GPUboost kommer att kunna klocka upp korten betydligt högre än när dom ligger på 80-90c luftkylt

EKs block (även med backplate) bygger inte speciellt mycket heller.

Visa signatur

__________________
Stationär: | NZXT H510 Flow | Corsair RM850x | GIGABYTE Z790 AORUS Elite AX | Intel Core i7 13700K | 32GB 6400Mhz CL32 DDR5 | MSI RTX 380 | 1TB Seagate FireCuda 530 + 1TB Kingston KC3000 | LG OLED 42C2 120Hz 4K | Bärbar: MacBook Pro 14"

NAS: Synology DS1815+ 8X 4TB WD RED
Server: Esxi 6.5 | i5 4690K | 32GB DDR3 | 1TB SSD + iSCSI SATA [/B]

Permalänk
Medlem

Supermicro har ju chassi till det mesta
http://mullet.se/product.html?product_id=337156

Visa signatur

WS: R7 5800X, 32GB, Suprim X 3080, Acer X38P+Acer XB271HU
FS: HPE ML110 Gen10 Xeon Silver, Qnap TS-h973AX ~100TB
NW: Fortigate, Ruckus, Zyxel XS1930HP 10Gb

Permalänk

Ja det är 84 med nuvarande dator.
Kommer ju köpa helt nytt moderkort chassi CPU med vattenkylning osv så jag hoppas jag slipper vattenkylning på grafikkorten.

Vad tror ni det skulle gå på att köpa ett vattensystem som kyler 4st gpuer? Och kan man återanvända blocken när man köper nya grafikkort?

Skickades från m.sweclockers.com

Visa signatur

/Erik

Permalänk
Medlem
Skrivet av Erik_ande_85:

Ja det är 84 med nuvarande dator.
Kommer ju köpa helt nytt moderkort chassi CPU med vattenkylning osv så jag hoppas jag slipper vattenkylning på grafikkorten.

Vad tror ni det skulle gå på att köpa ett vattensystem som kyler 4st gpuer? Och kan man återanvända blocken när man köper nya grafikkort?

Skickades från m.sweclockers.com

Vi har inte sett RTX designen för skruvhål ännu så det är svårt att säga.

Visa signatur

42? Seven and a half million years and all you can come up with is 42?!
► FD Define R2 | Win10Pro | i7-3770K | Hyper212+ SP120PWM | P8P67 PRO | CML8GX3M2A1600C9 | 1080 Ti | AX750 | Asus VG27WQ | Eizo S2100 | HP Z24n |► OnePlus 6 |

Permalänk
Medlem
Skrivet av Erik_ande_85:

Ja det är 84 med nuvarande dator.
Kommer ju köpa helt nytt moderkort chassi CPU med vattenkylning osv så jag hoppas jag slipper vattenkylning på grafikkorten.

Vad tror ni det skulle gå på att köpa ett vattensystem som kyler 4st gpuer? Och kan man återanvända blocken när man köper nya grafikkort?

Skickades från m.sweclockers.com

Om du kan vänta lite så händer det nog en del på begagnatmarknaden när 2080 landar in, då borde du kunna fynda lite block. Och tyvärr går blocken oftast inte att återanvända.

Visa signatur

| LOUQE Ghost S1 mkIII | Intel i7 8700K | Asus Rog Strix Z370-i | Corsair 16Gb 3200MHz | nVidia RTX 3080 | Corsair SF750 | Extern Custom loop |

Permalänk
Medlem

@AxF: Give or take. Dom kommer förstås låta mer pga högre fläkt hastighet för att kylas ned. Men samtidigt är dom "låsta" till en max temperatur. Dom klockar ner sig. Så jag har svårt att föreställa mig korten går över 88C som värst. Däremot kommer VRM gå varmt. Men dom klarar över 150C utan större beskymmer.

Visa signatur

.:. Expect disappointment and you won't be disappointed .-. Inaktiv/AFK sedan 2024-06-04 19:39 .:.

Permalänk
Medlem
Skrivet av AxF:

Håller du 84c med 2 GPUer så kommer det nog bli finsk bastu med 4st. Jag skulle inte vilja ha korten att gå mycket varmare än 84c iaf.

Inte nödvändigtvis, 1080 Ti har ett temperaturmål på just 84°C (se Sweclockers recension). Så länge som fläktarna inte går på max så bör det finnas utrymme för att lägga till fler kort och fortfarande hålla dem på 84°C, men det kommer så klart resultera i högre ljudnivå.

Permalänk
Medlem

@Erik_ande_85:
Fyra EK vattenblock = 4444kr.
D5 pump = 640kr.
D5 top = 395kr.
En radiator som räcker! = 1850
Lägg på en tusenlapp till för anslutningar m.m. så landar du på ca 8500kr. Du kan välja en mindre radiator och spara en femhundring, men i sammanhanget är det en dum besparing.
Radiatorn ovan tar 9st 140mm fläktar (Kostsamt) eller 4x 220mm fläktar. (Billigare, tystare och antagligen effektivare.)

GPU-Vattenblock passar sällan mer än på avsedd GPU. Så byte kostar alltid extra om man håller på med vatten.
Såvida du inte köper kort förberedda för vattenkylning? Det bästa är att försöka sälja korten med blocket.
Top korten brukar finnas med vattenblock från fabrik. Jag har sett EVGA, Gigabyte och ASUS säljas med vattenblock. Finns säkert fler.

Visa signatur

Gått i träda. Åter om något år!

Permalänk
Medlem

Med blowers så drar dom in luft i lådan och ut där bak så du får inte samma problem med att ett kort gör att ett annat överhetter.

Men vist kommer dom gå lite varmare men fläktarna styrs av tempraturen så det bör inte vara nåt problem.

Rent historiskt sett så har ju folk kört upp till 4st Nvidia kort med blowers för GPGPU applikationer och du behöver ju inget SLI moderkort.

Vet inte hur korten exakt påverkas i dag men på äldre nvidia kort så gjorde SLI att enbart en GPU användes vid GPGPU laster så för att nyttja mer än en GPU ska SLI vara av.

Vill bara förtydliga detta att SLI är igen faktor för GPGPU applikationer.

Jag har inte brytt mig om GPGPU rendering med mer än en GPU sedan mina GTX260 men så bettede sig dom då och det var normalt.

SOm jag ser det så är problemen enbart en låda med plats nog, ett moderkort med 4st PCi-E platser med rätt mellanrum och en lämplig nätdel sedan är det upp till programen du använder om dom kan sprida lasten över 4st GPU:Er för GPGPU applikationer typ Blender eller liknande.

Permalänk
Medlem

Sorry för lite OT här men frågar mest av nyfikenhet då jag inte jobbar inom området, kan det inte vara en idé att lägga beräkningskraften i molnet för denna typ av jobb? Gissar att det handlar om att rendera något som inte är i realtid så att latens och annat inte har någon större påverkan.

Permalänk
Medlem
Skrivet av xfade:

Vi har inte sett RTX designen för skruvhål ännu så det är svårt att säga.

Det påverkar dock inte något i detta fallet då TS skulle köpa 1080-kort.

Permalänk
Medlem

@joakim99: Trådskaparen undrade ju om det gick att återanvända blocken till nyare kort sen.

Visa signatur

Fractal Design Define XL | EVGA G2 650W | Asus Rog Strix Z390-F | Intel i9 9900K | 32Gb 3000Mhz | Asus Rog Strix 1080 Ti |

Permalänk
Skrivet av improwise:

Sorry för lite OT här men frågar mest av nyfikenhet då jag inte jobbar inom området, kan det inte vara en idé att lägga beräkningskraften i molnet för denna typ av jobb? Gissar att det handlar om att rendera något som inte är i realtid så att latens och annat inte har någon större påverkan.

Hej!

Både ja och nej, jag sitter med en renderare som heter octane . Dels så sitter man med en realtid live viewer över scenen som man jobbar med och då behövs kraften i datorn. Sen kan man såklart skicka slutanimationen till en farm men det kostar också pengar så jag vill gärna ha en så pass kraftfull dator att jag kan rendera ut mina jobb lokalt.
Samt att jag gärna har x16 på alla kort för att snabbt skicka om scenen till vramet.

Skickades från m.sweclockers.com

Visa signatur

/Erik

Permalänk
Medlem
Skrivet av tingkan:

@joakim99: Trådskaparen undrade ju om det gick att återanvända blocken till nyare kort sen.

Jag missade detta helt.

Permalänk
Medlem
Skrivet av Erik_ande_85:

Tack för svar. Ja varmt lär det bli. Brukar ligga runt 84 grader med två gpuer och det har hållit ett antal år. Så om det rör sig om dessa temperaturer är det lungt antar jag?

Några rekommendationer på chassi för eatx?

Skickades från m.sweclockers.com

Ta ett som där det går att ha mycket chassifläktar. Bör går att hålla samma temp med 4 GPUer bara luftflödet i chassit är tillräckligt. Kan ju bli problem med ljudnivån dock.

Permalänk
Avstängd

Jag vet inte om det går, men en annan lösning kan ju vara att koppla en tystgående kanalfläkt från bygghandeln på tex ett 100mm spirorör eller PVC kanaler och ett "dammsugarmunstycke" på chassit som sitter vid korten, sitter fläkten någon meter bort så ger den inga störningar (jag kan märka) och man kan ha den i princip varsomhelst där man inte hör den (finns även ljuddämpare för ventilationsrör om man vill ha bort sus i rören) och ställa den på konstant lågvarv när datorn är igång, kanske med en enkel VFD dosa.
denna typ är ganska tysta går att hitta för runt 1500 spänn, men då bör den åas ersätta en hel karta med chassifläktar och det är ju heller inte gratis menar jag + att man kan leda luften dit man vill.

Visa signatur

Daisy, Daisy...
Three is a magic number
Yes it is, it's a magic number