Dator för 3D-arbete (Blender) och animering

Permalänk
Medlem

Dator för 3D-arbete (Blender) och animering

Har budget ca 25-30K och söker komplett dator som är optimal för modellering och animering i Blender. Vill såklart kunna rendera (GPU) så bra som möjligt också, men kan leja ut det till renderfarm om måste.

Kan typ noll (0) om datorkomponenter och är därför svårt för mig att gå in och bygga ihop ett komplett klart-att-köra paket (minus skärm, det finns). Skulle ju helst köpa en färdig burk på typ Elgiganten, men misstänker man betalar dyrt för sämre än om man får er hjälp

Vet liksom typ bara:
att ha hög CPU (32 och uppåt)
Att ha ett eller två GPU-kort av modern variant RTX 3060-3090 typ (?)

Tacksam för hjälp!

Permalänk

Är budgeten ex eller inkl moms ?

Visa signatur

CPU : Ryzen 5950x
GPU : Asus TUF 3090
Skärm : LG CX OLED 55"

Permalänk
Medlem
Skrivet av Mcewen123:

Är budgeten ex eller inkl moms ?

Exkl

Permalänk

Hittar ingen färdigbyggd dator med ett RTX 3090. Just nu kommer det ut mycket nytt på marknaden som har "mycket" bättre prestanda, så har du is i magen så kan det vara värt att vänta lite eller hitta ett klipp på beg marknaden.
https://www.inet.se/datorbygge/b1325175/1
https://www.inet.se/datorbygge/b1325176/2
https://www.komplett.se/product/1189189/gaming/gamingdator/ga...
https://www.komplett.se/product/1218634/gaming/gamingdator/ga...
https://www.komplett.se/product/1218630/gaming/gamingdator/ga...

Visa signatur

CPU : Ryzen 5950x
GPU : Asus TUF 3090
Skärm : LG CX OLED 55"

Permalänk
Medlem

Behöver absolut inte vara en färdigbyggd produkt. Bara nått företag bygger den åt mig på beställning.
Behöver därför hjälpen av er att speca en lämplig för mina behov!

Permalänk
Medlem

Tänker mig gärna 64gb CPU och dubbla grafikkort om budget och kompatibilitet tillåter…?

Permalänk

Vad menar du med 64gb CPU ?
I blender har du ingen nytta av SLI(Dubbla GPU) https://blender.stackexchange.com/questions/108078/does-blend...

Visa signatur

CPU : Ryzen 5950x
GPU : Asus TUF 3090
Skärm : LG CX OLED 55"

Permalänk
Medlem
Skrivet av Mcewen123:

SLI är en teknik för spel och används inte för beräkningar med t.ex. CUDA som Blender använder, det är inget problem att använda flera grafikkort i Blender.

Permalänk
Datavetare

@erik0240: innan någon kan ge vettiga råd här behöver man veta om planen är att nästan uteslutande rendera på GPU eller ej.

För om tanken är att primärt använda GPGPU, vilket det låter som då du är öppen för två GPUer, så är det rätt mycket pengarna i sjön att gå på dyra CPU-modeller med relativt många kärnor.

Det mesta som i praktiken måste köras på CPU i Blender skalar rätt dåligt över CPU kärnor, så du vill då ha en CPU-modell med högsta tänkbara prestanda per kärna men det lär räcka med i alla fall 8 st kärnor. 13600K (6 P-cores och 8 E-cores) eller 13700K (8 P-cores och 8 E-cores) lär vara mer än nog, de släpps imorgon.

Precis som @perost säger är det fullt möjligt att använda flera GPUer i Blender. Det lilla jag sett är att det skalar rätt bra, men är fortfarande så att man i första hand ska optimera prestanda per GPU.

Ett 4090 lär prestera bättre än två 3090, med ett potentiellt "du behöver du gräva lite kring hur Blender-stödet för multi-GPU faktiskt fungerar": sedan Pascal (tror jag det var, kan ha varit Volta också...) kan GPUer kopplade via NVLink använda varandras VRAM! Historisk var alltid effektivt mängd VRAM med två GPUer som vardera hade X GB VRAM just X GB.

Med stöd från applikationen samt "rätt" typ av problem (är här jag inte vet om Blender har "rätt" stöd eller ej + hur pass "rätt" typ av problem detta är för VRAM-sharing, har själv aldrig kör multi-CPU i Blender) blir effektiv mängd VRAM summan av alla kort! Två 3090 skulle då kunna hantera scener som använder upp till 48 GB minne.

Det är väl enda anledningen att fortfarande rendera på CPU: man har scener som inte får plats i VRAM. Ett alternativ i det läget är att kolla på MacStudio (fast det blir en bra bit utanför budget...). Dels har MacOS/Metal versionen stöd för att effektivt använda både CPU och iGPU för att rendera (rätt cool feature, det gör att min M1Pro laptop är snabbare än min 5950X på rendering!) + då det är en (rätt fet) iGPU har GPUn och CPUn tillgång till lika mycket RAM (upp till 128 GB RAM, då tittar man på från 60k inkl moms)

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Tack för svar! Förstår inte allt det tekniska helt.

Jag kommer rendera nästan uteslutande GPU ja.
Vill därför ha så bra GPU-bang for the buck.

Anledningen till att jag vill ha högt RAM/CPU är väl för jag fått för mig datorn kan arbeta snabbare/effektivare då(?). När man modellerar, simulerar osv. Kommer ju även köra lite Premiere och sånt på sidan ibland. Här luser jag ju med min okunskap….

Har ni nått bra byggförslag på maskin som skulle täcka dessa behov bra?

Möjligt denna som nån tipsade om funkar bra för mina behov?
Komplett

Blir rendering för jäkla tungt så får jag låta det mala långsamt eller köpa tjänsten. Primärt vill jag ju kunna jobba så sjukt smidigt som möjligt med simulatorer, många faces, partiklar etc i programmet.

Permalänk
Permalänk
Medlem
Skrivet av Yoshman:

@erik0240: innan någon kan ge vettiga råd här behöver man veta om planen är att nästan uteslutande rendera på GPU eller ej.

För om tanken är att primärt använda GPGPU, vilket det låter som då du är öppen för två GPUer, så är det rätt mycket pengarna i sjön att gå på dyra CPU-modeller med relativt många kärnor.

Det mesta som i praktiken måste köras på CPU i Blender skalar rätt dåligt över CPU kärnor, så du vill då ha en CPU-modell med högsta tänkbara prestanda per kärna men det lär räcka med i alla fall 8 st kärnor. 13600K (6 P-cores och 8 E-cores) eller 13700K (8 P-cores och 8 E-cores) lär vara mer än nog, de släpps imorgon.

Precis som @perost säger är det fullt möjligt att använda flera GPUer i Blender. Det lilla jag sett är att det skalar rätt bra, men är fortfarande så att man i första hand ska optimera prestanda per GPU.

Ett 4090 lär prestera bättre än två 3090, med ett potentiellt "du behöver du gräva lite kring hur Blender-stödet för multi-GPU faktiskt fungerar": sedan Pascal (tror jag det var, kan ha varit Volta också...) kan GPUer kopplade via NVLink använda varandras VRAM! Historisk var alltid effektivt mängd VRAM med två GPUer som vardera hade X GB VRAM just X GB.

Med stöd från applikationen samt "rätt" typ av problem (är här jag inte vet om Blender har "rätt" stöd eller ej + hur pass "rätt" typ av problem detta är för VRAM-sharing, har själv aldrig kör multi-CPU i Blender) blir effektiv mängd VRAM summan av alla kort! Två 3090 skulle då kunna hantera scener som använder upp till 48 GB minne.

Det är väl enda anledningen att fortfarande rendera på CPU: man har scener som inte får plats i VRAM. Ett alternativ i det läget är att kolla på MacStudio (fast det blir en bra bit utanför budget...). Dels har MacOS/Metal versionen stöd för att effektivt använda både CPU och iGPU för att rendera (rätt cool feature, det gör att min M1Pro laptop är snabbare än min 5950X på rendering!) + då det är en (rätt fet) iGPU har GPUn och CPUn tillgång till lika mycket RAM (upp till 128 GB RAM, då tittar man på från 60k inkl moms)

Vill bara flika in med att renderar man med två GPUer utan nån slags länk mellan dom så kan dom inte dela på VRAMet, o tar VRAMet slut så börjar Blender skyffla över på vanliga systemminnet istället. Kommer gå lite lågnsammare ja, men fortfarande snabbare än att bara köra CPU, o fortfarande snabbare än en Macintosh
O så vitt jag vet så utöver rendering så är det ändå rätt mycket i Blender som gillar flera kärnor, o det läggs relativt ofta till flera grejer, så fler kärnor ska vara bra, men såklart är snabba kärnor också bra. Balans då antar jag

Personligen skulle jag eventuellt vänta på 4080 eller kanske 4070ti, för med tanke på att 4090 är dubbelt så snabbt som ett 3090ti i Blender så kan jag tänka mig att dom lägre 4000-modellerna kommer rocka på väldigt bra dom med, men för ungefär samma pris som top-3000-serien. Om man orkar vänta då. Fast oavsett så är det mesta av dom nya RTX-korten svinsnabba i Blender o Optix idag så vilket som kommer nog OP bli nöjd med

Permalänk
Datavetare
Skrivet av Gurrrra:

Vill bara flika in med att renderar man med två GPUer utan nån slags länk mellan dom så kan dom inte dela på VRAMet, o tar VRAMet slut så börjar Blender skyffla över på vanliga systemminnet istället. Kommer gå lite lågnsammare ja, men fortfarande snabbare än att bara köra CPU, o fortfarande snabbare än en Macintosh
O så vitt jag vet så utöver rendering så är det ändå rätt mycket i Blender som gillar flera kärnor, o det läggs relativt ofta till flera grejer, så fler kärnor ska vara bra, men såklart är snabba kärnor också bra. Balans då antar jag

Personligen skulle jag eventuellt vänta på 4080 eller kanske 4070ti, för med tanke på att 4090 är dubbelt så snabbt som ett 3090ti i Blender så kan jag tänka mig att dom lägre 4000-modellerna kommer rocka på väldigt bra dom med, men för ungefär samma pris som top-3000-serien. Om man orkar vänta då. Fast oavsett så är det mesta av dom nya RTX-korten svinsnabba i Blender o Optix idag så vilket som kommer nog OP bli nöjd med

Kan man rendera med GPGPU, då framförallt med Nvidia OptiX, ligger ju prestanda på en helt annan nivå. Ställer man 5950X mot ett enskilt 3090 är det den senare 10-30 gånger snabbare. Givet att MacStudio var helt ute ur budget så var det bara en jämförelsepunkt som bara är relevant om man av någon anledning planerar rendera med CPU (enda anledningen jag kan se idag är just p.g.a. eventuella RAM-begränsningar), där är den konkurrenskraftig men mot Nvidia GPUer är alla dagens CPUer chanslösa.

Sen vad i Blender, förutom just rendering, skalar speciellt väl med kärnor? Fysiksimuleringar (vatten, rök, tyg etc) har viss skalning med CPU-kärnor, men det planar ut rätt snabbt och är i de flesta fall rätt irrelevant skalning förbi 4-6 kärnor.

Ska man köra flera GPUer kan 3000-serien fortfarande vara relevant just då toppmodellerna har kvar SLI-link kontakten. Vad jag förstår har man tagit bort den på 4090, men om det nu ändå går att gå via PCIe-bussen med OK prestanda är kanske inte det superkritiskt!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Gurrrra:

Vill bara flika in med att renderar man med två GPUer utan nån slags länk mellan dom så kan dom inte dela på VRAMet, o tar VRAMet slut så börjar Blender skyffla över på vanliga systemminnet istället. Kommer gå lite lågnsammare ja, men fortfarande snabbare än att bara köra CPU, o fortfarande snabbare än en Macintosh
O så vitt jag vet så utöver rendering så är det ändå rätt mycket i Blender som gillar flera kärnor, o det läggs relativt ofta till flera grejer, så fler kärnor ska vara bra, men såklart är snabba kärnor också bra. Balans då antar jag

Personligen skulle jag eventuellt vänta på 4080 eller kanske 4070ti, för med tanke på att 4090 är dubbelt så snabbt som ett 3090ti i Blender så kan jag tänka mig att dom lägre 4000-modellerna kommer rocka på väldigt bra dom med, men för ungefär samma pris som top-3000-serien. Om man orkar vänta då. Fast oavsett så är det mesta av dom nya RTX-korten svinsnabba i Blender o Optix idag så vilket som kommer nog OP bli nöjd med

Hinner inte vänta in saker tyvärr. Behöver för ett arbete.
Så nån av de färdiga datorerna jag länkade ovan borde funka fin fint?

Permalänk
Datavetare
Skrivet av erik0240:

Hinner inte vänta in saker tyvärr. Behöver för ett arbete.
Så nån av de färdiga datorerna jag länkade ovan borde funka fin fint?

Om du behöver den "nu" kanske det ändå är värt att kika på 3090/3090Ti då dessa kommer med 24 GB VRAM. Med viss reservation kring det @Gurrrra nämnde: Pascal och senare kan även använda CPU RAM som "VRAM" och i det läget blir VRAM delvis en cache.

Har själv ett 3090 + använder blender till rätt enkla saker, så har aldrig kommit till punkten där VRAM tagit slut. Om det nu fungerar rätt bra när GPU använder "CPU RAM" så kan man absolut kika på 3080/3070Ti också!

Sen kommer som sagt 13000-serien imorgon. Det kommer knappast vara någon gigantisk lyft över Intels 12000-serien eller AMDs 7000-serie sett till prestanda per kärna, men gissar ändå att 13000-serien kommer stå sig riktigt bra för de modeller som har 6-8 P-cores (13600K och 13700K). Då har man även "safe:at" med att det finns 8 E-cores om nu saker skulle skala med kärnor.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Kan man rendera med GPGPU, då framförallt med Nvidia OptiX, ligger ju prestanda på en helt annan nivå. Ställer man 5950X mot ett enskilt 3090 är det den senare 10-30 gånger snabbare. Givet att MacStudio var helt ute ur budget så var det bara en jämförelsepunkt som bara är relevant om man av någon anledning planerar rendera med CPU (enda anledningen jag kan se idag är just p.g.a. eventuella RAM-begränsningar), där är den konkurrenskraftig men mot Nvidia GPUer är alla dagens CPUer chanslösa.

Sen vad i Blender, förutom just rendering, skalar speciellt väl med kärnor? Fysiksimuleringar (vatten, rök, tyg etc) har viss skalning med CPU-kärnor, men det planar ut rätt snabbt och är i de flesta fall rätt irrelevant skalning förbi 4-6 kärnor.

Ska man köra flera GPUer kan 3000-serien fortfarande vara relevant just då toppmodellerna har kvar SLI-link kontakten. Vad jag förstår har man tagit bort den på 4090, men om det nu ändå går att gå via PCIe-bussen med OK prestanda är kanske inte det superkritiskt!

Ja för Blender-rendering just nu så är Nvidia helt klart det enda vettiga valet, inget snack om saken.

Jag har inte koll på specifika ting som tjänar mer eller mindre på fler kärnor, men senast i Blender Today (som sänds en gång i veckan) så dök det upp iaf en två-tre grejer som nu hade fått en ganska bra boost i multithreading, o det är inte enda gången det skett. Men har du nå mer specifik data på prestanda med eller utan flera kärnor så är jag nyfiken på att läsa

Skrivet av erik0240:

Hinner inte vänta in saker tyvärr. Behöver för ett arbete.
Så nån av de färdiga datorerna jag länkade ovan borde funka fin fint?

Ja garanterat, som sagt sålänge det är ett RTX-kort i så kommer det rendera som en insmörad ål.

Permalänk

Borde det inte ett vara bättre att satsa på ett RTX 3090 då det har dubbla mängden ram mot ett 3080? 10-12gb som det är på 3080 känns som det kan begränsa en del.

Permalänk
Medlem
Skrivet av FredrikBengtsson:

Borde det inte ett vara bättre att satsa på ett RTX 3090 då det har dubbla mängden ram mot ett 3080? 10-12gb som det är på 3080 känns som det kan begränsa en del.

Mer VRAM är som sagt gött, men frågan är hur nödvändigt det är? Beror ju helt o hållet på hur tunga grejer OP tänkt rendera o dessutom så kör Blender som sagt på systemminnet om VRAMet tar slut men med lite sämre prestanda då vanliga ramet tenderar vara långsammare. Är iofs själv nyfiken på hur mycket långsammare det blir, så borde ta o leta lite om det finns nå tester på det. Sitter ju dock själv med 8gb VRAM o har renderat tämligen tunga grejer i runt 8K utan större problem.

Permalänk
Medlem
Skrivet av Yoshman:

Om du behöver den "nu" kanske det ändå är värt att kika på 3090/3090Ti då dessa kommer med 24 GB VRAM. Med viss reservation kring det @Gurrrra nämnde: Pascal och senare kan även använda CPU RAM som "VRAM" och i det läget blir VRAM delvis en cache.

Har själv ett 3090 + använder blender till rätt enkla saker, så har aldrig kommit till punkten där VRAM tagit slut. Om det nu fungerar rätt bra när GPU använder "CPU RAM" så kan man absolut kika på 3080/3070Ti också!

Sen kommer som sagt 13000-serien imorgon. Det kommer knappast vara någon gigantisk lyft över Intels 12000-serien eller AMDs 7000-serie sett till prestanda per kärna, men gissar ändå att 13000-serien kommer stå sig riktigt bra för de modeller som har 6-8 P-cores (13600K och 13700K). Då har man även "safe:at" med att det finns 8 E-cores om nu saker skulle skala med kärnor.

Så då känns väl denna mest lockande av de jag slängt upp?

https://www.netonnet.se/art/gaming/gamingdator/stationar-gami...
Men med ett 3090 istället om det hade gått? Eller kan man få det på den för samma pris ungefär om man sätter ihop själv på ex Inet?

Eftersom mycket av det ni skriver är överkurs för mig, så sätt gärna ihop ett byggförslag på T ex Inet. Så kan jag se vad för paket ni menar. Om tid och ork finns såklart. Uppskattning finns!

Permalänk
Datavetare
Skrivet av erik0240:

Så då känns väl denna mest lockande av de jag slängt upp?

https://www.netonnet.se/art/gaming/gamingdator/stationar-gami...
Men med ett 3090 istället om det hade gått? Eller kan man få det på den för samma pris ungefär om man sätter ihop själv på ex Inet?

Eftersom mycket av det ni skriver är överkurs för mig, så sätt gärna ihop ett byggförslag på T ex Inet. Så kan jag se vad för paket ni menar. Om tid och ork finns såklart. Uppskattning finns!

Den här videon rätar ut ett par saker kring VRAM-behovet i Blender

Titeln "Not Enough VRAM Can Drastically Hurt Render Performance - Blender" är både korrekt men samtidigt ändå missvisade. Man förlorar rejält med prestanda procentuellt sett om scenen är så pass komplex att den inte får plats i VRAM, men då GPGPU på Nvidia GPUer är så brutalt mycket snabbare än CPU-rendering är det ändå långt snabbare att köra GPGPU. D.v.s. prestandatappet är drastiskt, men inte lika illa som att gå till CPU-rendering!

I videon nämns ett par saker till som är bra att känna till och som nog säger att man ska gå på 3090/3090Ti/4090 om man verkligen bygger för Blender. När man kör GPGPU idag på Nvidia GPU kommer man i praktiken alltid vilja använda OptiX då det ger ett rejält prestandalyft över CUDA. I nuläget verkar dock OptiX vara lite vingligt om man hamnar i läget att VRAM inte räcker till, att GPGPU-rendera med "för lite VRAM" gör man i nuläget bäst med CUDA.

Det som sedan specifikt talar för 3090/3090Ti är att dessa har NVLink, något som modeller under samt vad jag förstår även 4090 saknar. Det går fortfarande att använda flera GPUer i Blender (prestanda skalar rätt väl med detta), men utan NVLink blir effektiv mängd VRAM 24 GB om man t.ex. har två 4090 medan det blir 48 GB om man har två 3090 med NVLink (utan NVLink blir det effektivt 24 GB).

Ögnade igenom lite vad som sägs om CPU-krav på Blender-forum. Det har under flera års tid pratas om att "snart kommer fysik etc" kunna använda fler CPU-kärnor, men i praktiken har väldigt lite hänt. Finns flera moment som lägger tyngden på CPU, fysiksimuleringar, view-port jobb med high-poly modeller etc. Alla dessa är primärt begränsade av enkeltrådprestanda hos CPU.

Det jobbas på bättre fysikmotor, men om allt går riktigt bra där lär man nog hamna i att även detta kommer blir GPGPU-accelererat vilket då gör valet av CPU än mindre viktigt för just Blender. Om/när det händer går inte att säga, men man får nog räkna med "det kommer ta något/några år till".

Så 3090/3090Ti/4090 verkar att fördra (eller egentligen, en modern Nvidia GPU med mycket VRAM). Ska man spara på något är det nog genom att välja en CPU med lite färre kärnor. 12700K står sig riktigt bra i view-port och fysikjobb, men det är egentligen bara dess lite högre frekvens som gör den bättre än 12600K. Så vill man spara någon krona tror jag 13600K (som enligt läckor verkar matcha 12700K i prestanda, fast till lite lägre pris och lite bättre perf/W) kan vara vettigt.

Går ju låta t.ex. Inet bygga datorn om man vill plocka ihop delarna själv.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Den här videon rätar ut ett par saker kring VRAM-behovet i Blender

https://www.youtube.com/watch?v=TL5JJZS8LqI

Titeln "Not Enough VRAM Can Drastically Hurt Render Performance - Blender" är både korrekt men samtidigt ändå missvisade. Man förlorar rejält med prestanda procentuellt sett om scenen är så pass komplex att den inte får plats i VRAM, men då GPGPU på Nvidia GPUer är så brutalt mycket snabbare än CPU-rendering är det ändå långt snabbare att köra GPGPU. D.v.s. prestandatappet är drastiskt, men inte lika illa som att gå till CPU-rendering!

I videon nämns ett par saker till som är bra att känna till och som nog säger att man ska gå på 3090/3090Ti/4090 om man verkligen bygger för Blender. När man kör GPGPU idag på Nvidia GPU kommer man i praktiken alltid vilja använda OptiX då det ger ett rejält prestandalyft över CUDA. I nuläget verkar dock OptiX vara lite vingligt om man hamnar i läget att VRAM inte räcker till, att GPGPU-rendera med "för lite VRAM" gör man i nuläget bäst med CUDA.

Det som sedan specifikt talar för 3090/3090Ti är att dessa har NVLink, något som modeller under samt vad jag förstår även 4090 saknar. Det går fortfarande att använda flera GPUer i Blender (prestanda skalar rätt väl med detta), men utan NVLink blir effektiv mängd VRAM 24 GB om man t.ex. har två 4090 medan det blir 48 GB om man har två 3090 med NVLink (utan NVLink blir det effektivt 24 GB).

Ögnade igenom lite vad som sägs om CPU-krav på Blender-forum. Det har under flera års tid pratas om att "snart kommer fysik etc" kunna använda fler CPU-kärnor, men i praktiken har väldigt lite hänt. Finns flera moment som lägger tyngden på CPU, fysiksimuleringar, view-port jobb med high-poly modeller etc. Alla dessa är primärt begränsade av enkeltrådprestanda hos CPU.

Det jobbas på bättre fysikmotor, men om allt går riktigt bra där lär man nog hamna i att även detta kommer blir GPGPU-accelererat vilket då gör valet av CPU än mindre viktigt för just Blender. Om/när det händer går inte att säga, men man får nog räkna med "det kommer ta något/några år till".

Så 3090/3090Ti/4090 verkar att fördra (eller egentligen, en modern Nvidia GPU med mycket VRAM). Ska man spara på något är det nog genom att välja en CPU med lite färre kärnor. 12700K står sig riktigt bra i view-port och fysikjobb, men det är egentligen bara dess lite högre frekvens som gör den bättre än 12600K. Så vill man spara någon krona tror jag 13600K (som enligt läckor verkar matcha 12700K i prestanda, fast till lite lägre pris och lite bättre perf/W) kan vara vettigt.

Går ju låta t.ex. Inet bygga datorn om man vill plocka ihop delarna själv.

Tack för bra svar!
Går detta att få inom min budget tror du?

Mitt problem med ihopplocket är ju att jag inte kan nånting om vad de andra delarna ska/bör vara….*skäms-emoji*
Skulle du ha tid att kasta ihop ett förslag på helhetssetup så skulle jag buga…!

Permalänk
Medlem
Skrivet av erik0240:

Har budget ca 25-30K och söker komplett dator som är optimal för modellering och animering i Blender. Vill såklart kunna rendera (GPU) så bra som möjligt också, men kan leja ut det till renderfarm om måste.

Kan typ noll (0) om datorkomponenter och är därför svårt för mig att gå in och bygga ihop ett komplett klart-att-köra paket (minus skärm, det finns). Skulle ju helst köpa en färdig burk på typ Elgiganten, men misstänker man betalar dyrt för sämre än om man får er hjälp

Vet liksom typ bara:
att ha hög CPU (32 och uppåt)
Att ha ett eller två GPU-kort av modern variant RTX 3060-3090 typ (?)

Tacksam för hjälp!

https://www.pugetsystems.com/recommended/Recommended-Systems-...

Dvs för en skapare så är singeltrådsprestanda viktigare. Din budget är ju lite låg för Blender.
https://classic.prisjakt.nu/list.php?l=4277468&view=l

26 000:- ex moms

Tillkommer operativsystem och eventuellt ihopbyggande. Detta är en "skiss" och beroende på ÅF kan man behöva byta komponenter mot likvärdiga.

Permalänk
Datavetare
Skrivet av erik0240:

Tack för bra svar!
Går detta att få inom min budget tror du?

Mitt problem med ihopplocket är ju att jag inte kan nånting om vad de andra delarna ska/bör vara….*skäms-emoji*
Skulle du ha tid att kasta ihop ett förslag på helhetssetup så skulle jag buga…!

Att göra bygge av en dator överlåter jag till någon annan... På den punkten är jag mer åt ditt håll, kan i.o.f.s. läsa på för att gräva fram saker men är inte speciellt road av att bygga datorer.

Som referens: min nuvarande stationära

Har framförallt väldigt lite koll på moderkort och PSU. I mina egna byggen kör jag typiskt rätt billiga moderkort, har ett B550 till min 5950X och ett B350 för <1000 kr till min 3900X... Har fungerat hur bra som helst, men kan inte påstå att det är speciellt mycket research bakom de valen.

Som PSU har jag ett Corsair RM750x v2 (det till RTX3090+5950X)

Skrivet av Mordekai:

https://www.pugetsystems.com/recommended/Recommended-Systems-...

Dvs för en skapare så är singeltrådsprestanda viktigare. Din budget är ju lite låg för Blender.
https://classic.prisjakt.nu/list.php?l=4277468&view=l

26 000:- ex moms

Tillkommer operativsystem och eventuellt ihopbyggande. Detta är en "skiss" och beroende på ÅF kan man behöva byta komponenter mot likvärdiga.

Ser väl helt OK ut, tror man kan byta "ned" till 13700K utan att det påverkar detta use-case på något relevant sätt

Frågan är vad Z790 moderkort tillför över B-serie moderkorten. Ser inte någon rim och reson i att ge sig på att överklocka en arbetsdator!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Den här videon rätar ut ett par saker kring VRAM-behovet i Blender

https://www.youtube.com/watch?v=TL5JJZS8LqI

Titeln "Not Enough VRAM Can Drastically Hurt Render Performance - Blender" är både korrekt men samtidigt ändå missvisade. Man förlorar rejält med prestanda procentuellt sett om scenen är så pass komplex att den inte får plats i VRAM, men då GPGPU på Nvidia GPUer är så brutalt mycket snabbare än CPU-rendering är det ändå långt snabbare att köra GPGPU. D.v.s. prestandatappet är drastiskt, men inte lika illa som att gå till CPU-rendering!

I videon nämns ett par saker till som är bra att känna till och som nog säger att man ska gå på 3090/3090Ti/4090 om man verkligen bygger för Blender. När man kör GPGPU idag på Nvidia GPU kommer man i praktiken alltid vilja använda OptiX då det ger ett rejält prestandalyft över CUDA. I nuläget verkar dock OptiX vara lite vingligt om man hamnar i läget att VRAM inte räcker till, att GPGPU-rendera med "för lite VRAM" gör man i nuläget bäst med CUDA.

Det som sedan specifikt talar för 3090/3090Ti är att dessa har NVLink, något som modeller under samt vad jag förstår även 4090 saknar. Det går fortfarande att använda flera GPUer i Blender (prestanda skalar rätt väl med detta), men utan NVLink blir effektiv mängd VRAM 24 GB om man t.ex. har två 4090 medan det blir 48 GB om man har två 3090 med NVLink (utan NVLink blir det effektivt 24 GB).

Ögnade igenom lite vad som sägs om CPU-krav på Blender-forum. Det har under flera års tid pratas om att "snart kommer fysik etc" kunna använda fler CPU-kärnor, men i praktiken har väldigt lite hänt. Finns flera moment som lägger tyngden på CPU, fysiksimuleringar, view-port jobb med high-poly modeller etc. Alla dessa är primärt begränsade av enkeltrådprestanda hos CPU.

Det jobbas på bättre fysikmotor, men om allt går riktigt bra där lär man nog hamna i att även detta kommer blir GPGPU-accelererat vilket då gör valet av CPU än mindre viktigt för just Blender. Om/när det händer går inte att säga, men man får nog räkna med "det kommer ta något/några år till".

Så 3090/3090Ti/4090 verkar att fördra (eller egentligen, en modern Nvidia GPU med mycket VRAM). Ska man spara på något är det nog genom att välja en CPU med lite färre kärnor. 12700K står sig riktigt bra i view-port och fysikjobb, men det är egentligen bara dess lite högre frekvens som gör den bättre än 12600K. Så vill man spara någon krona tror jag 13600K (som enligt läckor verkar matcha 12700K i prestanda, fast till lite lägre pris och lite bättre perf/W) kan vara vettigt.

Går ju låta t.ex. Inet bygga datorn om man vill plocka ihop delarna själv.

Bra svar, o tack för klippet, skall ta o kollas på ikväll efter jobbet.

Jag har iaf varit inne lite i samma spår genom åren, satt från början med en laptop med en i7 8550u o Blendrade, för att sen skaffa en eGPU med först en GTX970 o sen RTX3060ti vilket båda var STORA uppgraderingar. Senare byggde jag en stationär med en Ryzen 5 3400g o med samma 3060ti men den märkbara uppgraderingen för mig i Blender var inte i närheten lika stor (men stor för annat såklart). Har dock sällan jobbat med fysik eller liknande i Blender.
Dock har ju geometry nodes sen dess blivit en grej som jag använder mig av mycket nu, o när jag uppdaterade till en för ett tag sen 3700x så märkte jag en granska bra boost i några testscener trots att singlecore-prestandan mellan CPUerna ska vara rätt lika, så där verkar multicore ganska viktigt. Har siffror på det i nån textfil hemma om nån skulle vara intresserad
Så ja, jag är ändå lite med dig att GPU är det absolut viktigaste, men en bra CPU är inte att underskatta. Allt som jag sett OP länka skulle iaf duga finfint!

Permalänk
Medlem

Testerna på Techgage brukar ge a bra bild över GPU-prestandan i Blenders olika renderingsmotorer och scenarion.
Rekommenderar dig att läsa igenom testet av RTX 4090 innan du bestämmer dig.

https://techgage.com/article/nvidia-geforce-rtx-4090-the-new-...

Visa signatur

Citera -> större chans till svar.

Permalänk
Medlem
Skrivet av Mordekai:

https://www.pugetsystems.com/recommended/Recommended-Systems-...

Dvs för en skapare så är singeltrådsprestanda viktigare. Din budget är ju lite låg för Blender.
https://classic.prisjakt.nu/list.php?l=4277468&view=l

26 000:- ex moms

Tillkommer operativsystem och eventuellt ihopbyggande. Detta är en "skiss" och beroende på ÅF kan man behöva byta komponenter mot likvärdiga.

Det är detta som gör mig förvirrad. Både de du länkat har ju ”sämre”/äldre GPUs än denna jag föreslog, men kostar massor mer:
https://www.netonnet.se/art/gaming/gamingdator/stationar-gami...

Vad missförstår jag? Ursäkta min tröghet.

Permalänk
Datavetare
Skrivet av erik0240:

Det är detta som gör mig förvirrad. Både de du länkat har ju ”sämre”/äldre GPUs än denna jag föreslog, men kostar massor mer:
https://www.netonnet.se/art/gaming/gamingdator/stationar-gami...

Vad missförstår jag? Ursäkta min tröghet.

Vi har sett det fenomenet när vi letat lite bättre maskiner till jobbet (då GPU-mässigt bättre): färdigbyggda datorer med "bra" GPUer kan i många fall ha riktigt bra pris jämfört med att försöka bygga själv.

Så ur den aspekten kan det vara värt att välja färdigbyggt. Och i det läget lär du kanske inte kunna vänta in Intel 13000-serien eller AMDs 7000-serie för brukar ta ett par månader innan det finns bra deals med "nylanserade" komponenter.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Vi har sett det fenomenet när vi letat lite bättre maskiner till jobbet (då GPU-mässigt bättre): färdigbyggda datorer med "bra" GPUer kan i många fall ha riktigt bra pris jämfört med att försöka bygga själv.

Så ur den aspekten kan det vara värt att välja färdigbyggt. Och i det läget lär du kanske inte kunna vänta in Intel 13000-serien eller AMDs 7000-serie för brukar ta ett par månader innan det finns bra deals med "nylanserade" komponenter.

Men ”kärn-mässigt” är väl detta färdigbygge också fullt dugligt för mitt ändamål? Dvs 12 kärnor.

Permalänk
Medlem
Skrivet av erik0240:

Det är detta som gör mig förvirrad. Både de du länkat har ju ”sämre”/äldre GPUs än denna jag föreslog, men kostar massor mer:
https://www.netonnet.se/art/gaming/gamingdator/stationar-gami...

Vad missförstår jag? Ursäkta min tröghet.

Fördelarna med delarna på prisjakt mot Acer.

Snabbare CPU
Dubbelt så mycket minne
Snabbare primär lagringsenhet (SSD)
Stilrent tyst chassi
Windows 11 PRO
Betydligt bättre kylare
Bättre nätaggregat
13th gen har en bättre minnecontroller och kan lättare minneuppgraderas.
ÖHT anpassad för arbete och inte ett pojkrum.

Puget Systems är de enda som verkligen benchmarkar datorer för verkligt arbete¨, inte bara renderingsbenchmarks på CPU vilket i ditt fall är tokfel att basera några val på. Såklart är en bättre GPU önskvärt men i din budget med det kreativa arbetets prestanda i fokus är minne och CPU viktigare.

Permalänk
Medlem
Skrivet av Yoshman:

Att göra bygge av en dator överlåter jag till någon annan... På den punkten är jag mer åt ditt håll, kan i.o.f.s. läsa på för att gräva fram saker men är inte speciellt road av att bygga datorer.

Som referens: min nuvarande stationära

Har framförallt väldigt lite koll på moderkort och PSU. I mina egna byggen kör jag typiskt rätt billiga moderkort, har ett B550 till min 5950X och ett B350 för <1000 kr till min 3900X... Har fungerat hur bra som helst, men kan inte påstå att det är speciellt mycket research bakom de valen.

Som PSU har jag ett Corsair RM750x v2 (det till RTX3090+5950X)

Ser väl helt OK ut, tror man kan byta "ned" till 13700K utan att det påverkar detta use-case på något relevant sätt

Frågan är vad Z790 moderkort tillför över B-serie moderkorten. Ser inte någon rim och reson i att ge sig på att överklocka en arbetsdator!

Det handlar framförallt om Boosten på två cores som blir bättre med 13900K/Z790 alltså Intels egna inbyggda överklockning av en eller två kärnor vid höga enkeltrådslaster. Tyvärr har Intel gjort så att man får bäst enkeltrådsprestanda med de Core-CPUer som har flest kärnor, till skillnad från deras Xeon-CPUer. Jag skulle definitivt slå av Hyperthreading på en 13900K.