Den här videon rätar ut ett par saker kring VRAM-behovet i Blender
https://www.youtube.com/watch?v=TL5JJZS8LqI
Titeln "Not Enough VRAM Can Drastically Hurt Render Performance - Blender" är både korrekt men samtidigt ändå missvisade. Man förlorar rejält med prestanda procentuellt sett om scenen är så pass komplex att den inte får plats i VRAM, men då GPGPU på Nvidia GPUer är så brutalt mycket snabbare än CPU-rendering är det ändå långt snabbare att köra GPGPU. D.v.s. prestandatappet är drastiskt, men inte lika illa som att gå till CPU-rendering!
I videon nämns ett par saker till som är bra att känna till och som nog säger att man ska gå på 3090/3090Ti/4090 om man verkligen bygger för Blender. När man kör GPGPU idag på Nvidia GPU kommer man i praktiken alltid vilja använda OptiX då det ger ett rejält prestandalyft över CUDA. I nuläget verkar dock OptiX vara lite vingligt om man hamnar i läget att VRAM inte räcker till, att GPGPU-rendera med "för lite VRAM" gör man i nuläget bäst med CUDA.
Det som sedan specifikt talar för 3090/3090Ti är att dessa har NVLink, något som modeller under samt vad jag förstår även 4090 saknar. Det går fortfarande att använda flera GPUer i Blender (prestanda skalar rätt väl med detta), men utan NVLink blir effektiv mängd VRAM 24 GB om man t.ex. har två 4090 medan det blir 48 GB om man har två 3090 med NVLink (utan NVLink blir det effektivt 24 GB).
Ögnade igenom lite vad som sägs om CPU-krav på Blender-forum. Det har under flera års tid pratas om att "snart kommer fysik etc" kunna använda fler CPU-kärnor, men i praktiken har väldigt lite hänt. Finns flera moment som lägger tyngden på CPU, fysiksimuleringar, view-port jobb med high-poly modeller etc. Alla dessa är primärt begränsade av enkeltrådprestanda hos CPU.
Det jobbas på bättre fysikmotor, men om allt går riktigt bra där lär man nog hamna i att även detta kommer blir GPGPU-accelererat vilket då gör valet av CPU än mindre viktigt för just Blender. Om/när det händer går inte att säga, men man får nog räkna med "det kommer ta något/några år till".
Så 3090/3090Ti/4090 verkar att fördra (eller egentligen, en modern Nvidia GPU med mycket VRAM). Ska man spara på något är det nog genom att välja en CPU med lite färre kärnor. 12700K står sig riktigt bra i view-port och fysikjobb, men det är egentligen bara dess lite högre frekvens som gör den bättre än 12600K. Så vill man spara någon krona tror jag 13600K (som enligt läckor verkar matcha 12700K i prestanda, fast till lite lägre pris och lite bättre perf/W) kan vara vettigt.
Går ju låta t.ex. Inet bygga datorn om man vill plocka ihop delarna själv.