specialGPUer och PCI-minne för rendering

Permalänk

specialGPUer och PCI-minne för rendering

Vet inte vilken kategori detta bör ligga under, men jag hoppas att det inte är allt för fel

Anledningen till denna tanke/diskussion är att det stora problemet med GPUrendering idag är att det inte finns grafikkort med tillräkligt mycket minne, tex i 16-128GB klassen.
Och för stora företag som ILM är ju 128GB är längsta klassen, och de är idag rätt så intresserade av just GPUrendering.

Jag vill bara ha en liten diskussion om hårdvara för GPUrendering som nog inte exsiterar, nämligen "grafikkort" utan eget minne, utan som delar minne från tex CPUns eller från nån PCIekort, typ detta: http://www.pcper.com/images/reviews/704/ddrdrive_x1_p1-.jpg

Min fundering är ifall det inte borde gå, rent tekniskt, att göra GPGPUkort som får sitt minne från PCIbussen från ett ovan nämnt minneskort?

Visst, detta blir väldigt mycket långsammare än med tex GDDR5, men det gör väl inte så mycket med just rendering? Jag har nämligen starkt för mig att de (grafikkort för rendering) inte behöver nån bandbredd alls nästan, bara en jädra massa minne och GPustyrka.

Samt, skulle man i så fall inte kunna göra GPGPUkort med tex 3-4 GPUer på samma kort, stoppa in ett antal av dessa i ett servermobo, och låta dessa dela på ett enda gigantiskt PCIe-minne?

Jag är kanske fånig, men tycker det är roligt att fundera över teoretiska lösningar såhär

Visa signatur

EVGA G2 Supernova 750W, ... , 2x8GB Vengance, MSI GTX760 4GB Gaming Ed + GTX580 3GB Phantom (ej SLI).

Permalänk
Medlem

Det skulle vara intressant med grafikkort som har egna minnesplatser för standardminnen. Det är ju ändå en förenklad dator i miniatyr som sitter där.

Visa signatur

Kör Linux - Yes! We are the 2 percent! And growing... Föreslå inte ens något Windows-exklusivt om jag inte specifikt frågar efter något till Win.
2600K - 18GB RAM - 1TB HDD - 64GB SSD - GTX 650 Ti Boost
Minnesvärda trådar: 1, 2

Permalänk
Moderator
Festpilot 2020, Antiallo
Skrivet av Bluestreakfus:

Vet inte vilken kategori detta bör ligga under, men jag hoppas att det inte är allt för fel

Anledningen till denna tanke/diskussion är att det stora problemet med GPUrendering idag är att det inte finns grafikkort med tillräkligt mycket minne, tex i 16-128GB klassen.
Och för stora företag som ILM är ju 128GB är längsta klassen, och de är idag rätt så intresserade av just GPUrendering.

Jag vill bara ha en liten diskussion om hårdvara för GPUrendering som nog inte exsiterar, nämligen "grafikkort" utan eget minne, utan som delar minne från tex CPUns eller från nån PCIekort, typ detta: http://www.pcper.com/images/reviews/704/ddrdrive_x1_p1-.jpg

Min fundering är ifall det inte borde gå, rent tekniskt, att göra GPGPUkort som får sitt minne från PCIbussen från ett ovan nämnt minneskort?

Visst, detta blir väldigt mycket långsammare än med tex GDDR5, men det gör väl inte så mycket med just rendering? Jag har nämligen starkt för mig att de (grafikkort för rendering) inte behöver nån bandbredd alls nästan, bara en jädra massa minne och GPustyrka.

Samt, skulle man i så fall inte kunna göra GPGPUkort med tex 3-4 GPUer på samma kort, stoppa in ett antal av dessa i ett servermobo, och låta dessa dela på ett enda gigantiskt PCIe-minne?

Jag är kanske fånig, men tycker det är roligt att fundera över teoretiska lösningar såhär

Det finns väl ingen RAM som går att slänga in på PCIe. Det du slängde in var en PCIe SSD som körde allt på RAM stickor.

Skrivet av Erwya:

Det skulle vara intressant med grafikkort som har egna minnesplatser för standardminnen. Det är ju ändå en förenklad dator i miniatyr som sitter där.

Förenklad? Snarare specialiserad.

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Skrivet av Erwya:

Det skulle vara intressant med grafikkort som har egna minnesplatser för standardminnen. Det är ju ändå en förenklad dator i miniatyr som sitter där.

Jo, det tänkte jag också på att man kanske kunde göra, skulle ju säkert också vara en bra lösning

Skrivet av DavidtheDoom:

Det finns väl ingen RAM som går att slänga in på PCIe. Det du slängde in var en PCIe SSD som körde allt på RAM stickor.

Jo jag vet, men jag visade den mest som ett grafiskt exempel på hur ett RAM-kort skulle kunna se ut

Visa signatur

EVGA G2 Supernova 750W, ... , 2x8GB Vengance, MSI GTX760 4GB Gaming Ed + GTX580 3GB Phantom (ej SLI).

Permalänk
Medlem

Har förresten hört någon gång om SSD-varianter som skulle använda RAM som minnesbankar och ha batteribackup. Låter intressant eftersom man skulle kunna använda en SATA-kanal eller PCIe för att ansluta en sådan.

Ett RAMkort som man sätter in i PCIe vore också häftigt. Varför finns inte denna mångfald tillgängligt bland datordelar idag?

Visa signatur

Kör Linux - Yes! We are the 2 percent! And growing... Föreslå inte ens något Windows-exklusivt om jag inte specifikt frågar efter något till Win.
2600K - 18GB RAM - 1TB HDD - 64GB SSD - GTX 650 Ti Boost
Minnesvärda trådar: 1, 2

Permalänk
Medlem

Inte riktigt säker på vad TS menar egentligen, nån sort ny teknik eller standard?

Hursom, alla grafikkort idag kan använda minne av datorns vanliga RAM vid behov så där finns egentligen inget problem, problemet är att det är på tok för långsamt för att göra nån nytta med kraftfullare grafikkort, är därför grafikkort har eget dedikerat minne.

Dock vet inte hur detta påverkar GPU rendering, vilka krav som ställs på minnesbandbredd...

Visa signatur

Acer Predator Helios 300

Permalänk
Medlem
Skrivet av Bluestreakfus:

Vet inte vilken kategori detta bör ligga under, men jag hoppas att det inte är allt för fel

Anledningen till denna tanke/diskussion är att det stora problemet med GPUrendering idag är att det inte finns grafikkort med tillräkligt mycket minne, tex i 16-128GB klassen.
Och för stora företag som ILM är ju 128GB är längsta klassen, och de är idag rätt så intresserade av just GPUrendering.

Jag vill bara ha en liten diskussion om hårdvara för GPUrendering som nog inte exsiterar, nämligen "grafikkort" utan eget minne, utan som delar minne från tex CPUns eller från nån PCIekort, typ detta: http://www.pcper.com/images/reviews/704/ddrdrive_x1_p1-.jpg

Min fundering är ifall det inte borde gå, rent tekniskt, att göra GPGPUkort som får sitt minne från PCIbussen från ett ovan nämnt minneskort?

Visst, detta blir väldigt mycket långsammare än med tex GDDR5, men det gör väl inte så mycket med just rendering? Jag har nämligen starkt för mig att de (grafikkort för rendering) inte behöver nån bandbredd alls nästan, bara en jädra massa minne och GPustyrka.

Samt, skulle man i så fall inte kunna göra GPGPUkort med tex 3-4 GPUer på samma kort, stoppa in ett antal av dessa i ett servermobo, och låta dessa dela på ett enda gigantiskt PCIe-minne?

Jag är kanske fånig, men tycker det är roligt att fundera över teoretiska lösningar såhär

Det finns väl Teslakort med 16GB minne på idag väl? Vet att AMD har Fireprokort med 16GB iaf. Annars är det upp till utvecklarna av mjukvaran att se till att använda vanligt RAM som lagringsutrymme och hämta upp data till korten allt eftersom, typ segmenterad rendering. Vet att Octane skulle få det/redan har det med senaste uppdateringen som ett exempel. (för lat att kolla om det är implementerat ännu själv)

Men det är inte bara minne som är ett problem för att alla ska gå över till GPU rendering. Ett problem är att GPU rendering mest lämpar sig för Unbiased rendering, men ibland behöver man inte det, utan hellre kör på Biased rendering på hederliga CPUer för att det är snabbare, helt enkelt för att man kan trimma/tweaka en biased renderare (eller fuska om man så vill). Biased renderare är typ de flesta vanliga renderingsapplikationerna som finns där ute, typ: Mentalray, Vray, Modo, Lightwave, Renderman, Arnold etc. etc. Unbiased renderare för att nämna några är: Maxwell, FryRender, Vray rt, Octane plus några till, dock så är några av dem inte (än så länge) anpassade för GPU. Dock så lämpar sig just sådana sig bäst för just rendering på GPU.

Kort och gott, en Biased renderare på CPU är oftast mycket flexiblare och med kunskap/erfarenhet så kan man få mycket bra/realistiskt resultat som renderar snabbare än en fysiskt korrekt renderare (unbiased) på GPUer.

Visa signatur

Ride more, Work less!

Permalänk
Medlem

Det fungerar redan så att GPUn kan använda processorns ram-minne när GPUns egna minne tar slut. När även ram-minnet är slut så används SSD/HDD.

Uniform Memory Access är ett samlingsnamn för en teknik att låta CPU och GPU dela på minnet. AMDkallar det hUMA för sina APUer.
Maxwell hade i tidigare roadmaps Unified Virtual Memory, men det har skjutits upp till Pascal källa anandtech

Se även HSA.

TS tar alltså upp ett problem som redan är löst eller nära lösning.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem
Skrivet av Hardware guy:

Det fungerar redan så att GPUn kan använda processorns ram-minne när GPUns egna minne tar slut. När även ram-minnet är slut så används SSD/HDD.

Uniform Memory Access är ett samlingsnamn för en teknik att låta CPU och GPU dela på minnet. AMDkallar det hUMA för sina APUer.
Maxwell hade i tidigare roadmaps Unified Virtual Memory, men det har skjutits upp till Pascal källa anandtech

Se även HSA.

TS tar alltså upp ett problem som redan är löst eller nära lösning.

Dock är det ett problem för många/flesta av GPU-renderingsprogrammen att använda sig av uniformt minne pga hur de fungerar/används, man är tvungen att ha allt på Vram. Fast det verkar som att fler försöka hitta lösningarna för de problemen, Otoy's Octane är ett av de programmen. Om jag inte misstolkat OP helt, så är det det som är kärnan i frågeställningen.

Visa signatur

Ride more, Work less!

Permalänk
Skrivet av ggustavsson:

Inte riktigt säker på vad TS menar egentligen, nån sort ny teknik eller standard?

Hursom, alla grafikkort idag kan använda minne av datorns vanliga RAM vid behov så där finns egentligen inget problem, problemet är att det är på tok för långsamt för att göra nån nytta med kraftfullare grafikkort, är därför grafikkort har eget dedikerat minne.

Dock vet inte hur detta påverkar GPU rendering, vilka krav som ställs på minnesbandbredd...

Skrivet av sgtprobe:

Det finns väl Teslakort med 16GB minne på idag väl? Vet att AMD har Fireprokort med 16GB iaf. Annars är det upp till utvecklarna av mjukvaran att se till att använda vanligt RAM som lagringsutrymme och hämta upp data till korten allt eftersom, typ segmenterad rendering. Vet att Octane skulle få det/redan har det med senaste uppdateringen som ett exempel. (för lat att kolla om det är implementerat ännu själv)

Men det är inte bara minne som är ett problem för att alla ska gå över till GPU rendering. Ett problem är att GPU rendering mest lämpar sig för Unbiased rendering, men ibland behöver man inte det, utan hellre kör på Biased rendering på hederliga CPUer för att det är snabbare, helt enkelt för att man kan trimma/tweaka en biased renderare (eller fuska om man så vill). Biased renderare är typ de flesta vanliga renderingsapplikationerna som finns där ute, typ: Mentalray, Vray, Modo, Lightwave, Renderman, Arnold etc. etc. Unbiased renderare för att nämna några är: Maxwell, FryRender, Vray rt, Octane plus några till, dock så är några av dem inte (än så länge) anpassade för GPU. Dock så lämpar sig just sådana sig bäst för just rendering på GPU.

Kort och gott, en Biased renderare på CPU är oftast mycket flexiblare och med kunskap/erfarenhet så kan man få mycket bra/realistiskt resultat som renderar snabbare än en fysiskt korrekt renderare (unbiased) på GPUer.

Jo, det finns ett enda grafikkort med 16GB, men ifall det går att använda billigare ramminne så hade man kunnat få 16GB "grafikminne" för en bråkdel av pengarna

Jag visste dock inte att biased rendering föredrogs! detta var ju mycket intressant, och ju faktiskt rätt logiskt när jag tänker efter.

Blenders Cycles är en semi-biased renderare som hanterar ljuskällor välidgt realistiskt, men är ändå gjord för en lite "cartoonig" känsla

Skrivet av Hardware guy:

Det fungerar redan så att GPUn kan använda processorns ram-minne när GPUns egna minne tar slut. När även ram-minnet är slut så används SSD/HDD.

Uniform Memory Access är ett samlingsnamn för en teknik att låta CPU och GPU dela på minnet. AMDkallar det hUMA för sina APUer.
Maxwell hade i tidigare roadmaps Unified Virtual Memory, men det har skjutits upp till Pascal källa anandtech

Se även HSA.

TS tar alltså upp ett problem som redan är löst eller nära lösning.

Skrivet av sgtprobe:

Dock är det ett problem för många/flesta av GPU-renderingsprogrammen att använda sig av uniformt minne pga hur de fungerar/används, man är tvungen att ha allt på Vram. Fast det verkar som att fler försöka hitta lösningarna för de problemen, Otoy's Octane är ett av de programmen. Om jag inte misstolkat OP helt, så är det det som är kärnan i frågeställningen.

Jag hade verkligen inen aning om att alla grafikkort redan använde sig av RAMminnet när dess egna tog slut, jag trodde att detta enbart var något som användes i integrerade kretsar
Mycket intressant att octane jobbar på att försöka dela RAM med grafikkort, det vore närmast revolutionerande!

Tack till alla svar! Det var roligt att veta att min frågeställning redan håller på att lösas, det kommer bli skitkul att se ^^

Visa signatur

EVGA G2 Supernova 750W, ... , 2x8GB Vengance, MSI GTX760 4GB Gaming Ed + GTX580 3GB Phantom (ej SLI).

Permalänk
Medlem
Skrivet av Bluestreakfus:

Mycket intressant att octane jobbar på att försöka dela RAM med grafikkort, det vore närmast revolutionerande!

Tack till alla svar! Det var roligt att veta att min frågeställning redan håller på att lösas, det kommer bli skitkul att se ^^

Nja, revolutionerande är det väl kanske inte direkt, nödvändig evolution snarare imho. Jag vet inte riktigt hur de löser det egentligen dock. Finns olika vägar att lösa det, men hur Otoy gjort/gör får man nog läsa på deras forum om.

Jag är ganska så insatt och såg din fråga så tänkte bara flika in lite med mina erfarenheter/kunskaper/tankar, kul att det uppskattades. Personligen så har jag tittat på GPU rendering i flera år nu, men slutar alltid med att jag går på CPU lösning i slutändan. Men förmodligen skaffar jag Octane som plugin till Luxology's Modo nu när det finns, alltid bra att ha lite olika vägar att gå för att lösa olika problem. Men primärt så känner jag att än så länge för det jag oftast gör/jobbar med, så är Biased på CPU snabbast. (speciellt på interiörbilder med lite ljusinsläpp om man vill ha det brusfritt på relativt kort tid) Har blivit en jäkel (nåja) med åren på att tweaka in programmet/shaders etc. så det renderar väldigt snabbt med hög kvalitet. Bra för mig och för mina klienter Vray utvecklar även en plugin till Modo btw, väldigt uppskattat från mitt håll. Trevligt med alternativ.

Såg att utvecklarna bakom Arnold börjat titta lite extra på GPU lösningar för framtiden, vilket är intressant med tanke på vad Arnold är för filmbranschen idag. Blir det något så kommer det vara enormt genomtänkt och fungera klockrent och vara superstabilt. De som använder Arnold främst kräver att vad som än kommer från dem måste kunna hantera sjuka mängder data/polygoner och vara enormt stabilt och "production driven". Allt annat är sekundärt.

Visa signatur

Ride more, Work less!

Permalänk
Medlem

När det gäller GPGPU så är ju processen nästan alltid:
* Skyffla över data från RAM till GPU-minne.
* Utför beräkningar på datan.
* Skyffla tillbaks resultatet av beräkningarna från GPU-minne till RAM.

GPUer är även bäst på dataparallella beräkningar, där varje enskild beräkning bara använder en väldigt liten och lokal del av datan. Ett exempel på ett trivialt dataparallellt problem skulle till exempel kunna vara att addera 1 till alla tal i en lista. Varje beräkning behöver då bara åtkomst till ett tal i taget. I såna fall är minnet inget problem, man skyfflar bara över så mycket data som får plats på GPUn, utför beräkningar, skyfflar tillbaks resultatet, skyfflar över nästa bit data, etc.

Problemet uppstår när man har beräkningar som inte är dataparallella, beräkningar där varje delberäkning behöver en stor del av datan. Ett exempel är t.ex. en naiv implementation av ray tracing där varje beräkning av en ljusstråle potentiellt behöver all tillgänglig data. I såna fall behöver all data finnas i GPU-minnet. Men såna beräkningar lämpar sig inte heller för GPUer, då det är svårt att implementera dem effektivt. Lösningen är oftast att hitta på nya, mer dataparallella, algoritmer, vilket medför att kravet på mängden minne oftast också minskar.

Så jag skulle säga att i de flesta fall så är nog minnet inget stort problem, det svåra är att hitta på algoritmer som är effektiva på GPUer. Men det finns säkert tillämpningar där mycket minne är ett krav också.

Permalänk
Skrivet av sgtprobe:

Nja, revolutionerande är det väl kanske inte direkt, nödvändig evolution snarare imho. Jag vet inte riktigt hur de löser det egentligen dock. Finns olika vägar att lösa det, men hur Otoy gjort/gör får man nog läsa på deras forum om.

Jag är ganska så insatt och såg din fråga så tänkte bara flika in lite med mina erfarenheter/kunskaper/tankar, kul att det uppskattades. Personligen så har jag tittat på GPU rendering i flera år nu, men slutar alltid med att jag går på CPU lösning i slutändan. Men förmodligen skaffar jag Octane som plugin till Luxology's Modo nu när det finns, alltid bra att ha lite olika vägar att gå för att lösa olika problem. Men primärt så känner jag att än så länge för det jag oftast gör/jobbar med, så är Biased på CPU snabbast. (speciellt på interiörbilder med lite ljusinsläpp om man vill ha det brusfritt på relativt kort tid) Har blivit en jäkel (nåja) med åren på att tweaka in programmet/shaders etc. så det renderar väldigt snabbt med hög kvalitet. Bra för mig och för mina klienter Vray utvecklar även en plugin till Modo btw, väldigt uppskattat från mitt håll. Trevligt med alternativ.

Såg att utvecklarna bakom Arnold börjat titta lite extra på GPU lösningar för framtiden, vilket är intressant med tanke på vad Arnold är för filmbranschen idag. Blir det något så kommer det vara enormt genomtänkt och fungera klockrent och vara superstabilt. De som använder Arnold främst kräver att vad som än kommer från dem måste kunna hantera sjuka mängder data/polygoner och vara enormt stabilt och "production driven". Allt annat är sekundärt.

Det man hela tiden hört är ju att GPUrendering är 10x snabbare och bättre på allt , typ, så jag blev lite förvånad när du nämnde att biased rendering faktiskt har sin nytta när man vet hur man ska "fuska till det" på rätt sätt.
Men som sagt, när jag tänker efter så behöver ju interiörbilder inte helt realistiskt ljusstudsande, utan fokuserar väl mer på design och grundläggande ljus?

Samt så är brus ett klart problem med light-tracers(?) som spårar varje foton, något du ju slipper med helt biased:ad rendering.

Jag är inte så insatt, men har vissa planer på att bli det genom utbildning, så det du säger är intressant. Jag känner inte till Arnold, men ska även kolla upp dessa.

Skrivet av perost:

När det gäller GPGPU så är ju processen nästan alltid:
* Skyffla över data från RAM till GPU-minne.
* Utför beräkningar på datan.
* Skyffla tillbaks resultatet av beräkningarna från GPU-minne till RAM.

GPUer är även bäst på dataparallella beräkningar, där varje enskild beräkning bara använder en väldigt liten och lokal del av datan. Ett exempel på ett trivialt dataparallellt problem skulle till exempel kunna vara att addera 1 till alla tal i en lista. Varje beräkning behöver då bara åtkomst till ett tal i taget. I såna fall är minnet inget problem, man skyfflar bara över så mycket data som får plats på GPUn, utför beräkningar, skyfflar tillbaks resultatet, skyfflar över nästa bit data, etc.

Problemet uppstår när man har beräkningar som inte är dataparallella, beräkningar där varje delberäkning behöver en stor del av datan. Ett exempel är t.ex. en naiv implementation av ray tracing där varje beräkning av en ljusstråle potentiellt behöver all tillgänglig data. I såna fall behöver all data finnas i GPU-minnet. Men såna beräkningar lämpar sig inte heller för GPUer, då det är svårt att implementera dem effektivt. Lösningen är oftast att hitta på nya, mer dataparallella, algoritmer, vilket medför att kravet på mängden minne oftast också minskar.

Så jag skulle säga att i de flesta fall så är nog minnet inget stort problem, det svåra är att hitta på algoritmer som är effektiva på GPUer. Men det finns säkert tillämpningar där mycket minne är ett krav också.

Jo, det är ju just det att all information finns på GPUminnet som är problemet, sen att GPUer inte är så effektiva gör tydligen inte så mycket, då det alltid går minst 3x snabbare att rendera på ett vettigt grafikkort jämfört mot nästan vilken CPU som helst.
Det ineffektiva löses med ren råstyrka

Men jo, det är min uppfattning också, att GPUer är bäst för stora mängder lätta problem. Antar att Folding@home är ett annat exempel?

Men just denna tråden handlar/handlade just om rendering.

Visa signatur

EVGA G2 Supernova 750W, ... , 2x8GB Vengance, MSI GTX760 4GB Gaming Ed + GTX580 3GB Phantom (ej SLI).

Permalänk
Medlem
Skrivet av Bluestreakfus:

Vet inte vilken kategori detta bör ligga under, men jag hoppas att det inte är allt för fel

Anledningen till denna tanke/diskussion är att det stora problemet med GPUrendering idag är att det inte finns grafikkort med tillräkligt mycket minne, tex i 16-128GB klassen.
Och för stora företag som ILM är ju 128GB är längsta klassen, och de är idag rätt så intresserade av just GPUrendering.

ILM och liknande använder säkert Quadroplex en låda med 2st Quadro kort.. Quadro korten finns med 12GB.
Antagligen så går det att koppla ihop ett flertal Quadroplex som antagligen ligger på runt 100.000kr/st.

Permalänk
Medlem
Skrivet av Bluestreakfus:

Det man hela tiden hört är ju att GPUrendering är 10x snabbare och bättre på allt , typ, så jag blev lite förvånad när du nämnde att biased rendering faktiskt har sin nytta när man vet hur man ska "fuska till det" på rätt sätt.
Men som sagt, när jag tänker efter så behöver ju interiörbilder inte helt realistiskt ljusstudsande, utan fokuserar väl mer på design och grundläggande ljus?

Samt så är brus ett klart problem med light-tracers(?) som spårar varje foton, något du ju slipper med helt biased:ad rendering.

Jag är inte så insatt, men har vissa planer på att bli det genom utbildning, så det du säger är intressant. Jag känner inte till Arnold, men ska även kolla upp dessa.

Jodå, nog låter man ljuset studsa väldigt mycket i interiörscener även på CPUn (annars ser det skit ut). Men finns allehanda olika tekniker för att snabba upp det hela genom att inte skicka ut lika mycket ljus per studs så att säga, och sedan göra en approximering mellan ljusstudsarna och med smarta algoritmer få det se helt korrekt ut i alla fall. Det är det som är fördelen med Biased renderare. En Unbiased måste göra det fysiskt korrekt, vilket kräver en sjujäkla massa beräkningar, mao helt perfekt för GPUer, men pga alla beräkningar som krävs för snygga unbiased renders så tar det ändå tid på GPUer, speciellt om man vill ha det helt brusfritt. (tänker främst, som nämnt, scener med svagt ljusinsläpp)

Sen finns det olika sätt att tracea ljus, Arnold som exempelvis är en unidirectional-Monte carlo-physically-based-raytracer Så egentligen kan man kanske säga att Arnold är Unbiased, men ändå inte, lol. Egentligen är jag lite osäker på hur man ska klassa det som, men kanske kan hitta info om det på deras hemsida: https://www.solidangle.com/arnold/

Visa signatur

Ride more, Work less!

Permalänk
Medlem

Kan tillägga att väldigt många gör just interiörbilder på GPUer med diverse olika Unbiased renderare. En teknik är att man hakar på så många kort man kan på en dator, och sedan med en PCI Express extender linkar upp en till låda med plats för fler grafikkort. Så man kör med upp till 7 GPUer som exempel. Pris/prestandakronan just nu, iaf om du kör Cudabaserade program, är att ploppa i 7 stycken GTX780 6GB kort. Sen kör man så det ryker. Väntar med nyfikenhet på vad nya GTX980 kan göra när drivers/program är uppdaterade. För tillfället så är de slöare än GTX780 i de programmen jag tittar på.

Ska jag vara ärlig så är jag rätt sugen jag med.

redigera mera!
Visa signatur

Ride more, Work less!

Permalänk
Entusiast
Skrivet av Erwya:

Har förresten hört någon gång om SSD-varianter som skulle använda RAM som minnesbankar och ha batteribackup. Låter intressant eftersom man skulle kunna använda en SATA-kanal eller PCIe för att ansluta en sådan.

Ett RAMkort som man sätter in i PCIe vore också häftigt. Varför finns inte denna mångfald tillgängligt bland datordelar idag?

De har funnits och finns fortfarande att köpa. Det så man gjorde innan NAND blev snabbt nog för seriös lagring. Problemet är att det var svindyrt eftersom RAM är dyrt. Det krävde batteri och du behövde dessutom dubbelt utrymme så du kan spara ner all data från RAM när du stänger av. Det betydde att det var mer eller mindre värdelöst att köra OS på en sådan konstruktion då du behövde läsa in exakt allt till dina RAM-stickor. Många lite enklare varianter körde med CF-kort som lagring och de har ju inga roliga hastigheter direkt. Eller hade inte då. Sen blir man också snabbt besviken när man tittar på den faktiska prestandan som de enheterna gav. Vilken modern SSD som helst sopar mattan med de där RAM-diskarna. De skulle gå att få snabbare i teorin men ingen vill lägga pengar på att utveckla dem så långt. Det är helt enkelt för dyrt och har för många nackdelar.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av sgtprobe:

Kan tillägga att väldigt många gör just interiörbilder på GPUer med diverse olika Unbiased renderare. En teknik är att man hakar på så många kort man kan på en dator, och sedan med en PCI Express extender linkar upp en till låda med plats för fler grafikkort. Så man kör med upp till 7 GPUer som exempel. Pris/prestandakronan just nu, iaf om du kör Cudabaserade program, är att ploppa i 7 stycken GTX780 6GB kort. Sen kör man så det ryker. Väntar med nyfikenhet på vad nya GTX980 kan göra när drivers/program är uppdaterade. För tillfället så är de slöare än GTX780 i de programmen jag tittar på.

Ska jag vara ärlig så är jag rätt sugen jag med.

Jo, ett sånt system skulle vara riktigt kul att ha, tyvärr bara för dyrt om man inte jobbar med sånt professionellt

De bästa korten att rendera på i dagsläget är ju den gamla GTX500-serien, men de har inte alls så mycket minne, så ifall man kunde låna minne från RAM vore det häftigt.

Skrivet av Zotamedu:

De har funnits och finns fortfarande att köpa. Det så man gjorde innan NAND blev snabbt nog för seriös lagring. Problemet är att det var svindyrt eftersom RAM är dyrt. Det krävde batteri och du behövde dessutom dubbelt utrymme så du kan spara ner all data från RAM när du stänger av. Det betydde att det var mer eller mindre värdelöst att köra OS på en sådan konstruktion då du behövde läsa in exakt allt till dina RAM-stickor. Många lite enklare varianter körde med CF-kort som lagring och de har ju inga roliga hastigheter direkt. Eller hade inte då. Sen blir man också snabbt besviken när man tittar på den faktiska prestandan som de enheterna gav. Vilken modern SSD som helst sopar mattan med de där RAM-diskarna. De skulle gå att få snabbare i teorin men ingen vill lägga pengar på att utveckla dem så långt. Det är helt enkelt för dyrt och har för många nackdelar.

Ah jo, jag förstår de nackdelar du nämner. Man vill ju hellre lägga pengar på utveckling av stabilare SSDer med permanent lagring då, även RAMdiskar hade presterat bättre.

Visa signatur

EVGA G2 Supernova 750W, ... , 2x8GB Vengance, MSI GTX760 4GB Gaming Ed + GTX580 3GB Phantom (ej SLI).

Permalänk
Medlem
Skrivet av Bluestreakfus:

Jo, ett sånt system skulle vara riktigt kul att ha, tyvärr bara för dyrt om man inte jobbar med sånt professionellt

De bästa korten att rendera på i dagsläget är ju den gamla GTX500-serien, men de har inte alls så mycket minne, så ifall man kunde låna minne från RAM vore det häftigt.

Jo, det kan bli dyrt att bygga sådana system, men man får väga in det mot eventuell tid du kan spara och beroende på hur du jobbar kan det faktiskt bli billigare än ett motsvarande system med liknande prestanda som renderar på CPUer. Men ett CPU baserat system imo är oftast flexiblare och på så sätt värt pengarna. Det är så segt att Intel har så sjukt höga priser på sina 12 kärninga Xeons som exempel. Hade gärna testat ett "4 socket CPU system" annars. Kanske i framtiden, just nu så kan jag inte berättiga den kostnaden.

Kanske finns äldre GPU program som fortfarande är snabbare på GTX500 serien? (vet ej personligen) men de jag kommer i kontakt med är avsevärt snabbare på GTX700 serien typ GTX780ti eller Titan och motsvarande Quadrokort etc. Och vad det verkar så är Nvidias nya Maxwell arkitektur ännu snabbare. Vi får se allt eftersom utvecklare optimerar koden för de nya korten.

Stava rätt
Visa signatur

Ride more, Work less!

Permalänk
Medlem

Man kan köpa äldre billig begagnad hårdvara.
USA uppdaterar sina servrar så
Jag har köpt 4st Supermicro dual xeon 1366 moderkort och 48gb ECC från USA.
8st 6 kärniga Intel xeons 5640\5650 från Hongkong.
4st 500watts nätdelar och 8st stora cpu kylare från netonnet.
en del ssd och en del vanliga 3,5 HD har jag redan.
Bygger datorchassit själv.
totalt ca 1950kr per burk. totalt ca 7-8 tusen.
Vilket ger 96 HT kärnor för rendrering.
Dessa xeons är lågvoltade och ger ej ifrån sig så mycket värme eller ljud.
Lägger upp lite prestanda-tester när bygget är klart om ni vill.