Nvidia tillkännagiver profesionellt grafikssystem

Permalänk
Melding Plague

Nvidia tillkännagiver profesionellt grafikssystem

Nvidia har idag på den pågående Siggraph-mässan tillkännagivit grafiksystemet Visual Computing System S4. Det är ett system för profesionella användningsområden som har fyra grafikkort per 1u-server.

Läs nyheten

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Läste om det tidigare idag också på http://mikrodatorn.idg.se/2.1030/1.115703 vilket moster

Permalänk
Medlem

Får dåliga vibbar när grafikkortet i heter "FX 5600" :).

Permalänk
Medlem

Okej, detta kan låta idiotisk men: vad används såna här till igentligen? dator animering ala pixar? lr kanske..... ja vad används dom till?

Visa signatur
Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ArtMan
Får dåliga vibbar när grafikkortet i heter "FX 5600" :).

Haha håller me ;D börjar tänka på min gammla FX 5200 men dom e nog inte så dåliga XD

undrar vad man skulle behöva göra för att utnytja dom 30gb med ram om man sätter ihop 5 sånnahär system

Visa signatur

AMD Phenom II X6 1100T BE @ 4.3 Ghz , Gigabyte GA-990FXA-UD3 AM3+, Corsair 8GB CL9 1866Mhz, Gigabyte R9 280X 3Gb OC, SSD 120GB OCZ Vertex 2

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ArtMan
Får dåliga vibbar när grafikkortet i heter "FX 5600" :).

I find that offensive!

sys: amd athlon xp 2400+ , 512ddr och gamla trokänaren FX 5900xt

Visa signatur
Permalänk
Avstängd

Vad är det bra för?

Rendering använder CPU inte GPU...

Visa signatur

Världsmästare i elakhet!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Farmer
I find that offensive!

sys: amd athlon xp 2400+ , 512ddr och gamla trokänaren FX 5900xt

TA DET LUGNT.. HAN JÄMFÖRDE MED 5200 BARA EN xxx HADE KÖPT DET KORTET NÄR DE LANSERADE 5XXX SERIEN

Visa signatur

Japp jag har dyslexi, så häng inte mig pga min grammatik.
CPU: Ryzen 7 5800X || GPU: ASUS ROG Strix RTX3070Ti OC || Moderkort: ASUS ROG Strix X570-F Gaming || RAM: 64GB 3200MHz || CPU kylare: Fractal Design Celsius S24 || Primär HDD: Samsung 980 PRO M.2 1TB

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av uid313
Vad är det bra för?

Rendering använder CPU inte GPU...

nVidias quadro kort kan användas till rendering.

Visa signatur

Intel Q9450 - Thermalright ultra 120 extreme + 2 fläktar - 8Gb Mukshin Redline PC1000 - Gainward geforce 8800GTX - 2st 320Gb Samsung spinpoint + 2st 500Gb + Thermaltake Toughpower 850W - CM Stacker 830 - Gigabyte X48 DQ6 - Windows Vista X64
Primär skärm: Sony GDM FW900 24" @ 1920x1200 85Hz
Sekundär skärm: Dell 1905 FP 19" @ 1280x1024 60Hz

Permalänk
Citat:

Ursprungligen inskrivet av uid313
Vad är det bra för?

Rendering använder CPU inte GPU...

Detta används främst till 3D rendering, där sådana här minnesmängder kommer till nytta.

Visa signatur

Core i7 8700K | 32GB RAM | MSI GTX 1080 Twin Frozr | Asus Xonar Essence STX | Fractal Design Define R6 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Farmer
I find that offensive!

sys: amd athlon xp 2400+ , 512ddr och gamla trokänaren FX 5900xt

haha sry, men är ju lite skilnad på FX 5200 o FX 5900xt ;D
hehe
men fx 5xxx serien är la snart 4½-5 år gammalt?

Visa signatur

AMD Phenom II X6 1100T BE @ 4.3 Ghz , Gigabyte GA-990FXA-UD3 AM3+, Corsair 8GB CL9 1866Mhz, Gigabyte R9 280X 3Gb OC, SSD 120GB OCZ Vertex 2

Permalänk
Medlem

Exempelvis filmbranchen kan nog ha nytta av detta. Grafikrendering med CPU är riktigt långsamt i jämförelse med detta.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem

Kan säga det att det lär inte lagga när man lägger harpan i detta systemet=)

Visa signatur

Japp jag har dyslexi, så häng inte mig pga min grammatik.
CPU: Ryzen 7 5800X || GPU: ASUS ROG Strix RTX3070Ti OC || Moderkort: ASUS ROG Strix X570-F Gaming || RAM: 64GB 3200MHz || CPU kylare: Fractal Design Celsius S24 || Primär HDD: Samsung 980 PRO M.2 1TB

Permalänk
Inaktiv

hahah vilka dumma kommaentarer. "fx 5600" LOL på er, det heter snarare Quadro FX 5600 som troligtvis klår 8800gtx.

Permalänk
Medlem

HAHA ett Ti 4400 är bättre än FX 5600

Visa signatur

Hette tidigare Ti 4400
Dator: DFI Lanparty 790FXB-M2RS │965 BE@3,7GHz│8GB OCZ SLI 800MHZ│500GB Samsung + 2st 1TB Samsung│7950│550W Cougar
IBM X31 1.7GHz|1GB| ATi Radeon 16mb| 8GB SSD|Thinkpad X200|2.4GHz|4GB|X4500MHD|320GB Thinkpad 600X|500Mhz|320MB ram|6GB

Permalänk
Medlem

professionellt*

Permalänk
Citat:

Ursprungligen inskrivet av Nuukeer
hahah vilka dumma kommaentarer. "fx 5600" LOL på er, det heter snarare Quadro FX 5600 som troligtvis klår 8800gtx.

Hehe ja i sitt område, men knappast i spel.

Visa signatur

Core i7 8700K | 32GB RAM | MSI GTX 1080 Twin Frozr | Asus Xonar Essence STX | Fractal Design Define R6 |

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Tri_State
Hehe ja i sitt område, men knappast i spel.

Shader och klockfrekvens på GPUn är högre på quadrokortet men minnet ligger 100 MHz lägre jämfört med 8800 GTX. Prestanda är nog helt jämförbara däremellan då det i princip är samma kort.

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av Tri_State
Hehe ja i sitt område, men knappast i spel.

quadro fx 5500 får ca 6700 3dmark 06 (högre än 7900gtx), detta bör vara ännu bättre. sen har man en massa fördelar för 3d-rendering.

Permalänk

Men alltså kan ni ge er med era FX historier? Fan vad lättroade ni är alltså, sandlåda! Artman skrev det en gång och ZarToK höll med men sedan börjar ni bomba hela tråden med FX så nu vet ingen vad tråden handlar om längre.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Nuukeer
hahah vilka dumma kommaentarer. "fx 5600" LOL på er, det heter snarare Quadro FX 5600 som troligtvis klår 8800gtx.

om du inte märkt detta så snackar vi om den gammla fx serien som är rätt så gammal.. då 128mb ddr va mkt för ett grafikkort därför tycker vi de nya namnet är lite skrämande.. men de är rent ironiskt.

Visa signatur

AMD Phenom II X6 1100T BE @ 4.3 Ghz , Gigabyte GA-990FXA-UD3 AM3+, Corsair 8GB CL9 1866Mhz, Gigabyte R9 280X 3Gb OC, SSD 120GB OCZ Vertex 2

Permalänk
Medlem

Alla Quadro-korten och Ati's motsvarigheter är optimerade för att få så hög prestanda som möjligt i Open-GL applikationer. Traditionellt så användes endast Open-GL i stora CAD-system och det gick inte att använda hårdvaruaccelererad direct3d alls för att köra de programmen.

Detta håller på att ändras. Autodesk t.ex, har sedan ett par år tillbaka börjat lägga till direct3d stöd på nästan alla sina applikationer (Inventor, 3DStudio, Revit, Architectural med flera). Maya och Alias är på väg att portas till direct3d. PTC med sitt ProE är jag inte säker på om den går att accelera med direct3d, samma med Dassault Systems CATIA V5 och Solid Works.
Jag hoppas att idiotpriserna som företagen tar ut för"proffesionella" grafikkort förhoppningsvis kommer att anta lite mer sansade nivåer.

Min gissning till anledningen att Open-GL korten är så satans dyra är att dom inte tillverkas i alls så stora mängder som direct3d korten och därför har ett högre komponentpris, men också att företag kanske bara ringer sin leverantör och säger att dom ska ha ett CAD-kort och blir "lurade" att köpa ett Open-GL kort för 20k.

Min erfarenhet är (genom eget användande) att Open-GL har lite snyggare kantutjämning men är duktigt buggigt och man får ofta konstiga grafikfel i applikationen som man måste uppdatera eller liknande för att få bort.
Det verkar som Open-GL inte har utvecklats alls mycket på sista tiden medans direct3d utvecklas så in i bänken hela tiden.
Direct3d har jag aldrig haft några problem med alls faktiskt.

Ett midrange Open-GL kort för en arbetsstation går lös på nånstans mellan 20 och 30k plus moms. Jag behöver väl inte räkna på hur många 8800GTX ultra man kan få för den slanten

Vi kan säga att vi kör på två st 8800GTX ultra i SLi och då hamnar vi på ca 10k plus moms. Jag har testat lite gran och min alldeles egna upplevelse av prestandaskillnaden är att direct3d systemet är mer än dubblet så snabbt.
Jag vet faktiskt inte hur OpenGL resp. direct3d skalar när det börjar snackas sådana riktiga monster-arbetsstationer som den här produkten vi diskuterar här ska användas till. Det är fullt möjligt att OpenGL är helt överlägset här.

De aplikationerna jag använder är: Autodesk Inventor 2008, 3DStudio Max 9 och lite Maya resp Architectural 2008.

Allt jag har skrivit här är min personliga uppfattning och inget jag anser vara den absoluta sanningen.
Vill gärna ha lite svar från andra som har kört både open-GL och direct3d i CAD-miljöer för att höra deras erfarenheter.

hmmm blev lite OT där men... jaja

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av exley
Alla Quadro-korten och Ati's motsvarigheter är optimerade för att få så hög prestanda som möjligt i Open-GL applikationer. Traditionellt så användes endast Open-GL i stora CAD-system och det gick inte att använda hårdvaruaccelererad direct3d alls för att köra de programmen.

Detta håller på att ändras. Autodesk t.ex, har sedan ett par år tillbaka börjat lägga till direct3d stöd på nästan alla sina applikationer (Inventor, 3DStudio, Revit, Architectural med flera). Maya och Alias är på väg att portas till direct3d. PTC med sitt ProE är jag inte säker på om den går att accelera med direct3d, samma med Dassault Systems CATIA V5 och Solid Works.
Jag hoppas att idiotpriserna som företagen tar ut för"proffesionella" grafikkort förhoppningsvis kommer att anta lite mer sansade nivåer.

Min gissning till anledningen att Open-GL korten är så satans dyra är att dom inte tillverkas i alls så stora mängder som direct3d korten och därför har ett högre komponentpris, men också att företag kanske bara ringer sin leverantör och säger att dom ska ha ett CAD-kort och blir "lurade" att köpa ett Open-GL kort för 20k.

Min erfarenhet är (genom eget användande) att Open-GL har lite snyggare kantutjämning men är duktigt buggigt och man får ofta konstiga grafikfel i applikationen som man måste uppdatera eller liknande för att få bort.
Det verkar som Open-GL inte har utvecklats alls mycket på sista tiden medans direct3d utvecklas så in i bänken hela tiden.
Direct3d har jag aldrig haft några problem med alls faktiskt.

Ett midrange Open-GL kort för en arbetsstation går lös på nånstans mellan 20 och 30k plus moms. Jag behöver väl inte räkna på hur många 8800GTX ultra man kan få för den slanten

Vi kan säga att vi kör på två st 8800GTX ultra i SLi och då hamnar vi på ca 10k plus moms. Jag har testat lite gran och min alldeles egna upplevelse av prestandaskillnaden är att direct3d systemet är mer än dubblet så snabbt.
Jag vet faktiskt inte hur OpenGL resp. direct3d skalar när det börjar snackas sådana riktiga monster-arbetsstationer som den här produkten vi diskuterar här ska användas till. Det är fullt möjligt att OpenGL är helt överlägset här.

De aplikationerna jag använder är: Autodesk Inventor 2008, 3DStudio Max 9 och lite Maya resp Architectural 2008.

Allt jag har skrivit här är min personliga uppfattning och inget jag anser vara den absoluta sanningen.
Vill gärna ha lite svar från andra som har kört både open-GL och direct3d i CAD-miljöer för att höra deras erfarenheter.

hmmm blev lite OT där men... jaja

Jo då, håller med om skiftet Önskar att OGL blir snabbare med uppdateringarna

Men om jag har förstått rätt behöver dessa kort program som är skrivna i CUDA?

Permalänk

Inte för att vara petig
Men det heter inte 8800GTX ultra utan 8800GTX eller 8800Ultra.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av SolidReactor
Jo då, håller med om skiftet Önskar att OGL blir snabbare med uppdateringarna

Men om jag har förstått rätt behöver dessa kort program som är skrivna i CUDA?

Kände inte till CUDA men tog mig en titt på wikipedia
Vad jag förstår så stödjer dom korten CUDA men det är ingen nödvändighet.
Efterssom alla 8800 korten finns med i Autodesks "certified gpu bla bla bla" lista så ska dom ju funka.
Men frågan är kanske om Autodesk har använt sig av CUDA?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Slagt
TA DET LUGNT.. HAN JÄMFÖRDE MED 5200 BARA EN xxx HADE KÖPT DET KORTET NÄR DE LANSERADE 5XXX SERIEN

hahaha, wtf? mitt inlägg var bara en själv ironisk förolmämpning(lr nåt sånt) mot mig själv för att min dator e kass

Visa signatur
Permalänk
Citat:

Ursprungligen inskrivet av Nuukeer
quadro fx 5500 får ca 6700 3dmark 06 (högre än 7900gtx), detta bör vara ännu bättre. sen har man en massa fördelar för 3d-rendering.

Jo men säger 3D Mark så mycket om prestanda i spel ? Finns de någon som testat Quadro kort med dem nya spelen.

Visa signatur

Core i7 8700K | 32GB RAM | MSI GTX 1080 Twin Frozr | Asus Xonar Essence STX | Fractal Design Define R6 |

Permalänk
Medlem

min erfarenhet är att opengl funkar bättre i program som maya och max än dx.
sen så klarar väl proffskorten både och men utför allt lite nogrannare, har mycket minne mm. Det är framförallt hos drivrutinen som skillnaderna ligger imho, det är dem man betalar för

Man behöver inte lägga 10-tals tusen på ett proffskort idag, förr kanske, när man köpte FireGL då de inte tillhörde ATI så kanske, när korten verkligen bara klarade opengl. nu får du ett kort för ~2500 > typ. men så snabbt är det inte, men man kan köra quadrodrivisar iaf

tycker alltid autocad har funkar ASKASS oavsett hur bra kort du än har i burken. Räcker med att rita en kub och det är megasegt medans du kan rita stooora saker i max på samma maskin och det flyter på hur bra som helst
( pm:a mig om du löst detta )

Visa signatur

...excellent

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av exley

Min erfarenhet är (genom eget användande) att Open-GL har lite snyggare kantutjämning men är duktigt buggigt och man får ofta konstiga grafikfel i applikationen som man måste uppdatera eller liknande för att få bort.
Det verkar som Open-GL inte har utvecklats alls mycket på sista tiden medans direct3d utvecklas så in i bänken hela tiden.
Direct3d har jag aldrig haft några problem med alls faktiskt.

[/B]

Kan inte riktigt hålla med om att OpenGL utvecklas så långsamt nuförtiden, ver 2.1 släpptes för inte så länge sedan. Den var väl typ en wrapup med alla extensions som tillkommit utanför standarden (mestadels från Nvidia).
Version 3.0 annoserades faktiskt igår, och kommer att innehålla mycket nya prylar, har själv inte koll på allt.
Har inte så stor erfarenhet av CAD applikationer, men det jag har sett i UNIX/Linux världen har det inte varit några fel på.
På spelsidan så använder väl ID Software fortfarande OpenGL till sina spel, och dom grafikmotorerna är ju rätt okey.

Den största fördelen med OpenGL är ju givetvis att specen är öppen och funkar/finns på i princip alla operativsystem, har jobbat med många OS och alla har haft den gemensamma nämnaren.
Skriver man Direct 3D program så har man ju garanterat låst sig till pyttemjuks operativ.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Nuukeer
hahah vilka dumma kommaentarer. "fx 5600" LOL på er, det heter snarare Quadro FX 5600 som troligtvis klår 8800gtx.

Helt rätt!

Vill lätt ha xD När kommer det?

Visa signatur

AMD64 & Intel Core 2 Duo