Nvidia tillkännager Quadro K6000 med 2 880 CUDA-kärnor

Permalänk
Avstängd
Skrivet av tvelander:

Swifty är retard och kör 2x 690, när sponsorerna på Origin kunde kört 3x Titan.

Han sitter på 2x Xeon 2687 W som jag har på jobbet och varför i hela helvete sitter han då på 2x 690 när 2x sånna prollar kostar 17-19k retail pris .....

För att det är coolare att sitta med 2x 690 än två Titans (Swifty Logic).

Skrivet av makkesk8:

Han fick nyligen 4x titan från origin.

källa: http://www.youtube.com/watch?v=RS7HfrzfYjQ

Ohh... Dat överflödig prestanda pga. frånvarande support hos drivrutinerna. Det fjärde kortet kommer ev. upp i 10% som max. Dessutom vem tusan behöver fyra titans för att spela wow? Seriöst.. Lite som att köpa en Lamborghini bara för att dra ett tomt släp fram och tillbaka efter en gata.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av Tumnus:

Lite som att köpa en Lamborghini bara för att dra ett tomt släp fram och tillbaka efter en gata.

Hehe.. men om man skulle FÅ en lamborghini för detta ändamål hade jag nog tackat ja
(fast folk skulle nog undra vad f-n man höll på med..)

Permalänk
Medlem

Det låter lite väl billigt för min smak...

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem
Skrivet av elajt_1:

I'm sorry but I have to call Bullshit on that one. Skämt å sido, du har fel när du säger att chiptillverkningen inte kostar för det gör den verkligen. Det är ruggigt dyrt att tillverka chip med senaste tekniken (vilket i detta fall är TSMC's 28nm teknik) och SPECIELLT när det gäller kretsar som är så stora som GK110. Det är rätt som du säger att det blir hälften så många chip på en wafer med GK110 jämfört med GK104 exempelvis, men det är inte där problemet ligger. GK104 har en mycket lägre felprocent jämfört med sin storebror, vilket gör att de "hela chippen", dvs de som inte är skadade i tillverkning blir extremt mycket dyrare än 2st GK104 chip. Nvidia valde att tänja på gränsen för vad som är möjligt att tillverka med TSMC's 28nm teknik, samma sak var det med GF100. Efter ett par långsamma och kostsamma respins (justeringar i designen på kretsen) så lyckades man få ut kretsar som var ok och där inga kluster behövde vara avstängda.
I detta fall va det ett helt år efter att GF100 kretsen släpps på marknaden (om jag inte minns helt fel).

Jo, men det var väl vad jag skrev, att chip-design och tillverkningsprocess är det som kostar, när man väl har en fungerande process på plats så kostar inte chipen så mycket att tillverka, TSMC tar väl runt 50000kr per processad wafer och man får ut 100 GK110 chip/wafer så runt 500kr per chip, sen om man får kassera hälften av chipen så blir det givetvis dyrare (1000 kr).

Det jag vände mig emot var detta:

Skrivet av Tobbbe__:

Kom ihåg att det är tack vare det höga priset på Quadro som vi idag kan köpa ett grafikkort med en GK110krets till det priset.
Skulle tro att Nvidia inte gör någon vinst alls på sina Titan kort, knappt någon alls då dom är galet dyr att tillverka. Snarare ett marknadsförings jippo!

Självklart gör Nvidia vinst på Titan och 780 korten, annars skulle de inte sälja dem.

Visa signatur

kill -s SIGCHLD `pidof Kenny`
bash: Oh my god, they killed Kenny
init: You Bastards

Permalänk
Entusiast
Skrivet av houze:

Jo, men det var väl vad jag skrev, att chip-design och tillverkningsprocess är det som kostar, när man väl har en fungerande process på plats så kostar inte chipen så mycket att tillverka, TSMC tar väl runt 50000kr per processad wafer och man får ut 100 GK110 chip/wafer så runt 500kr per chip, sen om man får kassera hälften av chipen så blir det givetvis dyrare (1000 kr).

Det jag vände mig emot var detta:

Självklart gör Nvidia vinst på Titan och 780 korten, annars skulle de inte sälja dem.

Så 1000 kr för bara en GPU. Sen får du slänga på ett par hundra för kylare och PCB. Ytterligare ett par hundra för minnet. De gör nog vinst men frågan är hur stora marginalerna är. GK110 utvecklades ju inte med Titan och GTX 780 i åtanke utan det utvecklades för Tesla K20 och nu Quadro. Ett K20 kostar någonstans i runda slängar 30000 kr att köpa så det är där pengarna finns. Rent ekonomiskt vore det alltså bättre att sälja alla GK110 som Tesla och Quadro. Fast just GTX 780 är ju lågt binnade så det är lite mer rester. Eventuellt är även Titan kort som inte passade in som Tesla eller Quadro då de har helt andra stabilitetskrav.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av Mikael07:

CUDA-prestandan är synnerligen märklig. Men på alla "seriösa" applikationer (Catia, Solidworks, etc etc) är ju Quadro överlägset! Inte bara Maya och Lightwave.

Kan det vara ECC eller något som spelar in, vad gäller CUDA-prestandan?

Visa signatur

Ryzen 7 5800x3D kyld med en Arctic Freezer A35 | 32GB DDR4 | RTX 2070 Ventus | Corsair CX550M | Intel 660P 1TB + WDSN850 1TB | Asus TUF B550M-Plus Wifi | låda: Cooler Master NR400 | Skärm: Dell U2312HM + AOC Q3279VWFD8 | Ljud: Denon AVR-1513 Förstärkare | Cerwin Vega! VE-5M Frontar | Yamaha YST-SW012 Sub | Arturia Keylab essential 61 | Urbanista Berlin blåtandslurar som jag köpte på båten..

Permalänk
Medlem
Skrivet av vaedehäfömupp:

Kan det vara ECC eller något som spelar in, vad gäller CUDA-prestandan?

Till viss del, men förmodligen inte boven i dramat. Jag har sett en del jämförelser mellan ECC på och av, och det skiljer vanligtvis runt 10% i prestanda.

Permalänk
Discokungen
Skrivet av Mikael07:

Till viss del, men förmodligen inte boven i dramat. Jag har sett en del jämförelser mellan ECC på och av, och det skiljer vanligtvis runt 10% i prestanda.

Är det verkligen värt med ECC? Tappar man mycket prestanda på felkorrigering i mjukvaran istället för att ha ECC-minnen? Det finns ju av en anledning men jag är mest nyfiken då jag inte är insatt!

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Medlem
Skrivet av Flamso:

Är det verkligen värt med ECC? Tappar man mycket prestanda på felkorrigering i mjukvaran istället för att ha ECC-minnen? Det finns ju av en anledning men jag är mest nyfiken då jag inte är insatt!

Vissa beräkningar är väldigt känsliga för fel, och blir det då en bitflip någonstans så kan den möjligen explodera (krascha) eller propagera felet så att man får ett felaktigt resultat i slutändan. Inte något man vill ska finnas på kartan om det har med exempelvis (fysisk) säkerhet att göra.

Error correction med mjukvara är säkerligen långsammare än hårdvara, så det lönar sig nog.

Men med det sagt, jag kör rätt ofta beräkningar på mitt geforce (dvs ingen ECC), och jag har nog aldrig upplevt ett fel som jag kunnat koppla till spontan sinnesförvirring i hårdvaran. Men det är nog svårt att upptäcka utan att kategoriskt analysera datan.

Man kanske kan testa för "skojs" skull, typ kopiera en statisk klump data fram och tillbaka tills det blir fel. Se hur ofta det förekommer. Låter som ett fredagsnöje av rang...

Permalänk
Discokungen
Skrivet av Mikael07:

Vissa beräkningar är väldigt känsliga för fel, och blir det då en bitflip någonstans så kan den möjligen explodera (krascha) eller propagera felet så att man får ett felaktigt resultat i slutändan. Inte något man vill ska finnas på kartan om det har med exempelvis (fysisk) säkerhet att göra.

Error correction med mjukvara är säkerligen långsammare än hårdvara, så det lönar sig nog.

Men med det sagt, jag kör rätt ofta beräkningar på mitt geforce (dvs ingen ECC), och jag har nog aldrig upplevt ett fel som jag kunnat koppla till spontan sinnesförvirring i hårdvaran. Men det är nog svårt att upptäcka utan att kategoriskt analysera datan.

Man kanske kan testa för "skojs" skull, typ kopiera en statisk klump data fram och tillbaka tills det blir fel. Se hur ofta det förekommer. Låter som ett fredagsnöje av rang...

Ah! Jag förstår! Så man kan få ett beräkningsfel som inte hinner kolllas av mjukvaran i en lång session som ger ett väldigt fel resultat, bland annat? Det är intressant att ha lite koll! Tack!

Ja men precis! Då har du att göra en helg!

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld