Nvidia Tesla i servrar från IBM

Permalänk
Medlem
Skrivet av adisbladis:

Det är skitsamma om AMDs kort är bättre egentligen eftersom de saknar trevliga APIs för att göra annat än just rendera grafik

Mja även om Nvidia har övertag på denna front har ATi FireStream stöd för annat än grafik. Största problemet med FireStream om man jämför med Fermi är att den saknar ECC vilket är rätt viktigt vid såna här typ av beräkningar.

Permalänk
Medlem

Go gigaflops!

Permalänk
Skrivet av Paiytor:

Go gigaflops!

Flip flap gigaflop kul ord, men då jag inte vet nåt what so ever om grafik på den här nivån så vore det kul om nån kunde informera om vad en flop är.... hih men ärligt vore kul att veta

Permalänk

lol, vem ska bli först med ett vitsigt skämt om vad en flop är ??

Permalänk
Medlem

Kul skämt?

En flop?!
Ett grafikkort baserat på fermi, eller?

FLOP=FLyttals OPeration eller "FLoating point OPeration"
Jag kan minnas fel dock...

Visa signatur

Dator 1. MSI Z370 GAMING PRO CARBON, Intel Core i7 8700K 3.7 GHz 12MB, Gigabyte AORUS GeForce GTX 1080 Ti 11GB, Corsair 16GB (2x8GB) DDR4 3000Mhz CL15 Vengeance, passivt vattenkyld.

Dator 2. MK MSI X79A-GD45, Intel i7-3820 @ 4,0 GHz, EVGA 980Ti med vattenblock, 16 Gig DDR3, vattenkyld

Specialskärm: ~124 tum 3840 X 1080, 178° FOV (2 x BenQ 1070+)

Permalänk

Så då har alltså mitt HD5770 högre beräkningskapacitet än ett av dessa Teslakort.

Mm...

Visa signatur

| R5 2600 | 32GB DDR4 | RTX 2060 super |
Vänligen citera ifall du vill ha ett svar

Permalänk
Avstängd
Skrivet av SpammerN^:

Så då har alltså mitt HD5770 högre beräkningskapacitet än dessa Teslakort.

Mm...

lol?

Permalänk
Skrivet av 2good4you:

HD4xxx/5xxx korten hittas i många superdatorer av detta skäl.

Det är bara en superdator som använder AMD's grafiikort. NUDT TH-1 Cluster.
November 2009 | TOP500 Supercomputing Sites

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem

Att dom väljer fermi är logist. Dubble Precission är det som gäller vid flyttal primärt. Kortet kan ta mycket minne och framförallt det stödjer ECC vilket är ett krav i dessa sammanhang så AMD har inget att erbjuda där. Sedan har nvidia jobbat hårt sedan G80 med instruktionsätten, minneshanteringen osv för att göra en så programmerbar GPGPU som möjligt för bästa prestanda och möjliggöra nya sätt att programmera på en GPU som endast varit möjlögit på en CPU innan.
Med inbyggda cache och möjlighet att arbeta med dom slipper den latencyproblem till minnet vilket traditionella GPU:er inte haft nåt problem med vid spel men är av större vikt för GPGPU applikationer.

Spelar igen roll om det finns en 3 TFLOP GPU om den inte är ett dugg flexibel så kommer den skala skit och i slutändan vara sämre.
HD4000 serien är ju ett bra exempel på en GPU med teroristeiskt hög prestanda men i OpenCL gör himla dåligt ifrån sig pga hur minneshanteringen ser ut.

Hade IBM ansett att ATI's GPGPU er var bättre lämpade hade dom tagit dom. Men så är inte fallet. En sak att spela lite spel och köra lite enkla opencl apps och faktiskt använda det storskaligt och få ut lite prestanda ur grejerna.

Permalänk
Skrivet av cratzky:

Kolla längre bak i tråden så får du reda på att ett HD4870 har högre TeraFlop än ett av dessa nya Teslakort, och eftersom ett HD5770 är lika snabbt som ett HD4870 så har HD5770 iaf lika mykcet beräkningskapacitet.

Visa signatur

| R5 2600 | 32GB DDR4 | RTX 2060 super |
Vänligen citera ifall du vill ha ett svar

Permalänk
Medlem
Skrivet av erdraug:

Men kan den maxa Crysis!?

Skrivet av ZAIZAI:

En flop?!
Ett grafikkort baserat på fermi, eller?

Haha, ni är för roliga.

Jag försöker inbilla mig den seriösa intervjun som ngn känd seriös reviewsida har med IBM för nästa artikel i tidningen och så kommer frågan "Men kan den maxa Crysis?"

/s

Visa signatur

2500k H2O, HD6950@6970

Permalänk
Medlem
Skrivet av 2good4you:

Du är manipulativ och en extrem fanboy som inte kan vara objektiv. I alla år i datorhistorien så har alla större datorer eller superdatorer använt sig utav superskalära arkitekturer för att dom är överlägsna i prestanda och parallellism. RV6/7/8xx är sådana. I verkligheten är Fermi endast ett snabbare kort i spel än HD5870, och fortfarande mycket dyrare. Allt övrigt så har kortet enorma nackdelar jämfört med HD5870. HD5970 är ett bra mycket bättre köp för spel som kostar ~500kr mer och presterar mycket bättre.

I beräkningskraft är HD5870 snabbare och det är först med Fermi som nVidia överhuvudtaget kan hänga med AMD korten i dubbelprecisions operationer. Både singelprecision och dubbelprecision så är fortfarande en RV870 kärna snabbare och dubbelt så effektiv. HD4xxx/5xxx korten hittas i många superdatorer av detta skäl.

Känns som din plikt att informera IBM om detta innan nåra papper skrivs

Visa signatur

|| Intel Core i5 2500K || Corsair Cooling Hydro H60 || Asus Maximus IV Gene-Z || Asus GeForce GTX 570 DirectCU II || Corsair 8GB 1600Mhz VENGEANCE || Corsair HX 650W || Fractal Design Define Mini || 500GB WD Caviar Black || OCZ SSD Agility 3 60GB || Windows 7 Premium 64-bit [thread="1004219"][/thread]

ASUSMaximus IV GENE-Z Owners Club

Permalänk
Medlem
Skrivet av pa1983:

Att dom väljer fermi är logist. Dubble Precission är det som gäller vid flyttal primärt. Kortet kan ta mycket minne och framförallt det stödjer ECC vilket är ett krav i dessa sammanhang så AMD har inget att erbjuda där. Sedan har nvidia jobbat hårt sedan G80 med instruktionsätten, minneshanteringen osv för att göra en så programmerbar GPGPU som möjligt för bästa prestanda och möjliggöra nya sätt att programmera på en GPU som endast varit möjlögit på en CPU innan.
Med inbyggda cache och möjlighet att arbeta med dom slipper den latencyproblem till minnet vilket traditionella GPU:er inte haft nåt problem med vid spel.

Spelar igen roll om det finns en 3 TFLOP GPU om den inte är ett dugg flexibel så kommer den skala skit och i slutändan vara sämre.
HD4000 serien är ju ett bra exempel på en GPU med teroristeiskt hög prestanda men i OpenCL gör himla dåligt ifrån sig pga hur minneshanteringen ser ut.

Hade IBM ansett att ATI's GPGPU er var bättre lämpade hade dom tagit dom. Men så är inte fallet. En sak att spela lite spel och köra lite enkla opencl apps och faktiskt använda det storskaligt och få ut lite prestanda ur grejerna.

nej låt oss räkna flops och titta på strömförbrukningen istället...

Visa signatur

i5 10400f | asus b460-f | 2x8gb kingston 2666 | zotac 3060ti | corsair mp510 960gb (OS) + samsung 860 evo 1tb + 2x kingston a400 480gb | corsair vx450 | tr true black | fractal r3 | asus mg279q + lg w2363d | dt 880 | win 10 x64 | deathadder chroma | glorious 3xl | tb impact 600 | oculus quest 2

Permalänk
Medlem
Skrivet av piddeman:

Fint kan dom få in lite mera pengar

Som att nvidia behöver pengar?:S Något som gynnat konsumenter hade varit om amd fick mer pengar.

Visa signatur

Intel I7 2600K, 4gb ddr3, gtx 560ti + geforce 9800gt physx. Ocz modxtream 700w nätagg

Permalänk
Medlem
Skrivet av Huddit:

Varför väljer de de mest strömslukande och värmeutvecklande korten? Känns inte som något man vill ha i en server.

Nvidia är kända för sina beräknings-kort, och de har bättre stöd för olika tekniker osv. Amds kort är ju betydligt snabbare än nvidias på sånt här tydligen, rent teoretiskt då. Även svalare och drar mindre ström. Men eftersom de saknar stöd för vissa tekniker så går det ej att använde. Amd hade kunna tjäna mycket pengar om de inte varit så lata.

Visa signatur

Intel I7 2600K, 4gb ddr3, gtx 560ti + geforce 9800gt physx. Ocz modxtream 700w nätagg

Permalänk
Entusiast
Skrivet av pa1983:

Att dom väljer fermi är logist. Dubble Precission är det som gäller vid flyttal primärt. Kortet kan ta mycket minne och framförallt det stödjer ECC vilket är ett krav i dessa sammanhang så AMD har inget att erbjuda där. Sedan har nvidia jobbat hårt sedan G80 med instruktionsätten, minneshanteringen osv för att göra en så programmerbar GPGPU som möjligt för bästa prestanda och möjliggöra nya sätt att programmera på en GPU som endast varit möjlögit på en CPU innan.
Med inbyggda cache och möjlighet att arbeta med dom slipper den latencyproblem till minnet vilket traditionella GPU:er inte haft nåt problem med vid spel.

Spelar igen roll om det finns en 3 TFLOP GPU om den inte är ett dugg flexibel så kommer den skala skit och i slutändan vara sämre.
HD4000 serien är ju ett bra exempel på en GPU med teroristeiskt hög prestanda men i OpenCL gör himla dåligt ifrån sig pga hur minneshanteringen ser ut.

Hade IBM ansett att ATI's GPGPU er var bättre lämpade hade dom tagit dom. Men så är inte fallet. En sak att spela lite spel och köra lite enkla opencl apps och faktiskt använda det storskaligt och få ut lite prestanda ur grejerna.

Där kom svaret som rätade ut mina frågetecken.
Jag misstänkte att det skulle finnas en vettig anledning till att köra Fermi istället för en 2 år gammal arkitektur från Ati.
Tack för det, nu har jag blivit lite klokare.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av ZAIZAI:

En flop?!
Ett grafikkort baserat på fermi, eller?

FLOP=FLyttals OPeration eller "FLoating point OPeration"
Jag kan minnas fel dock...

Missförstå mig rätt här, det är inte min åsikt alltså. Men jag tänkte att helt garanterat så kommer någon skriva det Så om jag spoilar det genom att skriva så så slapp vi förhoppningsvis en radda inlägg av den typen

Permalänk
Medlem
Skrivet av thereal_twisted:

Missförstå mig rätt här, det är inte min åsikt alltså. Men jag tänkte att helt garanterat så kommer någon skriva det Så om jag spoilar det genom att skriva så så slapp vi förhoppningsvis en radda inlägg av den typen

Jo, men jag kunde inte låta bli...

Visa signatur

Dator 1. MSI Z370 GAMING PRO CARBON, Intel Core i7 8700K 3.7 GHz 12MB, Gigabyte AORUS GeForce GTX 1080 Ti 11GB, Corsair 16GB (2x8GB) DDR4 3000Mhz CL15 Vengeance, passivt vattenkyld.

Dator 2. MK MSI X79A-GD45, Intel i7-3820 @ 4,0 GHz, EVGA 980Ti med vattenblock, 16 Gig DDR3, vattenkyld

Specialskärm: ~124 tum 3840 X 1080, 178° FOV (2 x BenQ 1070+)

Permalänk
Testpilot
Skrivet av shaglord:

Haha, ni är för roliga.

Jag försöker inbilla mig den seriösa intervjun som ngn känd seriös reviewsida har med IBM för nästa artikel i tidningen och så kommer frågan "Men kan den maxa Crysis?"

/s

Teslakorten har inga bildutgångar så det blir svårt att se något av Crysis

Visa signatur

Kolla gärna in min RGB-LED-ljusstake i galleriet
[Gigabyte GA-Z97MX-Gaming 5][Intel Core i5 4690K][Corsair XMS3 16GB][Asus GeForce RTX 2060 Super Dual Evo OC]

Permalänk
Medlem
Skrivet av hunden:

Teslakorten har inga bildutgångar så det blir svårt att se något av Crysis

Spelar ingen roll, så länge man får fps-värdena och kan skryta om dem.

/s

Visa signatur

2500k H2O, HD6950@6970

Permalänk
Medlem
Skrivet av snozan:

Känns som din plikt att informera IBM om detta innan nåra papper skrivs

Eller så har dom helt enkelt gjort upp en bra ekonomisk affär med nVidia. Faktum kvarstår av det jag skrev tidigare.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av hunden:

Teslakorten har inga bildutgångar så det blir svårt att se något av Crysis

Ingen tittar på crysis. Det enda vikiga är att få resultat på pappret och skryta om dom.

Visa signatur

Sex kärnigt på modermodemet och ett gäng 680s i hårddisken

Permalänk
Medlem

En video som visar lite av serverns förmåga.
http://www-03.ibm.com/systems/data/flash/systemx/hardware/dx3...

- jag håller inte med om allt i videon, men ja ja...

Visa signatur

HP Pavilion 17-e016eo = 17,3" + A10-5750M + 8650G/8670M + 8GB + 1000GB.

Permalänk
Skrivet av 2good4you:

Eller så har dom helt enkelt gjort upp en bra ekonomisk affär med nVidia. Faktum kvarstår av det jag skrev tidigare.

ATI korten har väl svårt (omöjligt?) att nå upp i sin teoretiska maxprestanda i den här typen av beräkningar? Dessutom är det väl lättare att programmera för Tesla-korten?

Visa signatur

2008-06-18 - dagen då jag tappade förtroendet för svensk politik

Permalänk
Medlem

BSN har en artikel där de pratar om Linpack-siffrorna för C2050. De är dock "Nvidia-presenterade", så inga oberende tester.
CPU beware: nVidia Tesla Linpack Numbers Analyzed - Bright Side Of News*

Permalänk
Medlem
Skrivet av Buio:

BSN har en artikel där de pratar om Linpack-siffrorna för C2050. De är dock "Nvidia-presenterade", så inga oberende tester.
CPU beware: nVidia Tesla Linpack Numbers Analyzed - Bright Side Of News*

Taget från slutet av artikeln:

Citat:

Given that the company repeatedly refused to provide Tesla cards for an independent review, that question will remain to be answered. What is nVidia afraid of?

Visa signatur

FT02B • HX620W • P5E Deluxe @ PL11 • Yorkfield Q9450 C1 lappad @ 440x7,5 = 3,3GHz @ 1,380V w/ NH-D14 • 2x2 + 2x1 GB DDR2 @ 880MHz 5-5-5-18 • Palit 55nm GTX260 Sonic • Xonar DX • 36GB Raptor • 3TB Caviar Green • U2713HM • W7 x64 • Ikari Laser • Sidewinder X6

Permalänk
Medlem
Skrivet av 2good4you:

Eller så har dom helt enkelt gjort upp en bra ekonomisk affär med nVidia. Faktum kvarstår av det jag skrev tidigare.

Du menar alltså att för IBM blir nvidia mer priseffektiv än AMD? Eller är det kanske så att IBM anser att Nvidia Tesla är det bästa valet för deras ändamål?

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Medlem
Skrivet av KNI-861:

Taget från slutet av artikeln:

En sak som kan vara bidragande är att korten och servern kostar massor. Vet inte hur det är med hårdvarutester på HPC/server hårdvara, men priset på servern står i testet och det anges till $11K, dvs ungefär 90 000SEK (varav Nvidiakorten kostar 32 000SEK).

Permalänk
Medlem

Tittar man på vilka operativsystem datorn kommer med tycker iaf jag det är logiskt att det är nVidia i den. Datorn ska ju ändå fungera bra i både Linux och Windows.

Visa signatur
Permalänk
Medlem
Skrivet av skruvis:

Du menar alltså att för IBM blir nvidia mer priseffektiv än AMD? Eller är det kanske så att IBM anser att Nvidia Tesla är det bästa valet för deras ändamål?

Som sagt, en bra äffär är vad som gjorts. Varför köpte OEM'er in Intel i mängder framför AMD när dom stog med processorer som var överlägsna för ett par år sedan?

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]