AMD utmanar med nya Firestream

Permalänk
Melding Plague

AMD utmanar med nya Firestream

AMD utmanar Nvidias GPGPU-dominans med två nya beräkningskort i den proffsinriktade serien Firestream.

Läs artikeln

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Hejja AMD!

Permalänk
Medlem

Känns som ordentlig prestanda och det till bra effektivitet / watt vilket är av värde framförallt i serverhallar.

Jag hoppas det för intressets skull kommer jämförelser med nvidia så gått det går att göra sådana jämförelser.

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Medlem
Visa signatur

i5 10400f | asus b460-f | 2x8gb kingston 2666 | zotac 3060ti | corsair mp510 960gb (OS) + samsung 860 evo 1tb + 2x kingston a400 480gb | corsair vx450 | tr true black | fractal r3 | asus mg279q + lg w2363d | dt 880 | win 10 x64 | deathadder chroma | glorious 3xl | tb impact 600 | oculus quest 2

Permalänk
Avstängd
Skrivet av IceDread:

Jag hoppas det för intressets skull kommer jämförelser med nvidia så gått det går att göra sådana jämförelser.

Jag tycker redan att det är intressant att se till deras high-end kort för spelare och snart när GTX 485 kanske kommer att lanseras så kommer det nog att bli intressantare då detta inte ens är avsett för spelande utan för beräkningskraft

Visa signatur

CPU: Ryzen 7 1700, kylare: Noctua NH-L12, Mammabräda: Gigabyte AX370 Gaming-K3, RAM: Corsair LPX 3200Mhz @ 3066Mhz vid 1,35V stabilt, GPU: MSI 1080 Ti Gaming X, PSU: Corsair SF600, Lagring: 2xWD Red 3TB speglat, 1x Samsung Evo 960 256GB, Chassi: Inbyggt i skrivbordet, sörjer för sval lägenhet.

Permalänk

då äe de ju bara dags för institutionerna att börja använda det...dags att Tesla får kokurans!

Visa signatur

I am the Leech King!

Permalänk

Äntligen! Bra att AMD har insett fördelarna med detta!

Visa signatur

<signatur>|| i7-930 || Asus P6X58D-E || 6GB Corsair xms3 || HD 6950 || Noctua NH-U12P SE2 || OCZ Revodrive 80GB || Samsung Spinpoint F3 500GB || EcoGreen F2 500GB || WD Blue 500GB || Corsair HX650W || Lian Li PC-v1020 || W7 Home Premium || Samsung SyncMaster EX2200||</signatur>

Permalänk
Medlem

Jag hoppas de är billiga för prestandan verkar ju inte vara skyhög. Ett C2050 är ju 2x deras Firestream värsting. Sen måste de lyckas få dit ECC också vilket Nvidia kämpat hårt med.

Kul att ATi kommer med i leken om ändå lite sent, Nvidia har ju visat att det oftast lönar det sig att vara först och de har ett års försprång. ATi brukar hänga på lite mer försiktigt.

Nvidia Tesla - Wikipedia, the free encyclopedia

Permalänk
Medlem
Skrivet av Vexo:

Jag hoppas de är billiga för prestandan verkar ju inte vara skyhög. Ett C2050 är ju 2x deras Firestream värsting. Sen måste de lyckas få dit ECC också vilket Nvidia kämpat hårt med.

Kul att ATi kommer med i leken om ändå lite sent, Nvidia har ju visat att det oftast lönar det sig att vara först och de har ett års försprång. ATi brukar hänga på lite mer försiktigt.

Nvidia Tesla - Wikipedia, the free encyclopedia

Jag får det till att AMDs kort spöar Nvidias på samtliga plan. ~2400 SPGFLOP / 528 DPGFLOP mot C2025:ans 1288/515, och lägre TDP därtill.

Källor: din länk samt AMD FireStream - Wikipedia, the free encyclopedia

Visa signatur

Kom-pa-TI-bilitet

Permalänk
Medlem
Skrivet av Teknocide:

Jag får det till att AMDs kort spöar Nvidias på samtliga plan. ~2400 SPGFLOP / 528 DPGFLOP mot C2025:ans 1288/515, och lägre TDP därtill.

Källor: din länk samt AMD FireStream - Wikipedia, the free encyclopedia

Du får nog ta och läsa på lite mer. Det är teoretiska max prestanda du ser i specifikationerna. Det är allmänt känt att det det är svårt att plocka ut den prestandan ur AMD's kort. Hårdvaruarkiteturen kräver att datat du använder i programmen ligger optimalt uppplagt för att du skall kunna boosta den prestandan ur kortet men det händer ytterst sällan i verkligheten. Detta är bland annat orsaken till att ATI korten har haft så dålig folding prestanda tidigare, pga av svårigheten att programmera GPU'n så att den används optimalt.

Permalänk
Medlem
Citat:

Expansionskorten kan leverera 528 respektive 400 gigaflops flyttalsprestanda samt 2,4 respektive 2,0 teraflops heltalsprestanda

Hur tänkte ni där, flops är ju ett mått på flyttalsprestanda?

Visa signatur

Asus Prime X470-pro | AMD Ryzen 7 2700X | Corsair H115i | MSI GTX 1070 Gaming X | G.Skill Ripjaws 32 GB 3200 MHz | Samsung 970 EVO 1TB | Corsair RM750x v2 | Fractal Design Define S

Permalänk
Relik 📜
Skrivet av Michaelo:

Hur tänkte ni där, flops är ju ett mått på flyttalsprestanda?

Visst är det så, vi kallar det översättnings- och tankemiss. Rätt är flyttal med enkel- respektive dubbelprecision.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem
Skrivet av MarkSix:

Du får nog ta och läsa på lite mer. Det är teoretiska max prestanda du ser i specifikationerna. Det är allmänt känt att det det är svårt att plocka ut den prestandan ur AMD's kort. Hårdvaruarkiteturen kräver att datat du använder i programmen ligger optimalt uppplagt för att du skall kunna boosta den prestandan ur kortet men det händer ytterst sällan i verkligheten. Detta är bland annat orsaken till att ATI korten har haft så dålig folding prestanda tidigare, pga av svårigheten att programmera GPU'n så att den används optimalt.

Om Nvidias kort är bättre på att utnyttja "hafsig" GPGPU-kod så borde väl deras teoretiska maxgräns också vara högre än AMDs, eller..? Vad gäller folding trodde jag att klienterna använder sig av CUDA, vilket inte finns till AMDs kort. Du får gärna dela med dig av dina digra kunskaper i ämnet!

Visa signatur

Kom-pa-TI-bilitet

Permalänk
Medlem
Skrivet av Teknocide:

Jag får det till att AMDs kort spöar Nvidias på samtliga plan. ~2400 SPGFLOP / 528 DPGFLOP mot C2025:ans 1288/515, och lägre TDP därtill.

Källor: din länk samt AMD FireStream - Wikipedia, the free encyclopedia

Du har helt rätt, jag som kollade fel, läste på single-precision på Nvidia och dual på ATi. Häftigt, och på bara 225TDP för ATis värsting.

Läste dock detta ute på nätet som nog gör att många ändå kommer välja Nvidia till sina datacenters:
"In the GPU computing space, though, Nvidia has some noteworthy advantages, including ECC protection throughout its memory hierarchy, a true L2 cache, and what is probably a more robust set of development tools than those produced so far by AMD's Stream initiative. ECC support will likely open doors for Nvidia in large supercomputing clusters that AMD can't yet open, and the Fermi architecture's additional computing features could allow it to achieve higher performance and superior efficiency when running certain algorithms."

Dock var det kul att läsa i samma artikel "Nvidia has a much larger chip but no real edge in performance."

Kollar man pris lutar det starkt mot ATi för de center som bryr sig om pris/prestanda. Vet dock inte hur många som gör det.

ATi 9350 400DP ~= 6231 kr
Nvidia c2050 515.2DP ~= 19500 kr

FireStream 9370, 9350 bring Cypress computing to servers - The Tech Report

Iaf riktigt kul att ATi öppnar sina ögon för den här marknaden. Kanske man får se en ny kinesisk superdator med ATis nya kort nån dag, ingen annan verkar ju våga använda GPUer än

Permalänk
Medlem
Skrivet av Teknocide:

Om Nvidias kort är bättre på att utnyttja "hafsig" GPGPU-kod så borde väl deras teoretiska maxgräns också vara högre än AMDs, eller..? Vad gäller folding trodde jag att klienterna använder sig av CUDA, vilket inte finns till AMDs kort. Du får gärna dela med dig av dina digra kunskaper i ämnet!

Nu var det inte fråga om hafsig kod utan att det är svårare att skriva effektiv kod för ATI's GPU'er varför dom i verkliga sammanhang ger längre prestanda i dom flesta fall. ATI's folding klient är skriven med mha. ATI stream SDK.

Permalänk
Inaktiv

Hur är ECC löst på Tesla? Är det hårdvaru eller mjukvaru? Här har helt klart Firestream något att arbeta på.

Kul med konkurrent till Tesla iallafall, även om det skulle visa sig att den inte matchar Tesla på samtliga områden.

Permalänk
Hjälpsam

Även om ATI inte är värt att folda med, går dom bättre än Nvidia i de BIONC-project som stödjer ATIs gpu (milkyway, collatz och DNETC).
Dessa tre projekt ligger också bland de fyra främsta i BOINC vad gäller prestanda (SETI ligger på tredje).
Det är foldings mjukvara som är kass på att använda ATI:s kort inte ATIs kort som är långsamma.
Mitt råd till alla med ATI-kort, som är missnöjda med Foldingprestanda, är att testa BOINC.
BOINC
Vad gäller OpenCL är det ganska likt Cuda, vilket gör att det kommer ta längre tid för ATI än Nvidia att få snurr på grejerna.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Teknocide:

Om Nvidias kort är bättre på att utnyttja "hafsig" GPGPU-kod så borde väl deras teoretiska maxgräns också vara högre än AMDs, eller..? Vad gäller folding trodde jag att klienterna använder sig av CUDA, vilket inte finns till AMDs kort. Du får gärna dela med dig av dina digra kunskaper i ämnet!

Den teoretiska max-gränsen är oberoende av kodkvalité eller hur lätt/svårt det är att utnyttja alla resurser till max på ett NVIDIA/AMD ATI-kort. Hur effektivt ditt program är, dvs. hur nära du kommer detta teoretiska maximum, styrs mycket av hur bra du är på att ockupera alla beräkningsenheter, och hur mycket dessa måste vänta på långsamt minne. Den hårdvarunära implementationen av dessa saker och hur detta exakt går till skilljer sig mellan AMD/NVIDIA och är inget du kan styra över.

Edit:
Sen vet jag inte om AMD är sämre än NVIDIA, har bara kodat C for CUDA.

Visa signatur

~ Macbook <> Debian-server

Permalänk
Inaktiv

Jag har aldrig blivit riktigt klok i varför GPU är snabbare än CPU på just beräkningar...är det inte en processors egentligen ända syfte? Jag menar, grafikprocessorn räknar ju ut en massa saker på en gång när det väl används, medans processorn bara....är en processor?

Låter kanske skitdumt, men jag har aldrig begripit det riktigt. GPGPU eller nåt sånt...?

Permalänk
Hjälpsam

Man kan lite löst säga att en CPU klarar ett fåtal komplicerade saker åt gången, medan en GPU klarar massor av enkla saker åt gången.
En CPU består av ett fåtal men mycket avancerade processorer medan en GPU kan liknas vid många mycket enkla.
Det gör att en GPU ibland går mycket snabbare än en CPU, förutsättningen är att man kan dela upp uppgiften i många delar och att GPUns klarar av dom.
Själv tror jag inte på GPU:n som en ren beräkningsmaskin i framtiden, jag tro att man skulle lyckas bättre om man skapade speciella kort avsedda just för denna uppgift

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Segas:

Jag har aldrig blivit riktigt klok i varför GPU är snabbare än CPU på just beräkningar...är det inte en processors egentligen ända syfte? Jag menar, grafikprocessorn räknar ju ut en massa saker på en gång när det väl används, medans processorn bara....är en processor?

Låter kanske skitdumt, men jag har aldrig begripit det riktigt. GPGPU eller nåt sånt...?

En CPU har idag ~ 8 cores som mest? Ett Fermi kort har upp till 512(?). Sen är själva arkitekturen och hur chipytan är fördelad helt olika, med väldigt olika prioriteringar, så kärnorna går absolut inte att jämföra 1:1.

Visa signatur

~ Macbook <> Debian-server

Permalänk
Medlem
Skrivet av Segas:

Jag har aldrig blivit riktigt klok i varför GPU är snabbare än CPU på just beräkningar...är det inte en processors egentligen ända syfte? Jag menar, grafikprocessorn räknar ju ut en massa saker på en gång när det väl används, medans processorn bara....är en processor?

Låter kanske skitdumt, men jag har aldrig begripit det riktigt. GPGPU eller nåt sånt...?

Moderna GPUer är konstruerade så att de har massor av små processorer som inte kan särskilt mycket. Detta beror på att grafikberäkningar oftast är väldigt parallella, t.ex. att beräkna varje pixel i en 3D-scen. En GPU som NVIDIAs GTX 480 har t.ex. 480 små processorer. En vanlig processor måste istället vara bra på generella beräkningar, och har därför mycket mer komplicerade kärnor som klarar av mycket mer, men har istället färre kärnor. Skillnaden blir då att en vanlig processor är rätt så bra på generella beräkningar, men om beräkningarna är väldigt parallella så kan ett grafikkort vara mycket snabbare. För att kunna utnyttja grafikkort för beräkningar så måste man alltså ha tillämpningar som är lämpade för grafikkortens speciella arkitektur, annars så får man ingen bra prestanda alls.

NVIDIA har satsat rätt så länge på GPGPU nu, och speciellt deras Fermi-arkitektur börjar bli rätt så enkel att programmera så att man får bra prestanda. AMD har istället tyvärr inte satsat särskilt mycket på GPGPU, och deras arkitekturer lämnar en hel del att önska när det gäller GPGPU.

Permalänk
Medlem
Skrivet av perost:

Moderna GPUer är konstruerade så att de har massor av små processorer som inte kan särskilt mycket. Detta beror på att grafikberäkningar oftast är väldigt parallella, t.ex. att beräkna varje pixel i en 3D-scen. En GPU som NVIDIAs GTX 480 har t.ex. 480 små processorer. En vanlig processor måste istället vara bra på generella beräkningar, och har därför mycket mer komplicerade kärnor som klarar av mycket mer, men har istället färre kärnor. Skillnaden blir då att en vanlig processor är rätt så bra på generella beräkningar, men om beräkningarna är väldigt parallella så kan ett grafikkort vara mycket snabbare. För att kunna utnyttja grafikkort för beräkningar så måste man alltså ha tillämpningar som är lämpade för grafikkortens speciella arkitektur, annars så får man ingen bra prestanda alls.

NVIDIA har satsat rätt så länge på GPGPU nu, och speciellt deras Fermi-arkitektur börjar bli rätt så enkel att programmera så att man får bra prestanda. AMD har istället tyvärr inte satsat särskilt mycket på GPGPU, och deras arkitekturer lämnar en hel del att önska när det gäller GPGPU.

Hur är det då med AMD:s grafikkretsar? Med tanke på att 5870 innehåller 1600 streamprocessorer (som vad jag förstått är ATi:s motsvarighet till CUDA-cores?) på någorlunda liknande klockfrekvens så borde ju 5870 vara betydligt snabbare än GTX 480 på typ allt, men så är ju inte fallet. Varför?

Visa signatur

En budget compaq laptop från 2007.

Permalänk
Permalänk
Medlem
Skrivet av hakuni:

Hur är det då med AMD:s grafikkretsar? Med tanke på att 5870 innehåller 1600 streamprocessorer (som vad jag förstått är ATi:s motsvarighet till CUDA-cores?) på någorlunda liknande klockfrekvens så borde ju 5870 vara betydligt snabbare än GTX 480 på typ allt, men så är ju inte fallet. Varför?

För att varje Nvidia cuda-core kan göra ungefär 5 ggr så mycket som en ATI streamprocessor, en cuda-core är betydligt mer komplicerad, därför går de inte att jämföra rakt av.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Hjälpsam
Skrivet av the squonk:

För att varje Nvidia cuda-core kan göra ungefär 5 ggr så mycket som en ATI streamprocessor, en cuda-core är betydligt mer komplicerad, därför går de inte att jämföra rakt av.

Mellan 2.5 gånger mer till lika mycket, blir det väl i praktiken.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av hakuni:

Hur är det då med AMD:s grafikkretsar? Med tanke på att 5870 innehåller 1600 streamprocessorer (som vad jag förstått är ATi:s motsvarighet till CUDA-cores?) på någorlunda liknande klockfrekvens så borde ju 5870 vara betydligt snabbare än GTX 480 på typ allt, men så är ju inte fallet. Varför?

AMDs och NVIDIAs arkitekturer är lite olika, och de räknar också olika när det gäller streamprocessorer. Medan NVIDIAs streamprocessorer är en liten processor så består AMDs streamprocessorer av 5 st små processorer som de kallar Stream Processing Unit (SPU). AMD räknar då SPUs och inte SPs, vilket är orsaken till att de har så många fler än NVIDIA. Däremot så verkar NVIDIA köra sina SPs i högre klockfrekvens än AMD (GTX 480 kör med 1400 MHz, HD 5870 kör med 850 MHz).

P.g.a. att AMD har så många fler processorer så har de en högre teoretisk maxprestanda, men problemet är att alla fem SPUer i en av AMDs SP måste köra samma instruktion i samma tråd. AMDs kompilator har det därför mycket svårare än NVIDIAs kompilator p.g.a. att AMD måste utnyttja Instruction Level Parallelism (ILP), medan NVIDIA bara behöver bekymra sig över vanlig trådparallellism.

Det är därför enklare att få ut bra prestanda från NVIDIAs arkitektur, men om man har ett problem som passar till AMDs arkitektur så kan AMD vara snabbare.

Permalänk
Medlem

^ Tack för ett bra svar!

Visa signatur

Kom-pa-TI-bilitet

Permalänk
Inaktiv

Tack för ingående förklaringar hur det fungerar, nu blev jag åtminstone lite klokare i -varför- och -hur-.