AMD försökte i många år få grafikarkitekturen Graphics Core Next (GCN) att fylla dubbla roller, både för konsumentkort och som beräkningskort för generella beräkningar i arbetsstationer och datacenter. Att blidka båda sidor med samma grundplåt var inte optimalt, och under år 2019 meddelande AMD därför att bolaget byter taktik och utvecklar två separata arkitekturer.

AMD-Instinct-MI100-HPC-GPU-Accelerator_1-1480x832.jpg
AMD-Instinct-MI100-HPC-GPU-Accelerator_3-1480x832.jpg
AMD-Instinct-MI100-HPC-GPU-Accelerator_2-1480x832.jpg

Resultatet är arkitekturen Radeon DNA (RDNA) för konsumenter och Compute DNA (CDNA) för arbetsstationer och datacenter. Med CDNA river AMD ut alla grafikfunktioner och egenskaper som inte behövs för mer generella beräkningar, och arkitekturen skräddarsys istället för uppgifter relaterade till maskininlärning och artificiell intelligens. Det första grafikkortet med CDNA under huven blir Instinct M100, som enligt AMD levererar världsledande prestanda för flyttalsberäkningar.

Mer specifikt anger AMD ledande prestanda för flyttal av enkel precision (FP32) och dubbel precision (FP64). För FP32 anger företaget en högsta teoretiska beräkningskapacitet om 11,5 TFLOPS och FP64-prestanda om maximala 23,1 TFLOPS. För att göra Instinct MI100 flexibelt adderas också tekniken Matrix Core Technology, vilken möjliggör exekvering av blandad precision där heltalsvarianter som INT8 och INT4 kan blandas med flyttal som FP16, FP32 och Bfloat16.

AMD-Radeon-Instinct-MI100-HPC-GPU-Acceleator_2-1480x833.jpg
AMD-Radeon-Instinct-MI100-HPC-GPU-Acceleator_3-1480x833.jpg
AMD-Radeon-Instinct-MI100-HPC-GPU-Acceleator_4-1480x833.jpg
AMD-Radeon-Instinct-MI100-HPC-GPU-Acceleator_5-1480x833.jpg

Sett till beräkning av matriser (dense) anger AMD ett markant övertag i flyttalsprestanda över Nvidia A100, med 19,5 procent bättre resultat för dubbel precision (FP64) och 18,5 procent övertag för enkel precision (FP32). AMD-lägret får dock se sig ordentligt akterseglade av A100 när det gäller halvprecision (FP16), där Nvidias kort mäktar med 69 procent bättre resultat.

Fördelarna för Nvidia fortsätter när det kommer till beräkningar av glesa matriser (sparse). För FP64 når A100 här 19,5 TFLOPS medan Instinct MI100 får nöja sig med 11,5 FTLOPS. För FP32 blir resultatet samma 19,5 TFLOPS sett till vanlig enkelprecision, men sticker upp till 156 TFLOPS när Nvidias Tensor Float-teknik används, vilket trumfar AMD:s 23,1 TFLOPS. Likaledes förkrossande är heltalsresultatet INT8, där A100 når 624 TFLOPS i det gröna lägret kontra 185 TFLOPS för röda laget.

Beräkningstyp

AMD Instinct MI100

Nvidia A100

FP32 (dense)

11,5 TFLOPS

9,7 TFLOPS

FP32 (sparse)

23,1 TFLOPS

19,5 TFLOPS
156 TFLOPS (Tensor Float)

FP64 (dense)

23,1 TFLOPS

19,5 TFLOPS

INT8

185 TFLOPS

624 TFLOPS

När AMD jämför sig med Nvidias äldre Volta V100-kort anger företaget att Instinct MI100 når mellan 1,4 till 3 gånger bättre resultat i arbetslaster för högpresterande datacenterapplikationer. Jämfört med AMD:s föregångare Instinct MI60 uppges nykomlingen MI100 ge en prestandaökning om 40 procent i arbetslasten PIConGPU. AMD anger också att Instinct MI100 erbjuder dubblerad prestanda per dollar ställt mot Nvidia A100, utan att ange pris för det egna kortet.

Den CDNA-baserade grafikkretsen i Instinct MI100 har gått under kodnamnet "Arcturus" och tillverkas likt AMD:s övriga produktutbud på TSMC:s 7-nanometersteknik. Kretsen huserar 120 beräkningsenheter (Compute Unit, CU) för sammanlagt 7 680 streamprocessorer. Sett till grafikminnet utgörs detta av 32 GB HBM2 som körs i minnesfrekvensen 1,2 GHz. AMD anger minnesbandbredd om 1,23 TB/s när beräkningar sker inom grafikkortet, att jämföra med det HBM2E-minne Nvidia tillämpar i A100 där bandbredd mäter in på 1,54 TB/s.

När kommunikation sker med resten av systemet görs detta via en PCI Express 4.0-anslutning med ett teoretiskt bandbreddstak om 64 GB/s. Flera grafikkort kan seriekopplas via kommunikationsteknik Infinity Fabric som ger sammanlänkade grafikkort bandbredd om 276 GB/s. Sett till prestanda jämför AMD Instinct MI100 dels med Nvidias äldre Volta V100 och senaste snittet i form av Ampere-baserade A100.

AMD Instinct MI100 görs tillgänglig för partnertillverkare (OEM) och systembyggare för datacenter mot slutet av 2020, och sett till processorerna använder AMD föga överraskande modeller i företagets Epyc-familj. Just bruket av Epyc-processorer är något AMD har gemensamt med Nvidia, som uppgraderar grafikkortet A100 i kampen om datacentret och arbetsstationer.

Läs mer om AMD-grafikkort för professionellt bruk: