Premiär! Fyndchans i SweClockers Månadens Drop

Zen för desktop blir 16-kärnig(någon försa sig just) ...

Permalänk
Datavetare
Skrivet av Pudeln:

@Yoshman:

Ursäkta necropost men AMD är väl mer flexibla nu när de kan välja vilken fab de vill (mer eller mindre). Mervärdet att ha en egen fabrik ser jag som ingen höjdare. Problemet var att AMD aldrig riktigt lyckades med att hålla jämn takt med Intel. AMD låg länge på 90nm när Intel haft 65. Dock hade Intel en sämre design än AMD då och lyckades kompensera mot detta något då de hela tiden hann före till ny process. GF går kanske bra nu för att de inte styrs av AMD? AMD är duktiga på att vara innovatörer men de har haft problem på andra håll.

Framtiden är ju APUer och AMD har ju ett försprång här gentemot Intel som kompenserar med mycket LV4 cache för att bräcka. Men det är ju rätt uppenbart att Intel inte kommer kunna skala och vara lika flexibla med compute och grafiklösningar som AMD. Jag minns Larabie snacket som gick för en massa år sedan men det rann ju ut i sanden. AMD gjorde rätt som köpte ATI. Det var Bulldozer som knäckte företaget helt enkelt, inte ATI-köpet.

De kommande Zen APUerna för server med potent iGP och HSA misstänker jag kommer vara ett väldigt häftigt koncept. Intel kommer få kompensera på plåsterlösningar så som de fick göra med Core Duo för att möta det.

Jag är dock en lekman jämfört med dig men jag ser bara fördelar med AMDs risktaganden. För att slå någon som Intel så måste man ta chanser. Man kan inte spela säkert mot nån som är 10 gånger så stor och tro att man kommer vinna i längden.

Numer måste AMD anpassa sin produkt till den fab man vill använda, tidigare kunde man anpassa sin process till den CPU man ville bygga. Skillnaden i slutresultat är inte gigantiskt, men det finns definitivt en skillnad vilket ger Intel en fördel även om man skulle ligga helt i paritet vad det gäller processnod.

AMD var faktisk aldrig mer än 12 månader efter Intel till en ny nod, i flera fall så hade AMD en del fördelar jämfört med Intel när väl nådde samma "nm" siffra. När AMD förlorande sig fab tappade man möjligheten att ligga i den absoluta framkanten vad det gäller CPU-teknik, precis som IBM också gjort och inte heller där kan man idag konkurrera med Intel.

Larrabee misslyckades som GPU, men det arbetet blev Xeon Phi. Xeon Phi har varit långt mer framgångsrik på HPC än vad FirePro varit, så skulle inte kalla det projektet ett misslyckande.

Ser inte riktigt hur man kan kalla APU-konceptet en framgång så här långt. Det har inte varit något större framgång på PC-sidan. Spelkonsolerna är definitivt en framgång, men rent ekonomiskt har det gett ett rätt magert tillskott för AMD och är ju självklart att utvecklingen av konsol APUerna tagit resurser från andra projekt.

På laptop-sidan har faktiskt Intels iGPU varit snabbare än AMD sedan Haswell, sedan Skylake är Intel iGPUer i de flesta fall även snabbare än AMD även på desktop utan att man tar till modellerna med eDRAM. Är lite jämnade i spel medan HD 530 krossar AMDs A10 7850K i professionella 3D tillämpningar som t.ex. AutoCAD.

Nu är det spekulation om en alternativ verklighet där AMD inte köpt ATI, men känns lite väl mycket som ren slump att allt började peka åt fel håll ca ett år efter uppköpet. AMD må haft otur i att både Intel och Nvidia lanserade väldigt bra produkter strax efter uppköpet, AMD var då i ett läge där nästan alla likvida medel var uppbundna. Men AMD försatte sig i den situationen helt själv och läser man kommentarerna från investerare redan samma vecka köpet blev offentliggjort var det extremt få som begrep varför man gjorde denna affär, något som visade sig i ett enormt ras i börsvärde för AMD tiden efter uppköpet.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Numer måste AMD anpassa sin produkt till den fab man vill använda, tidigare kunde man anpassa sin process till den CPU man ville bygga. Skillnaden i slutresultat är inte gigantiskt, men det finns definitivt en skillnad vilket ger Intel en fördel även om man skulle ligga helt i paritet vad det gäller processnod.

AMD var faktisk aldrig mer än 12 månader efter Intel till en ny nod, i flera fall så hade AMD en del fördelar jämfört med Intel när väl nådde samma "nm" siffra. När AMD förlorande sig fab tappade man möjligheten att ligga i den absoluta framkanten vad det gäller CPU-teknik, precis som IBM också gjort och inte heller där kan man idag konkurrera med Intel.

Larrabee misslyckades som GPU, men det arbetet blev Xeon Phi. Xeon Phi har varit långt mer framgångsrik på HPC än vad FirePro varit, så skulle inte kalla det projektet ett misslyckande.

Ser inte riktigt hur man kan kalla APU-konceptet en framgång så här långt. Det har inte varit något större framgång på PC-sidan. Spelkonsolerna är definitivt en framgång, men rent ekonomiskt har det gett ett rätt magert tillskott för AMD och är ju självklart att utvecklingen av konsol APUerna tagit resurser från andra projekt.

På laptop-sidan har faktiskt Intels iGPU varit snabbare än AMD sedan Haswell, sedan Skylake är Intel iGPUer i de flesta fall även snabbare än AMD även på desktop utan att man tar till modellerna med eDRAM. Är lite jämnade i spel medan HD 530 krossar AMDs A10 7850K i professionella 3D tillämpningar som t.ex. AutoCAD.

Nu är det spekulation om en alternativ verklighet där AMD inte köpt ATI, men känns lite väl mycket som ren slump att allt började peka åt fel håll ca ett år efter uppköpet. AMD må haft otur i att både Intel och Nvidia lanserade väldigt bra produkter strax efter uppköpet, AMD var då i ett läge där nästan alla likvida medel var uppbundna. Men AMD försatte sig i den situationen helt själv och läser man kommentarerna från investerare redan samma vecka köpet blev offentliggjort var det extremt få som begrep varför man gjorde denna affär, något som visade sig i ett enormt ras i börsvärde för AMD tiden efter uppköpet.

Tack för att du tog dig tiden att förklara. Jag hade visst missat Xeon Phi helt och hållet.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Pudeln:

@Yoshman:

Ursäkta necropost men AMD är väl mer flexibla nu när de kan välja vilken fab de vill (mer eller mindre). Mervärdet att ha en egen fabrik ser jag som ingen höjdare. Problemet var att AMD aldrig riktigt lyckades med att hålla jämn takt med Intel. AMD låg länge på 90nm när Intel haft 65. Dock hade Intel en sämre design än AMD då och lyckades kompensera mot detta något då de hela tiden hann före till ny process. GF går kanske bra nu för att de inte styrs av AMD? AMD är duktiga på att vara innovatörer men de har haft problem på andra håll.

Framtiden är ju APUer och AMD har ju ett försprång här gentemot Intel som kompenserar med mycket LV4 cache för att bräcka. Men det är ju rätt uppenbart att Intel inte kommer kunna skala och vara lika flexibla med compute och grafiklösningar som AMD. Jag minns Larabie snacket som gick för en massa år sedan men det rann ju ut i sanden. AMD gjorde rätt som köpte ATI. Det var Bulldozer som knäckte företaget helt enkelt, inte ATI-köpet.

De kommande Zen APUerna för server med potent iGP och HSA misstänker jag kommer vara ett väldigt häftigt koncept. Intel kommer få kompensera på plåsterlösningar så som de fick göra med Core Duo för att möta det.

Jag är dock en lekman jämfört med dig men jag ser bara fördelar med AMDs risktaganden. För att slå någon som Intel så måste man ta chanser. Man kan inte spela säkert mot nån som är 10 gånger så stor och tro att man kommer vinna i längden.

Skrivet av Yoshman:

Numer måste AMD anpassa sin produkt till den fab man vill använda, tidigare kunde man anpassa sin process till den CPU man ville bygga. Skillnaden i slutresultat är inte gigantiskt, men det finns definitivt en skillnad vilket ger Intel en fördel även om man skulle ligga helt i paritet vad det gäller processnod.

AMD var faktisk aldrig mer än 12 månader efter Intel till en ny nod, i flera fall så hade AMD en del fördelar jämfört med Intel när väl nådde samma "nm" siffra. När AMD förlorande sig fab tappade man möjligheten att ligga i den absoluta framkanten vad det gäller CPU-teknik, precis som IBM också gjort och inte heller där kan man idag konkurrera med Intel.

Larrabee misslyckades som GPU, men det arbetet blev Xeon Phi. Xeon Phi har varit långt mer framgångsrik på HPC än vad FirePro varit, så skulle inte kalla det projektet ett misslyckande.

Ser inte riktigt hur man kan kalla APU-konceptet en framgång så här långt. Det har inte varit något större framgång på PC-sidan. Spelkonsolerna är definitivt en framgång, men rent ekonomiskt har det gett ett rätt magert tillskott för AMD och är ju självklart att utvecklingen av konsol APUerna tagit resurser från andra projekt.

På laptop-sidan har faktiskt Intels iGPU varit snabbare än AMD sedan Haswell, sedan Skylake är Intel iGPUer i de flesta fall även snabbare än AMD även på desktop utan att man tar till modellerna med eDRAM. Är lite jämnade i spel medan HD 530 krossar AMDs A10 7850K i professionella 3D tillämpningar som t.ex. AutoCAD.

Nu kanske det är min okunnskap som speglar igenom, men varför skulle ett företag vilja välja en APU istället för t.ex nvidias nya dgx-1 eller den varianten vi har haft till forskning, xeon+k80 racks? Jag vet att ingenjörerna jublade när nvidia annonserade dgx-1 när jag jobbade med driften på ett universitet, och dagen efter ringde de och ville beställa en.

Just till HPC segmentet måste väl en APU fallera ganska hårt mot en CPU+dGPU om man är ute efter beräkningskraft?

Visa signatur

White Heart i5-6600k@4.8ghz 1.325v ~ EVGA 780TI SC+ @ 1304mhz ~ 2x8 gb Corsair 2166mhz ~ Samsung 840 240gb ~ Crossover 2795 QHD 1440p 120hz

3D-Mania i7-6700k@5.0ghz 1.396 ~ EVGA 1080 FTW @ 2189/11500 ~ 4x4 Corsair Dominator Platinum 3800 mhz ~ Samsung 850 Pro 512gb ~ Acer Predator x34a, 3440x1440 100hz

Permalänk
Medlem

@grimboso:

Med en APU kör CPU-delen och GPU delen mot samma minnesbank (RAM/HBM). Vad jag förstår om dgx så är det en Xeon som kör mot GPUer. @Yoshman får rätta mig men jag har svårt att tro att Xeon proppen i dgx-1 delar HBM minnet med Nvidia kretsarna. Jag gissar att Xeon proppen har sitt RAM och Nvidia kretsarna kör mot sitt HBM och att det får skyfflas data via PCI-express eller vad det nu är för gränssnitt i dgx-1.

http://developer.amd.com/resources/heterogeneous-computing/wh...

Sen är ju Tesla något av en standard för GGPU. Så så fort Nvidia släpper nått nytt där så jublas det ju. Det är ju rätt så självklart.

Permalänk
Datavetare
Skrivet av grimboso:

Nu kanske det är min okunnskap som speglar igenom, men varför skulle ett företag vilja välja en APU istället för t.ex nvidias nya dgx-1 eller den varianten vi har haft till forskning, xeon+k80 racks? Jag vet att ingenjörerna jublade när nvidia annonserade dgx-1 när jag jobbade med driften på ett universitet, och dagen efter ringde de och ville beställa en.

Just till HPC segmentet måste väl en APU fallera ganska hårt mot en CPU+dGPU om man är ute efter beräkningskraft?

Olika typer av problem har olika flaskhalsar. Om ni jobbar med problem där man utför långa sekvenser av beräkningar och där varje jobb tar relativt lång tid så är dGPU överlägsen en APU då en sådan lösning nog alltid kommer få högre beräkningskapacitet.

Men finns andra problem där varje enskilt jobb är relativt kort, i det läget blir latensen mellan CPU (som organiserar det hela) och GPU (som utför beräkningen) en flaskhals. En lösning där CPU och GPU är integrerad i samma krets kan ju få tiopotenser lägre kommunikationslatens jämfört med vad man har mellan CPU och dGPU.

GPUer är också rätt ineffektiva att hantera beräkningar som innehåller villkorad körning. Nästan alla problem man hittar på servers och skrivbordet innehåller stora mängder villkorad körning, gissningsvis en stor bidragande orsak till att GPGPU gått väldigt trögt här. Men flera av dessa problem har nog ändå delar i sig som skulle lämpa sig för att köras på en GPU, i det läget blir det absolut kritiskt med riktigt låg kommunikationslatens för att inte kostnaden att lägga ut jobbet på GPU ska överskugga vinsten i tid av att köra beräkningen på GPU. Här finns dock en väldigt stor konkurrent för GPU, moderna CPUers SIMD-enheter. Däri ligger nog en till förklaring varför det går så trögt för GPGPU på skrivbordet och servers, kommunikationslatens mellan heltalsdelen och SSE/AVX är ju i praktiken noll (är faktiskt någon klockcykel men det kan i nästan 100 % av fallen gömmas av en modern out-of-order CPU-design då allt är pipeline:at).

TL;DR har man ett beräkningsproblem där kommunikationslatens är ett större flaskhals än rå beräkningskraft blir en APU mer effektiv

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av Pudeln:

@grimboso:

Med en APU kör CPU-delen och GPU delen mot samma minnesbank (RAM/HBM). Vad jag förstår om dgx så är det en Xeon som kör mot GPUer. @Yoshman får rätta mig men jag har svårt att tro att Xeon proppen i dgx-1 delar HBM minnet med Nvidia kretsarna. Jag gissar att Xeon proppen har sitt RAM och Nvidia kretsarna kör mot sitt HBM och att det får skyfflas data via PCI-express eller vad det nu är för gränssnitt i dgx-1.

http://developer.amd.com/resources/heterogeneous-computing/wh...

Sen är ju Tesla något av en standard för GGPU. Så så fort Nvidia släpper nått nytt där så jublas det ju. Det är ju rätt så självklart.

GP100 (vilket är vad dgx-1 innehåller) har, till skillnad från tidigare Nvidia-kretsar, logik för att transparent hålla systemminne (d.v.s. "vanligt" RAM, det som sitter på Xeon-propparna) koherent mellan CPU och GPU, vilket är precis vad AMD pekat på är den absolut mest kritiska aspekten av HSA.

Läs sektionen "Pascal GP100 Unified Memory" i whitepaper om GP100.

Pascal kan alltså hantera hela sitt eget minne och hela systemminnet som en enda adressrymd. Från CPU-sidan har det sedan länge varit möjligt att mappa in minne från PCI-enheter i CPU-adressrymden, men rent praktiskt tror jag det är en dålig idé för just GPUer då moderna GPUer har speciell logik för att flytta data mellan systemminne och GPU-minne (är en av de saker DX12 ger programmerarna explicit kontroll över).

Detta har varit möjligt långt innan Pascal men blir nu alltså än mer effektivt p.g.a. ovan

"Managed memory is accessible to both the CPU and GPU using a single pointer. The CUDA system software automatically migrates data allocated in Unified Memory between GPU and CPU, so that it looks like CPU memory to code running on the CPU, and like GPU memory to code running on the GPU."

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

GP100 (vilket är vad dgx-1 innehåller) har, till skillnad från tidigare Nvidia-kretsar, logik för att transparent hålla systemminne (d.v.s. "vanligt" RAM, det som sitter på Xeon-propparna) koherent mellan CPU och GPU, vilket är precis vad AMD pekat på är den absolut mest kritiska aspekten av HSA.

Läs sektionen "Pascal GP100 Unified Memory" i whitepaper om GP100.

Pascal kan alltså hantera hela sitt eget minne och hela systemminnet som en enda adressrymd. Från CPU-sidan har det sedan länge varit möjligt att mappa in minne från PCI-enheter i CPU-adressrymden, men rent praktiskt tror jag det är en dålig idé för just GPUer då moderna GPUer har speciell logik för att flytta data mellan systemminne och GPU-minne (är en av de saker DX12 ger programmerarna explicit kontroll över).

Detta har varit möjligt långt innan Pascal men blir nu alltså än mer effektivt p.g.a. ovan

"Managed memory is accessible to both the CPU and GPU using a single pointer. The CUDA system software automatically migrates data allocated in Unified Memory between GPU and CPU, so that it looks like CPU memory to code running on the CPU, and like GPU memory to code running on the GPU."

Om jag tolkar informationen i länken rätt, samt med vad du säger så betyder det att NVLINK (som körs på dgx-1) kommer mina latensen mellan CPU/GPU, vilket kommer göra skillnaden i latens mellan APU och CPU/dGPU mycket mindre märkbar, samt att den ökade bandbredden gör att GPU'erna har mer data att använda och således kan utnyttja sitt potential bättre?
Detta kombinerat med Unified Memory såklart.

Nu är det ju framförallt långa, tunga beräkningar som görs, då det är ett tekniskt universitet och mycket av forskningen låg riktat mot samhällsinfrastruktur, naturressurser och materialteknik där korta jobb var ändå räknat i timmar och längre jobb uppe i flera dagar.

Visa signatur

White Heart i5-6600k@4.8ghz 1.325v ~ EVGA 780TI SC+ @ 1304mhz ~ 2x8 gb Corsair 2166mhz ~ Samsung 840 240gb ~ Crossover 2795 QHD 1440p 120hz

3D-Mania i7-6700k@5.0ghz 1.396 ~ EVGA 1080 FTW @ 2189/11500 ~ 4x4 Corsair Dominator Platinum 3800 mhz ~ Samsung 850 Pro 512gb ~ Acer Predator x34a, 3440x1440 100hz

Permalänk
Datavetare
Skrivet av grimboso:

Om jag tolkar informationen i länken rätt, samt med vad du säger så betyder det att NVLINK (som körs på dgx-1) kommer mina latensen mellan CPU/GPU, vilket kommer göra skillnaden i latens mellan APU och CPU/dGPU mycket mindre märkbar, samt att den ökade bandbredden gör att GPU'erna har mer data att använda och således kan utnyttja sitt potential bättre?
Detta kombinerat med Unified Memory såklart.

Nu är det ju framförallt långa, tunga beräkningar som görs, då det är ett tekniskt universitet och mycket av forskningen låg riktat mot samhällsinfrastruktur, naturressurser och materialteknik där korta jobb var ändå räknat i timmar och längre jobb uppe i flera dagar.

Japp, verkar som Nvidia skapat NVLink till stor del just för att bättre hantera fall där låg latens är viktig. Har för mig att bandbredden över NVLink egentligen inte skiljer sig på något relevant sätt från PCIe.

Men rent fysik säger ändå att något likt NVLink riktigt kan nå lika låga latenser som en krets där både GPU och CPU ligger, å andra sidan kan man komma så pass nära att fördelen man får med en APU är för liten för att kompensera för nackdelarna. Ovanpå det har en maskin med Xeon och en dGPU faktiskt möjlighet att använda SSE/AVX för de saker som är riktigt latenskänsliga. Kanske är så enkelt att konceptet med APU inte riktigt är en så bra idé utanför att kombinera en CPU med en grundläggande iGPU där det definitivt finns fördelar i form av lägre absolut strömförbrukning och billigare kostnad jämfört med CPU + dGPU, men då pratar vi om andra användningsområden, d.v.s. "vanlig" datoranvändning.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Japp, verkar som Nvidia skapat NVLink till stor del just för att bättre hantera fall där låg latens är viktig. Har för mig att bandbredden över NVLink egentligen inte skiljer sig på något relevant sätt från PCIe.

Men rent fysik säger ändå att något likt NVLink riktigt kan nå lika låga latenser som en krets där både GPU och CPU ligger, å andra sidan kan man komma så pass nära att fördelen man får med en APU är för liten för att kompensera för nackdelarna. Ovanpå det har en maskin med Xeon och en dGPU faktiskt möjlighet att använda SSE/AVX för de saker som är riktigt latenskänsliga. Kanske är så enkelt att konceptet med APU inte riktigt är en så bra idé utanför att kombinera en CPU med en grundläggande iGPU där det definitivt finns fördelar i form av lägre absolut strömförbrukning och billigare kostnad jämfört med CPU + dGPU, men då pratar vi om andra användningsområden, d.v.s. "vanlig" datoranvändning.

Med tanke på nvidias teknik med NVLINK och AMD's avsaknad av det gör mig fundersam på hur bra satsningen på APU är för just HPC segmentet. Jag kan då köpa att en APU kan ge en med kostnadseffektiv maskin för enklare beräkning och dylikt. En APU borde till exempel göra sig rätt bra i en laptop eftersom den har en mycket kraftigare GPU-del än t.ex intels HD graphics har., eller?
Dock borde väl det bli en bieffekt att en APU har mindre ren processorkraft än en ren CPU har?

Om jag förstått mig rätt så lägger AMD en del krut på just HPC segmentet med sina APUs och jag kan erkänna att jag har mina tvivel på den satsningen, då jag inte kan se att kunder som vill ha så mycket beräkningskraft och köpkraft att en sådan satsning ska vara ekonomiskt kommer välja APU. Har jag helt fel om jag tycker just HPC segmentet är fel satsning med APU's?

Visa signatur

White Heart i5-6600k@4.8ghz 1.325v ~ EVGA 780TI SC+ @ 1304mhz ~ 2x8 gb Corsair 2166mhz ~ Samsung 840 240gb ~ Crossover 2795 QHD 1440p 120hz

3D-Mania i7-6700k@5.0ghz 1.396 ~ EVGA 1080 FTW @ 2189/11500 ~ 4x4 Corsair Dominator Platinum 3800 mhz ~ Samsung 850 Pro 512gb ~ Acer Predator x34a, 3440x1440 100hz