Rykte: AMD Zen lanseras Q4 2016 – följs upp av konsolklassad APU med HBM

Permalänk
Medlem

Sweclockers - ryktesportal för entusiaster. Ibland har vi nyheter. Ibland översätter vi inte bara andras nyheter.

Visa signatur

7800X3D • 4080S • 32GB • 2TB • 1440p 165 Hz
3700X • 3070 • 32GB • 2TB • 1080p 144Hz

Permalänk
Medlem
Skrivet av criscros:

Så jävla intressant zen är men de driver en till vansinne! Ett år vafan!

Då har nog kaby lake refresh kommit ut.. Och säkert någon utav dem med iris pro som har runt 100rop och bättre eDram.

Amd har mycket att ta igen:/ de borde ligga på haswells ipc för att ens ha en chans tror jag.. Inte sb ipc.. Kaby lake kommer nog ha ett övertag i ipc 50% över sb.

8 kärnor om än med IPC som Sandy Bridge bara det är konkurrenskraftigt pris kommer det sälja tro mig.

Visa signatur

Ryzen 7 5800X3D | RX 7900 XT

Permalänk
Medlem
Skrivet av LPG:

8 kärnor om än med IPC som Sandy Bridge bara det är konkurrenskraftigt pris kommer det sälja tro mig.

jodå det tror jag med ... Jag borde ha tagit med helheten... Självklart är inte ipc allt.

Vi får se hur det blir, känns bara surt att det är ett år kvar tills dess.

Permalänk
Medlem

Så ingen Zen APU för Nintendo NX? :/

Permalänk
Entusiast
Skrivet av Yoshman:

Håller med om punkt 1, det verkar ha varit målet. Problemet är att man ännu inte lyckats matcha dGPUer som 750M. I både AMDs och Intels fall så drar topp-iGPUerna rätt mycket ström, d.v.s. dessa kretsar kan ändå bara användas där man även får in en dGPU. Gissar att man trodde att iGPU på något sätt skulle vara mer effekt än dGPU, om det är så begriper jag inte varför man trodde det då det knappast är något magiskt med iGPU.

Vet inte om Intel gör vad du beskriver i 2. Visst har man iGPU med eDRAM i Xeon E3 numera, men det är low-end och för Xeon E5/E7 kommer man i stället biffa upp SIMD-enheterna än mer när Skylake-versionerna av dessa lanseras, då stoppar man in samma AVX512 som idag endast finns i Xeon Phi. Räcker inte det finns just Xeon Phi eller high-end GPUer från Nvidia/AMD som alltid kommer prestera bättre än iGPU då en sådan rimligen inte kan dra >100W.

AMD verkar sikta på HPC m.h.a. iGPU och HMB, frågan är hur de tänkt få ut någon vettig prestanda utan att de sitter med en CPU med 250-300W TDP (vilket blir en väldigt dyr CPU då det kräver väldigt speciell paketering).

De tänker nog inte bara på strömbudget utan även rent ekonomiskt för systembyggare. Kan de få ungefär samma prestanda med en iGPU som en dGPU så finns det mycket jobb att spara på att slippa designa en laptop eller dator för en dGPU. I laptopen slipper du dra massa extra linor för ström och en massa linor PCIe som är kan vara grinig med störningar. Dessutom blir kylaren lättare att designa om du bara har en krets som behöver aktiv kylning istället för två. För större datorer slipper de köpa in och montera ett extra kort i datorerna vilket i förlängningen även öppnar för mer kompakta designer.

Vet att Intel pratade om tät integration med GPU när de började satsa på det men har inte hört så mycket sen dess. Sen var det framförallt tal om allmänprestanda och inte något som skulle ersätta Xeon Phi i specialtillämpningar. Men det var mest AMD som pratade om det. Tanken där verkar ha varit att använda iGPU som SIMD på steroider men det bygger ju på ett antagande om att det faktiskt finns en del saker som går att köra på en GPU i ett vanligt system. Det var ju snack om att allt skulle accelereras med GPU för ett par år sedan och det är väl fortfarande lite prat om det på mobilsidan. Fast verkar som det mesta slutat på samma sätt som Flash och deras hårdvarustöd. Låter fint i teorin, fungerar skit i praktiken. HTML5 och WebGL verkar till exempel inte blivit den revolution som vissa hoppats på.

Vad AMD tänker på verkar lite oklart. De lär väl förklara sig lite närmare när det väl blir dags att släppa prylarna. Lite lurigt att läsa in för mycket i rykten men de har ju i alla fall satsat en hel del på GPU och HPC nu. De presenterade ju nyligen en massa mjukvara för att underlätta för generella beräkningar på GPU. Tidigare hade de ju satsat på att folk skulle köra OpenCL vilket inte riktigt blev av. Istället är det CUDA som gäller om folk inte kör Xeon Phi. Den mest intressanta delen är ju att AMD har utvecklat en egen kompilator/översättare för CUDA. Tanken är att det ska räcka med att kompilera om befintlig CUDA-kod och sedan köra det direkt på AMDs hårdvara. Ska bli intressant att se hur det fungerar och hur sura Nvidias jurister är på manövern.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk

Snälla AMD, gör om konststycket K7 Athlon. Vi behöver det. Och om AMD lyckas så skulle jag villa se Intels R&D personal när de måste börja jobba för lönen.

Visa signatur

Varje svensk medborgare borde ha minst 3 PC/pers där hemma !

Permalänk
Medlem
Skrivet av criscros:

jodå det tror jag med ... Jag borde ha tagit med helheten... Självklart är inte ipc allt.

Vi får se hur det blir, känns bara surt att det är ett år kvar tills dess.

1 år går fort första vi hörde om Zen var ju typ två år sedan så hälften av tiden har gått!

Visa signatur

Ryzen 7 5800X3D | RX 7900 XT

Permalänk
Medlem
Skrivet av LPG:

1 år går fort första vi hörde om Zen var ju typ två år sedan så hälften av tiden har gått!

för mig har det varit en evighet haha.. jag har verkligen sett fram emot zen xD

Permalänk
Hjälpsam

Min A10-7850K har ungefär halva grafikprestanda av vad ett GTX750To eller ett R7360 har, vilket är i minsta laget, minnesbandbredden är inte mer 39 GB/s.
Men släng på en Zen APU i en Hybridkrets med HBM minnen, då bör flaskhalsen av minnesbandbredden ryka.
Har man dessutom skapligt med HBM minne, kanske man kan slopa vanligt DDR-minne helt.
Det borgar för en ruggigt kompakt och ovanligt lättbyggd dator, med skaplig prestanda både på grafik och CPU.
Kylningen blir enkel, det är bara kretsen med APU HBM som behöver kylas.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Inaktiv

Något luktar skunk, detta kan inte stämma att det BARA skulle vara XBONE/PS4 konsoll prestanda på de nya ZEN APU:erna på 14nm med en vidare utvecklad GCN arkitektur samt HBM minne.

Hur kan flera års utveckling med HBM minne och krympning till 14nm resultera i samma grafiska prestanda som en 28nm APU i XBONE/PS4 som nu är flera år gammal.

Med lite huvudräkning borde dessa nya APU:er ha minst 3 gånger XBONE/PS4 prestanda.

Permalänk
Medlem

Fan kunde de inte droppa namnet Fx,

Permalänk
Medlem
Skrivet av Yoshman:

AMD kanske borde fundera lite om APUer verkligen har någon marknad, för vad är marknaden för en relativt stark iGPU? "Vanliga" program klarar sig med vilken iGPU som helst idag, spel och andra applikationer som behöver mer krävande 3D-grafik klarar sig knappast med PS4 nivå 2017. Har samma fundering kring Intels "Iris Pro", vad är marknaden?

Spela gamla spel med halvtaskig framerate, vinnande koncept..

Permalänk
Medlem
Skrivet av anon162230:

Något luktar skunk, detta kan inte stämma att det BARA skulle vara XBONE/PS4 konsoll prestanda på de nya ZEN APU:erna på 14nm med en vidare utvecklad CGN arkitektur samt HBM minne.

Hur kan flera års utveckling med HBM minne och krympning till 14nm resultera i samma grafiska prestanda som en 28nm APU i XBONE/PS4 som nu är flera år gammal.

Med lite huvudräkning borde dessa nya APU:er ha minst 3 gånger XBONE/PS4 prestanda.

För att tex PS4 SoC:en består av väldigt stor GPU-del i förhållande till cpu-del (sitter faktiskt ett fullskaligt 7870 där). När det kommer till CPU-delen så lär denna säkert ha tre gånger XBONE/PS4 prestanda dock lär dom inte trycka in en 100w gpu-del i samma chip utöver det så antar att det är just grafikprestanda de pratar om. Även om detta är precis vad de imo borde göra, alltså sälja en "konsol"-SoC för OEM:s och entusiaster för att bygga egna speldatorer i konsol-formfaktorn. 200W APU; ja tack.

Permalänk
Datavetare
Skrivet av Zotamedu:

De tänker nog inte bara på strömbudget utan även rent ekonomiskt för systembyggare. Kan de få ungefär samma prestanda med en iGPU som en dGPU så finns det mycket jobb att spara på att slippa designa en laptop eller dator för en dGPU. I laptopen slipper du dra massa extra linor för ström och en massa linor PCIe som är kan vara grinig med störningar. Dessutom blir kylaren lättare att designa om du bara har en krets som behöver aktiv kylning istället för två. För större datorer slipper de köpa in och montera ett extra kort i datorerna vilket i förlängningen även öppnar för mer kompakta designer.

Vet att Intel pratade om tät integration med GPU när de började satsa på det men har inte hört så mycket sen dess. Sen var det framförallt tal om allmänprestanda och inte något som skulle ersätta Xeon Phi i specialtillämpningar. Men det var mest AMD som pratade om det. Tanken där verkar ha varit att använda iGPU som SIMD på steroider men det bygger ju på ett antagande om att det faktiskt finns en del saker som går att köra på en GPU i ett vanligt system. Det var ju snack om att allt skulle accelereras med GPU för ett par år sedan och det är väl fortfarande lite prat om det på mobilsidan. Fast verkar som det mesta slutat på samma sätt som Flash och deras hårdvarustöd. Låter fint i teorin, fungerar skit i praktiken. HTML5 och WebGL verkar till exempel inte blivit den revolution som vissa hoppats på.

Vad AMD tänker på verkar lite oklart. De lär väl förklara sig lite närmare när det väl blir dags att släppa prylarna. Lite lurigt att läsa in för mycket i rykten men de har ju i alla fall satsat en hel del på GPU och HPC nu. De presenterade ju nyligen en massa mjukvara för att underlätta för generella beräkningar på GPU. Tidigare hade de ju satsat på att folk skulle köra OpenCL vilket inte riktigt blev av. Istället är det CUDA som gäller om folk inte kör Xeon Phi. Den mest intressanta delen är ju att AMD har utvecklat en egen kompilator/översättare för CUDA. Tanken är att det ska räcka med att kompilera om befintlig CUDA-kod och sedan köra det direkt på AMDs hårdvara. Ska bli intressant att se hur det fungerar och hur sura Nvidias jurister är på manövern.

Intel har fortsatt jobbat med väldigt tight integration, ända sedan Sandy Bridge kan iGPU t.ex. använda CPU L3-cache för att boosta bandbreddskrävande operationer, i Broadwell utökades detta stöd. I Haswell och än mer i Skylake kan CPU och iGPU dela på tillgänglig TDP.

Problemet med Iris Pro är att det inte längre är speciellt strömsnål. Ska bli väldigt intressant att se 15 W modellerna som har eDRAM, min gissning är att prestanda inte alls kommer få samma boost som dagens ~50W TDP modeller. Vid 15 W TDP är helt enkelt flaskhalsen just TDP, inte bandbredd.

Det är enklare att kyla två kretsar på 50W jämfört med att kyla en krets på 100W. Problemet lite för iGPU är att Nvidia numera får in 960M på 50-75 W (konfigurerbar TDP) och iGPUer har ännu inte nått 750M som Intel flera gånger nämnt när de gjort jämförelser med Iris Pro. En 960M är ungefär dubbelt så snabb som 750M...

Att använda iGPU för beräkning har definitivt en poäng, med "rätt" problem ger sådant långt bättre perf/W än att göra det via SIMD. Problemet är att mängden "rätt" problem är väldigt få i de program vi normalt kör på skrivbordet. Är relativt få program som har någon större nytta av SIMD också, men det är ändå fler än antalet program som ens teoretiskt kan dra stor nytta av GPU för beräkning.

Men visst finns det fall där iGPU kan användas som "SIMD on steriods", frågan är om det är en marknad stor nog att driva hela "väldigt stark iGPU" marknaden för det är ungefär den enda marknad jag kan se.

Det finns också projekt som tittar på hur man automatisk (väldigt viktigt om det ska slå på bred front) kan använda GPUer för att accelerera vissa funktioner i Java-program. Ett sådant projekt är Aparapi. Om HSA någonsin ska bli något måste det bli så enkelt att använda som i visionen för Aparapi. Här är ändå frågan vad värdet med en stark iGPU blir, dessa tekniker fungerar ju med alla GPUer (iGPUer som dGPUer) och de fungerar också med SIMD.

Största problemet med AMDs APUer och Intels "Iris Pro" är nog ändå på grafiksidan. Alla "vanliga" program klarar sig hur bra som helst i 4k upplösning med alla moderna iGPUer, starka iGPUer tillför inget här utan snarare är de en nackdel då de drar mer ström för något man inte har någon nytt av. När man väl gör mer krävande saker räcker APU/Iris Pro ändå inte till. Säger detta som ägare till 5775C, testade en del spel i mitt Steam-bibliotek och de lite mer krävande spelen var ju i praktiken ospelbara i "1600x900 low" medan 970 fixar samma titel hur bra som helst i "1920x1080 ultra". Visst finns det spel som fungerar, men de fungerar även med t.ex. HD4400.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Quizmaster Malmö 22

Fjärde kvartalet e ju så jääkla sent! För fan ETT ÅR dit!

Jag tror AMD e körda....liksom hur mycket finns kvar av AMD när Zen väl lanseras? Kommer inte allt de tjänar gå ti o betala lån?

Konsollgrejen kanske e bra men känns ointressant.

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Avstängd
Skrivet av Yoshman:

Artikeln säger

"Användningen av dessa ska sträcka sig hela vägen från HPC-kluster till stationära och bärbara datorer, där grafikprestanda i nivå med Xbox One och Playstation 4 ska vara möjlig."

Om vi antar prestanda i PS4 nivå så handlar det om grafikprestanda motsvarande GTX950 och beräkningsprestanda för flyttal med dubbel precision (vilket normalt sett är det mest relevanta för HPC, för grafik är enkel precision det mest relevanta) är i nivå med en fyrkärnig CPU @ 3,0 GHz som har stöd för AVX2 (Haswell och senare), det är alltså innan man lägger på kapaciteten från iGPU.

AMD kanske borde fundera lite om APUer verkligen har någon marknad, för vad är marknaden för en relativt stark iGPU? "Vanliga" program klarar sig med vilken iGPU som helst idag, spel och andra applikationer som behöver mer krävande 3D-grafik klarar sig knappast med PS4 nivå 2017. Har samma fundering kring Intels "Iris Pro", vad är marknaden?

Marknaden baseras på priset. Vilket ligger helt och bromsar spridningen av Iris Pro. Den är helt enkelt för dyr för att ha någon egentlig marknad. För det priset som man måste betala för en Iris Pro kan man få en betydligt kraftigare laptop.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk

Kan lätt vänta ett år eller i värsta fall två för ny bärbar. Supporten från Apple på min 7 (eller om det är 8) år gamla MacBook Pro går ut nu den 8/12 detta året så att byta till "vanlig" PC 2016-2017 är perfekt tajming.

Visa signatur
Permalänk
Medlem
Skrivet av Yoshman:

Artikeln säger

"Användningen av dessa ska sträcka sig hela vägen från HPC-kluster till stationära och bärbara datorer, där grafikprestanda i nivå med Xbox One och Playstation 4 ska vara möjlig."

Om vi antar prestanda i PS4 nivå så handlar det om grafikprestanda motsvarande GTX950 och beräkningsprestanda för flyttal med dubbel precision (vilket normalt sett är det mest relevanta för HPC, för grafik är enkel precision det mest relevanta) är i nivå med en fyrkärnig CPU @ 3,0 GHz som har stöd för AVX2 (Haswell och senare), det är alltså innan man lägger på kapaciteten från iGPU.

AMD kanske borde fundera lite om APUer verkligen har någon marknad, för vad är marknaden för en relativt stark iGPU? "Vanliga" program klarar sig med vilken iGPU som helst idag, spel och andra applikationer som behöver mer krävande 3D-grafik klarar sig knappast med PS4 nivå 2017. Har samma fundering kring Intels "Iris Pro", vad är marknaden?

Men hur räknar du egentligen? Du kan inte bara jämföra faktisk grafikprestanda med en annan arkitektur som inte bara är helt annorlunda, utan även presterar ovanligt bra i spel i praktiken och är ovanligt bantad på FP64 och sedan säga att det är en bra jämförelse när AMD har det omvända förhållandet i spelprestanda mot FP64.

Jämför istället med AMDs egna GPU:er. Deras Kaveri har redan idag en hel del högre dubbelprecisionsprestanda än GTX950. Hur kan du ens föreställa dig att en iGPU med mer än dubbla prestandan ska vara så mycket sämre på dubbelprecision? Allra helst när den till skillnad från dagens även är ämnad för HPC? Jag kan tänka mig liknande förhållande mellan FP32 och FP64 som man har på Tahiti eller Hawaii, då snackar vi i runda slängar 20 gånger dubbellprecisionsprestandan hos GTX 950. Även om AMD verkligen inte ändrar förhållandet någonstans jämfört med Kaveri som inte är ämnad för HPC så snackar vi långt högre dubbellprecisionsprestanda på framtida APU:er än på GTX 950.

Permalänk
Datavetare
Skrivet av Aleshi:

Men hur räknar du egentligen? Du kan inte bara jämföra faktisk grafikprestanda med en annan arkitektur som inte bara är helt annorlunda, utan även presterar ovanligt bra i spel i praktiken och är ovanligt bantad på FP64 och sedan säga att det är en bra jämförelse när AMD har det omvända förhållandet i spelprestanda mot FP64.

Jämför istället med AMDs egna GPU:er. Deras Kaveri har redan idag en hel del högre dubbelprecisionsprestanda än GTX950. Hur kan du ens föreställa dig att en iGPU med mer än dubbla prestandan ska vara så mycket sämre på dubbelprecision? Allra helst när den till skillnad från dagens även är ämnad för HPC? Jag kan tänka mig liknande förhållande mellan FP32 och FP64 som man har på Tahiti eller Hawaii, då snackar vi i runda slängar 20 gånger dubbellprecisionsprestandan hos GTX 950. Även om AMD verkligen inte ändrar förhållandet någonstans jämfört med Kaveri som inte är ämnad för HPC så snackar vi långt högre dubbellprecisionsprestanda på framtida APU:er än på GTX 950.

Du är redan inne på det, man måste idag särskilja på "compute" och "graphics".

Alternativet för "compute" är SIMD (eller externa beräkningskort, men om dessa är aktuella lär iGPU vara irrelevant från start), vilket på x86 är SSE/AVX, för en HPC är grafikprestanda irrelevant.

Alternativet för "graphics" är en dGPU, där spelar i praktiken enbart enkelprecision någon roll. Idag så är "compute" kapaciteten i detta fall nästan alltid irrelevant, om den inte är det så varför inte använda SIMD?

För grafik är en GTX950 snabbare än PS4, det när man jämför faktiskt resultat där man approximerar en PS4 med 370 och lägger på lite (370x finns tyvärr här men det hade varit en väldigt bra match), har inte ens tittat på hur de teoretiska siffrorna ser ut här. För beräkningar med dubbel precision så är fyrkärniga Haswell-baserade i5/i7 CPUer snabbare än PS4 (det baserat på teoretisk kapacitet och det faktum att SSE/AVX ofta når väldigt nära sina teoretiska max). Så ser inte riktigt var tankevurpan ligger.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Du är redan inne på det, man måste idag särskilja på "compute" och "graphics".

Alternativet för "compute" är SIMD (eller externa beräkningskort, men om dessa är aktuella lär iGPU vara irrelevant från start), vilket på x86 är SSE/AVX, för en HPC är grafikprestanda irrelevant.

Alternativet för "graphics" är en dGPU, där spelar i praktiken enbart enkelprecision någon roll. Idag så är "compute" kapaciteten i detta fall nästan alltid irrelevant, om den inte är det så varför inte använda SIMD?

För grafik är en GTX950 snabbare än PS4, det när man jämför faktiskt resultat där man approximerar en PS4 med 370 och lägger på lite (370x finns tyvärr här men det hade varit en väldigt bra match), har inte ens tittat på hur de teoretiska siffrorna ser ut här. För beräkningar med dubbel precision så är fyrkärniga Haswell-baserade i5/i7 CPUer snabbare än PS4 (det baserat på teoretisk kapacitet och det faktum att SSE/AVX ofta når väldigt nära sina teoretiska max). Så ser inte riktigt var tankevurpan ligger.

Tankevurpan är att du använder ett kort som suger på dubbelprecision för att räkna ut vilken dubbellprecisionsprestanda en GPU motsvarande PS4 skulle ha. Vad händer när du använder GF110 för att räkna ut dubbelprecisionsprestandan? Då får du 10 gånger så hög dubbelprecisionsprestanda som om du använder ett GTX 950, båda motsvarar ungefär ett PS4 i spel. Det är alltså helt uppåt väggarna att ta ett kort som motsvarar ett PS4 i spel för att räkna ut vad ett helt annat kort med samma spelprestanda skulle ha i compute.

Om AMD ska använda en iGPU till compute tror du inte att den har högre prestanda än dagens iGPU då? Redan dagens iGPU är markant snabbare än GTX 950, om de mer än fördubblar prestandan inför nästa generation så som de ämnar så kommer man springa åttor kring GTX 950. Hur fasen kan du då få för dig att nästa iGPU ska vara som GTX 950? Eftersom de dessutom ämnat den för compute så är det inte orimligt att de fördubblat eller fyrdubblat DP prestandan gentemot SP.

Permalänk
Datavetare
Skrivet av Aleshi:

Tankevurpan är att du använder ett kort som suger på dubbelprecision för att räkna ut vilken dubbellprecisionsprestanda en GPU motsvarande PS4 skulle ha. Vad händer när du använder GF110 för att räkna ut dubbelprecisionsprestandan? Då får du 10 gånger så hög dubbelprecisionsprestanda som om du använder ett GTX 950, båda motsvarar ungefär ett PS4 i spel. Det är alltså helt uppåt väggarna att ta ett kort som motsvarar ett PS4 i spel för att räkna ut vad ett helt annat kort med samma spelprestanda skulle ha i compute.

Om AMD ska använda en iGPU till compute tror du inte att den har högre prestanda än dagens iGPU då? Redan dagens iGPU är markant snabbare än GTX 950, om de mer än fördubblar prestandan inför nästa generation så som de ämnar så kommer man springa åttor kring GTX 950. Hur fasen kan du då få för dig att nästa iGPU ska vara som GTX 950? Eftersom de dessutom ämnat den för compute så är det inte orimligt att de fördubblat eller fyrdubblat DP prestandan gentemot SP.

Tycket jag var ganska tydlig med att man måste separera det i två fall: grafik och beräkning. Antalet fall där man i samma system behöver båda är en sådan extrem nisch att den ur alla ekonomiska perspektiv är totalt irrelevant.

Jag använde absolut inte GTX950 för att räkna ut DP-kapacitet i PS4, jag använde 370 för detta då det är den PC GPU som ligger närmast GPUn i PS4, är ju samma GPU-arkitektur och version. PS4 har något fler stream-processorer (1152 st) jämfört med 370 (1024 st) men PS4 är lägre klockad (800 MHz) jämfört med 370 (975 MHz) så i slutändan är faktiskt 370 marginellt snabbare (8-9% snabbare). Min poäng är att DP-kapacitet för 370 är 131 GFLOPS, vilket är lägre än vilken modern desktop i5/i7 CPU som helst så för uppgifter som kräver DP är AVX2 utrustade CPUer ett bättre val än blanda in GPGPU. Faktum är att desktop i3 CPUer har idag (sedan Haswell) DP-kapacitet på >100 GFLOPS.

För grafik spelar endast enkelprecision roll, så jämför man PS4 GPU med GTX950 så är den senare snabbare på detta område. Bättre än så är tyvärr inte denna generations konsoler. Vad spelar det för roll om PS4 råkar ha bättre DP-kapacitet, finns i praktiken ingenting man gör med den enheten där DP-kapacitet är relevant. Spel är uteslutande SP så när du jämför "compute" för detta område är det SP-kapacitet som ska jämföras. Sedan är det verkligen relevant att ifrågasätta hur mycket spel använder GPUer för "compute", är i praktiken väldigt sparsamt.

Vad det gäller beräkning där DP är ett krav så är "problemet" för AMD är att när man kört fast på alla andra fronter så har man börjat öka flyttalsprestandan något kopiöst i CPU-delen, numera är GPUer långt ifrån ett självklart val om man ska använda dubbel precision. Den konsument GPU-med absolut högst DP prestanda är idag 390x, den har ändå lägre absolut DP-kapacitet än dagens snabbaste Xeon processorer och det innan man ens vägt in att dels når CPUer typiskt närmare sitt teoretiska max, dels gör en CPU det med mindre än halva effekten av ett 390x. För HPC är det främst flops/W som är kritiskt och dagens GPUer ligger faktiskt efter CPUer (och rena beräkningskort) med ganska bred marginal där.

Jämförelse mellan 370 och 950, den förra matchar ju inte ens 950 i referensklock (och något sådant kort lär knappast gå att köpa, i praktiken är alla fabriksöverklockade)

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer