Skrivet av Aleshi:
Basinställningarna har absolut inget att göra med hur bra en arkitektur är. Det är ju precis därför jag tog upp att man skulle undervolta och underklocka Vega till Titan XPs nivå för att jämföra prestanda per watt och transistor. Det är ju när man jämför Vega med "basinställningar" som innebär högre frekvenser och spänningar än den trivs i som det blir missvisande. Den är pressad långt utanför sin comfort zone.
Jag håller med.
Skrivet av Aleshi:
Vega har precis samma förhållande på shaders/TMUs/ROPs som Fiji och som de hade på gamla Tahiti, till och med starkare när det kommer till ROPs än Polaris. AMD anklagas ofta för att vara svaga på ROPs jämfört med nVidia. Men det är helt olika arkitekturer och AMD har låtit det ha det förhållandet i många år utan att göra något, det är antagligen av en anledning då det hade varit enkelt att öka antalet ROPs. AMD har mycket svårare att hålla sina shaders matade, inte bara för att de är bundna av en hårdvaruscheduler, utan även för att de är i kluster om 64 medan nVidia har sina i kluster om 32. Det är väldigt mycket ovanligare att en CU kan maxa 64 CUs än 32 CUs. Så därför kan det se ut som att AMD har mycket högre shaderprestanda generellt jämfört mot nVidia. Men i praktiken kommer den inte fram lika lätt. Därför kan den mycket väl klara sig bättre med färre ROPs i förhållande till antalet shaders. Om de kunde maximera användandet av sina shaders så skulle de nog bli markant snabbare, och också behöva fler ROPs.
Men hursomhelst, de har samma förhållande på andra kort, så det är verkligen inte ett argument för att Vega skulle vara speciellt beräkningstungt. Mycket av de tekniker de pratade om skulle komma med Vega och öka prestanda och effektivitet var ju just spelinriktade.
Det stämmer. AMD har länge hållt på med arkitekturer som har presterat en del bättre för compute än för grafik pipelinen. Gör det de andra arkitekturerna till beräkningsarkitekturer? Möjligtvis, möjligtvis inte. Det finns såvitt jag vet ingen formel definition av beräkningskort, annat än att de brukar ha mer minne, specialiserade drivers, lägre TDP etc. Hela resonemanget bygger förstås på "vad har den mest resurser för?" och ja, det ser ut som den har mest resurser för compute.
Det är inte en slump att jag drog fram wolfenstein 2 som det enda spel där vega gör något utöver det normala, och det beror inte enbart på FP16. Utan på en otroligt hög andel compute. Angående rops så jämförde jag prestandaskillnaden mellan 1080 och Vega64 (på computerbase siffror) så ökade avståndet mellan dessa marginellt i ~90% av fallen till Vegas fördel då de gick upp i upplösning (postprocessing etc tar upp en större del av tiden), men 1080ti förbättrades alltid mer gentemot de andra korten (logiskt, med tanke på att de har fler ROPs). Om AMD haft tanken mer på att ha det som en gaming kort för 4k känns det rimligt att de borde fokusera på den aspekten? De verkar dock ha lärt sig en läxa med Vega24 på intels nya laptops där de har lika många som för stora vega (med färre än hälften av NCUs).
Sedan så är det ju features som är spelinriktade som de inte har fått att fungera ännu (men som arbetas på, iallafall för linux drivern).
Allvarligt talat så spelar det mig inte så stor om det kallas för beräkningskort, beräkningsfokuserad arkitektur eller vadsomhelst.
Skrivet av Aleshi:
Du kan inte säga att jag har fel när det baseras på ett antagande om balanseringen av Vega, eftersom balanseringen ser likadan ut på andra kort från AMD. Och om vi inte fått se prestandaförbättringarna från dessa tekniker för att de inte fungerar, inte ger någon prestanda eller av annan anledning behövts stängas av, så är väl ändå arkitekturen trasig?
Av allt att döma så tillverkas det inte många Vega. De verkar ha väldigt svårt med tillgång och få ett bra flöde i produktionen. Har du siffror på hur mycket som sålts till dessa?
Du frågade efter varför det finns folk som klassificeras Vega som ett beräkningskort och sedan så sa jag att beroende lite på hur man ser det så är det både och? Det var iallafall det jag menade, ber om ursäkt om jag var för otydlig.
En trasig arkitektur är en arkitektur som inte fungerar. Jag vet inte om Vega är trasig, men mycket tyder på att de mjukvaruproblem som de försöker arbeta runt inte är triviala. T.ex försöker de göra en allmän lösning så att all vanlig input paketeras om till primitive shaders. Throughput på geometri landar någonstans på 2-4x ökning om de lyckas. DSBR ger ~5-10% mer prestanda per watt enligt deras whitepaper. Titan V har t.ex stöd för 2x FP16 , men inte utanför CUDA. Men jag skulle inte anse att den är trasig för det. DSBR funkar ju för vissa program. Men svårt att veta om primitive shaders någon gång kommer fixas...
Ja, jag kan nog acceptera att man kallar vega för trasig för tillfället. NGG fast path går att ta, men det pajar på vägen vid vissa inputs.
Jag har inga siffror på hur många vega som tillverkats, eller till vilka de sålts till i hur stora antal. Det finns dock en hel del Vega baserade produkter och vad jag hört endast en fab som tillverkar alla. Det är ju förstås observationsbaserat och ingen absolut sanning, men går logiskt ihop med att de få som hittar ut på marknaden käkas upp inom loppet av ~1h.
Skrivet av Aleshi:
Pris/Prestanda är irrelevant när man ser till hur bra en arkitektur är, en dålig arkitektur får kompenseras med lågt pris. Att jag ville se en jämförelse med P6000 var för att få se att Vega verkligen var så mycket "jack of all trades" att man kunde ha det som svepskäl för att bortförklara den usla spelprestandan för arkitekturen. Om det inte är markant bättre än P6000 så kan man inte skylla den dåliga spelprestandan på att de fått göra avkall för att göra det till ett bättre beräkningskort. nVidia har ju uppenbarligen lyckats göra ett kort som är snabbt på beräkningar utan att crippla spelprestandan i så fall. Eller hur?
Men det där ser du på alla kort på alla tillverkningsprocesser när de är pressade långt utanför sin comfort zone. Om intel skulle sålt 7700K på 15% högre frekvenser, alltså 4,8-5,2GHz. Hur hade det sett ut med spänning och effektförbrukning. Det visar ju bara att arkitekturen presterar så dåligt i mer normala frekvenser att de måste pressa dem hårt. Vilket förövrigt ger problem med tillgänglighet. Att Vega och Polaris klockar så dåligt vittnar om hur hårt pressade de är.
Tänkte mest på att de dyra korten tenderar att hålla högre kvalité på kislet (då det är viktigt för kunderna att så låg effektförbrukning som möjligt hålls). Då skulle den rimligaste jämförelsen vara med Radeon instinct då det kommer till energieffektivitet.
I spel där compute var mer framträdande gjorde vega bättre ifrån sig. Jag skulle säga att Pascal är mer jack of all trades , då den både gör bra från sig i spel och i compute. Får de primitive shaders och DSBR att funka på Vega så är det mer jack of all trades (då de kompenserat den överrepresentation av compute prestanda som funnits innan). Det är förstås min åsikt, och alla får ha sin egen åsikt.
Skrivet av Aleshi:
Nej, den faller på att den är så långsam att AMDs jättekrets på 486mm² med sina 73% fler transistorer inte kan mäta sig med nVidias på 314mm² om man inte först övervoltar och överklockar upp den så att den blir varm och effekthungrig. Hade du kört AMDs krets lika avslappnat så hade du sett vilken enorm skillnad det är i prestanda arkitekturerna emellan. Nvidia ligger inte så långt ifrån dubbla prestandan per transistor ifall AMD inte klockar upp sina kretsar så hårt som de gör.
AMD håller inte med tydligen och säger att då det kommer till FP16 throughput så har de en bättre energieffektivitet på sina "beräkningskort", men ja det hamnar säkert mycket värre om man kör FP32 (men vad jag sett från spel så verkar det vara ~60% bättre performance/watt?). Du sa ju själv tidigare att det är svårt att mata shaders (också visat i gamersnexus), vilket kommer vara där en del av perf/watt förlusten kommer att ske.
Fick du fram några jämförelser på Tsmcs 16nm och GFs 14nm energieffektivitet vid högre klockhastigheter?