Inlägg

Inlägg som erixon har skrivit i forumet
Av erixon

Angående Vega 10 rykten, så tror jag inte att den körs i halva hastigheten utan att bussen är bara 2048bitar istället för 4096.

Och det stämmer bra med Samsung? bara skulle till en början tillverka 8GB HBM2 minnen (om jag minns rätt).
Och då Vega verkar få 16GB minne så verkar det vara bara 2st HBM2 minnen.
Det finns även andra saker som tyder på det nämligen att den bara har 4096 streamprocessorer.
Att ha 1TB/s till så "få" streamprocessorer som troligt vis är rätt snarlik rx480 streamprocessorer skulle vara att slösa bandbredd till ingen nytta, plus att det skulle göra vega 10 dyrare att tillverka.

Av erixon
Skrivet av Schluug:

Som elektronikkonstruktör själv kan jag förstå varför. 300W/12V=25A. Jag vill då inte routa 25A på ett 4-lagers PCB av den typ som de flesta moderkort är gjorda på

Inte för att vara elak men brukar inte ett modernt moderkort typ ha 8-10 lager, för jag skulle inte villa routa ett moderkort med 4 lager och en sockel med ca 1100st pinnar (givet vis är många typ "power" och "gnd") och sedan har vi strömmen till CPU (typ 95W/1.3v ~ 73A eller mer) och inte att förglömma dom små BGA med nästan 1000 pinnar på som syd-bryggan exempel. Hugga för att routa dem med 4 lagers pcb.

Av erixon

Jag är lite brydd över att den endast har 3584st CUDA-kärnor och 224 texturenhet,
Jag hade nog för vänta mig att 3840st CUDA-känor och 240st texturenhet. (baserad på GP104 och GP106)

Om jag får spekulera så är Titan X inte fulla GP102 utan man har stängt av några SMX för att få en okej yielden.
Det skulle även förklara varför de endast säljer direkt till kund, efter de har ett få tal och tillverkningen går långsamt kan skicka dem direkt utan att de blir liggande hos någon återförsäljare. Således upplever kunden att tillgången är högre än vad den är.
Plus att de frakttiden blir mindre då de slipper att bli skickade till återförsäljarna först och sedan till ”butik” och sist kund.
Samt att man eliminerar att ”återförsäljare” läcker ut att det är brist på korten och får det hela ser ut som en pappers lansering.

Givet vis en spekulering från min sida.

En annan spekulation från min sida är att 1080ti kommer få GDDR5 och 12GB delvis kommer den få 384GB/s vilket kan tyckas lite men 1070 verkar inte lida av den har GDDR5.
Att den skulle få mindre bus (exempel 320bitar) ser jag som osannolikt då de troligt vis också måste ha mindre rasterenheter, vilket jag tror skulle skada prestanda mer än att gå från GDDR5x till GDDR5. (Jag utesluter inte att den kan få GDDR5x men chansen finns)

Jag tror också att 1080ti kommer att dröja ett tag tills yielden blir bra nog eller att de behöver lite PR.

Vad tror ni är jag ute och cyklar eller finns det en gnutta chans att jag har rätt?

Av erixon
Skrivet av Aleshi:

Färre beräkningsenheter med. Om ryktet stämmer med 2640 shaders så är det långsammare per shader, men beror ju helt på hur det ser ut med TMUs och ROPs med. Men om de är ganska lika konfigurationsmässigt där så är Pascal definitivt svagare per enhet och Hz. Men det lär ju vara en kalkylerad kompromiss för att nå slutprestandan ändå i så fall.
Möjligheten finns ju också att det är 2048 shaders.

En spekulation som jag har är att vi inte får fulla kretsen, dels för utbytte är för låg i början på GP104 och kanske GDDR5X bara finns i 10Gb/s utförande.

Så det är möjligt att vi får en 1080ti av GP104 med GDDR5X på 12Gb/s när utbytte är bättre och tillgången på GDDR5X med högre hastighet finns.

Typ:
1080TI
2560 shaders
384 GB/s

Men det är bara spekulationer och jag tror inte riktigt själv på det.

Av erixon
Skrivet av Gruarn:

Var det intd precis det jag sade? Detta är ett kort med lika många transistorer som 980ti som är lite billigare att tillverka (i alla fall på sikt, när noden mognat ngt och priset/wafer gått ner lite till). I det perspektivet vore det konstigt om de inte hade kommit på ngt sätt att optimera sin transistorbudget jämfört med en uark med ett eller två år på nacken.

Det jag reagera på är att:

Skrivet av Gruarn:

Denna krets bör jämföras rakt av mot 980ti då de är så lika sett till antalet transistorer.

Och man brukar jämföra ersättaren (1080) mot föregångaren (980).

Av erixon
Skrivet av Gruarn:

Nej, Detta kort med ca 8 miljarder transistorer ersätter föregående kort med ca 8 miljarder transistorer, men är lite billigare att tillverka. Kretsen ersätter också föregående krets med 8 miljarder transistorer som den enskilda krets med högst prestanda som är lämplig att använda i konsument PC för spelbruk. Denna krets bör jämföras rakt av mot 980ti då de är så lika sett till antalet transistorer.

Däremot är den lik GM204 i att den är ungefär hälften så stor som det är fysiskt möjligt att tillverka idag och i det formformatet så är den en hel del snabbare. Men vi får inte glömma att den uppnår den förbättringen med ungefär 60% fler transistorer...

Det verkar riktigt långsökt, jag menar hur tror du att man får upp prestandan? genom magi?
Givet viss brukar ny nod kunna ge lite högfrekvens, men stora fördelen är att man ofta kan trycka in flera transistorer vilket leder till bättre prestanda.

Det man brukar jämföra är pris klasserna och rimligt är att 1080 kommer troligtvis vara i samma pris klass som 980. Visst dyrare till en början men det är i princip alla kort.

För slut ändan är pris per prestanda som man brukar gå efter (alla fall jag + minimum prestanda gräns).

Av erixon

Oj, den var högre klockad än vad jag trodde.

Och klara den sig med bus på 320GB/s så måste nästan deras komprimerings teknik förfinas.

Så om man får gissa kommer spc. var ungefär:
2048st CUDA-Kärnor (delvis 32st SM-kluster)*
64st Rasterenheter
128st Texturenheter
En turbo klocka på 1860Mhz?
8GB GDDR5X @ 5006Mhz (320GB/s)

Vilket inte är fy skam, den verkar snabbare än jag trodde.

*Min gissning är gjord på 3Dmark poängen.
Delvis
980ti 2816st @ 1075Mhz ~ 7900
förmodan 1080 @ 1860Mhz ~10100

2816 / 7900 * 1075 * 10100 / 1860 ~ 2080

Vad av vi vet sedan tidigare har GP100 SM-kluster om 64 CUDA kärnor
så är det närmast antalet 2048 (64*32)

Jag skulle inte va förvånad om den drar i storleks ordningen som 980 vilket är ett stort steg framåt.

Av erixon
Skrivet av LNDL:

@Paddanx:
@erixon:

Vad jag föreställer mig varje gång några diskuterar något på nätet om saker de egentligen inte kan veta något om - hur välartikulerade argumenten än är

https://youtu.be/DU4xW79ASsg?t=25s

Vilken fin klipp

Nä men allvarligt, tycker inte du att roligt att försöka gissa prestanda på komma grafikkort med hjälp av kanske läckta uppgifter? (och uppgifterna kan dessutom vara falska, så man måste även där föröka se om de är rimliga )
Eller för den delen föröka förstå hur nVidia har "resonerat" när det valt en viss lösning?
Är då en diskussion med någon eller några så fel? Man får nya infallsvinklar, kanske ny fakta och man kanske ändrar uppfattning om saker och ting eller någon ändrar sin uppfattning. Vilket i min ögon inte är så fel (fast det är min åsikt).

Visst i här fallet kommer vi snart få reda på hur nya grafikkortet ser ut, om uppgifterna stämmer.
Så varför inte vänta med diskussionen? jag menar hur roligt är det?

Sedan har vi till exempel varför har nVidia valt den lösningen som de har valt, vilka resonemang ligger bakom deras beslut?
Givet viss kommer inte nVidia ge oss den inblicken då det räknas som företagshemligheter.
Dock är jag ändå nyfiken på varför det valt den väg de valt, Och då är en diskussion och resonemang den enda väg att komma fram åt.

Av erixon
Skrivet av Paddanx:

Det har varit både GP104 och GP100 info, även om de så klart väljer vad de vill framhäva.

Givet vis vill de ha så mycket bra PR som möjligt.

Skrivet av Paddanx:

Brist på chip lär ju bara ske om det är tillverkningsproblem, men visst, förstår din tanke.
Samtidigt dock... om du ökar volymen av chippen så får du också bättre priser...

Visst kan det vara så.

Skrivet av Paddanx:

Lätt inom 6 mån. Varför? HBM2...
GDDR5X skulle vara budget minnet till detta. Om det blir dyrt så kommer HBM lösningen att äta upp allt istället. Så du kan inte sälja GDDR5X dyrare än HBM2 med tanke på prestandaskillnaden. Tom 2 kanals HBM2 kan konkurrera långt...

Att GDDR5X är tänkt som billigare alternativ till HBMx är väl ganska klart, men få upp volymerna och antal hela chip kan ta sin lila tid. så 1år är inte ovanligt.

Skrivet av Paddanx:

Och ang rebrands... Nvidia ägare hatar det. Så det är ett säkert sätt att tappa kunder för dem.

Vem gör inte det? Men vad för alternativ har man? AMD är inte bättre? och Intel har inte så mycket att komma med så...
Vem skulle de tappa kunder till?

Och nytt flashigt namn så får de sälja lite till av samma krets till vanliga Svensson. Vilket är en stor del av marknaden.

Skrivet av Paddanx:

Det är dock ett helt nytt chip, optimerat för sin nivå. Detta är ju varför det kostat typ 2000kr nästan hela sin livslängd, vilket är lööööjligt mycket för den lilla prestandan. 1060 kommer ju vara ett kapat chip från övre segmentet, vilket gör det enklare att kapa priset.

Jag tror faktisk att 1060 kommer använda GP106, anledningen till att det skapar 1060ti av GP104 är för att kunna möta Polaris 10/11. Annars riskerar AMD få ett helt segment som dessutom är stora volymer på, då GP106 verkar dröja.

Angående 960 om du kollar på sådant så ser du att det finns 6st minnes platser men bara 4st som används, här går det spekulera i varför de har gjort så.
En anledning kan vara de trodde att 7Gb/s minnen skulle vara för dyrt och därför kunde välja långsammare minnen och bredare buss.
En annan anledning som jag spekulera i att GM206 har mer än 1024cuda kärnorna typ 1280 och att fulla kretsen skulle kunnat släpps som 960ti med 3GB minne, men man släppte den inte efter som den skulle äta av 970 försäljning.
Delvis så var det mer lönsamt för nVidia att inte släppa "960ti".

Skrivet av Paddanx:

Tekniskt sett går det ju, då cache inte behöver lika mycket bandbredd, något 970 tex gör idag. Men visst, komplicerade lösningar blir ofta inte bra i långa loppet.

Det är en fördel att ha samma hastighet på hela minnet, bland annat man slipper flytta på data till ett snabbare minnen och man slipper skriva över någon annan data som man kan behöva i framtiden.
Genom att inte behöva flytta data så spar man även bandbredd samt GPU kan arbeta utan avbrott (även om det inte är mycket).
Samt att man minska risken för buggar.
Och med tanke på vad 2GB till kostar så är det nog helt klart värt det.

Skrivet av Paddanx:

Nej Nej. Då har du missförstått mig. Jag sa att jag ser ingen nytta med så mycket minne med så låg bandbredd förutom till cache.

Så cache på 2GB för låt oss säga $10 är inte värt det?

Skrivet av Paddanx:

Problemet är ju, vad sker om 1-2 år när alla kort har 8GB VRAM med HBM2 eller snabbare GDDR5X? Jo dessa kort kommer få enormt sämre prestanda, därför plötsligt blir det mindre cache och mer aktivt behov, men bandbredden räcker inte till och du får ojämn prestanda och fps drops eller stutter i värsta fall.

Fast beräknings kraften och bandbredden brukar gå hand i hand, delvis balanserad.
Så när bandbredden blir ett problem så är oftast också beräknings kraften för klen.

Av den enkla anledningen att grafikkortet är inte bättre än sin svagaste länk. Att överdimensionera är något för hållande till de andra komponenterna är bara dum och dyrt.

Skrivet av Paddanx:

Med DX12 kan inte detta optimeras lika enkelt, då det är upp till varje spel för varje kort att göra det... så du vill ha konsistent prestanda, oregelbunden där flaskhalsar ibland kan dyka upp för bästa upplevelse.

Som sagt, din scenario ovan är bra, utan tvekan, och visar varför mer VRAM är bra. Men om din bandbredd tar slut, så kommer problemen, fort. Så vad du gör är att låsa en stor del av kortets VRAM "prestnda" till att för alltid vara cache, typ som 970, som du själv spydde galla över nyss. Detta är samma dumma ide, men nu från dig.

Okej vart har jag spytt galla över 970? det enda jag har sagt att 970 i princip har en 224bitars bus då en minnes kontroller måste ta hand om en till minnes krets.

Och vart har jag sagt att det är en dum idé?

Skrivet av Paddanx:

Kortet behöver kunna "varva ut" helt, kunna använda alla sina resurser till max, för att bli ett bra kort. Sen att du som utvecklare inte måste använda alla resurserna till max varje gång är inget problem, för som du säger ovan.. det blir cache, buffert eller liknande. Mao. Designa inte ett kort med VRAM "cache", utan designa det för aktiv användning och sen om det blir minne "över" så kan det användas som cache. För spelen kommer förr eller senare att vilja ha mer VRAM... är oundvikligt med mer högupplösliga texturer och effekter som just dessa kort får med bättre GPU.

Ang VR så är det inget mer än spel på hög Hz... så 144Hz 1080p eller 90FPS VR, same shit... Så detta är inget nytt.

Se svaret ovan.

Skrivet av Paddanx:

Detta var nog nått av det dummaste svaret du gett hittills. Jag hoppas det är trollande i dumhet, annars blir jag rädd.

Bli rädd

Skrivet av Paddanx:

Varför inte 16GB men den logiken?

Visst varför inte? om 16GB om det vore gratis, men nu är det inte det. så 8GB är över 5.7GB, 4GB inte (jag vet väldigt ologisk )

Skrivet av Paddanx:

Problemet är ju att GDDR5X är för långsamt för bra bandbredd/storlek om du inte ska använda mycket överdimension, men det kommer förhoppningsvis bli bättre. Hade de kunnat trycka in 12Gbps minne i top nivån hade det gjort betydligt bättre värde direkt. Som det är idag är troligen 384-bit 6GB bättre val, så du kan använda hela VRAMet fullt ut även i framtiden. Men det är överdimensionerat pga Maxwells kommunikationsteknik.

Varför skulle 384-bitars bus va bättre i dagsläget? Det skulle göra kretsen större dra mer ström och bli dyrare...
Givet vis vill man ha bättre prestanda till lägre pris. Men någon stans måste man göra avvägningar.
Ta dessutom att det är en ny process nod vilket gör att man nog inte vill ta ut svängarna.

Skrivet av Paddanx:

Tar vi som aspekt en AMD sida i 1 minut. Gamla 290x som har 512-bit, 320GB/s 5Ghz, 4GB minne, så har vi faktor av 80 på den för jämförelse. 390 som har lite snabbare 6Ghz minne, 384GB/s och 8GB är inte direkt mycket snabbare trots sin större minnesmängd och minimala bandbreddsökning. Vi pratar en faktor på 48 att jämföra med. Den högre klockfrekvensen i kärnan hjälper och äter samtidigt upp detta, vilket gör större delen av minnet "värdelöst" (utom till så klart, cache). Så 4GB vs 8GB hjälper inte så mycket, om du inte kan använda det vettigt.

Visst skulle inte förvåna mig om det är marknadsföring från AMD då GDDR5 har blivit billigt.

Skrivet av Paddanx:

Nvidia har sedan länge gått rutten med dyrare snabbare minne, men mindre mängd och mindre bandbredd för det. AMD har istället gått bredare buss och långsammare, billigare minne. Båda sätt har sina fördelar och nackdelar.

Men jag säger detta... 4GB 290x kort kan fortfarande, 2 gen senare, ge Nvidias "motsvarighet" en kamp för pengarna. Så att överdimensionera tex minnesbandbredden gör bättre kort för framtida bruk när allt VRAM behövs.

Jag får en mer känsla av att AMD har haft ett kraftfullare kort men sämre optimeringar än nVidia, vilket är lite tråkigt.

Skrivet av Paddanx:

Båda dessa kort fungerar otroligt bra idag än, pga sin överdimension, där det som hållit tillbaka dem tidigare är sämre drivrutins optimering, vilket utan tvekan är Nvidias Ess i ärmen.
AMD hårdvara med NVidias optimeringar... shit, du hade haft ett monsterkort utan dess like.

Kan inte annat än hålla med

Av erixon
Skrivet av Paddanx:

Både Nvidia och AMD har slagit hårt på trumman att detta är mycket förbättringar denna gen. Nvidia på ren prestanda, AMD på effektivitet. Om du missat det undrar jag var du varit de senaste 6 mån.
http://wccftech.com/nvidia-pascal-gpu-gtc-2015/
http://wccftech.com/nvidia-flagship-gtx-1080-gtc-2016/
Så Nvidia... har skrutit

Fast det mesta de har pratat om är väl mest för HPC?

Skrivet av Paddanx:

Så.. du hittar på en prestandasiffra på GDDR5X av vad Nvidia valt, du hittar på en kostnad för det, och sen gör matte för att överbevisa mig... tror inte jag förstår din vits, tyvärr. (PS Dollar skrivs före siffran)

Nej det är gissning, vi vet att GDDR5X skall ha 10-12Gb/s och att det inte är helt otroligt efter som den är purfärsk att den startar med 10Gb/s.
Visst kan det vara annorlunda, men i dags läget kan vi bara spekulera.
Angående priset på GDDR5X är det rimligt att det är dyrare än GDDR5, Jämför DDR3 vs DDR4 när DDR4 kom.
Hur mycket dyrare kan man bara spekulera i. (Jag satte till dubbla priset)
Sedan har vi frågan hur god tillgång det är på GDDR5X? Om tillgången är dålig riskerar dra upp priset på 1070 och kanske brist på kort.

Skrivet av Paddanx:

en vad jag ser är ovan är:
ett värsting $80 minnes "kort", med 320-384GB/s bandbredd.
ett mid-high $60 minnes "kort", med 240-288GB/s bandbredd
ett budget $20 minnes "kort", med 224-256GB/s. Du antar som sagt 8Gbps, och dessa kostar de med. Så 7Ghz mer rimligt, dvs 224GB/s om du ska ha budget.

Tänk dock om det är bara 50% mer pris?
Då pratar vi 1080 $60, vs 1070 $45 vs 1060 $20. Betydligt mer rimligt...
Dessa är ju priserna som kommer nås ganska fort när de ska konkurrera med HBM2 eller hur?

Tänk om det brist på nya minnen? det har aldrig hänt förut
Och nVidia inkomst är ändå beroende av antal sålda kort, så jag har full förstås om de satsar på ett säkrare kort.

Skrivet av Paddanx:

Tycker jag ser en rätt bra stege, där GDDR5 kommer bli billigare när produktionen når slutet på året, och även med dina väl tilltagna 2x priser så går det rätt bra ihop. Du får en stege i minnesmängd också vilket är mer naturligt sett till prestandan på chippen. Och smalare buss som 192-bit gör det billigare då sparar lite på designen på kortet också, vilket hjälper att minska dens kostnad vs de andra. Om det nu är så att 1060 är kraftigt gimpat i kärnan så kan 192-bit GDDR5 fungera, men 6GB blir fel, och 3GB blir snålt... så.

Troligt vis kommer GDDR5X att bli billigare men när blir det försumbart 3mån, 6mån, 1år? om det närmar sig 1år, ja då skulle jag inte vara förvånad om nVidia släpper något nytt. Som exempelvis GP100 och rebrand hela 10X0 serien och kanske ändrar lite frekvenser.

Skrivet av Paddanx:

Men vi har en tvist... vi har mer RAM. Mer RAM = mer bandbredd för att kunna använda allt. I en perfekt värld där GPUn är oändligt snabb så är 2x mer minne = 2x mer bandbreddskrav, men jag tror att 50% är mer rimligt, då GPUn inte är oändligt snabb. Detta måste man också ta i lite aspekt. Inte bara måste du kompensera för ökad GPU prestanda (som vill ha mer bandbredd), du måste också kompensera för mer RAM mängd.

Så jag tror inte jag kan svälja dessa siffror, men vi får väl se.

Fast man kan inte välja storleken på vramet hur som helst, vilket gör att man får i princip välja mella 4GB eller 8GB

Skrivet av Paddanx:

Här har vi nog svaret. För visst stämmer detta bra... Mer GB gör snabbare kort.
Nvidia... nya Elgiganten

nVidia lever tyvärr i verkligheten och där säljer allting flashiga siffror

Skrivet av Paddanx:

Därför att 970 har segmenterat minne, och jag ville inte ha den diskussionen. Och historiskt sett har "gammal"80 ersatts med "nånting"70 i nästa gen, så det vore väl inte orimligt att anta samma sak igen?

Ja, prestandamässigt. Delvis 970 var lite snabbare än 780, och som det verkar så är 1070 lite snabbare än 980...

Skrivet av Paddanx:

Sen nej... 960 är svår att jämföra då den inte tillhör detta, och dens 112GB/s var även för den klena GPUn, underdimensionerat. Den skulle haft 3GB och 192-bit för att stäcka på benen ordentligt.

960 är i princip halv 980, ganska på pricken.

Skrivet av Paddanx:

Och med tanke på att du åter glömmer 2x minnes mängden (3x för 1060) gör 43%/31%/71% väldigt lite. Jag vet att 980 har 224GB/s, och den klarade sig på det. Men fabriks OC versionerna behöver också mer VRAM bandbredd, så det är inte mycket tillgodo. Ökar du chippet med säg 20-30% prestanda i din jämförelse ovan, vilket är lågt räknat mot vad Nvidia själv verkar vilja säga, så räcker det, om du kör 4GB VRAM. Men med 8GB så tar 30-40% bandbredd snabbt slut och all fördel med din jämförelse är negativa siffror direkt, om du som jag sa i initiala posten, inte tänkte använda det mesta av det som cache och inget mer.

Problemet är väl att de inte kan välja så finna steg med GDDR5 om de har samma bus bred, delvis blir det 4GB eller 8GB.
Om man inte väljer att ha ojämnt med minne. (vilket leder till olika band bred till olika delar av minnet)

Sedan att enligt dig att cache skulle vara något som man inte skulle kunna dra nytta av är för mig lite underligt.

Exempel anta att vi spela ett spel där vi är i en miljö som nästan använder bandbredden till fullo för att på mindre än en sekund byta miljö (exempel springer in i ett hus) och behöver byta nästan alla texturer, med cash finns det redan i minnet medans exempel vis om det inte får plats i vramet får gå över PCIe vilket har en teoretisk bandbredd på 15.75 GB/s (x16 vers 3.x) vilket är bra mycket mindre än bandbredden till vramet.
Vips får man en kraftig dipp tills texturerna har laddas in.
Problemet blir större ju snabbare GPU blir och kräver mer bandbredd, desto mer framstår PCIe som ett sugrör.

Sedan har VR som har större krav mindre latens vilket mer vram till en vis del kan hjälpa till med.

Skrivet av Paddanx:

Se det som GB/s per GB minne:
1080: 40 vs 980: 56
1070: 32 vs 970: 49-56 (beroende på hur du nu vill räkna det)
1060: 32 vs 960: 56

Så om de hade haft 1GB vram skulle du vara nöjd?
Jag menar typ:
1080: 320 vs 980: 56
1070: 256 vs 970: 49
1060: 192 vs 960: 56

Skrivet av Paddanx:

Så samtliga nya kort har mindre prestanda per GB mot sina äldre syskon, och typ samtliga i 900 serien har faktor på 56GB/s per GB minne. Detta ser jag som tydlig sänkning av effektiv bandbredd... Detta förutsätter dock att inte GPUn flaskar och att allt minne behövs så klart, vilket det inte alltid gör.

Om vi antar att 1080 får en bandbredd på 320GB/s så skulle den optimala minnes storleken vara ca 5.7GB (4GB/224*320)?
Om vi nu bara får välja mellan 4GB och 8GB vad hade du valt då? (jag vet vad jag hade valt, delvis 8GB)

Skrivet av Paddanx:

Vi lär som sagt veta lite mer om några dagar förhoppningsvis.

Ja det känns som en spännande tid fram över

Av erixon
Skrivet av Paddanx:

Problemet är att det enda som hindrar balansen på ena hållet är girighet från Nvidia. Att gimpa ett kort som x60 verkar bli med minnesbandbredd är fult. Riktigt fult. Hade det varit GDDR5X så hade jag förstått, 192-bit, men inte GDDR5 och 6GB på den bussen, är ffs Nvidia 730 2GB DDR3 tänk. 4GB 256-bit GDDR5 hade varit vettigare.
De har trots allt skrytigt om att de nya kretsarna ska vara mycket snabbare... så varför inte släppa det då?

Vilka har skrytigt? de har inte ens släppt kretsen än vad jag vet och att det har hintat om den blir snabbare än föregångaren är väl knappast en hög oddsare.

Skrivet av Paddanx:

Ex: 1080 256-bit 8GB GDDR5X är väl okej, 1070 192bit 6GB GDDR5X, och 1060 256-bit 4GB GDDR5. Ger lite mer balans i minne vs prestanda. 4GB minne räcker långt, och med den ökade prestandan så lär 1060 vara där 970 är idag (där du kan göra segmenterade minnet om du så vill), 1070 är en uppgradering med lite mer RAM, GDDR5x men samtidigt lite billigare att göra pga 192 bit och ev defekt minnesdel, utan att jongla med udda minne, och 1080 får en markant fördel upp från sitt syskon med intakt krets och full minnesbandbredd. Du kan även köra snabbare GDDR5X i 1080 än 1070 om så behövs.

Jag antar att GDDR5X kommer med 10Gb/s till en början och kosta minst det dubbla mod GDDR5. Då blir ditt resonemang lite märkligt. Och låt oss säga GDDR5 kostar 5$/GB och GDDR5X 10$/GB (troligt vis högre)
Ditt exempel:
1080: kostnaden för vram 80$, 8GB, 320GB/s (256*10/8)
1070: kostnaden för vram 60$, 6GB, 240GB/s (192*10/8)
1060ti: kostnaden för vram 20$, 4GB, 256GB/s (256*8/8) alt 224GB/s (256*7/8)

Det troliga från nVidia :
1080: kostnaden för vram 80$, 8GB, 320GB/s (256*10/8)
1070: kostnaden för vram 40$, 8GB, 256GB/s (256*8/8)
1060ti: kostnaden för vram 30$, 6GB, 192GB/s (192*8/8)

Om man kollar i ditt exempel så hamnar 1070 i väldig konstig sits, den får mindre alt väldigt nära bandbredd med 1060ti, den får mindre minne till ett högre pris.

Dessutom har vi marknadsförings biten vad tror du är lättare att sälja till vanliga Svensson? ett kort med 4GB eller 6GB? eller för all det 6GB eller 8GB?

Skrivet av Paddanx:

1070 som det är nu kommer ju ha samma typ bandbredd som 980... Enda pot skillnaden (som vi inte vet än) är ju 7Ghz vs 8Ghz, dvs vad 15%? När chippen talas om 30-40% snabbare?

Varför jämföra 1070 med 980? vore det inte rimligare att jämföra med respektive modell?
Typ
1080 320GB/s vs 980 224GB/s vilket ger ca 43% ökning
1070 256GB/s vs 970 196GB/s* vilket ger ca 31% ökning
1060ti 192GB/s vs 960 112GB/s vilket ger ca 71% ökning (Kanske inte helt rätt att jämföra men är det närmaste)

*970 bandbredd är i princip 224bitars bus * 7Gb/s /8 ~ 196GB/s vist kan det komma upp i 224GB/s men det är typ i medvind och utförs backe.

Skrivet av Paddanx:

Hela tiden från början när GDDR5X diskuterades så sa jag... Nvidia kommer snåla med detta. Svaret jag får från bla dig är... "det räcker med GDDR5X 10-12Ghz". Och ja, det gör det säkert... men när bara ett av 3 kort får det... vad säger det dig?

Jo att exakt det jag fruktade, Nvidias snåleri, har skett.

Nej det är vanligt förnuft och att de är vinst drivande bolag, inget konstigt med det.

Av erixon
Skrivet av Cocosoft:

Det är ett negativt besked eftersom det betyder att det kommer att fortsätta råda total dominans för Qualcomm och ARM Holdings.

Det hade varit värre om Intel hade fått sin x86 som standard, då hade bara funnits AMD och Intel.
Som det är nu finns det hel del som gör egna varianter av ARM processor.
Exempel Apple, Samsung, Nvidia, Qualcomm och kanske någon mer.
Och tillverkar som använder ARM-kärna i sin ic, det är hel del.

Så konkurrensen får väl ses som ganska bra ändå.

Skrivet av anon5930:

Ett ganska stort misslyckande. Detta är en marknad som lär växa mer och mer på bekostnad av marknaderna för stationära och bärbara PC. ARM vann över Intel, inte ofta någon lyckas besegea och mota bort Intel.

Mycket möjligt att Intel gör ett nytt försök senare när de gar produkter som kan konkurrera eller de inser att de måste ha marknaden. X86 i portabla budgetenheter är nog inte helt uträknat om AMD gör en satsning. Samtidigt har AMD också ARM-licens och kan välja den vägen.

Känns som att detta kan vara början på något stort, att Intels maktposition minskar och andra får mer plats och konkurrensen förhoppningsvis kan öka.

Spännande att se hur det hela utvecklas.

Skickades från m.sweclockers.com

Om jag vore AMD skulle jag nog inte satsa på portabla budgetenheter (läs mobiltelefoner och surfplattor) då konkurrensen från kinesiska tillverkare är sten hårt. Möjligt i mellan segmentet och i högpresterande segmentet.

AMD är inte heller i ekonomisk skick att göra utsvävningar.

Skrivet av Söderbäck:

Hehe. Med det tänket hade intel inte ens byggt processorer alls. De byggde först RAMminnen ;).
Andra dåliga grejer är smartphones från apple, android och microsoft och valves gera VR som inte varit företagens business från början.
Volvo hade inte tillverkat lastvagnar, båtmotorer eller bussar och IBM hade varit utfasade från marknaden när deras mekaniska produkter ersatts av elektroniska diton för 100 år sedan ;).

Någonstans får man nog se vissa fördelar med att företag inte bara tar sig an nutiden utan även ger sig in på nya marknader för framtidens tekniker och utbud. Nu går det såklart att lista massa negativa saker (som du säkert frestas att göra) men oavsett för/nackdelar så tycker jag att rådet att företag inte ska försöka sig på saker de inte gjort tidigare generellt är mer begränsande än utvecklande.

Håller med, om man inte vågar satsa kan man heller inte vinna något.

Av erixon

En liten fundering är inte samsung/g...(vad de nu hette?) teknink mindre än TSMC?

Nu kanske det inte är relevant men Apples A9 är olika stor beroende på vilken gjort kretsen.
Samsung 96mm²
TSMC 104.5mm²
länk

Det skulle innebära att 240mm² samsung skulle motsvara ca 261mm² TSMC.
Jag vet att det inte är samma teknik som används i låg presterande kretsar som högpresterande kretsar, så det är ju inte säkert att skillnad på storlek.

Det är bara en tanke...

Av erixon
Skrivet av Paddanx:

Du kan relativt enkelt köra Quad channel DDR3 (Socket 1156 gör det vill jag minnas).

Nej 1156 har bara dual chanel, delvis 64+64bitar (128) däremot kan man ha flera minnes moduler på samma "bus".
Däremot så använder intels 2011 av quad chanel.

Skrivet av Paddanx:

Och de kör 2133 DDR, vilket du kan byta till 2400+ om du så vill, med 4 moduler. DDR4 kommer ju skala till 4000+ utan problem, och med 256-bit quad kanal så är det inte så farligt som du tror. Sen naturligtvis blir det inte 980/Fury prestanda

Fast 4ch @4000 ~128GB/s i framtiden (vilket DDR4 4000 är) så kommer det vara ganska lågt även för mellan klass grafik.

Skrivet av Paddanx:

Men med tanke på att PS4an kör CPUn på GDDR5 RAM, så borde du kunna gå den vägen om du vill. Du har då bara en cache på CPUn som minskar latenserna och sen en bra prefetch (som dagens CPUer faktiskt har).

Jag skulle tro att GDDR5 är mycket olämpligt att ha på minnes moduler pga hastigheten och ha GDDR5 fast löda på moderkortet istället för Grafikkortet ser jag inte heller någon större fördel med.

Skrivet av Paddanx:

Så min poäng är inte att det är "enkelt" att göra. Men helt omöjligt är det inte...
Dock tvivlar jag på att det är lönsamt eller vettig väg att gå, precis som du säger

Givet vis går det att "utföra" men precis som du (jag kanske är lite mer skeptisk ) tror inte finns några tekninska fördelar eller/och kostnads besparingar tyvärr...

Av erixon
Skrivet av Paddanx:

Hmm. Helt utanför "landet" är dock inte tanken. Vi har haft iGPU länge, och de begränsas som du säger, av just RAM prestandan. Men även CPUer idag behöver rätt mycket minnesbandbredd, där tom DDR3 1600 verkar vara för klent för en OC SB 2500k.
Just AMD visade ju att deras iGPU har bra med kraft, där hindren ligger i minnet.

Men samtidigt så håller jag med att det skulle bli komplicerat att göra. Dock inte så komplicerat som du säger ovan, eftersom redan idag sker allt mot standarder. Samma DDR3/GDDR5 sätts i både AMD/Intel och AMD/Nvidia enheter. XboxOne är också ett ex på hur man kan lösa det med DDR3 till grafik, genom ett snabbt buffert minne. Och resultaten på Broadwell spel visar också att just spel, älskar dessa buffrar. Med Skylake och troligtvis kommande Kabylake så kan denna cachen användas på ett helt annat sätt dessutom, vilket gör att buffrar kan vara lösningen på flaskhalsarna idag, istället för mer dyrt minne.

Så i teorin borde man kunna göra en GPU och en CPU med typ HBM2 "buffert minne" på nån GB, på vardera substrat. Sen sätta 32GB+ minne på ett dotterkort kopplat till moderkortet. Problemet är kostnaden vs vinsten...

Fast Xbox one har en minnes buss på 256bitar vs exempel vis i7 på 1150 sockel som 128bitar, så där har du i princip dubbla bandbredden.
Och prestandamässigt är en lite överklockad HD 7770 GHz Edition ungefär samma teoretiska prestanda,
HD 7770 GHz Edition klara sig med 72GB/s (vs 68.3 GB/s för Xbone för DDR3).
Givet vis får xbox one en för del med ESRAM som i princip "ökar" bandbredden genom att Z-buffert samt frambuffert mm ligger i ESRAM:et. Ökningen av "minnes" prestanda är inte att man använder det som "cache" minne utan mer som ett minne med en separat buss.
Texturer och annat skrymmande måste ligga i DDR3 utrymmet på xbox one, efter som det annars inte skulle få plats.
Så ledes kan bandbredden inte vara hur låg som helst till DDR3 i xbox one, detta tvingade dem till ha 256bitars buss på xbox one. (om de kunde komma undan med en smalare buss skulle de ha gjort det, då enhet skulle bli billigare att tillverka)

Tänk då hur mycket bred bus du skulle behöva för att ersätta bussen på exempel vis 980ti med DDR4 (@2400)... typ 8kannaler om man klara sig med halva bandbredden. Och vilken sockel det skulle behövas för GPU! enbart för minne så är det typ +1500pinnar om det ens stoppar...

Av erixon
Skrivet av Zotamedu:

Fast GPUer är begränsade av kylningen. Kan du ha effektivare kylning kan du ha högre klockfrekvenser vilket ger mer prestanda. Att stapla minnet ovanpå kommer kosta prestanda. Det går inte att komma runt. Så frågan är om det är värt avvägningen.

Fast ordningen på staplingen går att ändra. Exempel BGA-kapsel + ram + ram + "gpu", det gör att "gpu" hamnar närmast kylaren och kan kylas i stort sett lika effektivt som i dag... nackdelen är att ram måste göras specifikt för varje GPU (ytan måste vara lika stor eller större än "gpu") , men det finns även flera fördelar exempel flytta delar som drar lite till "ramet" exempel vis PCI-E, DP, DVI mm och även typ video avkodning.
En vinst till är man slipper substratet som krävs i HBMx minnena vilket inte är helt gratis.

Sedan är uppbyggnad på HBMx minnena snarlik med GDDRx, delvis har minnena i sig en lite egen minnes bus som sedan omvandlas till en standard bus (GDDRx eller HBMx).
Kan man minska antal "mellan led" så minskar strömförbrukningen och även latensen minskar, vilket man skulle kunna göra om minnet kunde tala direkt till "gpu".

Och att göra stora ram minnen tror jag inte heller är något större problem, man får helt enkelt disabla vissa delar för att få upp "yields".

Det är min gissning....

Av erixon
Skrivet av Aleshi:

Du räknar på 1920 shaders mao?
Det är väldigt lågt räknat. Antalet shaders skalar inte linjärt med kretsytan. Allra helst inte eftersom GP100 har en massa fokus på beräkningar som GP104 inte har. Tror nog vi får se 2560-2816 shaders på GP104. Vilket borde räcka mer än väl för att slå 980Ti med marginal.

Visst är det så men kretsen verkar vara 294mm² delvis mindre än hälften av GP100 (610mm²/2 = 305mm²), och vissa delar exempelvis interfacet för PCI-E och video avkodare mm behövs det inte "dubbelt" av. Visst finns det annat som tar plats som inte finnas på GP104 exempel vis nVidia höghastighet länk. och en mindre "minnes" matris eller vad man ska kalla det.
Så visst kan den ha mer än 30 SM-kluster (1920) men att den skulle ha 40-44 SM-kluster (2560-2816) ser jag som osannolikt om de inte har slaktat FP64 prestandan helt (jämfört med GP100), men även då svårt att se få plats med 40-44 SM-kluster (2560-2816)

Det skulle innebära att de skulle kunna göra Krets med 60 SM-kluster i storleken ca +440mm² (294/40*60 ~ 441) med 384bitars bus och samma grafik prestanda som GP100... nja, jag lite svårt att tro på det...

Dessutom så verka bandbredden tyda SM-kluster hamnar runt 30 talet så kanske på 32.
Visst kan jag ha fel men det känns GP104 har hypas upp för mycket och information (om den är korrekt) verkar peka på åt det hållet.

Av erixon
Skrivet av Dinoman:

Det blir nog jämnt skägg.

Sen kan det finnas andra tekniker implementerade i GP104, t.ex. en ännu bättre komprimeringsteknik vilket skulle hämta upp lite av den klena minnesbandbredden.

Visst finns det förbättringar, men jag tror fort farande bandbredden hamnar under 980ti även med förnyad komprimeringsteknik.
Det finns gränser hur effektiv komprimeringen kan bli, om GP104 ska få samma "bandbredd" 980ti så måste komprimeringen vara ca 31% bättre (336/256 ~ 1.31) samt inte ha för mycket latency.

Värt att notera är att GP100 har bandbredd på 720GB/s även om den inte använder all bandbredd så är den nästan 40% mer per SM-kluster än för GP104, så för att få liknade bandbredd som GP100 behövs GDDR5X eller en större bus exempel 384bitar. (för att uppnå 360GB/s)

Skrivet av Dinoman:

Men nog är det Vega och GP100 som blir dom intressanta korten i år om man vill få en ordentlig prestanda boost.

Helt klart kommer det nya toppkorten att bli monster

Av erixon

Jaha, hade nog trott att det skulle vara lite mer prestanda på GP104.
GP100 60SM-kluster (vara 56st aktiverade) och har en FP32 prestanda på 10600Gf vid 1480Mhz vilket ger SM-kluster ca 128F/klockcykel, vilket verkar rimligt.

GP104 har halva storleken, så rimligt vis har den halva antal SM-kluster, delvis 30st.
Om vi antar GP104 är klockad till 1600Mhz så får vi att GP104 (med alla kluster) FP32 prestanda på ca 6.1Tf vilket är ca 23% (6.144/4980~1.23) snabbare än 980 (standard).

Kolla man på minnes bandbredden som verkar bli 256GB/s vs 224GB/s så är det en ökning på 14%

Med andra ord verka den inte kunna klå 980ti...

Av erixon
Skrivet av RaBlack:

Sådär ser det ut att bli "kanske"...

GP100 ersätter GTX 980 Ti, 8GB alt. 16GB GDDR5X alt. HBM2
GP104 ersätter GTX 980, 8GB GDDR5X
GP104 ersätter GTX 970, 6GB alt. 8GB GDDR5X
GP106 ersätter GTX 960, 4GB alt. 6GB GDDR5 alt. GDDR5X

End of story.

PS: Gamla trogna GDDR5 kan vara en lösning också, om de vill hinna få ut korten till sommaren...

MVH

Jag skulle inte tro att man har två st minnes kontroller på GP100, Därför tror jag att det är osannolikt att vi får se GP100 med GDDR5X.

jag skulle snarare tro att:
"hela" GP104 blir nya GTX 980ti (x80ti), troligt vis med GDDR5X med 384bitars buss, möjlig minnes mängd är 6/9/12GB (gissar på 32 till 40 sm-kluster, delvis 300-400mm²)
GP104 med avstängda sm kluster blir nya GTX 980 (x80) med GDDR5X eller GDDR5. troligtvis med 6GB video minne.
GP104 med mer avstängda sm kluster blir nya GTX 970 (x70) med GDDR5. troligt 6GB.
Nya GTX 960 (x60) blir rebrand av gamla GTX970. (Troligen p.g.a kapacitet brist i 14/16nm plus att alla tillverkare gillar rebrand )