TSMC påskyndar 16 nanometer – redo för produktion första kvartalet 2015

Permalänk
Datavetare
Skrivet av elajt_1:

Åhhh du använder dig av den superpålitliga tjeckiska sidan wccftech.com

Skämt å sido, det låter väldigt rimligt det du skriver angående komplexiteten vs mestadels likadana cuda cores över hela chippet. Hur som helst så är +700mm2 som Zotamedu tog upp en bra bit större än i exemplet du refererade till. Det bevisar ju dock att Intel inte verkar ha några problem med stora kretsar.

Informationen kommer från 2013 års Intel Developer Forum, så det är bara en artikel av något som sagts på ett pressevent. Finns flera andra webbplatser med exakt samma information, t.ex. The Register. Möjligen är storleken på kretsen något man bara nämnt på IDF eller eventuellt något man bara uppskattat från foton då AnandTech bara nämner transistorantalet.

Använder du Google lite på Xeon Phi hittar du ganska snabbt många kommenterar kring att Intel varit väldigt knapphändiga med all information kring storleken på denna krets, så eventuella kretsareor lär vara uppskattningar från kretsfoton eller information som aldrig borde lämnat Intel och därför man inte lär hitta någon källa på. Men att det är en stor krets råder det inga tvivel om, man uppskattar antal transistorer till ca 5 miljarder vilket är fler än i 15-kärnors IvyTown.

Edit: och sedan ska man också ta med i beräkningen att IvyTown körs på mycket högre frekvens än GPUer från Nvidia/AMD. Med tanke på att signalhastigheten i de material som används som ledare i en processor i runda slängar ligger på ungefär halva ljushastigheten så blir avstånd ett ganska stort problem vid 3GHz... Pentium 4 var nog inte designad med en extremt lång pipeline för man trodde det var effektivt, utan man designade något där varje steg var så enkelt att avstånd inte skulle bli ett problem vid de 10GHz som man hade satt som målfrekvens. Vid 10GHz, oavsett material, måste man hantera det faktum att kocksignalen kommer tidsmässigt vara ganska ur fas mellan olika områden på kretsen.

Så ju högre frekvens, desto svårare blir det att designa en stor krets. Xeon Phi/GPUer kör på betydligt lägre frekvens än IvyTown, vilket är ännu en anledning till att de kan vara större.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av elajt_1:

Alla är efter intel korrekt, men å andra sidan vet vi inte hur mycket fel Intel hade haft med kretsar i Nvidias storleksordning. Intel har inget i närheten av detta ännu.

GPU kretsar är betydligt mindre komplicerade än CPU så det går inte riktigt att jämföra. Arean är viktig men det går att ha design som är mer eller mindre känslig. VirtualVoid kan förmodligen förklara mer detaljerat.

Permalänk
Medlem
Skrivet av Yoshman:

Pentium 4 var nog inte designad med en extremt lång pipeline för man trodde det var effektivt, utan man designade något där varje steg var så enkelt att avstånd inte skulle bli ett problem vid de 10GHz som man hade satt som målfrekvens. Vid 10GHz, oavsett material, måste man hantera det faktum att kocksignalen kommer tidsmässigt vara ganska ur fas mellan olika områden på kretsen.

Alltså, detta är helt off-topic.
Men, hur tänkte AMD när dom valde att designa Bulldozer med lägre IPC och längre pipeline för att få upp klockfrekvenserna efter det jättefiasko som Pentium 4 och netburst arkitekturen var?

Bulldozer lider av precis samma problem, dålig energieffektivitet och svårt att nå dom klockfrekvenser man haft som målsättning.

Hur tänkte dom där egentligen?

Permalänk
Medlem
Skrivet av MrAdde:

Gäller detta endast för mobila kretsar eller kommer t.ex högpresterande GPU:er också börja tillverkas då?

Det går rykten om att Nvidia kommer att hoppa över 20nm och gå direkt på 16nm. Tror det har att göra med att 20nm inte kan levereras i tid och i kvantitet, av vad jag förstått det som så kommer det bli billigare och mer givet att gå direkt på 16nm.

http://www.kitguru.net/components/graphic-cards/anton-shilov/...

Citat:

TSMC is going to face much more competition from 14nm process technologies from Intel, GlobalFoundries and Samsung with its 16nm FinFET and 16nm FinFET+ technologies than it did with the 28nm and the 20nm nodes. Perhaps, TSMC wants to speed up volume production of chips made using 16nm FinFET and 16nm FinFET+ processes in order to maintain market share and ensure orders from companies like Apple or Qualcomm who can use multiple foundries.

Om nu TSMC ligger så långt efter varför letar inte Nvidia och AMD upp andra leverantörer? Tycker Nvidia kan gå ihop med intel så kanske vi kan se 14nm gpuer snart

Visa signatur

Ridin' on | MSI Z77A-GD65 | Intel Core i7-3770K @ 4.5GHz | Corsair H100i | Crucial DDR3 BallistiX 1600Mhz DDR3 16GB | MSI GeForce GTX 780Ti 3GB Twin Frozr IV | Samsung SSD 840 EVO 250GB | Seagate Barracuda 2TB | Hitachi Deskstar 500GB 7200R | ASUS Xonar Essence STX | Corsair Obsidian 650D | Asus ROG Swift PG278Q | Steelseries QcK+ | Roccat Kone XTD Optical | Razer BlackWidow Ultimate 2014 | Pioneer HDJ-2000 | Asus Vulcan Pro |

Permalänk
Medlem
Skrivet av sKRUVARN:

http://www.dvhardware.net/news/2011/tsmc_roadmap_techon_nov20...

Jo visst var det tänkt att det skulle komma högpresterande 20nm kretsar för ett bra tag sen. Nu är det där en ganska tidig roadmap, men samma gäller för senare där det står 2013/2014 på högpresterande 20nm kretsar. 20nm är åtminstone två år försenad.

Vilket visar att du inte riktigt har klart för dig skillnaden mellan "risk production" som är vad din roadmap visar, och "volume production" vilket är vad TSMC ägnat sig åt i knappt ett halvår på 20nm.
Steget mellan "risk" och "volume" har varit i runda slängar ett och ett halvt år, plus minus något kvartal. Värt att notera är att 16nm FF påbörjade risk production i december 2013. Så volymsproduktion Q1 2015 verkar fullt görbart. vad som är lite osäkert är om deras stora kunder kommer att välja 16nmFF+ istället, en förbättrad variant som ryktet säger att TSMC valde att implementera för att de inte skulle förlora Apple till Samsung/GlobalFoundries vid 16/14nm FF (2015). 16nmFF+ förväntas gå i volymsproduktion ungefär Q3 2015, men det kan tänkas ändra sig om det finns en stor kund som är beredd att medfinansiera intrimning av processen.

Det är oklart precis vad det är som TSMC förbättrat till 16nmFF+. Jämförelsen gentemot Intels 14nmFF på semiwiki för ett par veckor sedan hänför sig till deras ursprungliga 16nmFF.

Permalänk
Medlem
Skrivet av EntropyQ3:

Vilket visar att du inte riktigt har klart för dig skillnaden mellan "risk production" som är vad din roadmap visar, och "volume production" vilket är vad TSMC ägnat sig åt i knappt ett halvår på 20nm.
Steget mellan "risk" och "volume" har varit i runda slängar ett och ett halvt år, plus minus något kvartal.

"TSMC persists in innovation and development of 20nm and more advanced technologies and is committed to providing sufficient capacity. The Company's 20nm technology is scheduled to begin volume production at TSMC's Fab 12 next year." 2012-04-09 http://www.tsmc.com/tsmcdotcom/PRListingNewsAction.do?action=...

Och ja jag vet att det är skillnad på risk och volume production, som enligt TSMC verkar ligga på runt ett år om allt går som det ska, men det förändrar inte det faktum att det fortfarande är väldigt försenat för jag ser då fortfarande inga 20nm chipp. Och sen var den där egentligen mer menad för att visa att det fanns högpresterande 20nm chipp planerade och inte just förseningen i sig.

Permalänk
Medlem
Skrivet av Kitz:

Om nu TSMC ligger så långt efter varför letar inte Nvidia och AMD upp andra leverantörer? Tycker Nvidia kan gå ihop med intel så kanske vi kan se 14nm gpuer snart

Nvidia har redan föreslagit detta för Intel, som bestämt tackade nej. Nu ägnar sig visserligen Intel redan åt foundry verksamhet, men inte med potentiella konkurrenter om jag förstått det hela rätt.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Datavetare
Skrivet av Kilroy:

Alltså, detta är helt off-topic.
Men, hur tänkte AMD när dom valde att designa Bulldozer med lägre IPC och längre pipeline för att få upp klockfrekvenserna efter det jättefiasko som Pentium 4 och netburst arkitekturen var?

Bulldozer lider av precis samma problem, dålig energieffektivitet och svårt att nå dom klockfrekvenser man haft som målsättning.

Hur tänkte dom där egentligen?

Intel tänkte att P4 var en vettig design för den skulle ta dem till 10GHz. Visade sig att man missat att värmeutvecklingen inte riktigt skalade med frekvensen, så det blev ohållbart runt 4GHz.

IBM tänkte att Intel misslyckades med P4 för man helt ignorerade kostnaden för felspekuleringen när man valde en 30-stegs pipeline. Men i övrigt delade deras POWER6 väldigt många idéer med P4 och man nådde som mest 5.2GHz (med TDP på 250W...). Visade sig här att en lång pipeline var inte ända problemet med att ha relativt enkla kärnor med låg IPC när det inte är vettigt att gå längre än 5GHz.

I AMDs fall verkar man tänkt att både Intel och IBM tänkte fel, tricket är att utnyttja det faktum att enklare kärnor betyder att man kan ha flera kärnor och alla program kommer inom kort kunna använda massor med CPU-kärnor... Här är det uppenbart att resultatet inte riktigt blev så effektivt och enkelt som man trodde för det är klart färre transistorer i en 4-kärnig i7 med HT än en Bulldozer CPU med 4 moduler. På serversidan blev det ett riktigt misslyckade då man haft svårt att ens riktigt klå sina egna Opteron-modeller baserad på föregående arkitektur + HT är mer effektivt på servers än för desktop. På desktop borde man ändå nått de mål man hade för klockfrekvens, de är ju och nosar på 5GHz även om strömförbrukningen blir ett skämt där, precis som för POWER6.

Sun försökte ju också sig på ett lite mer radikalt spår med Niagara. Initialt körde man med en extremt simpel CPU-kärna (endast "single-issue" vilket x86 inte haft sedan 486) fast med 4 trådar per CPU-kärna. En CPU hade sedan 8 sådana kärnor (så här tänkte man ungefär som AMD med CMT) med relativt låg klockfrekvens och massor med bandbredd. Fungerade, men bara på extremt smala områden. Idag har man skruvat upp frekvensen till de 3-4GHz där alla andra ligger och man har en betydligt mer avancerad kärna så IPC blir vettig.

Lätt att vara efterklok, personligen tycker jag det är skönt att någon faktiskt försöker testa lite nya vägar. Kanske synd att det vad just AMD som testade CMT-spåret då de redan hade en ansträngd ekonomi och av allt att döma är det lika mycket återvändsgränd som de andra spåren ovan.

Alla som gör avancerade CPU-kärnor verkar konvergera mot att designa något som går att klocka runt 3-4 GHz, har mellan 4 till 16 fysiska CPU-kärnor med riktigt hög IPC. Problemet med hög IPC är att forskning visar att en enskild instruktionsström kan nog inte förväntas innehålla mer oberoende delar än vad som kan resultera i att man kör mellan 1-2 instruktioner per klockcyklel i genomsnitt. Haswell kan i vissa fall passera 2 instruktioner per cykel i genomsnitt i riktiga program, så man närmar sig en vägg även på IPC-spåret.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av sKRUVARN:

"TSMC persists in innovation and development of 20nm and more advanced technologies and is committed to providing sufficient capacity. The Company's 20nm technology is scheduled to begin volume production at TSMC's Fab 12 next year." 2012-04-09 http://www.tsmc.com/tsmcdotcom/PRListingNewsAction.do?action=...

Och som vi vet hände inte det - TSMC drog igång "volume production" i januari i år, men började inte fullt kapacitetsutnyttja förrän i April.
Så jo, 20nm är lite försenat, men inte så förbaskat mycket - inte mer än att de fortfarande kan fullgöra sina åtaganden gentemot Apple.

Citat:

Och ja jag vet att det är skillnad på risk och volume production, som enligt TSMC verkar ligga på runt ett år om allt går som det ska, men det förändrar inte det faktum att det fortfarande är väldigt försenat för jag ser då fortfarande inga 20nm chipp. Och sen var den där egentligen mer menad för att visa att det fanns högpresterande 20nm chipp planerade och inte just förseningen i sig.

Missade du det svenska BitCoin-mining chippet i början av Juni? Eller att Xilinx levererade 20nm produkter till kund redan i November 2013!
Alla med minsta intresse av halvledarbranschen vet att Apple har reserverat nästan hela TSMCs initiala kapacitet på 20nm. (Vilket fått bl.a. Qualcomm att surna till.) Fram till årsskiftet kommer TSMC att behöva leverera ungefär hundra miljoner kretsar på 20nm till Apple.

Liten kommentar till min referens till semiwiki ovan: TSMC hävdar att deras 16nmFF+ har 15% densitetsökning från 16nmFF. Något eller några av de angivna grundmåtten har rimligen ändrats.

Permalänk
Medlem
Skrivet av Yoshman:

Fast där säger man att man inte tänker utveckla två olika processer därför man anser att det inte behövs

Nu tolkar du deras marnadsförings-snack väldigt välvilligt. Har de demonstrerat ens test-kisel som funkar för High Performance? Till skillnad ifrån alla tidigare plana processer går man ut och säger att man lika gärna kan göra HP som LP på samma process, en process där kunder klagat skyhögt över att HP inte funkar, bara LP. Standard corporate BS, ingen trodde på dem då, ingen tror på dem nu. Nvidia gick ut 2012 och sa i princip samma sak då som nu, 20 nm planar duger inte. Peka gärna på någon industrikälla som säger att det kommer gå bra att göra HP på TSMC 20 nm planar. Det finns lite marknadsföringsmaterial ifrån TSMC, som ingen trott på. Eller varför inte citera din egen länk:

Citat:

TSMC’s 20nm fabrication process has always been a strange one. Typically foundries offer several versions of manufacturing technologies aimed at different application: high-performance-chips, low-power chips, low-cost chips, etc. In case of 20nm TSMC only offers only one version of the process aimed at everything from low-cost system-on-chips for ultra-portable devices (such as smartphones) to high-performance processors (such as GPUs).

TSMC ska alltså levera något som i princip ingen tidigare kunnat göra. Samtidigt vet vi att de har stora kontrakt med folk som endast är intresserade av Low Power. Vad kommer att hända tro? Har de en ny helt fantastisk process som ignorerar fysikens lagar, eller snackar de bara skit?

Den här artikeln skrevs förra året för att försöka förklara för alla som hela tiden frågar varför det inte finns några 20 nm GPU:er.
http://www.pcper.com/reviews/Editorial/Next-Gen-Graphics-and-...

Citat:

22/20 nm processes can pack the transistors in. Such a process utilizing planar transistors will have some issues right off the bat. This is very general, but essentially the power curve increases very dramatically with clockspeed. For example, if we were to compare transistor performance from 28 nm HKMG to a 20 nm HKMG product, the 20 nm might in fact be less power efficient per clock per transistor. So while the designer can certainly pack more transistors into the same area, there could be some very negative effects from implementing that into a design. For example, if a designer wants to create a chip with the same functionality as the old, but increase the number of die per wafer, then they can do that with the smaller process. This may not be performance optimized though. If the designer then specifies that the chips have to run as fast as the older, larger versions, then they run a pretty hefty risk of the chip pulling just as much power (if not more) and producing more heat per mm squared than the previous model.

Precis som tidigare så behövs FinFETs för att få vettig prestanda på mindre processer, dock är det inte heller utan problem som bekant.

Visa signatur

--
A shark on whiskey is mighty risky, but a shark on beer is a beer engineer.

Permalänk
Entusiast
Skrivet av Yoshman:

Informationen kommer från 2013 års Intel Developer Forum, så det är bara en artikel av något som sagts på ett pressevent. Finns flera andra webbplatser med exakt samma information, t.ex. The Register. Möjligen är storleken på kretsen något man bara nämnt på IDF eller eventuellt något man bara uppskattat från foton då AnandTech bara nämner transistorantalet.

Använder du Google lite på Xeon Phi hittar du ganska snabbt många kommenterar kring att Intel varit väldigt knapphändiga med all information kring storleken på denna krets, så eventuella kretsareor lär vara uppskattningar från kretsfoton eller information som aldrig borde lämnat Intel och därför man inte lär hitta någon källa på. Men att det är en stor krets råder det inga tvivel om, man uppskattar antal transistorer till ca 5 miljarder vilket är fler än i 15-kärnors IvyTown.

Edit: och sedan ska man också ta med i beräkningen att IvyTown körs på mycket högre frekvens än GPUer från Nvidia/AMD. Med tanke på att signalhastigheten i de material som används som ledare i en processor i runda slängar ligger på ungefär halva ljushastigheten så blir avstånd ett ganska stort problem vid 3GHz... Pentium 4 var nog inte designad med en extremt lång pipeline för man trodde det var effektivt, utan man designade något där varje steg var så enkelt att avstånd inte skulle bli ett problem vid de 10GHz som man hade satt som målfrekvens. Vid 10GHz, oavsett material, måste man hantera det faktum att kocksignalen kommer tidsmässigt vara ganska ur fas mellan olika områden på kretsen.

Så ju högre frekvens, desto svårare blir det att designa en stor krets. Xeon Phi/GPUer kör på betydligt lägre frekvens än IvyTown, vilket är ännu en anledning till att de kan vara större.

700 mm2 är inte ens uppskattat från bilder på kärnan då några sådana inte existerar. Det enda som finns är bilder på IHS, längre än så har man inte kommit. Det finns de som uppskattat kärnan till att vara över 1000 mm2 också men diverse "läckor" och "insider information" har sagt storleksordningen 700 mm2. Mer än så vet vi inte. Har för mig att Intel har sagt ungefär 5 miljarder transistorer men inga exakta siffror där heller. De är extremt hemlighetsfulla med Xeon Phi av någon anledning. De brukar ju släppa massa information om sina processorer och design själva annars. Hypotesen verkar vara att de har några väldigt innovativa tillverkningsknep som de inte vill att någon annan ska se. Verkar rimligt för Xeon Phi är ju som du säger en väldigt extrem design hur man än vänder och vrider på det. De verkar ha skrämt Nvidia också med tanke på allt material de släppt på sin sida där de skriver hur mycket bättre Tesla är än Phi.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Datavetare
Skrivet av Pholostan:

Nu tolkar du deras marnadsförings-snack väldigt välvilligt. Har de demonstrerat ens test-kisel som funkar för High Performance? Till skillnad ifrån alla tidigare plana processer går man ut och säger att man lika gärna kan göra HP som LP på samma process, en process där kunder klagat skyhögt över att HP inte funkar, bara LP. Standard corporate BS, ingen trodde på dem då, ingen tror på dem nu. Nvidia gick ut 2012 och sa i princip samma sak då som nu, 20 nm planar duger inte. Peka gärna på någon industrikälla som säger att det kommer gå bra att göra HP på TSMC 20 nm planar. Det finns lite marknadsföringsmaterial ifrån TSMC, som ingen trott på. Eller varför inte citera din egen länk:

TSMC ska alltså levera något som i princip ingen tidigare kunnat göra. Samtidigt vet vi att de har stora kontrakt med folk som endast är intresserade av Low Power. Vad kommer att hända tro? Har de en ny helt fantastisk process som ignorerar fysikens lagar, eller snackar de bara skit?

Den här artikeln skrevs förra året för att försöka förklara för alla som hela tiden frågar varför det inte finns några 20 nm GPU:er.
http://www.pcper.com/reviews/Editorial/Next-Gen-Graphics-and-...

Precis som tidigare så behövs FinFETs för att få vettig prestanda på mindre processer, dock är det inte heller utan problem som bekant.

Om det var så självklart att 20nm utan FinFET inte fungerar för high-end, varför är det då först nu som Nvidia inser att det vettigaste är nog att hoppa över 20nm? Är inte den rimligaste förklaringen att TSMC ändå lovat Nvidia att processen kommer i något läge hantera deras krav?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Quizmaster Malmö 22

Så 16nm kommer Januari - Mars 2015. Låter bra. Fast går de o använda till GPUer?

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Entusiast
Skrivet av Campaigner:

Så 16nm kommer Januari - Mars 2015. Låter bra. Fast går de o använda till GPUer?

Det är planen. Hur det ser ut i verkligheten verkar vara oklart fortfarande.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Pholostan:

TSMC ska alltså levera något som i princip ingen tidigare kunnat göra. Samtidigt vet vi att de har stora kontrakt med folk som endast är intresserade av Low Power. Vad kommer att hända tro? Har de en ny helt fantastisk process som ignorerar fysikens lagar, eller snackar de bara skit?

Även om du naturligtvis har en poäng, hårddrar du resonemanget lite väl mycket. Vi vet ju att GPUer idag är power-limited. Och vi vet att en stor del av marknaden är för portabla datorer. Det är nog rimligt att anta att 20nm processen är åtminstone hyfsad för mobil-GPUer. Det är också rimligt att anta att den inte är idealisk för 250W monstren. Eftersom processen erbjuder högre densitet är 28nm så finns det förmodligen delar av GPU marknaden som processen passar väl för. Men eftersom GPU-tillverkarna helst vill använda samma chip vid olika spänning för mobila och stationära lösningar, så finns det nog anledning för dem att vara kallsinniga inför TSMC 20nm. Å andra sidan har de ju FinFET runt hörnet, som hjälper upp läget något.

Jag inser att min åsikt antagligen inte är så populär här, men högeffekts GPUerna är dinosaurier. Det är inget att förvånas över att litografiska processer inte har dem som mål-applikation.

Permalänk
Medlem
Skrivet av Yoshman:

Intel tänkte att P4 var en vettig design för den skulle ta dem till 10GHz. Visade sig att man missat att värmeutvecklingen inte riktigt skalade med frekvensen, så det blev ohållbart runt 4GHz.

Handlade det inte också mycket om att man stötte på betydligt större läckströmmar än förväntat vid krympningarna?

Skrivet av Yoshman:

I AMDs fall verkar man tänkt att både Intel och IBM tänkte fel, tricket är att utnyttja det faktum att enklare kärnor betyder att man kan ha flera kärnor och alla program kommer inom kort kunna använda massor med CPU-kärnor... Här är det uppenbart att resultatet inte riktigt blev så effektivt och enkelt som man trodde för det är klart färre transistorer i en 4-kärnig i7 med HT än en Bulldozer CPU med 4 moduler. På serversidan blev det ett riktigt misslyckade då man haft svårt att ens riktigt klå sina egna Opteron-modeller baserad på föregående arkitektur + HT är mer effektivt på servers än för desktop. På desktop borde man ändå nått de mål man hade för klockfrekvens, de är ju och nosar på 5GHz även om strömförbrukningen blir ett skämt där, precis som för POWER6.

Lätt att vara efterklok, personligen tycker jag det är skönt att någon faktiskt försöker testa lite nya vägar. Kanske synd att det vad just AMD som testade CMT-spåret då de redan hade en ansträngd ekonomi och av allt att döma är det lika mycket återvändsgränd som de andra spåren ovan.

Jag var väldigt exalterad över Bulldozer innan lansering och även nu så tycker jag man har gjort mycket bra med den arkitekturen som jag tror är lite före sin tid på många sätt.
Att man ser hur vissa beräkningar allt mer lämpar sig för GPUer och därför gör själva CPUn sämre på den typen av beräkningar och ger utrymme till CPUn att fokusera på det som en "GPU" är dålig på.
Det var så jag fattade filosofin bakom Bulldozer.
Det jag inte hade fattat var deras tänk att skruva upp klockfrekvenserna och det jag fortfarande inte förstår är hur det går ihop med det andra.

Men ja, förstår hur dom tänkte lite bättre nu iaf.

Skrivet av Yoshman:

Alla som gör avancerade CPU-kärnor verkar konvergera mot att designa något som går att klocka runt 3-4 GHz, har mellan 4 till 16 fysiska CPU-kärnor med riktigt hög IPC. Problemet med hög IPC är att forskning visar att en enskild instruktionsström kan nog inte förväntas innehålla mer oberoende delar än vad som kan resultera i att man kör mellan 1-2 instruktioner per klockcyklel i genomsnitt. Haswell kan i vissa fall passera 2 instruktioner per cykel i genomsnitt i riktiga program, så man närmar sig en vägg även på IPC-spåret.

Ok, vad ska man satsa på nu då?

Permalänk
Datavetare
Skrivet av Kilroy:

Ok, vad ska man satsa på nu då?

Deklarera att CPU-utvecklingen är klar och ta sig an något annat?

Tyvärr är det inte mycket kvar att göra, vilket inte är kul för oss som har detta som hobby... Man kan alltid göra fler CPU-kärnor, men effekten är rätt minimal efter 2-3 CPU-kärnor i de flesta program vi kör på skrivbordet. Ska ändå bli spännande att se vad som händer när det inte lägre går att öka IPC, inte går att öka frekvensen och inte längre går att krympa vilket betyder att man inte heller kan stoppa in fler CPU-kärnor. Är inte så många år borta innan vi är där.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Entusiast
Skrivet av Yoshman:

Deklarera att CPU-utvecklingen är klar och ta sig an något annat?

Tyvärr är det inte mycket kvar att göra, vilket inte är kul för oss som har detta som hobby... Man kan alltid göra fler CPU-kärnor, men effekten är rätt minimal efter 2-3 CPU-kärnor i de flesta program vi kör på skrivbordet. Ska ändå bli spännande att se vad som händer när det inte lägre går att öka IPC, inte går att öka frekvensen och inte längre går att krympa vilket betyder att man inte heller kan stoppa in fler CPU-kärnor. Är inte så många år borta innan vi är där.

Vi får helt enkelt sitta och njuta av att det blivit en relativt billig hobby eftersom man inte behöver uppgradera datorn så ofta mer än grafikkortet. I alla fall tills de hittar en ersättare till kisel. Fast antar att "riktiga" 3D-transistorer är nästa steg och sista sucken för kisel. Det i kombination med dark silicone kan ju göra lite mer i alla fall.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Vi får helt enkelt sitta och njuta av att det blivit en relativt billig hobby eftersom man inte behöver uppgradera datorn så ofta mer än grafikkortet.

Grafikkorten verkar ha evolverat in sig i lite av en återvändsgränd. En stor del av prestandaökningarna det senaste decenniet har köpts med ökad effektförbrukning, på tvärs mot alla trender i övrigt. Så inte nog med att marknaden för diskreta GPUer minskar, dessutom finns det kanske inte tillräckligt stor volym i "högprestandasegmentet" för att motivera att man utvecklar/trimmar in processvarianter för det segmentet. Allt eftersom nya litografiska noder blir allt dyrare att utveckla, har volymsprodukterna allt mer dominerats av kretsar för mobilt bruk. (Även för Intel, vilket iofs inte påverkar tredjeparts fabbing.) Vad tillverkar Samsung som skulle motivera dem att ta fram en effektslukarvariant av t.ex. deras 14nm FF? TSMC?

GPU-tillverkarna ligger riktigt brunt till. Trots att deras nisch är lättparallelliserad, så är det inte jättesteg det handlar om i prestanda framåt.

Permalänk
Entusiast
Skrivet av EntropyQ3:

Grafikkorten verkar ha evolverat in sig i lite av en återvändsgränd. En stor del av prestandaökningarna det senaste decenniet har köpts med ökad effektförbrukning, på tvärs mot alla trender i övrigt. Så inte nog med att marknaden för diskreta GPUer minskar, dessutom finns det kanske inte tillräckligt stor volym i "högprestandasegmentet" för att motivera att man utvecklar/trimmar in processvarianter för det segmentet. Allt eftersom nya litografiska noder blir allt dyrare att utveckla, har volymsprodukterna allt mer dominerats av kretsar för mobilt bruk. (Även för Intel, vilket iofs inte påverkar tredjeparts fabbing.) Vad tillverkar Samsung som skulle motivera dem att ta fram en effektslukarvariant av t.ex. deras 14nm FF? TSMC?

GPU-tillverkarna ligger riktigt brunt till. Trots att deras nisch är lättparallelliserad, så är det inte jättesteg det handlar om i prestanda framåt.

Fast de verkar fortfarande ha en del trick i ärmen när det gäller arkitekturen. Så en eller två generationer till kan de nog fortsätta pressa prestandan även utan nya litografier. Nvidia har fortfarande incitament att jobba i prestandasegmentet för de har inget att hämta i de lägre segmenten längre. De håller på att konkurreras ut av integrerad grafik. Då har de bara toppsegmentet med Tesla kvar. Där finns mycket pengar att hämta då HPC är en stor marknad som antagligen kommer växa. Marginalerna är dessutom väldigt mycket högre där. De kan ta tre gånger så mycket för ett Tesla som ett Geforce trots att det är i princip samma kort. Så mycket dyrare än inte ECC. Så länge de kan hålla igång det segmentet så kan de fortsätta med högpresterande grafikkort. Får se hur det går med Intels Xeon Phi som är det största hotet. Nvidia har satsat mycket på att komma runt problemet med att de inte kan sälja massa billiga grafikkort till enkla arbetsstationer genom att satsa mycket på virtualiserad grafik. Alltså att man låter ett centralt kluster stå för all grafikprestanda på samma sätt som man ofta gör med CPU idag. Då kan de slå tillbaks mot den allt kraftigare integrerade grafiken. Får se hur det går för dem.

AMD verkar köra en annan strategi. De har ju någon sorts mål att integrera grafikkärnor med vanliga x86 under gemensam lågnivå cache för att få upp den generella prestandan. Intel verkar ha liknande planer. De verkar också satsa mer på arkitekturer som skalar bra och ha en grunddesign som de sedan bara kan skala upp till kraftiga kort. Det gör det relativt billigt att skapa nya spelkort. Det är antagligen därför GCN har mer fokus på GPGPU än tidigare.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24