TSMC: "Moores lag gäller inte längre"

Trädvy Permalänk
Inhibitor
Registrerad
Dec 1999

TSMC: "Moores lag gäller inte längre"

Grundaren till världens största kontraktstillverkare av kretsar stämmer in i kören om att Moores lag inte längre gäller, men ser fortsatt ljust på framtida tekniska framsteg – åtminstone till år 2025.

Läs hela artikeln här

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa leder till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Trädvy Permalänk
Medlem
Plats
Finland
Registrerad
Jul 2009

"7" nm, "5" nm, "3" nm. Altså 20 nm ++ 20 nm +++ och 20 nm ++++? Tillverkarna är hopplösa med storleks benämningarna i dagsläget >.<"

2700x @4,3 Ghz || 16GB DDR4 @3600 Mhz @14-15-15-30-54-345-1T || RX Vega 64 @ 1,6 Ghz /1,075 Ghz || 1TB SSD (MX500) || Corsair HX1000 platinum || FD R6 TS vit (Noctua & Noiseblocker fläktar) || Crosshair Hero VII || Corsair H100i V2|| Silverstone SST-ARM22SC skärmstativ || Samsung 32" QHD 144 Hz VA + Asus 27" FHD 60 Hz IPS ||

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Dec 2008

Går väl att stapla i flera lager, så vi kommer nog ikapp snart igen.

Inte problemfritt, men kan dom klura ut ett sätt att bygga in heatpipes i kislet så borde värmeavledningen bli bra nog för att möjliggöra flera lager.

"Dustybridge" 2500K - 32GB RAM - Tac2 - GTX770 - 120hz - vattenkylning - vad mer behöver man veta? ;)

Trädvy Permalänk
Medlem
Plats
Varberg
Registrerad
Nov 2011

Varför fortsätter stora företag droppa denna bomb till nyhet? Vi alla har redan hamnat i chock över detta så det räcker...

STULET: 1600x | 980Ti | Ceslius S24| Prime B350 PLUS | 16gb Vengeance LPX 3000MHz | 850 EVO 250gb | 750gb HDD | RM550X | Carbide 600Q | HD598SE | E10K
Kylpasta på bilden...
Tagg/citat öker risken att jag ser ditt inlägg med upp till 97%!

Trädvy Permalänk
Medlem
Registrerad
Mar 2012

Just nu är det bara 4 företag på 14nm och när vi går ner under 7nm kommer det nog bara vara 3 företag kvar.

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/bench/kf0pzs/1
Radeon Vega64.

Trädvy Permalänk
Medlem
Plats
Össjö
Registrerad
Jul 2009

Min första tanke är: Vem bryr sig längre?

Ja, det är inte så ekonomiskt att bara krympa längre. Det krävs lite mer från andra håll.

Processor, gpu etc har tagit stora steg frammåt. Mjukvaru utveckligen är dock inte i samma takt känns det som.

Fler kärnor och fler vector enheter etc verkar inte skala bra längre vilket var det man tjänade mest på innan.

Allt verkar ligga i mjukvaran. inte möjligen OS level men fortfarande mjukvara.

Det verkar som AMD/Intel/Nvidia introducerar fler funktioner och mer power under huven men allt arbete dom gör inte visar sig lika mycket.

Hur man fixar det vet jag ej, hade förmodligen gjort alla en stor tjänst och och fått massor med pengar för de.

HEDT Enthusiast- Nuvarande rigg: Threadripper/Sp3/TR4

Tidigare:
Intel: 440BX(2xCeleon), X48, X58, X79, X99, X299
AMD: Fr2(MSI Speedster II, Santa Rosa) Fr2(Tyan S3992-e, Barcelona)

Trädvy Permalänk
Medlem
Plats
Lerum
Registrerad
Mar 2011

så vi har haft 4-5 inlägg om detta redan förra året. skall vi ha 2 till nästa år också : )

Trädvy Permalänk
Medlem
Plats
Huddinge/Stockholm
Registrerad
Jan 2015

Detta har man väl konstaterat i några år nu? Har TSMC legat under en sten och missat alla andra nyheter av detta?

Dator 1: | i7 7700k | MSI GTX 1080 Gaming X | MSI Z270 Gaming pro carbon | Corsair LPX DDR4 16 GB | FD define S | Samsung 850 EVO 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 10
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Sep 2010

Antar att då kommer även GPUerna se sina +5% prestandaökningar runt år 2025.

Trädvy Permalänk
Inaktiv
Registrerad
Jan 2008

Vi kommer hamna i en dyster medeltid för datorkomponenter många århundraden framåt. Undergången är nära.

Trädvy Permalänk
Medlem
Registrerad
Apr 2012

När kommer nya material som ersätter kisel, diamant, nanotubes eller vad det nu blir ??

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Feb 2011

Nya lagen verkar vara att lägga till ett plustecken till befintlig teknik per år!

Första inlägget i en tråd är sällan relevant när tid har förflutit. Vänligen svara på mitt senaste inlägg i tråden, inte det första, annars blir det kass. http://ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.

Trädvy Permalänk
Medlem
Plats
Finland
Registrerad
Jul 2009
Skrivet av Alpha77:

När kommer nya material som ersätter kisel, diamant, nanotubes eller vad det nu blir ??

När någon är beredd att satsa på att utveckla metoder att framställa chip med dessa, kan bli extremt dyrt (Snackar årtionden och hundratals miljarder dollar)

2700x @4,3 Ghz || 16GB DDR4 @3600 Mhz @14-15-15-30-54-345-1T || RX Vega 64 @ 1,6 Ghz /1,075 Ghz || 1TB SSD (MX500) || Corsair HX1000 platinum || FD R6 TS vit (Noctua & Noiseblocker fläktar) || Crosshair Hero VII || Corsair H100i V2|| Silverstone SST-ARM22SC skärmstativ || Samsung 32" QHD 144 Hz VA + Asus 27" FHD 60 Hz IPS ||

Trädvy Permalänk
Medlem
Plats
Dalarna
Registrerad
Aug 2012
Skrivet av anon114264:

Vi kommer hamna i en dyster medeltid för datorkomponenter många århundraden framåt. Undergången är nära.

Är ju inte direkt så att man inte forskar om alternativ

Till exempel grafen eller nanorör. Men visst, det kan ju dröja ett bra tag innan nåt av dessa alternativ fungerar i praktiken och presterar bättre än det vi har nu.

AMD R5 1600 3.2 GHz | Gigabyte AX370 Gaming K3 | Corsair Vengeance LP 2x8GB 3200MHz CL16 | KFA2 GeForce GTX 960 OC | Phanteks Eclipse P400S | 1x Samsung 850 Evo 250GB 1x WD 500GB | Windows 10 Pro

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jan 2011
Skrivet av Esseboy:

När någon är beredd att satsa på att utveckla metoder att framställa chip med dessa, kan bli extremt dyrt (Snackar årtionden och hundratals miljarder dollar)

Om traditionell utveckling blir exponentiellt dyrare för varje generation är det inte en fråga OM utan NÄR det blir billigare att utveckla med alternativa metoder...

Trädvy Permalänk
Medlem
Plats
Strax öster om Lund
Registrerad
Apr 2009

“The electric light did not come from the continuous improvement of candles.” - Oren Harari

Det behövs nytänkande och nya tekniker än att fortsätta i samma gamla spår...

Trädvy Permalänk
Medlem
Plats
Karlstad
Registrerad
Nov 2010
Skrivet av SwedenVirre:

Min första tanke är: Vem bryr sig längre?

Det är väl bara Ludditer och liknande som inte bryr sig?
Det stannar ju upp hela teknikrevolutionen om vi ej får snabbare processorer av olika slag, såsom cpu och gpu.

Skrivet av SwedenVirre:

Processor, gpu etc har tagit stora steg frammåt. Mjukvaru utvecklingen är dock inte i samma takt känns det som.

Tvärt om om man ser vad mjukvaran kräver för hårdvara. Det är hela tiden hårdvaran som sätter begränsningar i hur ens system kan se ut.

Skrivet av SwedenVirre:

Fler kärnor och fler vector enheter etc verkar inte skala bra längre vilket var det man tjänade mest på innan.

Problemet med kärnor ligger på hårdvarusidan, det är inga problem att som privatperson slänga ihop ett system för hemmabruk som behöver ha motsvarande 200 processorkärnor med nuvarande prestanda per kärna, problemet är att man även ska ha övrig hårdvara som kan förse denna med data, vilket leder till att man helst ändå vill dela upp belastningen på fler datorer. Ofta behöver de olika kärnorna i princip inte kommunicera med varandra alls och då kan de ligga på flera olika moderkort.

Gått över till enbart Google Chromebook på klientsidan.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jul 2011

Jag tycker det är dags att bredda kretsarna så vi får plats med fler transistorer och annat.

I en stationär PC finns hur mycke utrymme som helst, och det skulle inte göra något om CPU:n blev en eller två cm bredare samt lite tjockare, om man tex vill peta in en fet gpu.

När ska vi få moderkort med dubbla CPU, måste allt byggas in i samma cpu?

Det finns många vägar att gå.

Trädvy Permalänk
Medlem
Plats
Finland
Registrerad
Jul 2009
Skrivet av Ixos:

Om traditionell utveckling blir exponentiellt dyrare för varje generation är det inte en fråga OM utan NÄR det blir billigare att utveckla med alternativa metoder...

Kisel chipp är egentligen otroligt billiga att tillverka. Utvecklingskostnader är vad som gör dom dyra. Ett GTX 1080 TI kostar troligen runt 2500 kr (ta med ett saltkar eller två) att tillverka, men eftersom de spenderat otaliga miljarder på att utveckla det så ska pengarna in nånstans!

2700x @4,3 Ghz || 16GB DDR4 @3600 Mhz @14-15-15-30-54-345-1T || RX Vega 64 @ 1,6 Ghz /1,075 Ghz || 1TB SSD (MX500) || Corsair HX1000 platinum || FD R6 TS vit (Noctua & Noiseblocker fläktar) || Crosshair Hero VII || Corsair H100i V2|| Silverstone SST-ARM22SC skärmstativ || Samsung 32" QHD 144 Hz VA + Asus 27" FHD 60 Hz IPS ||

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Feb 2007
Skrivet av Xverminator:

Jag tycker det är dags att bredda kretsarna så vi får plats med fler transistorer och annat.

I en stationär PC finns hur mycke utrymme som helst, och det skulle inte göra något om CPU:n blev en eller två cm bredare samt lite tjockare, om man tex vill peta in en fet gpu.

När ska vi få moderkort med dubbla CPU, måste allt byggas in i samma cpu?

Det finns många vägar att gå.

Det hjälper inte eftersom det skulle vara fler kärnor i så fall och programvara idag är allmänt dålig på att utnyttja flera trådar.

Skickades från m.sweclockers.com

AMD Ryzen 5 1600 | ASUS Prime X370 Pro | OCZ Vector 512GB | Fractal Design Newton R3 600W | Fractal Design Define R4| Corsair Venegance Red DDR4 16GB 3000MHz | Powercolor Radeon HD7970 | Eizo Foris FS2331

Trädvy Permalänk
Medlem
Registrerad
Feb 2005

Ni tror inte att det finns en utveckling vid sidan om enbart krympningen? Stora företag väntar nog inte på en undergång utan har nog en ganska gedigen plan inför framtiden. Om man nu skulle stampa på samma ställe, Varför skulle konsumenter fortsätta köpa nya komponenter? Klart som fan att det finns en plan för att öka prestandan även när fysikens lagar inte längre tillåter ytterligare krympning.

Kolla på bil/Transportindustrin där man börjar sadla om från fossilt till hybrid/batteri för att nämna en industri.

Tror inte AMD,Nvidia,Intel med flera sitter och rullar tummarna och ser sin undergång runt 2030. Skulle inte förvåna mig om dessa giganter har ett gemensamt samarbete med en gemensam plan likt bilindustrin som folk inte ser.

•·.·´¯`·.·•ЩIЯЦZ•·.·´¯`·.·•
Threadripper 1950X - Aorus x399 Gaming 7 - G.Skill Trident Z RGB 3200Mhz 4x8gb - EVGA GeForce GTX 1080 Ti FTW3 - 500gb Samsung 960 evo - Noctua NH-U14S TR4 - EVGA SuperNOVA G2, 1300W - Acer X34A

Trädvy Permalänk
Medlem
Plats
Finland
Registrerad
Jul 2009
Skrivet av Xverminator:

Jag tycker det är dags att bredda kretsarna så vi får plats med fler transistorer och annat.

I en stationär PC finns hur mycke utrymme som helst, och det skulle inte göra något om CPU:n blev en eller två cm bredare samt lite tjockare, om man tex vill peta in en fet gpu.

När ska vi få moderkort med dubbla CPU, måste allt byggas in i samma cpu?

Det finns många vägar att gå.

Problemet är att värmespridaren inte räcker till för att avleda värmen! Med ett GTX 1080 Ti och en Ryzen 1800 X krävs det nära 400 W kylning! Då får man sätta på en fet vattenkylare! Men visst kunde man I teorin bygga in HMB2 för systeminne och grafikkort (16 GB vardera) SSD på 250 GB och CPU och GPU I en processor i storleken Threadripper, men fasen vad det skulle bli värme! Men latenserna skulle bli otroligt små! Och moderkortet skulle kunna göras mindre än ITX haha! Sen bara in med sydbryggan och du har en system on a chip

2700x @4,3 Ghz || 16GB DDR4 @3600 Mhz @14-15-15-30-54-345-1T || RX Vega 64 @ 1,6 Ghz /1,075 Ghz || 1TB SSD (MX500) || Corsair HX1000 platinum || FD R6 TS vit (Noctua & Noiseblocker fläktar) || Crosshair Hero VII || Corsair H100i V2|| Silverstone SST-ARM22SC skärmstativ || Samsung 32" QHD 144 Hz VA + Asus 27" FHD 60 Hz IPS ||

Trädvy Permalänk
Medlem
Plats
Karlstad
Registrerad
Nov 2010
Skrivet av Xverminator:

Jag tycker det är dags att bredda kretsarna så vi får plats med fler transistorer och annat.

I en stationär PC finns hur mycke utrymme som helst, och det skulle inte göra något om CPU:n blev en eller två cm bredare samt lite tjockare, om man tex vill peta in en fet gpu.

När ska vi få moderkort med dubbla CPU, måste allt byggas in i samma cpu?

Det finns många vägar att gå.

När det gäller göra processorn större så blir det mycket dyrare av flera anledningar, som att sannolikheten att få en felfri krets minskas. Men visst blir tillverkningen bättre.

Moderkort med dubbla cpuer kommer nog snarare minskas till konsumenter och förklaringen är enkel. I början så var datorerna som vanliga personer använde terminaler som styrde en stordator, sedan kom hemdatorn och nu håller våra datorer på att bli något terminalliknade dator igen. Så folk kommer få mindre behov av datakraft i hemmet för att bearbetningen sker på servrar någons annanstans, se man på vanligt folk idag så har vissa inga applikationer installerade alls. Inte ens Office har de på datorn utan kör det i molnet. Inte ens jag som är utvecklare idag använder den egna datorn till annat än att koppla upp sin på en server där all utveckling skes.

Utvecklingen kommer då gå till emot att behovet av riktigt monstercpuer kommer att öka.

Sedan finns det såklart en skara gamers som köper bättre processorer och kör sina spel.

Gått över till enbart Google Chromebook på klientsidan.

Trädvy Permalänk
Medlem
Plats
-
Registrerad
Sep 2004
Skrivet av Elcentralen:

så vi har haft 4-5 inlägg om detta redan förra året. skall vi ha 2 till nästa år också : )

Min nya lag: "Antalet personer över tid, som påstår att Moores lag inte längre gäller längre, är ungefär konstant."

maybe i'm a one trick pony
but i ride it ride it ride it ride it
ride it honey

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av SwedenVirre:

Processor, gpu etc har tagit stora steg frammåt. Mjukvaru utveckligen är dock inte i samma takt känns det som.

Backar man ~12-14 år, när Dennard scaling* havererade vilket gjorde det mer eller mindre omöjligt att skruva upp frekvensen speciellt mycket, fanns fortfarande en väldigt utbredd optimism kring att det enda som saknades för att fler kärnor skulle ge samma vinst som högre frekvens gett under ett par årtionden var nya verktyg, metoder och programspråk.

Så här i efterhand är det som vanligt lätt att vara efterklok och konstatera att det var ett väldigt naivt förhållningssätt. Att göra varje enskild sak väldigt fort är långt mer flexibelt och inte alls generellt ersättningsbart med att göra många saker parallellt fast i långsammare fart per uppgift. Ofta har man bara en eller några få saker som kan göras!

Idag är det nog ingen inom forskningen som lägre tror att det kommer dyka upp någon silverkula som gör parallellprogrammering helt automatiskt. Numera är man införstådd med att det i grunden finns tre typer av problem

  • de strikt sekventiella (sådant där steg N+1 beror av resultatet från steg N), de kan inte köras snabbare på parallella system

  • de uppgiftsparallella (sådant där olika moment kan utföras oberoende av varandra), dessa kan med fördel skalas med fler CPU-kärnor

  • de dataparallella (sådant där samma sekvens av moment ska appliceras på massor med olika indata), dessa kan med fördel skalas med vektorenheter och i många fall även med fler kärnor

GPUer ser fortfarande en god utväxling från att öka antalet transistorer per krets då dessa uteslutande jobbar med den sista kategorin. D.v.s. de som designar GPUer är inte smartare än andra, de råkar bara jobba med det problem där det fanns mest outnyttjad potential.

Är långt mer energieffektivt att skala prestanda med vektorenheter än andra metoder, detta är dock den mest restriktiva formen av att exekvera ett program då all indata kör i stort sätt exakt samma program. GPUer är i botten väldigt breda vektor-CPUer.

Servers ser också riktigt bra utväxling de senaste 10 åren, detta då de ofta hamnar i någon av de två senare kategorierna. Programmen på skrivbordet är väldigt ofta i första kategorin, spel ligger mellan de två övre kategorierna.

Ett givet problem hamnar i en av kategorierna ovan, d.v.s. hur väl ett problem kan parallelliseras beror till absolut största del på problemet egenskaper.

Ur den aspekten är det väldigt trist att Moores lag är till ända, GPUer kan faktiskt fortfarande använda fler transistorer på ett sätt som relevant ökar prestanda. Är väl i.o.f.s så att Dennard allt mer sätter käppar i hjulen, detta då allt fler transistorer utan Dennard-scalning betyder att kretsen totalt sett kommer dra allt mer ström per ytenhet vid mindre noder.

Vi har faktiskt haft enorm utveckling på programvarufronten vad det gäller parallellprogrammering. Betänk bara att innan 2011 så hade faktiskt varenda multitrådat program skrivet i C/C++ ett beteenden som respektive språkstandard listade som "odefinierat beteenden" (det var i de flesta fall ändå definierat i praktiken, men det p.g.a. utökningar utanför själva språken).

Då dessa språk klev in i multicore-eran fick man ändå med sig en del bra saker. C11/C++11 har en kraftfullare, flexiblare och mer välskrivet beteende för multitrådade program körandes på SMP-system än något annat (finns absolut språk som är lättare att hantera, men inget är i närheten lika kraftfullt så de lämnar en helt del prestanda på bordet).

ARM utnyttjade också att de var väldigt sena på 64-bitars bollen i att de har den enda instruktionsuppsättning (så här långt) som är är en perfekt match mot C11/C++11 multicore-tjosan. Ska bli spännande att se hur mycket det kommer göra i praktiken. 32-bitars ARM och x86 är båda en rätt kass match (x86 är allt för strikt och 32-bitars ARM kräver allt för mycket explicit synkronisering).

* Dennard scaling sa i korthet: effekt per areaenhet är konstant när transistorer krymper.
D.v.s. effekten per transistor minskade tillräckligt snabbt för att kompensera för att man fick plats med fler transistorer. Pentium 4 är ett bra exempel på vad som hände när man körde på i samma "öka frekvensen" hjulspår även efter att Dennard Scaling havererat.

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jul 2011

@kazen_90: Men nu pratar vi om framtiden, inte nu..

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jul 2011
Skrivet av Johan86c:

När det gäller göra processorn större så blir det mycket dyrare av flera anledningar, som att sannolikheten att få en felfri krets minskas. Men visst blir tillverkningen bättre.

Moderkort med dubbla cpuer kommer nog snarare minskas till konsumenter och förklaringen är enkel. I början så var datorerna som vanliga personer använde terminaler som styrde en stordator, sedan kom hemdatorn och nu håller våra datorer på att bli något terminalliknade dator igen. Så folk kommer få mindre behov av datakraft i hemmet för att bearbetningen sker på servrar någons annanstans, se man på vanligt folk idag så har vissa inga applikationer installerade alls. Inte ens Office har de på datorn utan kör det i molnet. Inte ens jag som är utvecklare idag använder den egna datorn till annat än att koppla upp sin på en server där all utveckling skes.

Utvecklingen kommer då gå till emot att behovet av riktigt monstercpuer kommer att öka.

Sedan finns det såklart en skara gamers som köper bättre processorer och kör sina spel.

Jepp precis men jag pratar om power users, inte såna som lyssnar på spotify på mobiltelefonenen eller kollar netflix och enklare appar.
Det kan man göra på sufplattor och i molnet som sagt.

Men det blor nog en combo av både server/klient samt klient lösningar i molnet.

Trädvy Permalänk
Medlem
Plats
Össjö
Registrerad
Jul 2009

@Johan86c: Menade inte att vi inte får någon utveckling utan mer att detta konstaterats i flera år och samma ord har blivit saggda många gånger.

HEDT Enthusiast- Nuvarande rigg: Threadripper/Sp3/TR4

Tidigare:
Intel: 440BX(2xCeleon), X48, X58, X79, X99, X299
AMD: Fr2(MSI Speedster II, Santa Rosa) Fr2(Tyan S3992-e, Barcelona)

Trädvy Permalänk
Medlem
Plats
Södertälje
Registrerad
Aug 2007
Skrivet av Lordsqueak:

Går väl att stapla i flera lager, så vi kommer nog ikapp snart igen.

Inte problemfritt, men kan dom klura ut ett sätt att bygga in heatpipes i kislet så borde värmeavledningen bli bra nog för att möjliggöra flera lager.

Man har väl räden det tänket i flera lager. Hur man ska flytta bort värme menar jag. Sedan är ju latency ett problem då man ska designa ledningsbanor. Beror ifos på vad kretsen ska göra.

CPU: i7 3770k@4,50Ghz MB Z77X-D3H RAM: 16GB@2133mhz (10-12-11-27 2T)
GPU: 980Ti@1404,8 HDD: 4st MLC 1st TLC and 2st HDD for random: FD-PSU-TS2B-800W. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Via to Z-2300 for VOIP. http://valid.x86.fr/nf1u3d https://www.techpowerup.com/gpuz/gxryb

Trädvy Permalänk
Medlem
Plats
Karlstad
Registrerad
Nov 2010
Skrivet av Xverminator:

Jepp precis men jag pratar om power users, inte såna som lyssnar på spotify på mobiltelefonenen eller kollar netflix och enklare appar.
Det kan man göra på sufplattor och i molnet som sagt.

Men det blor nog en combo av både server/klient samt klient lösningar i molnet.

Ja håller med. Det jag är tveksam till hur många prousers det finns. Molnet växer annars som det knakar, av hur många anledningar så det ej är klokt. Och Amdahl's och vad de heter, har lika mycket att säga till om som Newtons gravitationslag på hur en processor ska byggas upp.
Man har i princip "obegränsat antal" helt oberoende problem som ska exekveras, helst ska dessa problem vara så isolerade från varandra som möjligt och man isolerar dem ofta med virtualisering eller contationers som är mer lättdrivna.
Det som avgör hur många kärnor som man ska lägga per host avgörs av hur den övriga hårdvaran bottleneckar, i princip ingen annan begränsning finns. Även om hypervisors som EXSI säkerligen mår dåligt av för många maskiner.

Maskiner som körs under dessa premisser blir allt vanliga bland helt vanliga prousers.

Rena sekventiella problem vars realtidskrav ställer problem så att en kärna flaskar vill jag påstå är ovanligt i saker förutom spel eller annan liknande användning (navigering i cad är liknande). Många gör tester som att det tar x millisekunder med en kärna för ett program att visa en meny med en kärna, med 10 kärnor tar det fortfarande lika många millisekunder för menyn att öppnas. Och då säger de att fler kärnor ej hjälper, varvid min åsikt är varför fokuserar de på att mäta tider för saker som ändå inte är något problem?
Mät istället för de uppgifterna där användarna håller på att slå sönder datorn för skiten aldrig blir klar.

Gått över till enbart Google Chromebook på klientsidan.