Intel är fast på 14 nanometer till 2019

Permalänk
Avstängd

@Xinpei: det är rejäl skillnad på Zen och Jaguar. om AMD inte gör en APU till nästa generations konsoler Så är det bara logiskt att dem använder desktop CPUer i kommande konsoler, Vilket betyder 8-16 kärnor.

Jaguar är uppbyggt på en liknande Design som bulldozer vilket gör att den har samma problem.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av _Merc_:

@Xinpei: det är rejäl skillnad på Zen och Jaguar. om AMD inte gör en APU till nästa generations konsoler Så är det bara logiskt att dem använder desktop CPUer i kommande konsoler, Vilket betyder 8-16 kärnor.

Jaguar är uppbyggt på en liknande Design som bulldozer vilket gör att den har samma problem.

Finns inte en chans i hela världen att de tar en desktop CPU! Den är för svår att kyla och kostar för mycket för att sätta in i den miljön som krävs för konsoler. För att inte prata om att det måste inplementeras en separat GPU krets... nej det kommer inte att hända. Och nej det innebär inte per automatik 8-16 kärnor och det innebär inte ökat stöd för åttakärniga processorer heller..

Skickades från m.sweclockers.com

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Datavetare
Skrivet av _Merc_:

@Xinpei: det är rejäl skillnad på Zen och Jaguar. om AMD inte gör en APU till nästa generations konsoler Så är det bara logiskt att dem använder desktop CPUer i kommande konsoler, Vilket betyder 8-16 kärnor.

Jaguar är uppbyggt på en liknande Design som bulldozer vilket gör att den har samma problem.

Jaguar har väldigt lite gemensamt med Bulldozer, den är väsentligt mer lik en dual-issue Phenom (Athlon var redan från start triple-issue).

Är mer rätt att se Zen som en dubbelt så "bred" Jaguar. Jaguar är faktiskt en väldigt bra design, givet dess förutsättningar (är bara så mycket man kan göra IPC-mässigt med en relativt lågt klockad dual-issue design, Zen är ju quad-issue).

Finns inte heller någon garanti för att en Zen baserad APU skulle få lika många CCX som toppmodellen på desktop, det är snarare väldigt osannolikt givet hur pass stor en sådan APU skulle bli (konsoler lägger majoriteten av transistorerna på GPUn).

Vidare skulle konsoler med väsentligt starkare CPU ironiskt nog gynna Intel mer, detta då man har ett övertag både i frekvens och IPC för den typ av arbetslast som spel genererar. För kompilatorutvecklare är Zen och Haswell/Broadwell extremt lika, så alla dessa "optimering för Zen" som aldrig materialiserat är därför att AMD fattade att man bara kan lyckas om man gör en CPU-design som mår bra av rätt mycket samma hantering av instruktioner som Intels CPUer.

Detta då i princip x86 kompilatordesign under väldigt långt tid varit synonym med Intel Core. Ovanpå det är smådetaljer som exakt ordning på instruktioner och hantering av register långt mindre viktigt idag än tidigare, idag gör majoriteten av sådana mikrooptimeringar dynamiskt av CPUn själv (m.h.a. s.k. out-of-order execution, vilket är en grundförutsättning för spekulering med hög prestanda och spännande buggar som Spectre/Meltdown )

Ett av de mest framgångsrika "tricken" spel använder för att nyttja flera kärnor har nog nått sin gräns redan. Det är att man offrar viss "input-lag" mot att kunna ha upp till tre scener i luften samtidigt.

  • Scen N+2 läser indata från användaren och sätter upp initiala tillståndet

  • Scen N+1 kör fysik, AI och liknande som ger indata till alla koordinater i 3D världen

  • Scen N kör draw-calls till GPU (DX12/Vulkan eller ej, detta är och förblir tyvärr en rätt seriell process då rendering kokar ned till en väldigt stor tillståndmaskin där nästan allt måste ske seriellt då det bara finns en GPU-kö på dagens grafikkort)

Det man faktiskt ser är scen N-1 eller N-2, lite beroende på eventuell buffring i monitor och liknande.

Dels ger allt fler steg till slut märkbar "input-lag" (finns vissa FPS som inte gör ovan av den orsaken). Dels börjar det bli lite svårt att hitta saker som sinsemellan är oberoende, om de inte är oberoende kommer det inte skala speciellt bra (icke-oberoende multitrådade program är något som missgynnar alla, men missgynnar Intels S-serien mindre än Zen och Intels X-serien).

Dagens spel ser ju väldigt liten effekt efter 4T, även om det finns några undantag som ser viss skalning till 6T. Men efter 6T är det mer eller mindre noll skalning. Det trots att PS3 hade 2+6 trådar (en CPU med SMT + 6 SPE), 360 hade 6 trådar (tre kärnor med SMT) och PS4/XBO har båda totalt 8C/8T. Det är mer än 10 år av konsoler med rätt många CPU-trådar...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Xinpei: Precis det jag menade. Det är en väl fungerande PR strategi att använda sig av termer som är knutna till exempelvis teknisk utveckling. Där folks okunskap gör att man simplifierar saker.

Förut hade vi Mhz race, sen Ghz race. Där folk ansåg att högre siffra alltid är bättre. Vilket inte alltid stämmer.

Sen har vi nm race, där folk får veta att lägre siffra är bättre. Då man som novis inte är så insatt så ser man att 7nm är mindre än 10nm, och antar att då är processorn med 7nm är bättre/nyare än den produkt som "bara" har 10nm.

Det gör då inte saken lättare när producenter mäter/benämner något på olika sätt, som egentligen är en fastställd enhet, term.

Tänk om man gick till en järnaffär för att köpa borr. Jag ska en 7mm borr. Frågar säljaren om borren -Är det här rätt 7mm borr jag ska ha? (Säljaren -Det beror på)

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Medlem
Skrivet av frois:

För egen del struntar jag i om Intel tillverkar på 14 eller 10 nm. Jag vill ha en arkitektur där Meltdown och Spectre är åtgärdade. Annars kan mina maskiner lika bra ligga kvar på Haswell och Skylake som idag. PCIe 4.0 vore också något som skulle få mig att byta plattform.

Citerar mig själv. En fundering som kom var om Intel helt hakat upp sig på att inte släppa en ny arkitektur innan de lyckats krympa processnoden till 10 nm? Ny arkitektur med fix för Spectre och Meltdown skulle få mig att handla nytt system även om det var 14 nm.

Ingen mer som funderat på detta?

Permalänk
Medlem
Skrivet av Nautilus011:

Tänk om man gick till en järnaffär för att köpa borr. Jag ska en 7mm borr. Frågar säljaren om borren -Är det här rätt 7mm borr jag ska ha? (Säljaren -Det beror på)

Är ju relevant fråga, borrtyp beror ju på om du ska borra i exempelvis trä, metall, eller betong.

OnT: Vad gäller kommande noder, så ligger är cellstorleken för kisel ca 0.54nm, så på 10nm så har vi mindre än 20 celler i bredd, så det lär inte gå att komma så mycket längre där. På gate-oxiden är man nere i några atomlager (redan kring år 2000 var man nere i 3-5 nm).

Nästa problem är ju resisten, man måste ju kunna generera mönstret på chippen tillräckligt skarpt för att etsningen ska bli bra.

Nästa steg torde vara att lägga transistorerna i flera lager, vilket redan hänt/händer på flashminne.

Permalänk
Medlem
Skrivet av Yoshman:

Hur kommer du fram till slutsatsen att Intels nod har sämre ekonomi?

Intel har kvar sin 22 nm, en nod som faktiskt uppdaterades hyfsat nyligen. TSMC (och gissa samma gäller Samsung och Global Foundries) utvecklar fortfarande sin 28 nm nod. Orsak? De kretsar där kostnad står över allt annat är dessa fortfarande bäst.

Problemet med 22 nm / 28 nm är att man inte kan tillverka de mest komplicerade kretsarna där. Inte ens de halvkomplicerade är optimala där om totala kretsytan blir allt för stor.

Redan när man fick skjuta på 10 nm så att det blev en 14 nm++ sa man att 10 nm och antagligen även 10 nm+ kommer ge lägre klockade kretsar.

I det läget var fortfarande planen att 10 nm initial skulle användas till servers, både Xeon och Atom, där är inte maximal klockfrekvens primär flaskhals.

Nu verkar man ändrat detta, man sa ju i samband med Q2 resultatet att det blir S-serien (rimligen Ice Lake) som lanseras först, tätt följd av server-kretsarna.

Frekvenserna vi ser på de enstaka Cannon Lake som lanserats på 10 nm är egentligen inte huvudproblemet. De når 3,2 GHz max turbo(15 W TDP), vilket är exakt vad den snabbaste 15 W i7 Broadwell också nådde. Man lyckades bara höja det till 3,4 GHz i den bäst presterande Skylake på 15 W, där använde man fortfarande 14 nm.

Var sedan det tog fart. På 14 nm+ nådde man 3,9 GHz, fortfarande 2C/4T och 15 TDP. Nu ligger toppmodellen på 15 W på 4,2 GHz max turbo, det med 4C/8T.

Allt handlar om användbar yield. Intels CPUer kan inte ha enormt trasiga kretsar.

10nm, 7nm oavsett vad man kallar det, så är det en nivå som innebär gränsen för vad ljuset man vill använda klarar av. Och Yield när jag såg lite info om det senast, landade på runt 20-30%. Nu kan de ha fått upp detta, men även om de nått 50%, är det enormt många CPUer man tvingas kasta.

Man kan göra icke HT version, och kapa lite Cacheminne samt en kärna (då HT stängs av), och på så sätt "rädda" CPUn, och sälja denna (vilket kanske förklarar 9700k). Men du får ändå sämre betalt för den, och du tvingas ta premium för din vassaste CPU.

AMD som det är nu, har 4-core CCX, men som mer och mer tecken visar, är de på väg mot 6-core eller tom 8-core CCX, då 32-core TR är läckt i specs. Så när de tillverkar dessa CCX kluster, är både klusterna mindre än Intels HEDT cpuer, men samtidigt också uppskattningsvis mindre än Intels 14nm 8-core CPU, men vi kan för enkelhetens skull säga de är lika.

Så Intel kan välja mellan 10nm, med usel frekvens, usel yield och usel vinst, eller 14nm++ som redan är maxad (och då blir förlust på andra produkter man inte kan sälja), med större krets och bättre yield.

AMDs CCX kluster dock... kan också tåla en del defekter. Både i Cache och kärnor har de redan med första gen visat både 3-core och 2-core CCX fullt användbara. Ryzen 1600X som är en väldigt prisvärt CPU, är gjord på trasiga CCX kluster.

Så även om AMDs 7nm ger bara 30% yield av hela kretsar, är oddsen mycket stor att du får CPUer som går att använda ändå, om du har 8-cores och bara behöver 4 fungerande för att kunna sälja den. Totala yielden kommer ju bli enormt mycket högre, pga denna design.

Om de nu har 8-core CCX, och verkar iaf i TR släppa 6-core och 4-core versioner, är det rätt logiskt att anta de kommer göra liknande igen. Dvs den ryktade värsting 12-core AMD Ryzen CPUn som ska komma.... kan komma vara trasiga CCX kluster.

Så Intel tävlar med fullfjädrad 14nm++ 8-core, dyr CPU VS AMD som tar lite trasiga chipp från högen och ger dig något som i multi-tråd, är rätt motsvarande. Ekonomi någon? Tror du klarar göra matten efter detta...

Skrivet av Yoshman:

Kan man lite tycka är ett lyxproblem, bara köra vidare på 14 nm till dess att 10 nm är minst lika bra?

Det är ett lyxproblem, nu, ja.
Men AMDs design har mycket bättre chans att klara framtida minskningar i Noder, med bra yield och bra ekonomi vs Intels rå "bruteforce" design. Intel har träffat på den första riktiga betongväggen... och smäller den just nu med atombomber i hopp om att den ska ge sig, med överklockade befintliga saker.

Men vad gör de med nästa vägg? och nästa efter det? Enkla vägen är borta nu.
Och om du inte tror Intel ska bygga en fabrik till på 14nm++, kommer detta stanna upp nästan samtliga av deras projekt pga produktionsbrist. Detta i sin tur ger dyrare delar (chipset/CPU osv).

Så AMD ökar Yield/Vinst/Cores och Intels alla projekt stannas upp pga ingen 10nm.... det är vägen som det ligger nu.

Skrivet av Yoshman:

Kan ju tyckas vara ännu ett lyxproblem givet att man i detta kvartal både slog omsättningsrekord och vinstrekord. Men detta är ett mardrömsscenario för Intel. Om de inte kan leverera så mycket kretsar de skulle kunna ha sälja betyder det väldigt ofta att kunderna som blir utan måste köpa från någon annan. D.v.s. vad som nämnts i flera investeringsanalyser är att detta bjuder in bl.a. AMD och även ARM tillverkarna (Xilinx nämnes som någon som speciellt gynnas av detta, Marvell (Cavium) lär inte inte heller vara missnöjda).

Var exakt detta AMD råkade ut för på serversidan under Athlon64-tiden. AMD hade en helt överlägsen design för servers, man sålde exakt var enda server CPU man lyckades tillverka. Det resulterade ändå i att Intel kunde hålla strax över 50 % av marknaden, P4 verkligen sög på server (man sålde faktiskt under hela tiden även P3-baserade servers), men fanns liksom inget alternativ.

Tror man på något sätt att "kapacitetsbrist" är b*ll kan man notera att Intel, trots konkurrensen med AMD, faktiskt ökade ASP (Average Selling Price) på sina konsumentprodukter YoY. Det medan AMD såg minskad ASP i samma segment (AMD nämnde dock i sin presentation att Ryzen Mobile och Ryzen Pro lindrade tappet i ASP, men kunde inte helt kompensera).

Så kortsiktigt drar detta antagligen upp Intels marginaler då man rimligen lär säga nej till produkter med låg marginal först. På lång sikt är det inte alls bra då en av de största barriärer många har med att byta leverantör är att man byter sällan bort något som fungerar, om det inte finns väldigt starka skäl som att "det finns inga produkter att köpa".

Mjo, det är ju lite detta man sätter sig i, då nästan allt de tillverkar är på den noden nu. En brand... en översvämning, och Intel kan se stora delar av sin marknad försvinna. Och om AMD gör bra Ryzen 2, så kan de lätt börja ta marknadsdelar.

Skrivet av Yoshman:

Tja, man har ju Atom som i sin senaste inkarnation faktiskt matchar Core2 i IPC. På många grundläggande sätt är Goldmont+ och Zen mer lik än vad de två är lik Skylake. Båda de förra har distribuerad schemaläggare mot Skylakes centrala schemaläggare, Skylake lägger väldigt mycket transistorer på SIMD medan de båda förra nöjer sig med SSE kapacitet (fast Zen stödjer AVX, dock samma kapacitet som med SSE), Skylake har 4+4 split i minnes ALU mot beräknings ALU, Zen/Atom har 2 minnes ALU (väldigt komplicerade att designa, framförallt load ALUs, mycket spekulation där;) och väsentligt fler beräknings ALUs.

Men ser överhuvudtaget inte kopplingen till "ny CPU-arkitektur" och "lösa de problem man har med 10 nm"...

Min poäng är, bruteforce tillverkning fungerar inte längre. Intels problem visar detta, och har visat det sedan 22nm blev försenat och 14nm sköts upp. Det går långsammare och långsammare att "komma vidare". Och om man titta på 22nm blev försenat ca 8-10 veckor, säg 2 månader, så har denna trend funnits länge.

14nm i sig blev ju också försenat... bra över 1 år om jag minns rätt, och Haswell Refresh blev istället lösningen. Nu är 14nm försenat minst 2 år (var ju iaf hyfsat planerat till 2017), så börjar man undra hur många år blir sedan 7nm försenat? 3år? 5år?

Mao... man behöver en lösning där du kan tillverka CPUn i moduler, som AMD gör, för att kunna tillverka mindre delar, med bättre yield och även kunna använda trasiga delar för att göra komplett krets.
NAND har visat att detta är vägen att gå framåt på det mesta inom tillverkning i dessa små skalor, där man använde nästan varenda krets som lämnar fabriken, mer eller mindre trasig.

Och då behöver de en ny design för att göra detta.

Skrivet av DasIch:

Det lär snarare handla om att planera produktionen utifrån kapacitet och kostnadseffektivitet. Varifrån har du fått att Intel först tänkt lägga tillverkningen av chipset på 10nm? Det är väl snarare 14nm som blir nästa steg för chipset, om man går efter hur Intel gjort tidigare.

Kapacitetens last är 100%. Eller rättare sagt, långt över 100%... där saker inte kan tillverkas fort nog.

Jag ska dock rätta mig själv, jag hade läst fel. Det var pga CPUerna inte gick till 10nm som det blev trångt när Chipset skulle från 22nm till 14nm. "I stand corrected".

Skrivet av DasIch:

Okej, en liten sänkning i klockfrekvens kan de komma undan med. Annars är det liksom ingen bra idé att lansera en ny produkt som presterar sämre än den gamla. I mobila enheter och servers kanske de kan göra vinster i strömförbrukning och motivera köp den vägen, men det blir svårt på desktop.

Och just här är problemet...
Hur mycket snabbare är en 9900k vs 8700k vs en 7700k?
Jo svaret är exakt samma som mängden fler kärnor ger... inom felmarginal.

Mao den gamla CPUn från slutet av 2016, är exakt samma "CPU" vi ser folk hypa över som ska komma. Enda skillnaden är att Intel har gjort en AMD... och bara lagt till fler kärnor. De flesta av samtliga här klarar 5Ghz, med delid. Sen ja, där är fördelar med större kärna, och mer yta att föra över värmen med.

Men... precis som man frågar sig... vad ska jag med en 16-trådars 1800X, frågar jag... vad ska du med en 16-trådars 9900k? En 8700k kan du också som sagt klocka upp. Och du får HT, som du inte får i 9700k. Alla har tjafsat rätt friskt om att fler kärnor inte gör någon nytta, men ändå deglar dessa personer över en 9900k utan att säga samma sak.

Så, när Intel ska vi se någon förbättring?
Var är 6Ghz-4-core iaf, som ju enligt Intels anhängare rent teoretiskt är bättre CPU (högre 1-tråd prestanda).

I laptop har turbofrekvenser och kaby och senares förmåga att snabbt bytta frekvens gjort dessa 4-6-core 15-45W CPUer ruskigt snabba. Så, där finns lite att hämta från tidigare gen.

Skrivet av DasIch:

Du kan ju annars inte utgå ifrån klockhastigheterna de får ut av noden idag. Det är ju just därför de skjuter upp lanseringen av 10nm. Man får väl anta att Intel faktiskt arbetar sig igenom problemen och inte lanserar 10nm innan den fungerar bra.

Problemet är ju att de själva pressar upp sina egna krav.
De står och bokstavligt tala gräver sin egen grav, då om man tittar på hur lång tid det tog för 10nm att mogna från de frekvenser de har idag (säg <4Ghz grovt), är ju många år, även i bästa fall. Så hade ni tänkt Intel skulle dra en 10nm 8-core 4,5Ghz CPU som uppföljare? Eller tänkte ni vänta tills når 5Ghz på samtliga framtida noder?

IPC är maxat, mer eller mindre.
Frekvensen är maxad, mer eller mindre 5Ghz på allt.
Kärnor är snart maxad, för 8-core 16-trådar är rätt överdrivet på konsument. 6/12 räcker väl för den mjukvara som finns idag, och som Yoshman fortfarande påstår inte öht går att bättra.
Var är förbättringen? Kan vi ens se 5-10% förbättring öht, eller är det 5,5Ghz OC och kylare som kan kyla bilar som gäller för den?

Är det köp en CPU nu, och sedan behöver du aldrig köpa någon mer?
För när väl 10nm lanseras... så ska ju 7nm sen komma (Intels 7nm då)... ska vi vänta 5-10 år på den också ska nå 5Ghz?

Förstår liksom inte hur ni tänker... (helt ärligt/allvarligt)
Det är ganska allvarligt problem här... och ni bara ignorerar det som en skogsbrand som man inte ser, därför finns den inte. För även om de släcker denna branden, och H2 2019 som planerat släpper 10nm CPUn, vad är poängen? 12/16core då eller?

Permalänk
Datavetare
Skrivet av Paddanx:

Allt handlar om användbar yield. Intels CPUer kan inte ha enormt trasiga kretsar.

10nm, 7nm oavsett vad man kallar det, så är det en nivå som innebär gränsen för vad ljuset man vill använda klarar av. Och Yield när jag såg lite info om det senast, landade på runt 20-30%. Nu kan de ha fått upp detta, men även om de nått 50%, är det enormt många CPUer man tvingas kasta.

Man kan göra icke HT version, och kapa lite Cacheminne samt en kärna (då HT stängs av), och på så sätt "rädda" CPUn, och sälja denna (vilket kanske förklarar 9700k). Men du får ändå sämre betalt för den, och du tvingas ta premium för din vassaste CPU.

En liten vink här kring vilket utbyte Intel har på sina <200 mm² kretsar när man väl inleder volymproduktion: de bemödar sig inte ens att ha nedskalade versioner mer än i form av lite mindre L3$ i I5-versionerna.

Lite extrapolation från hur storleken ändrades från 4C till 6C pekar på att man kommer få en ~180 mm² krets på 14 nm, det är inklusive en iGPU som i 4C fallet tar strax över 50 % av kretsytan.

Så fort man går upp på större kretsar, d.v.s. de som används för SKL-X och Xeon så har man SKUs som täcker in de kretsar som kan räddas genom att stänga av kärnor och L3$.

Du skrev "De som är stenhårda troende kommer hävda att Intels nod än är bättre, och ja, frekvensmässigt är den. Men prismässigt... inte en chans." vilket rimligen måste referera till den 14 nm+++ nod som man kommer använda för Whiskey Lake.

14 nm lär ha ett utbyte på väldigt nära 100 % vid det här laget när det handlar om kretsar <200 mm^2. Det var min invändning kring att det är knappast ekonomidelen som kommer fälla konsumentkretsarna på 14 nm, inte innan de mindre noderna når utbyten som är höga nog att man kan få en vinst på flera kretsar per kiselplatta trots högre tillverkningskostnad (allt annat lika blir det högre tillverkningskostnad för varje mindre nod nu p.g.a. av allt fler litografisteg).

Problemet kommer när konsumentmodellerna får så pass mycket finesser att kretsarna blir obekvämt stora på 14 nm. Tittar man historiskt verkar Intel vilja hålla sina konsumentmodeller någonstans vid <200 mm² (AMD verkar sätta gränsen 50-100 ² högre av någon, men då har man också binnat på ett annorlunda sätt).

Skrivet av Paddanx:

AMD som det är nu, har 4-core CCX, men som mer och mer tecken visar, är de på väg mot 6-core eller tom 8-core CCX, då 32-core TR är läckt i specs. Så när de tillverkar dessa CCX kluster, är både klusterna mindre än Intels HEDT cpuer, men samtidigt också uppskattningsvis mindre än Intels 14nm 8-core CPU, men vi kan för enkelhetens skull säga de är lika.

Så Intel kan välja mellan 10nm, med usel frekvens, usel yield och usel vinst, eller 14nm++ som redan är maxad (och då blir förlust på andra produkter man inte kan sälja), med större krets och bättre yield.

AMDs CCX kluster dock... kan också tåla en del defekter. Både i Cache och kärnor har de redan med första gen visat både 3-core och 2-core CCX fullt användbara. Ryzen 1600X som är en väldigt prisvärt CPU, är gjord på trasiga CCX kluster.

Så även om AMDs 7nm ger bara 30% yield av hela kretsar, är oddsen mycket stor att du får CPUer som går att använda ändå, om du har 8-cores och bara behöver 4 fungerande för att kunna sälja den. Totala yielden kommer ju bli enormt mycket högre, pga denna design.

Finns rätt många delar i deras design som måste vara helt intakt. X-bar:en mellan CPU och cache, all I/O och minneshantering samt nästan alla SKUs kräver att all L3$ är intakt.

De delar upp SKUs rätt mycket på antal fungerande kärnor. Finns absolut inget i Skylakes design som hindrar Intel från att göra exakt samma sak, faktum är att man gjorde det på sin ring-buss design så länge den användes av Xeons. Orsaken att man inte binnar SKUs på det sättet är därför rimligen enbart därför att det inte finns någon ekonomisk poäng.

Skrivet av Paddanx:

Så Intel tävlar med fullfjädrad 14nm++ 8-core, dyr CPU VS AMD som tar lite trasiga chipp från högen och ger dig något som i multi-tråd, är rätt motsvarande. Ekonomi någon? Tror du klarar göra matten efter detta...

Nej, får överhuvudtaget inte ihop matten när en 8C/16T 14 nm+++ krets inte kommer bli tillräckligt stor för att orsaka något problem på en extremt mogen nod. ~180 mm² inklusive iGPU är ju trots allt mindre än de kretsar AMD använder för Ryzen och Intel kommer kunna ta långt mer betalt för i7-9700k och i9-9900K än vad ASP är för Ryzen-kretsarna på ~210 mm² haft

Det kortsiktiga problemet Intel har är att man aldrig planerat en uppdaterad mikroarkitektur för S-serien på 14 nm. Det har man gjort för Xeons och är nog något man är väldigt glad för just nu. Cascade Lake får nya funktioner utöver Meltdown/Spectre variant 2 fixarna, Whiskey Lake är Kaby Lake med Meltdown/Spectre variant 2 fixar, Kaby lake är minimalt uppdaterad från Skylake (någon detalj i iGPU samt uppdatering av Speed Shift).

På lite längre sikt har måste man till 10 nm för att kunna göra mer avancerade Xeons, Xeon Phi samt Stratix (deras FPGA) då respektive toppmodeller av dessa redan är så stora de kan bli på 14 nm.

Skrivet av Paddanx:

Men vad gör de med nästa vägg? och nästa efter det? Enkla vägen är borta nu.
Och om du inte tror Intel ska bygga en fabrik till på 14nm++, kommer detta stanna upp nästan samtliga av deras projekt pga produktionsbrist. Detta i sin tur ger dyrare delar (chipset/CPU osv).

Ingen lär tro att Intel kommer bygga fler 14 nm fabriker. Så deras problem just nu är just att man har kapacitetsbrist. Men på kort sikt är det orsaken till att man radar upp vinstrekord, för just nu kör man 14 nm på högtryck i den del av cykeln när processen är som klart mest lönsam: tokhögt utbyte och man tillverkar fortfarande de kretsar med absolut högst pris mot kund där.

Kapacitetsbristen är ett jätteproblem då det tvingar vissa kunder till konkurrenterna. Syns inte i Intels siffror just nu, där ser vi som sagt vinstrekord på vinstrekord. Men många av de kunder som tvingas lämna kommer inte komma tillbaka om de blir nöjda med det val man nu tvingas till. Så ett potentiellt jätteproblem på lite längre sikt, vilket är vad aktiemarknaden försöker ta höjd för.

Skrivet av Paddanx:

Mao... man behöver en lösning där du kan tillverka CPUn i moduler, som AMD gör, för att kunna tillverka mindre delar, med bättre yield och även kunna använda trasiga delar för att göra komplett krets.
NAND har visat att detta är vägen att gå framåt på det mesta inom tillverkning i dessa små skalor, där man använde nästan varenda krets som lämnar fabriken, mer eller mindre trasig.

Och då behöver de en ny design för att göra detta.

Ser överhuvudtaget inte vad en nu CPU-design skulle lösa då man redan gör den typ av binning du pekar på att AMD gör. Men Intel bryr sig som sagt inte om att göra den på konsumentkretsarna då dessa är så pass små och gissningsvis då når så högt utbyte tidigt nog att det inte är ekonomiskt vettiga att göra SKUs med olika antal kärnor från samma kiseldesign.

För större kretsar har man tidigare gjort och gör på aktuella modeller exakt den binning du efterfrågar.

Skrivet av Paddanx:

Kärnor är snart maxad, för 8-core 16-trådar är rätt överdrivet på konsument. 6/12 räcker väl för den mjukvara som finns idag, och som Yoshman fortfarande påstår inte öht går att bättra.

Uppenbart att vad jag försöker säga i de kommentarerna är totala grekiska för de som inte redan har rätt bra koll på multicore-programmering, vilket rent krasst är en rätt liten del av alla programmerare som i sin tur är en rätt liten nisch av alla PC-användare.

Och har försökt peka på att det är inte mina ord, det är vad en numera rätt enad forskarkår på området numera hävdar. Initiala ansatsen hos dem var att man kommer hitta något "nytt sätt att utveckla programvara" som fixar problemet. Nu är rätt mycket konsensus att rätt många problem kan helt enkelt inte skalas väl, andra är uppgiftsparallella och skalas bäst med kärnor medan andra är dataparallella och skalas bäst med SIMD/GPGPU.

För konsumentprogram är de uppgiftsparallella problem rätt ovanliga, dataparallella problem finns inom vissa områden som maskininlärning och vetenskapliga beräkningar. För servers är däremot uppgiftsparallella problem rätt vanliga, dataparallella problem finns där men är mer nischade.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

En liten vink här kring vilket utbyte Intel har på sina <200 mm² kretsar när man väl inleder volymproduktion: de bemödar sig inte ens att ha nedskalade versioner mer än i form av lite mindre L3$ i I5-versionerna.

Lite extrapolation från hur storleken ändrades från 4C till 6C pekar på att man kommer få en ~180 mm² krets på 14 nm, det är inklusive en iGPU som i 4C fallet tar strax över 50 % av kretsytan.

Så fort man går upp på större kretsar, d.v.s. de som används för SKL-X och Xeon så har man SKUs som täcker in de kretsar som kan räddas genom att stänga av kärnor och L3$.

Du skrev "De som är stenhårda troende kommer hävda att Intels nod än är bättre, och ja, frekvensmässigt är den. Men prismässigt... inte en chans." vilket rimligen måste referera till den 14 nm+++ nod som man kommer använda för Whiskey Lake.

14 nm lär ha ett utbyte på väldigt nära 100 % vid det här laget när det handlar om kretsar <200 mm^2. Det var min invändning kring att det är knappast ekonomidelen som kommer fälla konsumentkretsarna på 14 nm, inte innan de mindre noderna når utbyten som är höga nog att man kan få en vinst på flera kretsar per kiselplatta trots högre tillverkningskostnad (allt annat lika blir det högre tillverkningskostnad för varje mindre nod nu p.g.a. av allt fler litografisteg).

Problemet kommer när konsumentmodellerna får så pass mycket finesser att kretsarna blir obekvämt stora på 14 nm. Tittar man historiskt verkar Intel vilja hålla sina konsumentmodeller någonstans vid <200 mm² (AMD verkar sätta gränsen 50-100 ² högre av någon, men då har man också binnat på ett annorlunda sätt).

Men 14nm kan inte vara ekonomiskt i all evighet, vilket är min poäng, och jag har förklarat varför jag anser detta i mitt tidigare svar.

Och när väl Intel ska över på 10nm, kommer yield problemen, vilket är troligen en av anledningarna varför man väljer att återanvända 14nm++ igen. För 8-core på den noden, är inte enkelt.

Skrivet av Yoshman:

Finns rätt många delar i deras design som måste vara helt intakt. X-bar:en mellan CPU och cache, all I/O och minneshantering samt nästan alla SKUs kräver att all L3$ är intakt.

De delar upp SKUs rätt mycket på antal fungerande kärnor. Finns absolut inget i Skylakes design som hindrar Intel från att göra exakt samma sak, faktum är att man gjorde det på sin ring-buss design så länge den användes av Xeons. Orsaken att man inte binnar SKUs på det sättet är därför rimligen enbart därför att det inte finns någon ekonomisk poäng.

Mjo du kommer inte få 100% då det alltid finns de kretsar som inte går att rädda. Men du kan iaf förbättra yielden rätt bra, om du designar så det inte behöver vara så, tex genom att köra 12MB L3 istället för 16MB L3, trots att båda är samma 8-core.

Skrivet av Yoshman:

Nej, får överhuvudtaget inte ihop matten när en 8C/16T 14 nm+++ krets inte kommer bli tillräckligt stor för att orsaka något problem på en extremt mogen nod. ~180 mm² inklusive iGPU är ju trots allt mindre än de kretsar AMD använder för Ryzen och Intel kommer kunna ta långt mer betalt för i7-9700k och i9-9900K än vad ASP är för Ryzen-kretsarna på ~210 mm² haft

Åter, du vägrar se större bilden.

Den kräver produktionstid, produktionstid som inte var beräknad att användas. Så även med 100% yield, har du minskad vinst, då du inte kan producera mängden 14nm kretsar som du skulle önska.

Och jag håller inte med dig i prissättningen. 9900k kan man troligen ta rätt bra betalt för, ja. Men om du kan använda 16 trådar effektivt, kan du ofta använda 24 trådar effektivt också, och då är dens nytta betydligt lägre. Mao... behöver du inte 1-trådsprestandan, finns där ingen direkt nytta att betala 2x priset för en CPU heller, så deras prisnivåer kommer att påverka varandra.

Och om AMD kan göra sin 24-trådiga/12-kärniga från "trasiga" CCX kluster... så behöver de inte ta några överpriser för att få vinst, vilket gör 9900k i en rätt stor prisklass. Och de enda som inte håller med här är de som köper för de vill, inte för det är vettigt. För som sagt, 1-core prestandan har du i en OCad 8700k redan exakt samma prestanda, på samma chipset.

Skrivet av Yoshman:

Det kortsiktiga problemet Intel har är att man aldrig planerat en uppdaterad mikroarkitektur för S-serien på 14 nm. Det har man gjort för Xeons och är nog något man är väldigt glad för just nu. Cascade Lake får nya funktioner utöver Meltdown/Spectre variant 2 fixarna, Whiskey Lake är Kaby Lake med Meltdown/Spectre variant 2 fixar, Kaby lake är minimalt uppdaterad från Skylake (någon detalj i iGPU samt uppdatering av Speed Shift).

På lite längre sikt har måste man till 10 nm för att kunna göra mer avancerade Xeons, Xeon Phi samt Stratix (deras FPGA) då respektive toppmodeller av dessa redan är så stora de kan bli på 14 nm.

Som sagt, kortsiktigt har Intel nästan endast kapacitetproblem, i övrigt inga direkta problem. Men de har nu höjt ribban så att allt under 5Ghz 8-core är en försämring från deras sida... oavsett de 1-2% ev små ändringar nya funktioner ger (för alla större har de redan optimerat). Och 2% av 5Ghz... 100Mhz. Så om de nya bara klarar 4,9Ghz, är det samma prestandanivå, lätt.

Skrivet av Yoshman:

Ingen lär tro att Intel kommer bygga fler 14 nm fabriker. Så deras problem just nu är just att man har kapacitetsbrist. Men på kort sikt är det orsaken till att man radar upp vinstrekord, för just nu kör man 14 nm på högtryck i den del av cykeln när processen är som klart mest lönsam: tokhögt utbyte och man tillverkar fortfarande de kretsar med absolut högst pris mot kund där.

Kapacitetsbristen är ett jätteproblem då det tvingar vissa kunder till konkurrenterna. Syns inte i Intels siffror just nu, där ser vi som sagt vinstrekord på vinstrekord. Men många av de kunder som tvingas lämna kommer inte komma tillbaka om de blir nöjda med det val man nu tvingas till. Så ett potentiellt jätteproblem på lite längre sikt, vilket är vad aktiemarknaden försöker ta höjd för.

Och aktiemarknaden ser inte snällt på vinstrekord -> förlust/dålig vinst.... aktier och värde faller, styrelser avsätts osv. De bryr sig inte om tidigare vinster..., de bryr sig om den pekar upp. Så skulle säg att stor del av Intels framtid nu hänger på att de kan hålla sitt H2 2019 "löfte" till aktieägarna. För gör de inte det... ska du se en sten falla.

Och du kan se hur aktien bara tog meddelandet om 10nm problemen... trots vinstrekordet.

Den dök. Den är nere på samma nivå den var i februari, innan vinstrekordet var faktum.
https://www.di.se/nyheter/intel-gor-storre-vinst-an-forvantat...

Så du kan lägga ner dina vinstrekord anledningar, för aktiemarknaden är ändå inte imponerad, då långsiktig investering är högt tvivelaktig.

AMD däremot... steg med ca 20%, och enda synbara anledningen är just... Intels problem.

Skrivet av Yoshman:

Ser överhuvudtaget inte vad en nu CPU-design skulle lösa då man redan gör den typ av binning du pekar på att AMD gör. Men Intel bryr sig som sagt inte om att göra den på konsumentkretsarna då dessa är så pass små och gissningsvis då når så högt utbyte tidigt nog att det inte är ekonomiskt vettiga att göra SKUs med olika antal kärnor från samma kiseldesign.

För större kretsar har man tidigare gjort och gör på aktuella modeller exakt den binning du efterfrågar.

Vi får se. Du har din hypotes, jag har min och AMD verkar dela min. Intels egen personal storsäljer sina egna aktier... du tror på dem än.

Tror dock att du har en poäng, konsumentmarknaden är liten. Men det är ju också just 20-core+ CPUerna som snabbt blir problem på mindre noder. Och AMD verkar dra på fullt i antal kärnor.... och Intel har vid flertalet tillfällen behövt validera Xeons för HEDT bruk, för att kunna konkurrera.

De lever på en enda sak just nu.... deras 14nm++ 5Ghz nod. Utan den, faller Intels samtliga produkter som är ute nu.

Skrivet av Yoshman:

Uppenbart att vad jag försöker säga i de kommentarerna är totala grekiska för de som inte redan har rätt bra koll på multicore-programmering, vilket rent krasst är en rätt liten del av alla programmerare som i sin tur är en rätt liten nisch av alla PC-användare.

Och har försökt peka på att det är inte mina ord, det är vad en numera rätt enad forskarkår på området numera hävdar. Initiala ansatsen hos dem var att man kommer hitta något "nytt sätt att utveckla programvara" som fixar problemet. Nu är rätt mycket konsensus att rätt många problem kan helt enkelt inte skalas väl, andra är uppgiftsparallella och skalas bäst med kärnor medan andra är dataparallella och skalas bäst med SIMD/GPGPU.

För konsumentprogram är de uppgiftsparallella problem rätt ovanliga, dataparallella problem finns inom vissa områden som maskininlärning och vetenskapliga beräkningar. För servers är däremot uppgiftsparallella problem rätt vanliga, dataparallella problem finns där men är mer nischade.

Och jag bara hänvisade den kommentaren till "dina" ord. Inget mer.

Permalänk
Datavetare
Skrivet av Paddanx:

Och du kan se hur aktien bara tog meddelandet om 10nm problemen... trots vinstrekordet.
https://s22.postimg.cc/pyxufb3nl/bild.png

Den dök. Den är nere på samma nivå den var i februari, innan vinstrekordet var faktum.
https://www.di.se/nyheter/intel-gor-storre-vinst-an-forvantat...

Så du kan lägga ner dina vinstrekord anledningar, för aktiemarknaden är ändå inte imponerad, då långsiktig investering är högt tvivelaktig.

Att de radat upp vinstrekord är ju rätt enkelt verifierar fakta. Svårt att binda det till mycket annat än att de just nu tillverkar sina produkter på en extremt ekonomiskt fördelaktig nod. Intel är långt mer en kiseltillverkare som råkar ha en egen CPU-design än tvärt om.

Nog för att jag är en rätt medioker investerare, men till och med jag förstår att aktiemarknaden speglar inte hur det går just nu, det speglar vad man tror om framtida utveckling.

Som tidigare INTC ägare fick man i.o.f.s. helt OK utdelning (sålde inte riktig på toppen men ska inte klaga), men de lång väldigt länge och skvalpade runt $25-30. Senaste årets utveckling har rätt bra redan tecknat in att resultaten ska vara på den nivå vi nu ser.

Bedömningen, som jag delar och en orsak till att jag sålde, är att nu rådande situation för bolaget kommer med stor sannolikhet medföra att vinstrekordregnet kommer nog göra uppehåll ett tag. Men kan nog bli ett par rekord till innan torkan, fast det är nog inräknat i aktiepriset idag.

Angående jämförelsen AMD vs Intel. Notera att Intel har ungefär x10 i omsättning, men man har x35 i vinst... Så just nu är det inte precis INTC som verkar ha problem med lönsamhet.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av _Merc_:

Det finns ingen anledning att köpa intel när ryzen 3000 serien på 7nm släpps. 8 kärnor och upp för mainstream mums.

Skickades från m.sweclockers.com

Ryzen 3000 är ju dock inte "på 7 nm". De får kalla sina produkter vad de vill, men vad de kallar 7nm är inget annat än 10nm processteknik.

https://en.wikichip.org/wiki/7_nm_lithography_process

Intels 10nm teknik, (Ice Lake) är alltså det som kommer att tävla mot AMD's (GlobalFoundries) "7nm".

Däremot blir det ju väldigt intressant om AMD lyckas släppa "äkta" 10nm före Intel, vilket det verkar som nu. Då blir det första gången på mannaminne som AMD släpper från en ny nod före Intel.

Visa signatur

| Corsair Crystal 460X | Z390-F | 9700K | ROG Ryujn 360mm | RTX 3080Ti | ROG Thor 850W | Vengeance Pro 3200mhz 16cl 16GB (2x8) | 970 Pro 2TB + 2xWD Black 4TB | ROG SWIFT PG279Q | Arctis 7 Pro Wireless | ROG Scope Deluxe red silent | ROG Chakram |

Permalänk
Medlem
Skrivet av Kilroy:

TSMCs 7nm räknas inte riktigt på samma sätt som Intels, någon som vet hur det egentligen ligger till jämförelsevis?

https://en.wikichip.org/wiki/7_nm_lithography_process

TLDR;

The 7 nanometer (7 nm) lithography process is a technology node semiconductor manufacturing process following the 10 nm process node. The term "7 nm" is simply a commercial name for a generation of a certain size and its technology and does not represent any geometry of a transistor.

Note: For the most part, foundries' 7nm process is competing against Intel's 10nm process, not their 7nm.

Visa signatur

| Corsair Crystal 460X | Z390-F | 9700K | ROG Ryujn 360mm | RTX 3080Ti | ROG Thor 850W | Vengeance Pro 3200mhz 16cl 16GB (2x8) | 970 Pro 2TB + 2xWD Black 4TB | ROG SWIFT PG279Q | Arctis 7 Pro Wireless | ROG Scope Deluxe red silent | ROG Chakram |

Permalänk
Medlem
Skrivet av Yoshman:

Att de radat upp vinstrekord är ju rätt enkelt verifierar fakta. Svårt att binda det till mycket annat än att de just nu tillverkar sina produkter på en extremt ekonomiskt fördelaktig nod. Intel är långt mer en kiseltillverkare som råkar ha en egen CPU-design än tvärt om.

Nog för att jag är en rätt medioker investerare, men till och med jag förstår att aktiemarknaden speglar inte hur det går just nu, det speglar vad man tror om framtida utveckling.

Grattis. Nu har du listat ut vad jag har pratat om sedan första inlägget, samt vad artikeln handlar om.

Skrivet av Yoshman:

Angående jämförelsen AMD vs Intel. Notera att Intel har ungefär x10 i omsättning, men man har x35 i vinst... Så just nu är det inte precis INTC som verkar ha problem med lönsamhet.

Och det kommer dröja rätt länge innan det blir röda siffror. Det som dock kan ske, och som påverkar både aktiemarknaden och investeringar är... deras vinst kanske minskar, samt marknadsandelar kanske också gör det. Som du sagt... "...men till och med jag förstår att aktiemarknaden speglar inte hur det går just nu, det speglar vad man tror om framtida utveckling."

Mao, folk tror inte Intel kan hålla denna nivå.

Permalänk
Inaktiv
Skrivet av Paddanx:

IPC är maxat, mer eller mindre.
Frekvensen är maxad, mer eller mindre 5Ghz på allt.
Kärnor är snart maxad, för 8-core 16-trådar är rätt överdrivet på konsument. 6/12 räcker väl för den mjukvara som finns idag, och som Yoshman fortfarande påstår inte öht går att bättra.
Var är förbättringen? Kan vi ens se 5-10% förbättring öht, eller är det 5,5Ghz OC och kylare som kan kyla bilar som gäller för den?

Bortsett från att du skrev konsument och jag skulle vilja säga medelkonsument så håller jag med och jag har länge funderat på vad utvecklingen ska utvecklas?
IPC, klockfrekvens och core till svenssons lär stanna.

Men det jag ser är att mjukvarorna förändras. Jag ser det lite som att vi idag lever runt 1980 och frågar varför behöver medelanvändaren mer datakraft i sin hemdator än än vad som redan finns? Ser man på de applikationer som användaren använder så är färg bara distraherande, gränssnittet väldigt enkelt och det cpun oftast behöver göra är att kunna visa ett tangent bordsinmatning snabbt och det löses med interupptbaserad ingång.
Köper man en Motorola 68000 cpu i 8 Mhz, så har man en cpu som varar hela livet.

Sedan kom floppen Appel Lisa 1983 med grafisk interface som kostade sjukligt mycket pengar men visade ett nytt sätt att jobba.

Jag anser att vi inom mjukvaror står i samma sits, folk sitter och tänker på hur dagens mjukvaror ska utvecklas och förbättras utan att tänka på att de kan förändras i grunden.
Alla större program lär snart få Ai, den behöver dock inte alls vara avancerad. Men programmet listar ut vad man vill göra och hjälper en. Inom bildbearbetning är detta självklart att behovet är megastort, det handlar ej bara om att förbättra bilden med ljussättning, konstrast etc. Utan även att AIn bättre ska lista ut hur man kan sudda bort objekt, kunna flytta in ett objekt från en annan bild och få denna smälta in i den nya bilden. Att kolla närliggande pixlar och köra medianfilter kanske dög för 25år sedan, idag bör algoritmerna även identifiera objektet och bakgrunden och behandla det därefter.

Tar vi excel, så fungerar Autofill, diagram etc dåligt. Det skulle behövas mer Ai för att analysera datan så att excel bättre listar ut vad man vill göra.

Detta leder till att behöver av vilken dator som behövs skiljer sig om man enbart ser på hur mjukvaror idag fungerar. Jag ser det lite som att kolla på de konsolbaserade applikationerna 1980 och fundera på vad den bästa datorn för dessa är.

Det jag ser är att instruktioner för AI vad det nu kan vara kan behövs, likaså kommer allt mer göras på ett molntjänst, större mjukvaror lär mer idag samla in information från användaren och analysera det i någon datacenter.
Fler kärnor än 8 lokalt hemma, så tror jag att fler mjukvaror delvis kommer köras på ett datacenter, så användaren kanske använder fler än 8 core, men dessa 8 core sitter ej under huven på den dator som den sitter vid.

*edit*
Inom cad är Ai behovet stort. Det är inte ovanligt att jag försöker göra något som en vanlig chimpans som tittar på förstår vad jag vill göra fast misslyckas gång på gång. Programmet trots det kostar kanske över 30 000kr per år, listar inte ut vad jag vill åstadkomma även om jag upprepar samma försök 2 dagar sträck.
Detta lär det bli ändring på och det kommer förändra vilka krav som ställs på cpun.

Databasfrågor, vem har inte suttit hur länge som helst med en. Där grundproblemet är att man kodar X hundra språk och man blandar ihop syntaxen. Det finns hjälpmedel för att skapa frågor, men med bra Ai så kan man göra detta väldigt enkelt.
När jag läste på skolan så läste t.o.m. elkraftingenjörerna databasteknik och det kommer nog snart bli någon som kommer ingå i den obligatoriska skolan.

Min poäng är att mjukvarorna kommer att förändras, att stirra sig blint på hur dagens mjukvaror kommer gå köra snabbare är fel sätt att förespå framtiden.

Permalänk
Medlem
Skrivet av anon159643:

Bortsett från att du skrev konsument och jag skulle vilja säga medelkonsument så håller jag med och jag har länge funderat på vad utvecklingen ska utvecklas?
IPC, klockfrekvens och core till svenssons lär stanna.

Men det jag ser är att mjukvarorna förändras. Jag ser det lite som att vi idag lever runt 1980 och frågar varför behöver medelanvändaren mer datakraft i sin hemdator än än vad som redan finns? Ser man på de applikationer som användaren använder så är färg bara distraherande, gränssnittet väldigt enkelt och det cpun oftast behöver göra är att kunna visa ett tangent bordsinmatning snabbt och det löses med interupptbaserad ingång.
Köper man en Motorola 68000 cpu i 8 Mhz, så har man en cpu som varar hela livet.

Sedan kom floppen Appel Lisa 1983 med grafisk interface som kostade sjukligt mycket pengar men visade ett nytt sätt att jobba.

Jag anser att vi inom mjukvaror står i samma sits, folk sitter och tänker på hur dagens mjukvaror ska utvecklas och förbättras utan att tänka på att de kan förändras i grunden.
Alla större program lär snart få Ai, den behöver dock inte alls vara avancerad. Men programmet listar ut vad man vill göra och hjälper en. Inom bildbearbetning är detta självklart att behovet är megastort, det handlar ej bara om att förbättra bilden med ljussättning, konstrast etc. Utan även att AIn bättre ska lista ut hur man kan sudda bort objekt, kunna flytta in ett objekt från en annan bild och få denna smälta in i den nya bilden. Att kolla närliggande pixlar och köra medianfilter kanske dög för 25år sedan, idag bör algoritmerna även identifiera objektet och bakgrunden och behandla det därefter.

Tar vi excel, så fungerar Autofill, diagram etc dåligt. Det skulle behövas mer Ai för att analysera datan så att excel bättre listar ut vad man vill göra.

Detta leder till att behöver av vilken dator som behövs skiljer sig om man enbart ser på hur mjukvaror idag fungerar. Jag ser det lite som att kolla på de konsolbaserade applikationerna 1980 och fundera på vad den bästa datorn för dessa är.

Det jag ser är att instruktioner för AI vad det nu kan vara kan behövs, likaså kommer allt mer göras på ett molntjänst, större mjukvaror lär mer idag samla in information från användaren och analysera det i någon datacenter.
Fler kärnor än 8 lokalt hemma, så tror jag att fler mjukvaror delvis kommer köras på ett datacenter, så användaren kanske använder fler än 8 core, men dessa 8 core sitter ej under huven på den dator som den sitter vid.

*edit*
Inom cad är Ai behovet stort. Det är inte ovanligt att jag försöker göra något som en vanlig chimpans som tittar på förstår vad jag vill göra fast misslyckas gång på gång. Programmet trots det kostar kanske över 30 000kr per år, listar inte ut vad jag vill åstadkomma även om jag upprepar samma försök 2 dagar sträck.
Detta lär det bli ändring på och det kommer förändra vilka krav som ställs på cpun.

Databasfrågor, vem har inte suttit hur länge som helst med en. Där grundproblemet är att man kodar X hundra språk och man blandar ihop syntaxen. Det finns hjälpmedel för att skapa frågor, men med bra Ai så kan man göra detta väldigt enkelt.
När jag läste på skolan så läste t.o.m. elkraftingenjörerna databasteknik och det kommer nog snart bli någon som kommer ingå i den obligatoriska skolan.

Min poäng är att mjukvarorna kommer att förändras, att stirra sig blint på hur dagens mjukvaror kommer gå köra snabbare är fel sätt att förespå framtiden.

Bra svar.
Och det är lite detta jag också räknar med måste ske. Hårdvaran är nära max vad kisel klarar idag, så det handlar nu om optimeringar mer än någonsin. Men inte generella sådana, då jag tror dessa redan görs till stor grad. Utan mer specifika optimeringar för specifika behov (som din databaser tex). Så vi verkar gå från 1980-talets hårdvarulösningar med specifika kretsar för att lösa ett problem, till 2000 talets generella CPUer, EPROMs och liknande, tillbaka till 1980-talets utveckling (dock med bättre hårdvara som grund).

Man ser ju detta med tex kryptovalutor, som gick från CPU, till GPU, till specifik utrustning för jobbet.

Det sorgsna och poängen jag ser dock är... Intel/AMD osv, hur ska de kunna sälja dig något du redan har? Det är redan svårt nog för dem att sälja PC idag, och enda som köper nytt är de som jagar några Mhz till, eller när utrustningen man har, rent fysiskt går sönder.

Och där, precis som du nämner ovan, är enda räddningen mjukvara, för att utveckla vidare. För jag tror ärligt inte folk kommer överge X86 eller DX11 närmaste tiden, så utvecklingen blir verkligen... stillastående. För optimeringarna i mjukvara lär hjälpa dagens CPU precis lika bra som förra årets generation...

typo
Permalänk
Medlem
Skrivet av Paddanx:

Problemet är ju att de själva pressar upp sina egna krav.
De står och bokstavligt tala gräver sin egen grav, då om man tittar på hur lång tid det tog för 10nm att mogna från de frekvenser de har idag (säg <4Ghz grovt), är ju många år, även i bästa fall. Så hade ni tänkt Intel skulle dra en 10nm 8-core 4,5Ghz CPU som uppföljare? Eller tänkte ni vänta tills når 5Ghz på samtliga framtida noder?

IPC är maxat, mer eller mindre.
Frekvensen är maxad, mer eller mindre 5Ghz på allt.
Kärnor är snart maxad, för 8-core 16-trådar är rätt överdrivet på konsument. 6/12 räcker väl för den mjukvara som finns idag, och som Yoshman fortfarande påstår inte öht går att bättra.
Var är förbättringen? Kan vi ens se 5-10% förbättring öht, eller är det 5,5Ghz OC och kylare som kan kyla bilar som gäller för den?

Är det köp en CPU nu, och sedan behöver du aldrig köpa någon mer?
För när väl 10nm lanseras... så ska ju 7nm sen komma (Intels 7nm då)... ska vi vänta 5-10 år på den också ska nå 5Ghz?

Förstår liksom inte hur ni tänker... (helt ärligt/allvarligt)
Det är ganska allvarligt problem här... och ni bara ignorerar det som en skogsbrand som man inte ser, därför finns den inte. För även om de släcker denna branden, och H2 2019 som planerat släpper 10nm CPUn, vad är poängen? 12/16core då eller?

Klart det är ett problem, men min poäng var liksom att Intel inte lär släppa 10nm till desktop som presterar sämre än föregångarna. En mer rimlig förväntning är att det blir något i stil med vad vi sett senaste åren. Ingen större skillnad i prestanda men lite strömsnålare.

AMD har alla förutsättningar för att stänga gapet mot Intel men de kommer förr eller senare mötas av samma problem. Även om de ser ut att bli först till 7/10nm behöver de en effektivare design för att komma ikapp vad gäller IPC och klockfrekvens.

I slutändan kommer vi ju alltid till frågan vilka förbättringar som är möjliga att göra. Högre klockfrekvenser? Känns inte troligt att vi kommer nå särskilt långt norr om 5Ghz på kisel. Lägre strömförbrukning? Ja, kanske ett litet tag till. Högre IPC? Tveksamt.

Det förefaller som att det snarast handlar om att mjölka ur det sista ur kisel, men det är liksom inte ett problem som bara drabbar Intel.

Permalänk
Medlem
Skrivet av DasIch:

AMD har alla förutsättningar för att stänga gapet mot Intel men de kommer förr eller senare mötas av samma problem. Även om de ser ut att bli först till 7/10nm behöver de en effektivare design för att komma ikapp vad gäller IPC och klockfrekvens.

IPC är ju inget mer än optimeringar, i grund och botten. Och påverkar inte Yield i sig något vidare.
Frekvenser har ju mer med hur mogen tillverkningen är av en nod. Både Intels 22nm och 14nm hade ju knackig början de med, men idag är väl effektiviserade. Och att AMD kunde klämma 300Mhz mer ur en liten nod-ändring, utan att ändra designen var faktiskt inte så dåligt om man jämför med ditt krav med att inte släppa en sämre nod än föregångaren.

Det har även ryktats om att AMD planerar dra ut nordbryggan som separat chip igen, men ha den på samma substrat, typ som man gjort med CCX klusterna redan. Och detta gör ju att kretsarna som måste tillverkas blir åter mindre, och mindre känsliga för fel, rent % sett.

Så jag tror ärligt AMD redan har planer långt före Intel på att kunna skala ner i dessa svåra noder. Intel fortsätter istället att förlita sig på att deras nod ska bära CPUn, där AMD verkar låta CPUns skalbarhet bära noden istället (om man nu kan säga det så).

Intel kan mycket väl göra något liknande... men det tar tid att utveckla. Och desto mer tid de står och stirrar på 10nm fabriken och hoppas "det löser sig själv", desto mer tid kommer det ta innan de inser allvaret som håller på att ske, dvs fysikens väggar sätter stopp.

Skrivet av DasIch:

I slutändan kommer vi ju alltid till frågan vilka förbättringar som är möjliga att göra. Högre klockfrekvenser? Känns inte troligt att vi kommer nå särskilt långt norr om 5Ghz på kisel. Lägre strömförbrukning? Ja, kanske ett litet tag till. Högre IPC? Tveksamt.

Det förefaller som att det snarast handlar om att mjölka ur det sista ur kisel, men det är liksom inte ett problem som bara drabbar Intel.

Självklart inte.

Men om du tittar längre fram... och vi säger att vi alla är på väg mot 7nm steget (då syftat till Intel 7nm storlek), så kommer ju yield och priset bli en enorm faktor. För om du är ikapp med frekvensen, IPC och övrigt, och ska sälja samma produkt "igen"... kan du inte ta vilket pris som helst, för om konkurrenten kan tillverka samma prestanda för 2/3 av priset, kan du glömma ev vinst.

Permalänk
Medlem
Skrivet av Paddanx:

IPC är ju inget mer än optimeringar, i grund och botten. Och påverkar inte Yield i sig något vidare.
Frekvenser har ju mer med hur mogen tillverkningen är av en nod. Både Intels 22nm och 14nm hade ju knackig början de med, men idag är väl effektiviserade. Och att AMD kunde klämma 300Mhz mer ur en liten nod-ändring, utan att ändra designen var faktiskt inte så dåligt om man jämför med ditt krav med att inte släppa en sämre nod än föregångaren.

Att AMD kunde klämma ut 300Mhz extra behöver inte vittna om att designen var bra, utan kan mycket väl vara en fråga om att de fortfarande är långt efter Intel. Jag menar, frågan är ju hur de fick ut 300Mhz extra. Kan AMD fortfarande nyttja Dennard-scaling effekten?

Citat:

Det har även ryktats om att AMD planerar dra ut nordbryggan som separat chip igen, men ha den på samma substrat, typ som man gjort med CCX klusterna redan. Och detta gör ju att kretsarna som måste tillverkas blir åter mindre, och mindre känsliga för fel, rent % sett.

Så jag tror ärligt AMD redan har planer långt före Intel på att kunna skala ner i dessa svåra noder. Intel fortsätter istället att förlita sig på att deras nod ska bära CPUn, där AMD verkar låta CPUns skalbarhet bära noden istället (om man nu kan säga det så).

Intel kan mycket väl göra något liknande... men det tar tid att utveckla. Och desto mer tid de står och stirrar på 10nm fabriken och hoppas "det löser sig själv", desto mer tid kommer det ta innan de inser allvaret som håller på att ske, dvs fysikens väggar sätter stopp.

Intel har ju klarat sig hyfsat bra hittills i fråga om yield, så det är inte alls omöjligt att deras strategi vinner ut i längden.

Citat:

Självklart inte.

Men om du tittar längre fram... och vi säger att vi alla är på väg mot 7nm steget (då syftat till Intel 7nm storlek), så kommer ju yield och priset bli en enorm faktor. För om du är ikapp med frekvensen, IPC och övrigt, och ska sälja samma produkt "igen"... kan du inte ta vilket pris som helst, för om konkurrenten kan tillverka samma prestanda för 2/3 av priset, kan du glömma ev vinst.

Tittar vi längre fram kan vi bara spekulera. En sådan spekulation kan exempelvis vara att Intel får fason på EUV-litografin och kan nyttja lärdomarna till 7nm (eller 10nm plus, plusplus och plusplusplus).