Intel Cannonlake på 10 nanometer planerad till tredje kvartalet 2017

Permalänk
Medlem

@Yoshman:

Det finnes noe informasjon om 3nm på nettet, men det florerer ikke av dem^^ Men en håndfull av dem er det...

Permalänk
Medlem
Skrivet av Yoshman:

Fast är inte konstigt, Intel överlägset största konkurrent just nu är deras egna äldre modeller. Man måste driva på utvecklingen för att driva sin egen försäljning, något som fungerar sådär på skrivbordet då man slagit i en vägg vad det gäller enkeltrådprestanda. Däremot så har server-CPUer i princip följt den gamla trenden att ungefär dubbla prestanda vartannat år, men då genom fler kärnor och allt mer avancerade funktioner kring I/O. Mobilsidan har också haft en fantastisk utveckling, största klivet var 22 nm med FinFET (Haswell drar ungefär 1/20 så mycket i aktiv "idle" än tidigare) men även 14 nm gav en del hos t.ex. Core M.

Håller inte helt med här.

Du kan inte påstå att det är mer ekonomiskt för Intel att trycka på Haswell, Skylake, Kabylake och nu Cannonlake så snabbt det går (sett till R&D kostnad iaf), vs att bara tillverka dem på befintlig nod, i fler optimerade iterationer. Detta är ju något både Haswell och Haswell refresh tydligt visat, trots att de är på samma nod som Ivy bridge. Poängen är ju att du just inte får mycket vinst... de hade tom kunnat sälja 2600k fortfarande idag, och folk hade köpt dem till vettigt pris.

Att detta handlar endast om server och portabelt håller jag dock med, och visst har det blivit förbättringar där. Men vi handlar inte ny laptop snabbare för det? Tror inte server parkerna byter ut CPUerna snabbare, bara för att, utan man gör det för det finns något snabbare eller för att de som finns blir gamla. Finns där inget nyare så finns inget nyare och man köper det som finns.

Så frågan är mer, kommer enormt ökad forskningsbudget och enorma kostnader för Intel göra att vi köper Cannonlake nu? Njae. Vi kommer köpa det som finns, och det är skylake, sen kabylake, sen cannon. Med tanke på hur buggig Skylake är, så tar jag en rad från AMD HBM2 kommentarerna och säger, hellre felfri, stabil CPU, än en nyare som vi ändå inte har mycket nytta av.

Men vi får se vad som sker när Intel slår i väggen i 180km/h. Personligen hade jag tryckt på bromsen redan nu, och inte lanserat allt jag äger och har innan dess, utan saktat ner och försökt göra bättre, stabilare plattformar och optimeringar utan att hoppa noder hela tiden, när jag vet att slutet på det är nära ändå.

Skrivet av Yoshman:

Till en allt större del ser nog AMD och Nvidia samma problem då man fastnat på 28 nm så länge, försäljningen minskar då man inte kan skapa produkter som är tillräckligt mycket bättre än vad kunderna redan har. GPU-sidan är ändå mer tacksam för nodkrympningar då 3D-beräkningar skalar väldigt väl med antal stream/CUDA/EU-"kärnor". Enda frågetecknet här är hur perf/W kommer skala, från 28 -> 14/16 nm lär det bli en fin förbättring tack vare FinFET men frågan är vad som händer i nästa steg.

Roliga är... Nvidia och AMD har förstått detta och verkligen gjort vad de behövde göra ändå. 28nm har inte hindrat verken enormt optimerade 900-serien, eller tex kort som R9-Nano, som har enorm beräkningskraft för den lilla effekt kortet tar. Mao... de har insett att de inte längre kan hoppa noder som tokiga, och titta på resultaten. Vi har kraftfulla kort från båda tillverkare, med sina styrkor och svagheter, men båda är enorm förbättring över vad 28nm levererade initialt. Det finns mao en hel del optimeringar att göra...

Permalänk
Medlem

Men som sagt, server driver nodkrympning eftersom i en serverpark med hundratusentals cpu:er ger en ny nod stora besparingar i strömförbrukning = incitament för att uppgradera.

Bärbart driver nodkrympning, Intel vill ha in en fullfjädrad PC och mer därtill(VR bla) i en mobil, går inte utan fortsatt krympning pga strömåtgången. Sen har vi AR, med chips i alla möjliga prylar, glasögon, kläder, skor ja vadsomhelst.

Eller robotar med AI, att klämma in en Top 500 superdator i huvudet på en humanoid robot kräver - nodkrympning!

Desktop, som vi på Swec kör, är bara en spinoff av ovanstående R&D och inte någon egen utvecklingsväg som Paddan ovan verkar tro. Det är ju trevligt att även desktop förbättras, om än sakta, som resultat av noder och diverse energispar-knep.

Min Skylake-dator är kanske inte så sjukt mycket snabbare än min Sandy Bridge var, eller mina Haswell är men den har gått att göra tystast. Haswell näst tystast och Sandy Bridge krävde ljudliga fläktar för en hög klock. Och även om Skylake inte är sjukt mycket snabbare så är den ändå snabbast - och tystast - och mest sval

Jag har en Skylake-laptop också, den går inte ens fläkten igång på vid normal användning och när den väl går igång är den nästan ljudlös. Den är inte heller varm i knät som laptops brukar vara. Men den är snabb.

Att Nvidia och AMD inte hoppar noder på samma sätt beror på att dom är beroende av TSMC och numera Globalfoundries som båda hoppade över 20nm-noden när Intel kom med 22nm och ännu inte kommit ner till 14-16nm nu när Intel förbereder sig för 10nm. Det är ingenting som dom som designar chippen kan påverka. Alls.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Datavetare
Skrivet av Jebe:

@Yoshman: http://www.extremetech.com/wp-content/uploads/2013/07/different-transistor-topologies.jpg

Det finnes noe informasjon om 3nm på nettet, men det florerer ikke av dem^^ Men en håndfull av dem er det...

Det är sant att det finns teknikdemos där man lyckats skapa enskilda transistorer som är mindre än 5 nm, rekordet verkar vara en transistor som i någon bemärkelse är 1 nm bred.

"Applying a magnetic field to the smallest dots lets current flow again, making a switchable transistor. The smallest dots that worked as transistors contained as few as five carbon rings – around 10 atoms or 1nm wide."

IBM har också ju visat upp en krets med ett gäng transistorer tillverkad på 7 nm.

Men steget från detta till att ha en plan kring hur man kan skapa något så komplext som en modern CPU/GPU med dessa transistorer är rätt stort.

Edit: IBM artikeln sätter fingret på en i sammanhanget väldigt relevant punkt, ekonomin i < 10 nm

"I don't think that IBM, GloFo, and Samsung have magically found a way of making EUV commercially viable, but they are probably counting on the wrinkles being ironed out by 2017-2018—7nm's expected arrival date"

@Paddanx: så du tror inte Intel ser det som ett problem att PC-marknaden i princip är mättad och om man inte får ut signifikant bättre CPUer kommer CPU bli som vitvaror och TV: vi byter ut dem när den gamla fallerar? Vad man i någon mån klarat sig på nu är att skrivbordsdatorer ersatts av bärbara datorer som standardverktyg på i stort sätt alla arbetsplatser och laptops har haft en enorm utveckling kring batteritid och formfaktor.

Det som kvartal efter kvartal räddar Intels resultat är byggandet av datacenter och virtualiseringstrenden som skapat ett väldigt sug efter toppmodellerna av Xeon E5/E7.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Intels nuvarande ansats verkar vara att 10 nm är den sista noden man kan göra på kisel, för att komma under detta måste man titta på andra material. Problemet är att det inte finns något material som idag kan mäta sig med alla de trevliga egenskaper som kisel har för kretstillverkning, framförallt tillgång och komplexitet för bearbetning som är fördel för kisel. Detta läser jag som: "man kan gå under 10 nm men det kommer inte bli billigt".

Givet vad vi vet idag verkar 5 nm vara slutpunkten, efter det finns idag överhuvudtaget ingen känd teknik (vad jag sett/hört/läst).

Transistorer som är mindre än 7 nm kommer behöva kompensera för Heisenbergs osäkerhetsrelation då man får problem med tunneleffekter.

Precis, och kostnaden som minus 10 nm landar på, flyger raka vägen till processorernas slutpris,
som i sin tur hyr grävmaskin och gräver i våra plånböcker.
Att ta sig under 10nm är inte lätt och knappast något som Intel gör för att det är kul.
Däremot känner jag på mig att dom kommer göra det ändå av princip.
Dock så måste dom som du säger, hitta ett ersättningsmaterial.
Och det lär knappast vara lätt.
För dom måste fortfarande välja ett material som både är lätt att få tag på, och som finns i mängder.
Jadu, det blir sin nöt att knäcka.
/Lifooz

Visa signatur

Deepcool Matrexx 30 & MSI Z87-G43 Gaming!
Intel Inside Core I7 4790K med AMD Radeon R9 390!
Rubbet strömförsörjs av Corsair RM750X!

Permalänk
Skrivet av Paddanx:

Håller inte helt med här.

Du kan inte påstå att det är mer ekonomiskt för Intel att trycka på Haswell, Skylake, Kabylake och nu Cannonlake så snabbt det går (sett till R&D kostnad iaf), vs att bara tillverka dem på befintlig nod, i fler optimerade iterationer. Detta är ju något både Haswell och Haswell refresh tydligt visat, trots att de är på samma nod som Ivy bridge. Poängen är ju att du just inte får mycket vinst... de hade tom kunnat sälja 2600k fortfarande idag, och folk hade köpt dem till vettigt pris.

Att detta handlar endast om server och portabelt håller jag dock med, och visst har det blivit förbättringar där. Men vi handlar inte ny laptop snabbare för det? Tror inte server parkerna byter ut CPUerna snabbare, bara för att, utan man gör det för det finns något snabbare eller för att de som finns blir gamla. Finns där inget nyare så finns inget nyare och man köper det som finns.

Så frågan är mer, kommer enormt ökad forskningsbudget och enorma kostnader för Intel göra att vi köper Cannonlake nu? Njae. Vi kommer köpa det som finns, och det är skylake, sen kabylake, sen cannon. Med tanke på hur buggig Skylake är, så tar jag en rad från AMD HBM2 kommentarerna och säger, hellre felfri, stabil CPU, än en nyare som vi ändå inte har mycket nytta av.

Men vi får se vad som sker när Intel slår i väggen i 180km/h. Personligen hade jag tryckt på bromsen redan nu, och inte lanserat allt jag äger och har innan dess, utan saktat ner och försökt göra bättre, stabilare plattformar och optimeringar utan att hoppa noder hela tiden, när jag vet att slutet på det är nära ändå.

Roliga är... Nvidia och AMD har förstått detta och verkligen gjort vad de behövde göra ändå. 28nm har inte hindrat verken enormt optimerade 900-serien, eller tex kort som R9-Nano, som har enorm beräkningskraft för den lilla effekt kortet tar. Mao... de har insett att de inte längre kan hoppa noder som tokiga, och titta på resultaten. Vi har kraftfulla kort från båda tillverkare, med sina styrkor och svagheter, men båda är enorm förbättring över vad 28nm levererade initialt. Det finns mao en hel del optimeringar att göra...

NJA, fury x och titan är på gränsen vad 28nm kan levera.

Fury lider av dålig yield, dessutom har dessa två en strömbudget dessa inte bör gå över. Så krympning har behövs länge.

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av superapan:

Jag vet inte var jag ska börja...

Börja nu eller i morgon...igår är försent!

Visa signatur

MB: Asus ROG Strix Z370-E Gaming // CPU: Intel Core i7-8700K
GPU: Asus RTX 3080 TUF OC // Acer Predator XB271HU
RAM: Corsair 16GB DDR4 3000Mhz // PSU: Corsair 750W HX
SSD: Samsung 840 Pro 128GB + 850 EVO 250GB + 850 EVO 500GB

Permalänk
Avstängd

När min Smartphone har fler transistorer än min Desktop tycker jag att Intel latat sig tillreckligt...deras Die size är nere på så små nivåer att de inte ens downsizar laptop CPUerna...AMD behöver komma in i racet igen så vi får se nya 250mm2 CPUer!! Vill ha minst 3 Miljarder transistorer i min nästa CPU ^^

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Skrivet av Esseboy:

När min Smartphone har fler transistorer än min Desktop tycker jag att Intel latat sig tillreckligt...deras Die size är nere på så små nivåer att de inte ens downsizar laptop CPUerna...AMD behöver komma in i racet igen så vi får se nya 250mm2 CPUer!! Vill ha minst 3 Miljarder transistorer i min nästa CPU ^^

Antal transistorer är inte det viktiga. Utan det finns betydligt mer att ta hänsyn till. En mobil kommer inte slå en desktop på bra länge (troligen aldrig, om de inte lyckas kyla mobilen ).

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Broken-arrow:

NJA, fury x och titan är på gränsen vad 28nm kan levera.

Fury lider av dålig yield, dessutom har dessa två en strömbudget dessa inte bör gå över. Så krympning har behövs länge.

Skickades från m.sweclockers.com

Jo visst är de inte perfekta, men notera att ny tillverkning lider av dålig yield också, så en ny nod är inte "lösningen" på det problemet. Tid och erfarenhet är... de fixar de flesta problem allt eftersom.

Men att de har nått gränsen nu det kan jag hålla med om. Dock får man komma ihåg att förr gick grafikkorten på en ny nod, varje år. För att plötsligt "stanna" på 28nm. Tekniken slutade inte utvecklas dock... den bara tog en annan väg.

@Yoshman självklart lär Intel se det som ett problem med PC marknaden. Problemet är att de inte verkar se väggen komma i hög fart mot dem. De behöver tänka om lite planer, inte köra full fart mot den. Finns de företag som klarar av att anpassa sig, och de som tror att världen ska anpassa sig runt dem. Just nu måste Intel inse och byta detta, för vad ska de släppa efter 10nm? 7nm. Och efter 7nm? De har redan nu svårt att få bättre prestanda, och bra yield ur dessa kretsar, och de har nu nått gränsen för där det är fysikaliskt "enkelt". När du måste ta kvant-beräkningar med i skiten så blir det kaos, och inte säkert bättre prestandan heller. Vad gör de då när forskningsbudgeten är slut?

Så notera att jag inte vill att Intel ska sluta, men om valen är en typ lika snabb CPU på mindre nod, som är mer buggig, problematisk och bara har pref/watt som fördel, så är det tom negativ väg för hela PC marknaden. Mao.. hf har de tänkt vända en PC marknad med negativ utveckling?

Permalänk
Medlem
Skrivet av the squonk:

Att Nvidia och AMD inte hoppar noder på samma sätt beror på att dom är beroende av TSMC och numera Globalfoundries som båda hoppade över 20nm-noden när Intel kom med 22nm och ännu inte kommit ner till 14-16nm nu när Intel förbereder sig för 10nm. Det är ingenting som dom som designar chippen kan påverka. Alls.

Foundries hoppade inte över 20nm noden, de flesta kunderna som tillverkar produkter för PC-marknaden gjorde det emellertid. TSMC och Samsung har producerat på 14/16FF ett bra tag nu, massprodukter såldes till konsumenter redan för ett år sedan (Samsung), TSMC var ett halvår senare eftersom de tweakade sin process till FF+, vilket kostade några månader. Bägge tillverkarna räknar med att dra igång volymsproduktion på 10nm runt årsskiftet. Det råder ingen tvekan om att Intel har slagit av på takten i introducerandet av ny processteknologi. Vilket också är fullständigt rimligt. (Det råder för den delen heller ingen tvekan om att Intel ligger i processteknologifronten ändå.)

PC-marknadens problem ligger naturligtvis till dels i att uppgraderingsbehoven minskat och att detta till viss del beror på frånvaro av hårdvaruframsteg. Men lika klart är att det inte är enda anledningen, och att PCn som personlig datorplattform krymper kommer ingen ny litografiteknik att ändra på.

Skickades från m.sweclockers.com

Permalänk
Avstängd

har haft en 2700k klockad till 4.2ghz i... vet inte hur länge. 4år?

Tanken är uppgradering till 2017 så antar att canonlake blir grejen då, förhoppningsvis blir den riktigt bra.

Dock så tycker jag intel har blivit vidrigt när de gäller priser, min 2700k kosta bara några månader efter release 1800kr med en rabatt jag hade, kanske 2200kr utan den?

Idag går motsvarande på ca 3500kr och en modell under ligger på 2500kr. Så har blivit noterbart dyrare senaste åren.

Så hoppas på en konkurerande ZEN cpu, då kanske de blir möjligt att köra en full AMD rigg igen!

Permalänk
Medlem
Skrivet av Yoshman:

Givet vad vi vet idag verkar 5 nm vara slutpunkten, efter det finns idag överhuvudtaget ingen känd teknik (vad jag sett/hört/läst).

Inte letat så mycket, men verkar ju finnas företag som planerat för 3nm (IBM).

Tunnel field effect transistors verkar annars intressant då dom drar kanske 1/100 ström jämfört med dagens transistorer.
Altså kanske dom blir kalla nog att kunna bygga många lager på höjden och köra med dagens kylning

Permalänk
Datavetare

@Alpha77: råder inga tvivel om att det forskas på riktigt små transistorer och att dessa i något läge kommer användas i vissa applikationer.

Frågan är mer: finns det någon väg fram för den typ av kretsar som används i CPU/GPUer att komma ner till de minsta storlekarna och ändå ha en rimlig ekonomi?

Från artikeln @Jebe hämnade sin bild

"The path beyond 14nm is treacherous, and by no means a sure thing, but with roadmaps from Intel and Applied Materials both hinting that 5nm is being research, we remain hopeful. Perhaps the better question to ask, though, is whether it’s worth scaling to such tiny geometries. With each step down, the process becomes ever more complex, and thus more expensive and more likely to be plagued by low yields. There may be better gains to be had from moving sideways, to materials and architectures that can operate at faster frequencies and with more parallelism, rather than brute-forcing the continuation of Moore’s law."

Problemet är mer kring Moores lag än om det är fysiskt möjligt att skapa dessa transistorer. Moores lag handlade aldrig om prestanda, den handlade om ekonomi, mer precist att antalet transistorer man kan få in på en krets för ett viss kostnad ungefär fördubblades var 24:e månad. Redan 14 nm har visar sig vara långt dyrare än noden innan, 10 nm kommer av allt att döma bli väsentligt dyrare och efter det finns idag överhuvudtaget ingen kommersiellt gångbar teknik för att tillverka något som en CPU/GPU.

Tror faktiskt ett andra "tock" på 14 nm i Kaby lake kan bli något bra. Är uppenbart att "tick" modellerna (Westmere, Ivy Bridge, Broadwell) långtifrån lyckas utnyttja möjligheter med den mindre noden när man ställer dem mot "tock" på samma nod (Sandy Bridge, Haswell, Skylake). T.ex. så fick Haswell över 20 gånger längre strömförbrukning i "idle" än Ivy Bridge trots att båda kör samma 22 nm FinFET process, Skylake matchar i flera fall Broadwell i prestanda med 50-70 % av TDP trots samma 16 nm process och Sandy Bridge är på en rad sätt en bättre design än Westmere trots samma 32 nm process.

Ska bli spännande att se vad man jobbat med i Kaby lake och vad det ger i praktiken när man jämför med Skylake.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd
Skrivet av Broken-arrow:

Antal transistorer är inte det viktiga. Utan det finns betydligt mer att ta hänsyn till. En mobil kommer inte slå en desktop på bra länge (troligen aldrig, om de inte lyckas kyla mobilen ).

Skickades från m.sweclockers.com

Nejdå! Men den har större chipp yta än min dator...stör mig på det!

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem

Quantum Well FET

Intressant att se om Intel lyckas få till det med sina sk "Quantum Well FET" och lyckas droppa spänningen till 0,5V

http://www.realworldtech.com/intel-10nm-qwfet/

Permalänk
Skrivet av Paddanx:

Jo visst är de inte perfekta, men notera att ny tillverkning lider av dålig yield också, så en ny nod är inte "lösningen" på det problemet. Tid och erfarenhet är... de fixar de flesta problem allt eftersom.

Men att de har nått gränsen nu det kan jag hålla med om. Dock får man komma ihåg att förr gick grafikkorten på en ny nod, varje år. För att plötsligt "stanna" på 28nm. Tekniken slutade inte utvecklas dock... den bara tog en annan väg.

@Yoshman självklart lär Intel se det som ett problem med PC marknaden. Problemet är att de inte verkar se väggen komma i hög fart mot dem. De behöver tänka om lite planer, inte köra full fart mot den. Finns de företag som klarar av att anpassa sig, och de som tror att världen ska anpassa sig runt dem. Just nu måste Intel inse och byta detta, för vad ska de släppa efter 10nm? 7nm. Och efter 7nm? De har redan nu svårt att få bättre prestanda, och bra yield ur dessa kretsar, och de har nu nått gränsen för där det är fysikaliskt "enkelt". När du måste ta kvant-beräkningar med i skiten så blir det kaos, och inte säkert bättre prestandan heller. Vad gör de då när forskningsbudgeten är slut?

Så notera att jag inte vill att Intel ska sluta, men om valen är en typ lika snabb CPU på mindre nod, som är mer buggig, problematisk och bara har pref/watt som fördel, så är det tom negativ väg för hela PC marknaden. Mao.. hf har de tänkt vända en PC marknad med negativ utveckling?

Fördelen gpu tillverkarna har, är att grafik kan parallellisera över flera kärnor bra. Så det är så AMD och Nvidia löst det delvis samt klockning (även 28nm har ju mognat hel del).

På en cpu, kan man inte lösa problemet genom att trycka in fler kärnor som på en gpu. Dock har ett grafikkort 300 watt som max att leka med.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Broken-arrow:

Fördelen gpu tillverkarna har, är att grafik kan parallellisera över flera kärnor bra. Så det är så AMD och Nvidia löst det delvis samt klockning (även 28nm har ju mognat hel del).

På en cpu, kan man inte lösa problemet genom att trycka in fler kärnor som på en gpu. Dock har ett grafikkort 300 watt som max att leka med.

Du säger det, men ändå är det så som man har löst det på serversidan. Man gör fler och fler trådar och kärnor och det är där man har fått vinst. Samma har på mobilerna gått från 1 till 4+ kärnor, eller 4+4 design i arm iaf. Sen kan man säga att om det gamla grafikkortet också hade 300W max, så har det nya samma begränsning. Och Nvidia gjorde Maxwell till allt annat än strömslukare...

När det dock gäller desktop (och mobilt/bärbart) så håller jag med dig, där är denna väg inte möjlig eller lycklig i långa loppet. Men vi har ändå gått från spel som vill ha 1-2 trådar till 4-8 trådar på <5 år mer eller mindre. Vilket visar att lite vinst finns att vinna. Med bättre API som DX12/Vulkan kan man dessutom använda trådarna och CPUerna på ett helt annat sätt, så prestanda problemet med 1 tråd är inte lika stor längre, även om den alltid kommer finnas pga inte alla lösningar går att parallellisera.

Samtidigt så hade tex Haswell mognat nog för att lätt klara 4,2Ghz utan större problem redan från fabrik (med 1/2 core på 4,4Ghz), där Skylake fick åter gå ner till 4.0 med alla kärnor (och endast 4,2 med 1 core.). Så 14nm vs 22nm visar också på att ny nod är litet steg tillbaka, där vinnaren är strömeffektivitet, så länge du inte kliver över "gränsen" iaf. Alla andra hastigheter är överklockhastighet, och utanför Intels spec iaf, och här är det kisel-lotteri hur man än ser det. Och om vi plötsligt ska ignorera TDP på CPUn, så kan vi ignorera 300W gräns på GPU också.

Men ändå vinner Skylake i ren IPC, och alla tester i samma frekvens iaf mot Haswell, så visst finns där optimeringar att göra, även om de nu är få och små. Broadwell var ett tecken på att där måste finnas något mer att optimera, när den för spel ägde allt, trots sin låga frekvens på 3,6Ghz 4C turbo och "sämre" 22nm. Detta kommer troligen Intel försöka använda i Kabylake, vilket kan bli intressant. Men poängen är att ny nod inte är framsteg för desktop längre, utan riskerar tom bli tvärt om. Optimeringar dock är bra oavsett nod.

Att man inte kan generellt bara göra "så här" och vinna på alla fonter, dvs Perf/Watt, IPC, Clock, Desktop/Laptop och Server är nog bara att inse. Utan man får göra lite för varje del, eller prioritera en över andra. Som det är nu så verkar desktop helt klart vara förlorarna, men samtidigt så är det en avtagande marknad, förutom spel, som nu med nyare APIer kanske inte ens behöver dessa värsting CPUer längre.

Så jag står vid min kommentar att folk som tror en ny nod är räddningen/svaren på alla problem, verkligen behöver ta bort skygglapparna, för det är inte så längre. Det är för mycket problem med nya noder, och vinsterna är små utom i just effektivitet.

Permalänk
Medlem

Någon som vet om det stämmer att Cannonlake skulle stödja pci-express 4.0?

Skickades från m.sweclockers.com

Visa signatur

Dator 1: AMD Ryzen 9 7950X3D, 64 GB Kingston Fury DDR5 5600 MHz CL36 , Asus Radeon 7900XTX TUF OC, Be Quiet Dark Base Pro 900 rev.2 Black Case, Asus ROG Crosshair X670E Hero Mobo , Be Quiet 1500W PSU, Win10 Pro 64-bit, Creative Soundblaster AE7

Dator 2: Intel Core i7 9700k, 32GB DDR4 Corsair 3000 MHz, Asus TUF Z390 Mobo, Asus Radeon 6800 XT TUF, Be Quiet 850 PSU, Win10 Pro 64-bit, Asus TUF GT502 Case

Permalänk
Skrivet av Paddanx:

Du säger det, men ändå är det så som man har löst det på serversidan. Man gör fler och fler trådar och kärnor och det är där man har fått vinst. Samma har på mobilerna gått från 1 till 4+ kärnor, eller 4+4 design i arm iaf. Sen kan man säga att om det gamla grafikkortet också hade 300W max, så har det nya samma begränsning. Och Nvidia gjorde Maxwell till allt annat än strömslukare...

När det dock gäller desktop (och mobilt/bärbart) så håller jag med dig, där är denna väg inte möjlig eller lycklig i långa loppet. Men vi har ändå gått från spel som vill ha 1-2 trådar till 4-8 trådar på <5 år mer eller mindre. Vilket visar att lite vinst finns att vinna. Med bättre API som DX12/Vulkan kan man dessutom använda trådarna och CPUerna på ett helt annat sätt, så prestanda problemet med 1 tråd är inte lika stor längre, även om den alltid kommer finnas pga inte alla lösningar går att parallellisera.

Samtidigt så hade tex Haswell mognat nog för att lätt klara 4,2Ghz utan större problem redan från fabrik (med 1/2 core på 4,4Ghz), där Skylake fick åter gå ner till 4.0 med alla kärnor (och endast 4,2 med 1 core.). Så 14nm vs 22nm visar också på att ny nod är litet steg tillbaka, där vinnaren är strömeffektivitet, så länge du inte kliver över "gränsen" iaf. Alla andra hastigheter är överklockhastighet, och utanför Intels spec iaf, och här är det kisel-lotteri hur man än ser det. Och om vi plötsligt ska ignorera TDP på CPUn, så kan vi ignorera 300W gräns på GPU också.

Men ändå vinner Skylake i ren IPC, och alla tester i samma frekvens iaf mot Haswell, så visst finns där optimeringar att göra, även om de nu är få och små. Broadwell var ett tecken på att där måste finnas något mer att optimera, när den för spel ägde allt, trots sin låga frekvens på 3,6Ghz 4C turbo och "sämre" 22nm. Detta kommer troligen Intel försöka använda i Kabylake, vilket kan bli intressant. Men poängen är att ny nod inte är framsteg för desktop längre, utan riskerar tom bli tvärt om. Optimeringar dock är bra oavsett nod.

Att man inte kan generellt bara göra "så här" och vinna på alla fonter, dvs Perf/Watt, IPC, Clock, Desktop/Laptop och Server är nog bara att inse. Utan man får göra lite för varje del, eller prioritera en över andra. Som det är nu så verkar desktop helt klart vara förlorarna, men samtidigt så är det en avtagande marknad, förutom spel, som nu med nyare APIer kanske inte ens behöver dessa värsting CPUer längre.

Så jag står vid min kommentar att folk som tror en ny nod är räddningen/svaren på alla problem, verkligen behöver ta bort skygglapparna, för det är inte så längre. Det är för mycket problem med nya noder, och vinsterna är små utom i just effektivitet.

Menar nu för hos privatpersoner, inte företag. Mobiler fungerar utmärkt på två starka cpu kärnor (se på nya Iphone).

Men håller helt med att lägre node inte är längre en fördel (något jag fått inse på senare år).

Men allt på servers går inte lägga ut på flera kärnor (än i alla fall, sen licenskostnader för program är inte billiga när man ska köra med många kärnor).

Men blivit riktigt bra utveckling åt flerkärniga program/spel för privatpersoner. Vissa spel går omöjligt att köra bra på färre än 4 trådar (gta 5 än så länge). Så spel har inte ännu gått över 2 kärnorsbarriären, men verkar vara på väg nu.

Men ger ju rejäl klickspark för intel, för SB kommer ju fungera ännu bättre när fler kärnor kan användas bättre. Men den har ju vissa begränsningar, men råprestandan kommer helt plötsligt till full nytta.

Bästa vore om Vulkan tar över DX (inget som troligen någonsin händer, men man kan hoppas).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Skrivet av Nätokraten:

Någon som vet om det stämmer att Cannonlake skulle stödja pci-express 4.0?

Skickades från m.sweclockers.com

Knappt man har nått taket på 2.0 x8 (om jag inte har galet fel och det är snarare x16) , så 3.0 har man rejält svängrum med (så 4.0 känns rätt avlägset att man kommer behöva). Men vist 4.0 är ju trevligt om Intel fortsätter snåla på lanes.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Solitary:

Intressant att se om Intel lyckas få till det med sina sk "Quantum Well FET" och lyckas droppa spänningen till 0,5V

http://www.realworldtech.com/intel-10nm-qwfet/

Vad spelar det för roll om alla ändå ska klocka upp allt till 1,3-1,5v

Skämt å sido, det är lite konstigt att vi typ står o nöter på samma spänningar igen, och igen, pga vi är fast på samma transistor teknik i grunden. Vill de verkligen få upp perf/watt så är sänkning av spänningen definitivt något som måste göras.

Skrivet av Broken-arrow:

Knappt man har nått taket på 2.0 x8 (om jag inte har galet fel och det är snarare x16) , så 3.0 har man rejält svängrum med (så 4.0 känns rätt avlägset att man kommer behöva). Men vist 4.0 är ju trevligt om Intel fortsätter snåla på lanes.

Nja.. .du kan ha nytta av det:
https://www.techpowerup.com/reviews/AMD/R9_Fury_X_PCI-Express...
https://www.techpowerup.com/reviews/AMD/R9_Fury_X_PCI-Express...
Det kräver dock spel eller något som behöver det. (Detta ovan är typ värsta fall)
3.0 8x (2.0 16x) brukar normalt kunna driva det mesta utan problem dock, men 3.0 4x eller 2.0 8x kommer tappa lite FPS.

Skylakes fördel var väl att alla banor på moderkortet själva var nu 3.0 också? Så du behöver inte ta dessa från grafikkortet för att driva SSDn och annat. Och 2 GPUer med 3.0 8x vardera räcker rätt långt.

Med tanke på att SLI/CF är "dömt" med DX12 så är väl frågan vad och hur nästa gen multi-GPU kommer köra, och om det kommer behöva mer bandbredd via PCI-E eller inte.

Permalänk
Skrivet av Paddanx:

Vad spelar det för roll om alla ändå ska klocka upp allt till 1,3-1,5v

Skämt å sido, det är lite konstigt att vi typ står o nöter på samma spänningar igen, och igen, pga vi är fast på samma transistor teknik i grunden. Vill de verkligen få upp perf/watt så är sänkning av spänningen definitivt något som måste göras.

Nja.. .du kan ha nytta av det:
https://www.techpowerup.com/reviews/AMD/R9_Fury_X_PCI-Express...
https://www.techpowerup.com/reviews/AMD/R9_Fury_X_PCI-Express...
Det kräver dock spel eller något som behöver det. (Detta ovan är typ värsta fall)
3.0 8x (2.0 16x) brukar normalt kunna driva det mesta utan problem dock, men 3.0 4x eller 2.0 8x kommer tappa lite FPS.

Skylakes fördel var väl att alla banor på moderkortet själva var nu 3.0 också? Så du behöver inte ta dessa från grafikkortet för att driva SSDn och annat. Och 2 GPUer med 3.0 8x vardera räcker rätt långt.

Med tanke på att SLI/CF är "dömt" med DX12 så är väl frågan vad och hur nästa gen multi-GPU kommer köra, och om det kommer behöva mer bandbredd via PCI-E eller inte.

Mm, förstår det. Ger dock inte mycket fördelar med 3.0 på busen, borde varit 8x i stället för 4x. Med nya nvme så blir det flaskhals, dessutom om moderkorts tillverkare som snålar så kör alla pci-e utom en port.

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar