Intel spurtar mot ångström

Permalänk
Medlem

Bara så folk inte glömmer: så här lät det 2014:
https://www.tweaktown.com/news/41582/intel-to-hit-10nm-in-201...

10nm (Intel 7) skulle släppas 2016
7nm (Intel 5) skulle släppas 2018

Deras planer har alltid varit på fantasinivå, litar inte alls på att deras nuvarande ska hålla heller

Permalänk
Medlem
Skrivet av medbor:

Bara så folk inte glömmer: så här lät det 2014:
https://www.tweaktown.com/news/41582/intel-to-hit-10nm-in-201...

10nm (Intel 7) skulle släppas 2016
7nm (Intel 5) skulle släppas 2018

Deras planer har alltid varit på fantasinivå, litar inte alls på att deras nuvarande ska hålla heller

Nej, det intel kallar "7" skulle väl inte släppts 2016? "7" är väl tredje generationenen av deras 10nm process som dom använde till Canon lake 2018. För superfins etc var väl inte en del av den ursprungliga 10nm noden dom jobbade med?

Med det sagt... Ja det tog ju ett tag för Intel att komma vidare från deras 14nm nod... Deras misslyckande med 10nm lär väl vara ett av dom största i Intels historia, har säkert slagit hårdare än t ex netburst. Tur för intel att x86-marknaden ser ut som den gör.

Permalänk
Medlem
Skrivet av ThAnOs:

Hade varit bra om dom lagt till socket bytena i planen. Så att man ser när socket ändras. Kan vara bra för ens planering 😊

Intel har bytt sockel varannan generation sen lång tid tillbaka, så du kan med ganska stor säkerhet utgå från det.

Permalänk
Medlem

Känner mig lite bitter över att de segade i flera år tills amd kom och sopade banan med 5000 serien. Att de nu ska ha högt tempo efter det frustrerar mig.
Att utveckla bra produkter spelar verkligen ingen roll sålänge man ligger bäst till i marknaden.
Ja, jag vet att konkurrens funkar så, men det är ändå drygt.

Visa signatur

Stationär: RTX 4090 OC ASUS | Ryzen 9 5950X | G.Skill Trident Z NEO 3600mhz 32GB | Arctic Liquid Freezer III 360 | Corsair HX1000i | Asus Rog Strix X570-F Gaming | Samsung 990 PRO 2TB | Samsung 980 PRO 2TB | Fractal Design North XL

Jobbdator: MacBook Pro 16" i7 6C, 16GB ram DDR4, AMD Radeon Pro 5300M 4GB

Permalänk
Medlem
Skrivet av klotim:

Känner mig lite bitter över att de segade i flera år tills amd kom och sopade banan med 5000 serien. Att de nu ska ha högt tempo efter det frustrerar mig.
Att utveckla bra produkter spelar verkligen ingen roll sålänge man ligger bäst till i marknaden.
Ja, jag vet att konkurrens funkar så, men det är ändå drygt.

Jag skulle nog säga att det har mer att göra med misslyckandet av deras 10nm nod än konkurrens. Intel var världsledande på halvledare (en branch som inte direkt saknar konkurrans). Och detta var knappast ett område dom segade på, utan ett område man vart rätt aggresiva på, och hela intels roadmap hängde på att nya avancerade noder fortsatte rulla ut. Kollar man tidiga roadmaps så är det knappast som att deras plan var att ligga på mer eller mindre samma nod och arkitektur i 5 år. Sen har såkart AMD-återtåg tvingat fram högre frekvenser, mer kärnor och lägre priser, men rent teknologiskt så hade nog intel vart längre fram även utan AMD om deras halvledartillverkning hade gått som planerat.

Permalänk
Medlem
Skrivet av Yoshman:

Självklart ska ångström-suffixet vara Å.

Men i fallet "20A" handlar det om ett namn och om den som valt namnet säger att det stavas "20A" och inte "20Å" är det inte mycket att diskutera.

Kort och gott: SweClockers gör rätt här när de använder "A" och inte "Å". Ska man klaga på något är det Intels val av namn.

Skrivet av mpat:

Eftersom det var standard att skriva mikrometer som um istället för att försöka komma ihåg hur man skrev ett my, så tycker jag att det är en återgång till etablerad standard att använda A för Ångström. Vi gjorde bara ett litet undantag under nanometer-eran.

Får förtydliga att jag tycker att Swec inte gör något fel utan är tydliga i sin artikel. Är ju inte heller första gången våra transatlantiska vänner inte bryr sig om att det kan bli förvirring gentemot en annan SI-enhet, så visst, hjälper knappast att en annan påpekar något här.

Visa signatur

Asus Rog Strix X570-F | AMD Ryzen 9 3900X | G.Skill 2x16GB DDR4 3600MHz CL16 Trident | Noctua NH-U12A | Asus Geforce RTX 2070 Super 8GB DUAL OC EVO | Seasonic FOCUS Plus 750W Gold | Corsair Force MP600 1TB | Samsung 970 EVO Plus 500GB | Fractal Design Define C TG | Acer 27" Predator XB273K | QPAD MK-85 (Brown) | Razer DeathAdder Chroma | Logitech Z623 | Sennheiser GAME One
http://www.youtube.com/channel/UCl0ZJPJ7XZkjvUoR7zgPOLg

Permalänk
Medlem
Skrivet av sKRUVARN:

Nej, det intel kallar "7" skulle väl inte släppts 2016? "7" är väl tredje generationenen av deras 10nm process som dom använde till Canon lake 2018. För superfins etc var väl inte en del av den ursprungliga 10nm noden dom jobbade med?

Med det sagt... Ja det tog ju ett tag för Intel att komma vidare från deras 14nm nod... Deras misslyckande med 10nm lär väl vara ett av dom största i Intels historia, har säkert slagit hårdare än t ex netburst. Tur för intel att x86-marknaden ser ut som den gör.

Ja det är sant, det de idag kallar 7 är en förfining av deras 10nm, kanske 10++ eller något. Fortfarande sjukt många år sena hur man än ser det

Dock var väl denna förfinade nod också den enda som fungerade väl nog för massproduktion

Tekniskt sett släpptes ju 10nm-chip redan 2018:
https://www.tomshardware.com/news/intel-10nm-processor-core-i...

Permalänk
Medlem
Skrivet av TheLostSwede:

Minns inte det med lika mycket glädje, speciellt inte när man skulle fixa någon gammal burk där man inte visste hur IRQ och DMA var konfigurerat och man fick plocka ur alla instickskorten för att kolla vad dom var fel. Speciellt när det saknades manualer och det var dålig "silkscreen" på korten så man inte visste vilka jumprar som var till vad. Vissa saker var inte bättre förr, även om det iofs löstes så småningom.

Visst, men det var ändå lite roligt att fixa sådant. Men när det var plug and play så blev det lite enklare med den saken.

Hur som helst var det lite mer skoj att komponera ihop datorn. Utan att för den skull känna att man har inaktiverade resurser på moderkortet till ingen nytta.

Visa signatur

JJ2 Multiplayer
JJ2 ZStats

[1] Ryzen 5800X | 5500XT | Kingston A2000 | Lenovo G24-10 144Hz [2] Ryzen 5700G | RX 560 | WD Blue SN550 [3] Ryzen 5600G | Kingston A2000 [4] Ryzen 3600 | GT 740 | 850 EVO [5] Ryzen 3600 | Geforce 405 | 850 EVO (alla är i bruk)

Permalänk
Medlem

Dumt att kalla något för en måttenhet när det inte ens håller måttet.

Permalänk
Medlem
Skrivet av Mugen08:

Men Å är väl ändå den korrekta symbolen för Ångström?
https://en.wikipedia.org/wiki/Angstrom
"The accepted symbol is "Å", no matter how the unit is spelled. However, "A" is often used in less formal contexts or typographically limited media."
Ok att det inte handlar om faktiska mått men tycker ändå det känns konstigt att se mtp A=ampere.

Å är en sällsynt bokstav och kan inte komma på någon fler som har så konstiga bokstäver, tror att det är unikt i norden.
Så att det är Å är en nordiska(exkl island) varianten av storheten.

Permalänk
Datavetare
Skrivet av medbor:

Bara så folk inte glömmer: så här lät det 2014:
https://www.tweaktown.com/news/41582/intel-to-hit-10nm-in-201...

10nm (Intel 7) skulle släppas 2016
7nm (Intel 5) skulle släppas 2018

Deras planer har alltid varit på fantasinivå, litar inte alls på att deras nuvarande ska hålla heller

Fast å andra sidan gällde länge det omvända flera noderna innan, för varje generation ökade då Intel sitt försprång mot konkurrenterna. Detta kulminerade vid 22 nm, även fast 14 nm blev något sen var man där initialt 1-1,5 nod före närmaste konkurrent.

I denna intervju av Dr. Ann Kelleher, "executive vice president" samt "general manager of Technology Development" kommer de in på "vad gick fel med 10 nm".

Det mest är känt idag, normalt ökar man t.ex. densiteten med 1,5-2,0 gånger mellan noder. Intels 10 nm är en 2,7 gånger ökning mot 14 nm. Nu när 10 nm "fungerar" kan Intel också göra fler "erkännande" officiellt, de inser nu att flera saker de gjort i deras 10 nm process var inte vettiga i frånvaro av EUV (men EUV var inte produktsfärdigt när de designade 10 nm).

I princip säger hon också att man lärt sig väldigt mycket av 10 nm, framförallt att inte ta så många och stora steg samtidigt... Så att Intel "accelererar" utveckling av noder framöver kanske är lite sanning med modifikation, man verkar utgå från att de kan få en vettig kundbas (utöver dem själva) att använda deras fabriker och det då blir än mer kritiskt att man kan driftsätta noderna enligt plan.

Man kommer helt enkelt inte ta lika stora kliv mellan noderna, i stället planerar man att ta mindre steg, men att ta dem oftare (om nu Intels "nya" plan håller...).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av sesese:

Snart är även intern minnet monterat i CPUn om utvecklingen går så snabbt som de pratar om. Endas de som behöver +64gb behöver montera externa stickor.

Känns som att moderkortet snart spelat ut sin roll då mer och mer integreras i CPUn

På 70-talet vet jag att man hade minne i CPU:n. PM var då långsamma och att beräkna tal i PM var hopplöst så det gjordes i cashen i CPU:n. Idag brukar det oftast kallas L1, L2 och L3.

Permalänk
Medlem
Skrivet av Yoshman:

Självklart ska ångström-suffixet vara Å.

Men i fallet "20A" handlar det om ett namn och om den som valt namnet säger att det stavas "20A" och inte "20Å" är det inte mycket att diskutera.

Kort och gott: SweClockers gör rätt här när de använder "A" och inte "Å". Ska man klaga på något är det Intels val av namn.

Då man skriver artiklar från utländska beskrivningar så är det brukligt att man översätter till svenska. Så A är hos oss Å i det här fallet.
Du kan fundera över hur det blir att läsa en översättning från t.ex. Kina eller Japan mm om man behåller vissa orginalbeteckningar. Vi skulle inte ens kunna skriva tecknen.

Det största felet om det är fel är att Ångström stavade sitt namn fel för att passa mer globalt.

Permalänk
Datavetare
Skrivet av lillaankan_i_dammen:

Håller med.
Angående parallelliserbara applikationer. Så är jag av åsikten att de flesta av datorproblemen i hög grad är detta. Om man dock sysslar med enkla saker så blir dessa saker svårare. Men ta självkörande bil, terminators etc. otroligt mycket datakraft behövs och det handlar inte om att man har en funktion som inläser in från en fil, rad för rad och bearbetar denna och precis allt annat står still och väntar på att denna funktion är klar.

Problemet med parallellisism anser jag vara kostnaden. Man kommer tillslut till ett skede att allt inte får plats i en krets, senare att allt inte får plats i en datorenhet och tillslut sitter man där med datacentret i Luleå.
Och problemet är då att det både går åt väldigt mycket råvaror att ta fram allt som behövs i denna datacenter, samt att den förbrukar en hel del energi. Så parallellism är för mig en begränsad möjlighet och det är inte främst att ens problem inte går att lösa genom parallellism utan kostnaden för hårdvaran och driva det. -Det finns en begränsning i antalet megastora energislukande datacenter som går att byggas inom den närmsta tiden.

En kritisk aspekt kring parallerisering: det är relativt "lätt" att få till på serversystem då man har väldigt mycket potentiell parallelism, varje session kan hanteras i stort sätt oberoende av övriga session och varje session är i praktiken enkeltrådat.

Så det är mer än en kostnadsfråga!

Zoomar man in på enskilda problem är det relativt vanligt att de mest effektiva algoritmerna är nära nog hopplösa att köra effektivt över flera kärnor. Så blir rätt snabbt "dimishing returns" att använda många kärnor på enskilda problem, där "enskilda problem" ska ses som t.ex. hantera en användarsession, ett spel, etc.

Självklart finns undantag, men dessa undantag har väldigt ofta en gemensam nämnare: de är data-parallella, inte uppgifts-parallella. Exempel på den förra är 3D-grafik, ray-tracing, vissa former av bildbehandling, vissa former av videoredigering. Exempel på det senare är kompilering och många serverlaster (som kan skalas väl) samt allt det som har "viss" parallellism men skalar lång ifrån linjärt (spel-logik är ett typexempel).

Grejen här är att data-parallella problem må skala rätt nära perfekt över CPU-kärnor, men börjar bli smärtsamt uppenbart att det ändå är fel väg! GPU, NPU och vissa FPGA lösningar är specifikt byggda för att lösa just data-parallella problem. Att använda dessa är ofta väldigt mycket en kostnadsfråga, det krävs typiskt rätt stort ingrepp i programvaran för att den ska fullt utnyttja möjligheterna.

Blender är ett väldigt bra exempel. Där har GPGPU-stöd funnits hyfsat länge, från start fanns en del problem där GPGPU inte var självklart bättre. Med tiden kom vi ändå till en punkt där GPGPU i princip alltid vad heltalsfaktorer snabbare.

I version 3.0 lanserades en rejält omdesignad GPGPU-motor och nu är Nvidias RTX GPUer 20-30 gånger snabbare än dagens CPU-toppmodeller (för konsumenter) från Intel/AMD. För den här typen av uppgifter är det fel att slänga mer transistorer på fler CPU-kärnor!

NPU:er för samma sak för maskininlärning och på serversidan kommer vi snart få in FPGA:er för att lösa smalare problemdomäner.

Ditt exempel med självkörande bilar innehåller flera element som är kraftigt data-parallella, så där går det absolut att göra saker på många kärnor. Men det ska vara GPUer eller motsvarande, inte CPUer!!!

NumPy är på många sätt en "modern" variant Matlab. Det är också ett ramverk som lämpar sig väldigt väl till data-parallella problem (datorseende och maskininlärning är två områden där NumPy är väldigt populärt). Detta ramverk gör det väldigt enkelt att använda många kärnor och även SIMD (SSE/AVX på x86). Även här har det tagit en del jobb att få till motsvarande på GPGPU, men finns nu ramverk där lite större problem ser >100 gånger högre prestanda med Nvidia GPUer jämfört med CPU på server-system!

Så för normalanvändaren blir det väldigt få fall där många CPU-kärnor är speciellt värdefullt. Ett noterbart undantag är kompilering, men ofta (i bra designade projekt) är det extremt sällsynt att man behöver bygga om speciellt stora delar, i det läget faller även detta fall tillbaka på att primärt vara begränsat av prestanda på enskilda kärnor. Då problemet är uppgifts-parallellt lämpar det sig illa för GPGPU-accelerering.

Skrivet av shogun-r:

Visst är det så, de flesta använder bara Facebook, Youtube och lite annan streaming och liknande. Då duger mobilen bra. Samtidigt för oss som använder mer Office och annat så är det inte lika kul. Vill man läsa så är mobilen hur bra som helst och ligga i sängen eller soffan, men vill man arbeta så krävs lite mer.

Som du skriver så finns tekniken, men ändå är det så svårt att införskaffa en passivt kyld, fläktlös, liten Windowsenhet. Det närmaste man kommer är NUC men den är inte passivt kyld och fläktlös som standard.

Hoppas dock det ändrar sig, står i artikeln "Intel lovar också att tillverka strömsnålare produkter.".

Vet att Apple har Mac Mini med M1, men tyvärr så går Apple bort hos mig, så är det bara. Hoppas Intel kan komma med något liknande snart, även om prestandan inte blir lika bra, så duger den helt garanterat för kontorsarbete, streaming etc.

Vet inte om jag skulle hålla andan medan jag väntar på att Intel får till det du frågar efter. Däremot kommer Qualcomm presentera sin systemkrets under 2H detta år med produkter under 2023. Där återfinns framförallt en CPU-design från Nuvia, vilket gör den spännande av en rad orsaker

  • en av chefsarkitekterna för det som idag är Apple M1 är en av grundarna till Nuvia

  • Nuvia har gett indikationer på att man inte tänker matcha Apple, man ska kliva förbi dem

  • det Nuvia saknar är allt runt en CPU för att göra en "hel" systemkrets, detta är saker Qualcomm är riktigt bra på (man nämner bl.a. att man jobbat på en specialvariant av Qualcomms Adreno GPU)

Denna systemkrets är helt designad med Windows 11 som tänkt mål-OS. Bl.a. har Microsoft och Qualcomm jobbat väldigt tight ihop kring x86-64 "emulering" (som tyvärr är långt viktigare på Windows än på MacOS, redan idag är väldigt nära en fullständig övergång till "native" applikationer, men motsvarande övergång på Windows kommer antagligen ta minst ett decennium).

Så tycker man kan ha stora förhoppningar på Qualcomm, det trots den shit-show ARM64 på Windows varit så här långt. Det räcker inte med att göra något som har "OK" prestanda med bättre perf/W jämfört med AMD/Intel för att slå sig in på Windows marknaden. Det måste, likt när M1 lanserades hösten 2020, vara odiskutabelt bättre än andra produkter i samma segment. Givet vilket "dream-team" Nuvia verkar fått ihop så har de i alla fall potentialen att lyckas.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Yoshman:

En kritisk aspekt kring parallerisering: det är relativt "lätt" att få till på serversystem då man har väldigt mycket potentiell parallelism, varje session kan hanteras i stort sätt oberoende av övriga session och varje session är i praktiken enkeltrådat.

Så det är mer än en kostnadsfråga!

Zoomar man in på enskilda problem är det relativt vanligt att de mest effektiva algoritmerna är nära nog hopplösa att köra effektivt över flera kärnor. Så blir rätt snabbt "dimishing returns" att använda många kärnor på enskilda problem, där "enskilda problem" ska ses som t.ex. hantera en användarsession, ett spel, etc.

Självklart finns undantag, men dessa undantag har väldigt ofta en gemensam nämnare: de är data-parallella, inte uppgifts-parallella. Exempel på den förra är 3D-grafik, ray-tracing, vissa former av bildbehandling, vissa former av videoredigering. Exempel på det senare är kompilering och många serverlaster (som kan skalas väl) samt allt det som har "viss" parallellism men skalar lång ifrån linjärt (spel-logik är ett typexempel).

Grejen här är att data-parallella problem må skala rätt nära perfekt över CPU-kärnor, men börjar bli smärtsamt uppenbart att det ändå är fel väg! GPU, NPU och vissa FPGA lösningar är specifikt byggda för att lösa just data-parallella problem. Att använda dessa är ofta väldigt mycket en kostnadsfråga, det krävs typiskt rätt stort ingrepp i programvaran för att den ska fullt utnyttja möjligheterna.

Blender är ett väldigt bra exempel. Där har GPGPU-stöd funnits hyfsat länge, från start fanns en del problem där GPGPU inte var självklart bättre. Med tiden kom vi ändå till en punkt där GPGPU i princip alltid vad heltalsfaktorer snabbare.

I version 3.0 lanserades en rejält omdesignad GPGPU-motor och nu är Nvidias RTX GPUer 20-30 gånger snabbare än dagens CPU-toppmodeller (för konsumenter) från Intel/AMD. För den här typen av uppgifter är det fel att slänga mer transistorer på fler CPU-kärnor!

NPU:er för samma sak för maskininlärning och på serversidan kommer vi snart få in FPGA:er för att lösa smalare problemdomäner.

Ditt exempel med självkörande bilar innehåller flera element som är kraftigt data-parallella, så där går det absolut att göra saker på många kärnor. Men det ska vara GPUer eller motsvarande, inte CPUer!!!

NumPy är på många sätt en "modern" variant Matlab. Det är också ett ramverk som lämpar sig väldigt väl till data-parallella problem (datorseende och maskininlärning är två områden där NumPy är väldigt populärt). Detta ramverk gör det väldigt enkelt att använda många kärnor och även SIMD (SSE/AVX på x86). Även här har det tagit en del jobb att få till motsvarande på GPGPU, men finns nu ramverk där lite större problem ser >100 gånger högre prestanda med Nvidia GPUer jämfört med CPU på server-system!

Så för normalanvändaren blir det väldigt få fall där många CPU-kärnor är speciellt värdefullt. Ett noterbart undantag är kompilering, men ofta (i bra designade projekt) är det extremt sällsynt att man behöver bygga om speciellt stora delar, i det läget faller även detta fall tillbaka på att primärt vara begränsat av prestanda på enskilda kärnor. Då problemet är uppgifts-parallellt lämpar det sig illa för GPGPU-accelerering.

Vet inte om jag skulle hålla andan medan jag väntar på att Intel får till det du frågar efter. Däremot kommer Qualcomm presentera sin systemkrets under 2H detta år med produkter under 2023. Där återfinns framförallt en CPU-design från Nuvia, vilket gör den spännande av en rad orsaker

  • en av chefsarkitekterna för det som idag är Apple M1 är en av grundarna till Nuvia

  • Nuvia har gett indikationer på att man inte tänker matcha Apple, man ska kliva förbi dem

  • det Nuvia saknar är allt runt en CPU för att göra en "hel" systemkrets, detta är saker Qualcomm är riktigt bra på (man nämner bl.a. att man jobbat på en specialvariant av Qualcomms Adreno GPU)

Denna systemkrets är helt designad med Windows 11 som tänkt mål-OS. Bl.a. har Microsoft och Qualcomm jobbat väldigt tight ihop kring x86-64 "emulering" (som tyvärr är långt viktigare på Windows än på MacOS, redan idag är väldigt nära en fullständig övergång till "native" applikationer, men motsvarande övergång på Windows kommer antagligen ta minst ett decennium).

Så tycker man kan ha stora förhoppningar på Qualcomm, det trots den shit-show ARM64 på Windows varit så här långt. Det räcker inte med att göra något som har "OK" prestanda med bättre perf/W jämfört med AMD/Intel för att slå sig in på Windows marknaden. Det måste, likt när M1 lanserades hösten 2020, vara odiskutabelt bättre än andra produkter i samma segment. Givet vilket "dream-team" Nuvia verkar fått ihop så har de i alla fall potentialen att lyckas.

Om det är en användare som vill att datorn ska utföra något så blir uppgiften väldigt sekventiell av sin natur. Trots att det sker hur mycket som helst bakgrunden så vill användaren ha respons snabbt för den uppgiften den begärde.
Det är ett smalt sätt att se på databehovet, men det kan leda till extrema realtidskrav som annars ofta mer är unika.

När det gäller program så blir de mer bloated. Jag har förespått Ai bildredigeringsprogram i typ 30år och nu börjar de komma. Där programmet använder Ai för at lista ut hur den ska maska, vilka filter den ska köra på olika ställen osv. Så moment som förr var mer sekventiella blir mer parallella, där man dock använde Ai-cores.
Samma med excel ect. Förr i tiden mer sekventiellt program. Inom snar framtid troligen mer Ai, där Excel listar ut att användaren nog ville göra detta istället och ger bra förslag. Likaså kanske till viss del listar ut hur användaren vill ha datan presenteras och gör detta med alternativet stäng av Ai.

Sedan kommer mycket vara sekventiellt i typ all framtid. Jag själv gjorde t.ex ett verktyg som en bearbetning tar runt 10 minuter. Genom att endast ändra till parallell-for så sparar jag 20 % av tiden. Om jag bygger om IO delen som är flaskhalsen så kan jag få ner tiden till.. ja, bra fråga.
Men ändå kör jag helt sekventiellt eftersom jag sparar så mycket felsökningstid. Om mitt program börjar i en viss ordning så är det superlätt att följa det och spåra upp fel. Jobbar programmet med tusen saker samtidigt och all felsökningstid lika med egen fritid. Så vill jag inte felsöka det program som visserligen hade arbetat lite snabbare. Jag startar då hellre mitt program lite före varje gång och jobbar med annat medans datorn jobbar.

Och så kommer det typ alltid att vara. Även om det går att parallellisera saker så anser man inte problemen med utveckling/felsökning överväger fördelarna. Det kvittar ibland att det är superlätt att bara lägga till parallell framför for-looparna. Man får programmet arbeta i en konstig ordning och svårt att tolka felloggara

*edit*
En poäng i mitt inlägg är att användare får bli bättre på att jobba parallell. Det dagen då man som IT tekniker kan skicka en faktura till kund där det står, väntar på uppladdning av fil till sftp server 8h, med 1000kr/h är förbi.
Utan om en dataoperation tar lång tid så får man göra något annat under tiden. Vilket leder till att kraven på den supersnabba responsen minskar, men såklart inte är oviktig.

Permalänk
Medlem
Skrivet av abki:

Å är en sällsynt bokstav och kan inte komma på någon fler som har så konstiga bokstäver, tror att det är unikt i norden.
Så att det är Å är en nordiska(exkl island) varianten av storheten.

10^(-10) m betecknas med Å, det är inte en nordisk variant av storheten.

Permalänk
Medlem
Skrivet av abki:

Då man skriver artiklar från utländska beskrivningar så är det brukligt att man översätter till svenska. Så A är hos oss Å i det här fallet.
Du kan fundera över hur det blir att läsa en översättning från t.ex. Kina eller Japan mm om man behåller vissa orginalbeteckningar. i skulle inte ens kunna skriva tecknen.

Det största felet om det är fel är att Ångström stavade sitt namn fel för att passa mer globalt.

Som Yoshman säger så är dock t.ex. 20A ett namn, att A:et i det här fallet kanske råkar syfta på Ångström har ingen större betydelse. Om du kollar på t.ex. kinesiska Wiki-sidan för 10nm-processer så ser du att de inte översätter nm till kinesiska heller när det handlar om den typen av namn (men däremot när de skriver om måttenheten, som i artikelrubriken).

Permalänk
Medlem
Skrivet av Yoshman:

Fast å andra sidan gällde länge det omvända flera noderna innan, för varje generation ökade då Intel sitt försprång mot konkurrenterna. Detta kulminerade vid 22 nm, även fast 14 nm blev något sen var man där initialt 1-1,5 nod före närmaste konkurrent.

I denna intervju av Dr. Ann Kelleher, "executive vice president" samt "general manager of Technology Development" kommer de in på "vad gick fel med 10 nm".

Det mest är känt idag, normalt ökar man t.ex. densiteten med 1,5-2,0 gånger mellan noder. Intels 10 nm är en 2,7 gånger ökning mot 14 nm. Nu när 10 nm "fungerar" kan Intel också göra fler "erkännande" officiellt, de inser nu att flera saker de gjort i deras 10 nm process var inte vettiga i frånvaro av EUV (men EUV var inte produktsfärdigt när de designade 10 nm).

I princip säger hon också att man lärt sig väldigt mycket av 10 nm, framförallt att inte ta så många och stora steg samtidigt... Så att Intel "accelererar" utveckling av noder framöver kanske är lite sanning med modifikation, man verkar utgå från att de kan få en vettig kundbas (utöver dem själva) att använda deras fabriker och det då blir än mer kritiskt att man kan driftsätta noderna enligt plan.

Man kommer helt enkelt inte ta lika stora kliv mellan noderna, i stället planerar man att ta mindre steg, men att ta dem oftare (om nu Intels "nya" plan håller...).

Ja steget från 20A till 18A låter ju inte direkt imponerande.

De fick hybris och trodde de var odödliga helt enkelt, dock kan jag tycka det blev ett bra resultat med jämnare topp inom kretstillverkning och ett mycket starkare AMD som följd. Ibland är det nog bra att maknadsdominanter hämmas lite. Inte så att Intel innoverade med full kraft direkt

Bra om de får upp farten igen, men jag är skeptisk

Permalänk
Medlem

Super skoj med allt nytt.
Det kommer nya produkter titt som tätt.
Ny design, nya infallsvinklar både på hårdvara och mjukvara, optimering osv.
Händer saker hela tiden. Spännande tider

När ska man göra sitt köp? Vid release, 6 månader, 1 år eller 1.5 år efter release?
Hur länge håller en CPU och GPU? är det cpun som håller längst kopplat till prestanda?
Kanske bäst att köpa allt nytt vart 3e/4e år?
Mycket att tänka på.

Visa signatur

Lightsaber - Black armour - and balls!

Permalänk
Medlem

T.ex. Engelskan har bara bokstäverna A - Z. Tangentborden innehåller normalt inte konstiga tecken som Å. De felsta länder har liknande teckenuppsättningar på sina tangentbord.

Å andra sidan så har vi lagar inom EU och sverige som i princip bara tillåter måttangivelser med SI-enheter. I USA som är mer vild vest så finns många andra mått som t.ex. Angstrom.
Risken är att man råkar ut för ekonomiska sanktioner, böter, om man försöker sälja varor inom EU med måttangivelser som Å eller A. I slutändan kan det bli försäljningsförbud men tror inte att saknaden blir så stor.

黄浦区

Redigering länkar
Lag
https://www.riksdagen.se/sv/dokument-lagar/dokument/svensk-fo...

SI-enh enl wiki
https://sv.wikipedia.org/wiki/SI-enhet

Permalänk
Medlem
Skrivet av abki:

T.ex. Engelskan har bara bokstäverna A - Z. Tangentborden innehåller normalt inte konstiga tecken som Å. De felsta länder har liknande teckenuppsättningar på sina tangentbord.

Å andra sidan så har vi lagar inom EU och sverige som i princip bara tillåter måttangivelser med SI-enheter. I USA som är mer vild vest så finns många andra mått som t.ex. Angstrom.
Risken är att man råkar ut för ekonomiska sanktioner, böter, om man försöker sälja varor inom EU med måttangivelser som Å eller A. I slutändan kan det bli försäljningsförbud men tror inte att saknaden blir så stor.

黄浦区

Redigering länkar
Lag
https://www.riksdagen.se/sv/dokument-lagar/dokument/svensk-fo...

SI-enh enl wiki
https://sv.wikipedia.org/wiki/SI-enhet

Ditt argument var att det bara var en nordisk variant och nu kommer du med lagar som ska visa att den nordiska varianten inte får finnas i Sverige. Jag förstår inte resonemanget?

Permalänk
Medlem

Också Intel "10GHz vid 1 volt 2005!":
https://www.anandtech.com/show/680/6

Permalänk
Medlem
Skrivet av pine-orange:

Ditt argument var att det bara var en nordisk variant och nu kommer du med lagar som ska visa att den nordiska varianten inte får finnas i Sverige. Jag förstår inte resonemanget?

Ångström är en enhet som inte ska användas, har för mig att det gäller hela EU.
Sen kan det vara så att enheten har myntats inom norden men det gällde förr och inte idag.