Intel: 14 nanometer redo i slutet av 2013

Permalänk
Avstängd

Häftigt med 14 nm och sen 10 nm och DDR4.
Sen kanske något annat material än kisel.

Tänk om vid byte från kisel till något annat, så blir det ett jättekliv med processorer som är tusentals gånger snabbare.

Permalänk
Datavetare
Skrivet av Navicula:

Om vi hade processorer med dubbelt så stor yta skulle det bli lättare att kyla och kraften skulle öka. Vem har sagt att tekniken måste klämmas in på en liten platta, det är mycket lättare att lämna ett par centimeter extra på moderkortet. Och snart har vi 14nm på trappan.

Det enda goda med små processorer är såklart mobila enheter, men de behöver inte samma prestanda som desktops där majoriteten av det tunga jobbet utförs. Skapande av spel, film, bilder, 3D, simulationer och andra tungdrivna applikationer.

Anledningen till att man vill göra chip med sådan liten yta som möjligt är att sannolikheten för att ett chip blir defekt vid tillverkning ökar med ökad area. Om jag inte helt missförstått det hela så ökar den sannolikheten till och med snabbare än arean ökar. I ekonomiska termer betyder det: större chip == dyrare chip.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av rektor:

Häftigt med 14 nm och sen 10 nm och DDR4.
Sen kanske något annat material än kisel.

Tänk om vid byte från kisel till något annat, så blir det ett jättekliv med processorer som är tusentals gånger snabbare.

Och samtidigt fortsätter det komma spel som fortsätter vara baserade på DirectX9 och begränsade till 30 fps.
Men det blir säkert trevligt för de som sysslar med filmrendering och liknande.

Visa signatur

Gentoo Desktop: Ryzen 3600X | 32 GB
Server: Intel G7400T
Commodore 64C + 1541u2

Permalänk
Medlem
Skrivet av Yoshman:

Beror på vad man menar med att det inte blir några problem. Finns inget som tyder på att man inte kommer lyckas komma ner till dessa nivåer, men vi har ju läst tidigare här att komplexiteten och därmed kostnaden verkar öka mycket snabbare nu för varje krympning än vad den gjorde tidigare (var väl bl.a. nVidia som klagade på detta). Har nog att göra med att vi börjar närma oss gränsen för vad som är fysiskt möjligt. Och minskningen i strömförbrukning är definitivt inte på samma nivå som när man gick från t.ex. 130nm till 90nm.

Och diskussionen kring mörkt kisel visar att ingen tror att man kommer lösa problemet med att läck-strömmen ökar, men det visar också att man tror att vi kan förvänta oss en gäng krympningar till. Har läst något om att Moores lag bör gälla minst 10 år till, d.v.s vi kommer kunna fortsätta öka antalet transistorer på en given yta i minst 10 år till.

Förr eller senare kommes dock kislet förpassas till historieböckerna av grafen eller liknande material.

Permalänk
Avstängd
Skrivet av Schnitz:

Och samtidigt fortsätter det komma spel som fortsätter vara baserade på DirectX9 och begränsade till 30 fps.
Men det blir säkert trevligt för de som sysslar med filmrendering och liknande.

Det är väl inga spel som är begränsade till 30 fps?
Det är väl 60 fps som gäller?

Jo, många spel är begränsade till DirectX 9 men det är nog något som kommer att ändras.
Windows 7 har nu tagit över Windows XP som OS med flest användare.
Snart släpps Windows 8 och snart är det nyår, då blir det mycket nyinköp där ute i stugorna.

Permalänk
Medlem
Skrivet av Yoshman:

Anledningen till att man vill göra chip med sådan liten yta som möjligt är att sannolikheten för att ett chip blir defekt vid tillverkning ökar med ökad area. Om jag inte helt missförstått det hela så ökar den sannolikheten till och med snabbare än arean ökar. I ekonomiska termer betyder det: större chip == dyrare chip.

Den ökar (ungefär) enligt funktionen ny yield=gammal yield^(ny area/gammal area). Dvs, om du tex. har en yield på 50%, och så fördubblar du arean, kommer du att få en yield på 25% på samma tillverkningsprocess.

Men, å andra sidan så får man plats med mer på en större yta, så det är alltid en avvägning man får göra.

Detta är dock inte anledningen till varför man krymper transistorerna, eftersom funktionen inte går att använda mellan olika tillverkningsprocesser.

Visa signatur

En budget compaq laptop från 2007.

Permalänk
Skrivet av iSw3de:

Problemet blir väll att den kommer ha lägre max temp,

Varför skulle en lägre max-temperatur vara ett problem?

Permalänk
Medlem
Skrivet av rektor:

Det är väl inga spel som är begränsade till 30 fps?
Det är väl 60 fps som gäller?

Jo, många spel är begränsade till DirectX 9 men det är nog något som kommer att ändras.
Windows 7 har nu tagit över Windows XP som OS med flest användare.
Snart släpps Windows 8 och snart är det nyår, då blir det mycket nyinköp där ute i stugorna.

Jag överdrev lite, även om några spel faktiskt har den begränsningen. Min poäng var mest att jag faktiskt tycker evolutionen på mjukvarusidan generellt sett går lite väl sakta för att gå hand i hand med tillgänglig hårdvara. Utnyttjande av nya directx-versioner, övergång till 64-bit mjukvara samt flertrådade program är några exempel.

Visa signatur

Gentoo Desktop: Ryzen 3600X | 32 GB
Server: Intel G7400T
Commodore 64C + 1541u2

Permalänk
Medlem
Skrivet av Schnitz:

Jag överdrev lite, även om några spel faktiskt har den begränsningen. Min poäng var mest att jag faktiskt tycker evolutionen på mjukvarusidan generellt sett går lite väl sakta för att gå hand i hand med tillgänglig hårdvara. Utnyttjande av nya directx-versioner, övergång till 64-bit mjukvara samt flertrådade program är några exempel.

Absoult, men det kan vi tacka spelkonsolerna för (och alla som köper dom )

Visa signatur

Ryzen 7 7800X3D
64gb Corsair cl30 6000mhz
MSI MAG B650 Tomahawk WiFi
Sapphire RX 7900 XTX
Acer 32" Predator XB323QKNV 4K

Permalänk
Avstängd
Skrivet av Schnitz:

Jag överdrev lite, även om några spel faktiskt har den begränsningen. Min poäng var mest att jag faktiskt tycker evolutionen på mjukvarusidan generellt sett går lite väl sakta för att gå hand i hand med tillgänglig hårdvara. Utnyttjande av nya directx-versioner, övergång till 64-bit mjukvara samt flertrådade program är några exempel.

Företagen anpassar ju sig efter minsta gemensamma nämnare.
Många spel släpps ju för konsoler, sen portas dom till PC.

På Windows sidan så utnyttjas inte 64-bit så mycket, men jag kör Linux och alla applikationer i mitt system är kompilerat för 64-bit.

Permalänk
Medlem
Skrivet av Schnitz:

Jag överdrev lite, även om några spel faktiskt har den begränsningen. Min poäng var mest att jag faktiskt tycker evolutionen på mjukvarusidan generellt sett går lite väl sakta för att gå hand i hand med tillgänglig hårdvara. Utnyttjande av nya directx-versioner, övergång till 64-bit mjukvara samt flertrådade program är några exempel.

Man skulle nog kunna sammanfatta anledningarna en smula till att för det första så finns det extremt många program där ute som är skrivna enkeltrådade och det är inte helt trivialt att ändra på detta. Sen finns det också många lägen där det inte direkt ger någon vinst eller för den delen är möjligt.

En annan enligt mig stor faktor är att man går ifrån lågnivåspråk som C och istället satsar på högnivåspråk. Det har fördelen att det ofta är betydligt enklare för utvecklaren att skriva sina program, men i många fall så innebär det en högre komplexitet (sett till binärblobben) och sämre prestanda. Det är helt enkelt en tradeoff som blir möjlig när processorprestandan ökar. Ett exempel taget ur luften för att illustrera: Det är möjligt att du får ut motsvarande prestanda i ett program skrivet i ett högnivåspråk på dagens processorer gentemot vad du får av ett C-program som körs på en säg 3 år gammal processor. Man väljer helt enkelt att använda sig av resurserna som finns tillgängliga på olika sätt.

Skrivet av rektor:

På Windows sidan så utnyttjas inte 64-bit så mycket, men jag kör Linux och alla applikationer i mitt system är kompilerat för 64-bit.

Det är dock inte så enkelt. Ett program som inte är optimerat för 64bit men som kompilerar för 64bit kan till och med vara slöare än dess 32bit motsvarighet. Det kräver ofta lågnivåspråk och vissa situationer för att dra nytta av de fördelar som 64bit-arkiktekturer för med sig.

Visa signatur

Citera mig för svar.
Arch Linux

Permalänk
Medlem
Skrivet av Yoshman:

Anledningen till att man vill göra chip med sådan liten yta som möjligt är att sannolikheten för att ett chip blir defekt vid tillverkning ökar med ökad area. Om jag inte helt missförstått det hela så ökar den sannolikheten till och med snabbare än arean ökar. I ekonomiska termer betyder det: större chip == dyrare chip.

Dessutom så blir det ju som någon sa innan långsammare eftersom att avstånden ökar. Den totala effektutvecklingen skulle dessutom öka pga bland annat längre ledningar osv, så det är en rent dålig idé att sprida ut chippet bara för att öka ytan

Visa signatur

| AMD Phenom II x6 1100T @ 4 GHz || Thermalright ultra 120 eXtreme || Asus Crosshair IV Formula 890FX |
| 8GB Corsair Vengeance LP @ 7-8-8-19 1500 MHz || Asus GTX 560 ti directCUII @ 1000/2300 MHz |
| Adata XPG SX900 512 GB SSD || Corsair HX Series 520W || Antec p182 |

Permalänk
Datavetare
Skrivet av Dimman:

Det är dock inte så enkelt. Ett program som inte är optimerat för 64bit men som kompilerar för 64bit kan till och med vara slöare än dess 32bit motsvarighet. Det kräver ofta lågnivåspråk och vissa situationer för att dra nytta av de fördelar som 64bit-arkiktekturer för med sig.

I det allmänna fallet är det du skriver mer eller mindre helt korrekt, men för det specifika fallet x86 -> x86_64 stämmer det ganska dåligt. Anledningen är att AMD passade på att rätta till en rad tillkortakommanden som plågade 32-bitas x86 när man tog steget över till 64-bitar.

Kort sammanfattning av förbättringar är

  • x86 hade väldigt brist på heltalsregister, man dubblade antalet till x86_64

  • x86 hade en stenåldersimplementation av flyttalsenheten där flyttalen sparades i en stack med 8 platser, en kvarleva från x87 som var ett separat chip. x86_64 har 16st flyttalsregister som delas med SSE/AVX enheten.

  • x86 kan inte adressera data relativt programräknaren och varje absolutadress kräver ju 4 byte på 32-bitar. x86_64 kan lägga det mest använda data nära adressen till funktionen som använder data och man kan då klara sig med kanske en offset på 2-3 byte, i.e. det kan leda till mindre program trots 64-bitar. Detta är en finess som typ alla RISC-processorer har, så de som tillverkar kompilatorer har mycket erfarenhet av att utnyttja detta på ett effektivt sätt.

  • x86 skickade argument till funktioner på stacken, mycket p.g.a. bristen på heltalsregister. x86_64 skickar de 4 första (Windows) eller 6 första (Linux) argumentet i register

  • på Linux (men inte Windows) så behöver inte funktioner som inte anropar andra funktioner allokera utrymme på stacken för automatiska variabler (lokala variabler) på x86_64. För get:er/set:er metoder kan mer än hälften av instruktionerna för gå till att allokera/fria utrymmet för automatiska variabler (tar normalt 3 assembler instruktioner att utföra detta).

Allt detta sammantaget gör att även program som egentligen inte har någon nytta alls av 64-bitar ändå är snabbare om de kompileras om för x86_64 (typiskt 0-30% snabbare). Men på arkitekturer som MIPS, PowerPC och SPARC där man i princip bara gjorde alla register 64-bitars i stället för 32-bitar så stämmer det du skriver, program som inte behöver 64-bitar gick i princip alltid långsammare då 64-bitar då leder till något större program p.g.a. att adresser och vissa heltal blir 8 byte i stället för 4.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Xeno88:

Är inte 12nm teoretiska gränsen?

Redan för 10-15 år sa många att teoretiska gränsen var nådd. Så ingen vet väl vart gränsen går s.a.s.

I framtiden är det grafen som troligen gäller istället för kisel, är på tidigt forskningsstadium på universiteten.

Minns jag rätt så kan man överföra upp till 1 Tb/s på grafen (minns inte siffran exakt, går säkert att googla) , vilket är ca 100 ggr mer än kisel.

Edit: Finns massor att läsa, här är en av alla artiklar http://www.etn.se/index.php?option=com_content&view=article&i...

Visa signatur

Chassi : BitFenix Prodigy Svart mITX Moderkort : Asus P8Z77-I DELUXE mITX CPU : Intel Core i7 3770K RAM : Crucial 16GB (2x8192MB) CL9 1600Mhz Ballistix Sport

Permalänk
Medlem

[QUOTE=Yoshman;12692623]I det allmänna fallet är det du skriver mer eller mindre helt korrekt, men för det specifika fallet x86 -> x86_64 stämmer det ganska dåligt. Anledningen är att AMD passade på att rätta till en rad tillkortakommanden som plågade 32-bitas x86 när man tog steget över till 64-bitar.

Kort sammanfattning av förbättringar är

  • x86 hade väldigt brist på heltalsregister, man dubblade antalet till x86_64

  • x86 hade en stenåldersimplementation av flyttalsenheten där flyttalen sparades i en stack med 8 platser, en kvarleva från x87 som var ett separat chip. x86_64 har 16st flyttalsregister som delas med SSE/AVX enheten.

  • x86 kan inte adressera data relativt programräknaren och varje absolutadress kräver ju 4 byte på 32-bitar. x86_64 kan lägga det mest använda data nära adressen till funktionen som använder data och man kan då klara sig med kanske en offset på 2-3 byte, i.e. det kan leda till mindre program trots 64-bitar. Detta är en finess som typ alla RISC-processorer har, så de som tillverkar kompilatorer har mycket erfarenhet av att utnyttja detta på ett effektivt sätt.

  • x86 skickade argument till funktioner på stacken, mycket p.g.a. bristen på heltalsregister. x86_64 skickar de 4 första (Windows) eller 6 första (Linux) argumentet i register

  • på Linux (men inte Windows) så behöver inte funktioner som inte anropar andra funktioner allokera utrymme på stacken för automatiska variabler (lokala variabler) på x86_64. För get:er/set:er metoder kan mer än hälften av instruktionerna för gå till att allokera/fria utrymmet för automatiska variabler (tar normalt 3 assembler instruktioner att utföra detta).

Allt detta sammantaget gör att även program som egentligen inte har någon nytta alls av 64-bitar ändå är snabbare om de kompileras om för x86_64 (typiskt 0-30% snabbare). Men på arkitekturer som MIPS, PowerPC och SPARC där man i princip bara gjorde alla register 64-bitars i stället för 32-bitar så stämmer det du skriver, program som inte behöver 64-bitar gick i princip alltid långsammare då 64-bitar då leder till något större program p.g.a. att adresser och vissa heltal blir 8 byte i stället för 4.[/QUOTE]
Ska väl säga det att jag inte är direkt insatt i x86-arkitekturen, så tack för en bra genomgång (sysslar så gott som uteslutande med inbyggda system).

Ja precis, jag generaliserade kanske lite väl mycket och fokuserade på de fall där, som du nämner, man bara utökat registren (min vardag ).

Visa signatur

Citera mig för svar.
Arch Linux

Permalänk
Skrivet av shogun-r:

I framtiden är det grafen som troligen gäller istället för kisel, är på tidigt forskningsstadium på universiteten.

Minns jag rätt så kan man överföra upp till 1 Tb/s på grafen (minns inte siffran exakt, går säkert att googla) , vilket är ca 100 ggr mer än kisel.

Edit: Finns massor att läsa, här är en av alla artiklar http://www.etn.se/index.php?option=com_content&view=article&i...

Grafen är ett atomlager tjockt och har inget 'bandgap', vilket betyder att det inte kan switcha mellan 1 och 0 på det sättet kisel gör. Och om du vill göra grafen mer än ett atomlager tjockt så blir det grafit, som fungerar helt olikt, och inte är särskilt användbart i detta område.

EDIT: Transistorerna man gjort med grafen är alltså analoga och kan inte användas till binära datorer.

Permalänk

När processorer tillverkar i lägre nm blir processorerna mindre ?

Är 22nm processorer mindre än 32nm ?

Visa signatur

Intel i5 @ 2,66Ghz | Noctua NH-D14 | 4gb corsair 1600mhz | Asus P7P55D-E PRO | Antec p182 | Corsair 550w |Asus 6950 2gb upplåsta shaders, ASUS 5770 V2|Samsung SpinPoint F3 1 TB |Benq BL2400PT | LG 42PQ6500 | Steelseries Siberia v1 |Asus Xonar DX |Creative EP-630 | AKG K601 | Dynavoice F-6 EX 5.0 |Canton Reference 9.2 DC | Atacama Nexus 6| Onkyo 607

Permalänk
Medlem
Skrivet av humpadumpa:

Grafen är ett atomlager tjockt och har inget 'bandgap', vilket betyder att det inte kan switcha mellan 1 och 0 på det sättet kisel gör. Och om du vill göra grafen mer än ett atomlager tjockt så blir det grafit, som fungerar helt olikt, och inte är särskilt användbart i detta område.

EDIT: Transistorerna man gjort med grafen är alltså analoga och kan inte användas till binära datorer.

Stämmer inte helt, det kommer säkerligen göras en del modifieringar men processorer som innehåller grafen i en eller annan form kommer vi säkerligen få se.

En sak är i alla fall säker, utvecklingen går vidare. Intel blickar redan ner mot 5 nm. http://www.nordichardware.se/nyheter/69-cpu-chipset/46601-idf...

Visa signatur

Chassi : BitFenix Prodigy Svart mITX Moderkort : Asus P8Z77-I DELUXE mITX CPU : Intel Core i7 3770K RAM : Crucial 16GB (2x8192MB) CL9 1600Mhz Ballistix Sport

Permalänk

Vi kommer aldrig få se processorer av grafen av den enkla anledningen att den tillverknings industri av transistorer som finns idag kan man lika gärna skrota om man ska bygga processorer av grafen. Alla verktyg som finns för sån här tekniktillverkning är anpassad efter just det kisel... Ni kan ju räkna på kostnadseffektiviteten med grafen om man måse bygga en fabrik från scratch för att tillverka processorer i grafen. Det skulle bli väldigt dyrt med teknikprylar... Moores lag får nog skrivas om i slutet av detta årtionde för att anpassas till nya tider. Det finns dock nya rön som är lovande allra mest just nu är silicen som liknar grafen men är gjort av silikon. Teoretiskt sett skulle man kunna tillverka processorer av silicen i dagens fabriker om man kan ta fram kostnadseffektiva mängder av silicen. Men som sagt detta är år in i framtiden. Faktum är att när vi kommit ner till 2 nm tar kvantmekaniska lagar vid och den sämsta är Heisenbergs osäkerhets princip vilken stipulerar att inom kvantmekaniken går det inte att samtidigt känna en partikels position (elektron i detta fall) och dess hastighet med godtycklig noggrannhet. Men vi kan ju alla hoppas på att utomjordingarna landar innan dess och berättar för oss hur vi ska bygga skynet...

Visa signatur

ASRock Z390 Taichi Ultimate
i9 9900K
G.Skill 2x8G 4000 mhz
ASUS RTX 2080 Ti

Permalänk
Medlem
Skrivet av Anorexianervosa:

Vi kommer aldrig få se processorer av grafen av den enkla anledningen att den tillverknings industri av transistorer som finns idag kan man lika gärna skrota om man ska bygga processorer av grafen. Alla verktyg som finns för sån här tekniktillverkning är anpassad efter just det kisel... Ni kan ju räkna på kostnadseffektiviteten med grafen om man måse bygga en fabrik från scratch för att tillverka processorer i grafen. Det skulle bli väldigt dyrt med teknikprylar... Moores lag får nog skrivas om i slutet av detta årtionde för att anpassas till nya tider. Det finns dock nya rön som är lovande allra mest just nu är silicen som liknar grafen men är gjort av silikon. Teoretiskt sett skulle man kunna tillverka processorer av silicen i dagens fabriker om man kan ta fram kostnadseffektiva mängder av silicen. Men som sagt detta är år in i framtiden. Faktum är att när vi kommit ner till 2 nm tar kvantmekaniska lagar vid och den sämsta är Heisenbergs osäkerhets princip vilken stipulerar att inom kvantmekaniken går det inte att samtidigt känna en partikels position (elektron i detta fall) och dess hastighet med godtycklig noggrannhet. Men vi kan ju alla hoppas på att utomjordingarna landar innan dess och berättar för oss hur vi ska bygga skynet...

Ganska säker på att du kommer få fel. http://techworld.idg.se/2.2524/1.449683/ett-steg-narmare-fard...

Visa signatur

Chassi : BitFenix Prodigy Svart mITX Moderkort : Asus P8Z77-I DELUXE mITX CPU : Intel Core i7 3770K RAM : Crucial 16GB (2x8192MB) CL9 1600Mhz Ballistix Sport

Permalänk

Vi får se, som sagt Heisenbergs osäkerhets princip blir svår att komma förbi oavsett material.

Visa signatur

ASRock Z390 Taichi Ultimate
i9 9900K
G.Skill 2x8G 4000 mhz
ASUS RTX 2080 Ti

Permalänk
Medlem
Skrivet av Anorexianervosa:

Vi kommer aldrig få se processorer av grafen av den enkla anledningen att den tillverknings industri av transistorer som finns idag kan man lika gärna skrota om man ska bygga processorer av grafen. Alla verktyg som finns för sån här tekniktillverkning är anpassad efter just det kisel... Ni kan ju räkna på kostnadseffektiviteten med grafen om man måse bygga en fabrik från scratch för att tillverka processorer i grafen. Det skulle bli väldigt dyrt med teknikprylar... Moores lag får nog skrivas om i slutet av detta årtionde för att anpassas till nya tider. Det finns dock nya rön som är lovande allra mest just nu är silicen som liknar grafen men är gjort av silikon. Teoretiskt sett skulle man kunna tillverka processorer av silicen i dagens fabriker om man kan ta fram kostnadseffektiva mängder av silicen. Men som sagt detta är år in i framtiden. Faktum är att när vi kommit ner till 2 nm tar kvantmekaniska lagar vid och den sämsta är Heisenbergs osäkerhets princip vilken stipulerar att inom kvantmekaniken går det inte att samtidigt känna en partikels position (elektron i detta fall) och dess hastighet med godtycklig noggrannhet. Men vi kan ju alla hoppas på att utomjordingarna landar innan dess och berättar för oss hur vi ska bygga skynet...

Du borde börja lära dig använda meningsuppbyggnad, fruktansvärt jobbigt att läsa det du skriver. Att säga att vi aldrig kommer att få se grafen i någon form i dagens processorer är ju bara ett dumt påstående, då tekniken kring det inte är färdigutvecklat. Då kan man omöjligt veta, bara spekulera.

Forskas mycket om grafen just nu som är tänkt att bli ersättare till kisel i framtiden. Grafen kan göras endast en atom hög.
Grafen wiki

Visa signatur

[EVGA P55 FTW] [i5 750 @ 4.2GHZ] [HyperX @1680 16GB 9-9-9-24] [HD6970 Xfire 1010/1475] [AX1200] [Samsung 830 256GB] [Lian-Li A71FB] [XSPC RX480, Cooltek Maxistream 360, Laing D5, Dtek Fuzion V1, Maze4 + Maze5]
Projektlogg Prestanda HTPC

Permalänk
Skrivet av Gender Bender:

Helt sjukt hur man ens lyckas skapa såna här så saker. Snart är man nere på samma storlekar som DNA, och när man når så små storlekar så lär man kunna bota väldigt många allvarliga sjukdomar.

Men suget i köptarmen är obotligt

Permalänk
Skrivet av Waste:

Du borde börja lära dig använda meningsuppbyggnad, fruktansvärt jobbigt att läsa det du skriver. Att säga att vi aldrig kommer att få se grafen i någon form i dagens processorer är ju bara ett dumt påstående, då tekniken kring det inte är färdigutvecklat. Då kan man omöjligt veta, bara spekulera.

Forskas mycket om grafen just nu som är tänkt att bli ersättare till kisel i framtiden. Grafen kan göras endast en atom hög.
Grafen wiki

Haha, ja det har du nog rätt i. Men du kan inte ignorera fysikens lagar även om du kan tillverka saker av grafen så måste du fortfarande lösa dom kvantmekaniska egenskaperna hos elektroner för att det ska funka. Många av oss vill se och tror på fantastiska saker i framtiden. Och dom kommer hända men inte med dom tids scheman som är satta idag. Jag doktorerade i fysik för 10 år sen och sen dess har man gjort framsteg som jag aldrig kunnat drömma om då. Titta på vilka verktyg man använder för att forska inom kvantmekanik. LHC i Geneve är en fantastisk maskin men den kostar en slant, mer än vad Samsung, Apple, Intel, AMD, Nvidia och Google tillsammans kan hosta upp. För vi glömmer ofta bort en parameter i ekvationen och det är pengar. Saker måste kunna göras kostnadseffektiva för att dom ska bli kommersiella produkter och hur du än vrider på det så är dom nya supermaterialen inte billiga att framställa i dom mängder som behövs och kommer inte vara det på många år. Ta memristor teknologin tex den har funnits i många år men det är inte förens nu vi kommer få se den i produkter. Vad som är mer troligt än att alla sitter på en egen dator hemma är att alla beräkningar börjar göras i molnet så fort många människor får tillgång till snabbt bredband.

Visa signatur

ASRock Z390 Taichi Ultimate
i9 9900K
G.Skill 2x8G 4000 mhz
ASUS RTX 2080 Ti