Intels kapacitetsutnyttjande mot rekordlåga nivåer

Permalänk
Medlem

Man kanske borde köpa en "reservdator" så man kan fortsätta spela när de slutar att tillverka och sälja datorkomponenter och den man har går sönder. Bryr mig inte om hårdvaran slutar att utvecklas, vill bara kunna spela de spel jag har även i fortsättningen. :/

Permalänk
Medlem
Skrivet av Aleshi:

Utvecklingen går ju lite slött. En bra processor från 5 år sedan (Nehalem) klarar dagens spel på högsta utan ens en suck, och kommer klara det ett bra tag till. Nästan samma tidsspann är det mellan Pentium II 350MHz och Athlon 64 2200MHz som var nästan 10 gånger så snabb.

Nästan 10 gånger? Athlonen måste ju vara minst 20 ggr så snabb.

Permalänk
Medlem

statistik.. hehe men ja, har vi inte nått nån punkt nu då kanske, "behöver" vi snabbare processorer en dagens?(för stationära datorer) (med dom clocknings möjligheter vi har) PS["vanligt folk, som inte redigerar eller spelar spel"]

Kanske inte, men mer strömsnåla, ja. mindre storlek, ja.
Snabbare, ja? vrf inte hehe (vilket kommer bli en effekt utav de 2 punkterna?)

Ge det lite tid, jag tror att statistiken kommer att ändra sig. Kanske har vi snarare haft otroligt höga säljes siffror?

PS ska bli intressant hur värm problemet utvecklar sig, jue längre ner på nm skalan vi kommer!

Permalänk
Datavetare
Skrivet av teejee:

Nästan 10 gånger? Athlonen måste ju vara minst 20 ggr så snabb.

Athlon 64 och PII hade väldigt snarlik prestanda vid samma klockfrekvens. Finns inte så måna direkta jämförelser mellan dessa, men PIII och Athlon visa på väldigt snarlik prestanda vid samma klockfrekvens. PIII är i princip en PII med SSE stöd och Athlon 64 är en Athlon med x86_64 stöd.

Du kan även titta på jämförelser mellan Atom 330 (dual core Atom @ 1.6GHz) och Athlon X2 4050e (dual core Athlon 64 @ 2.GHz) här, Athlon CPUn är lite mer än dubbel så snabb. Båda dessa är dubbelkärniga medan PII och Athonen vi jämfört är enkelkärninga, men det viktiga här är relativa prestandan.

En Atom har en IPC som ligger närmare Pentium än Pentium2, så Atom är mindre än 4.5 gånger snabbare (skillnaden i klockfrekvens) än PII@350MHz.

Så en skillnad på 10x mellan Pentium II 350MHz och Athlon 64 2200MHz är nog en rätt bra uppskattning.

Att det inte händer mer idag mellan CPU-versioner är att man fram till 2002-2003 någon gång alltid kunde öka prestanda genom att höja klockfrekvensen, något som nära nog linjärt ökade prestanda. Visst ökade även mängden utfört arbete per cykel (undantaget är väl P4 och Bulldozer), men det var ofta de 5-15% vi idag får mellan CPU-versioner.

När man väl slagit i taket för hur mycket klockfrekvensen kan höjas så började man addera CPU-kärnor, men att dubbla antalet kärnor har inte alls samma genomslag i prestanda som att dubbla frekvensen. Dels kan man inte använda flera CPU-kärnor effektiv på vissa problem, dels så är det mycket svårare (och därmed dyrare) att utveckla och framförallt felsöka multitrådare program så en del av den stagnation vi ser kommer härifrån.

Ett annat problem med många kärnor är att man kommer till en gräns där det helt enkelt inte går att leverera data till alla kärnor i den fart de vill ha. Gränsen kommer tidigare för Intel än för AMD idag då Intels CPUer har starkare kärnor. Upp till 4-kärnor klarar man sig med två minneskanaler, sedan har alla Intel CPUer 4-minneskanaler. Idag är gränsen 10-kärnor och där är både bandbredd mot RAM och framförallt bandredd mot L3 cache (delas av alla kärnor) rejäla flaskhalsar. Det är helt enkelt meningslöst att göra en CPU med fler "Core" kärnor idag, det man i stället kan göra är att ha fler CPUer i en dator och idag stöds upp till 8st CPUer på ett "moderkort". 8 är gränsen för vad QPI stödjer, men finns andra (icke Intel) varianter som superdatorer använder som tillåter 1000-tals CPUer i en dator där alla "ser" samma RAM.

Och som många påpekat: det kanske största "problemet" är att dagens CPUer har så mycket kraft att det helt enkelt inte riktigt finns någon poäng för de flesta användare att få mer kraft. Intel har ju insett detta och därför är huvudfokus för Haswell att ge något bättre prestanda än Ivy Bridge, fast med mycket bättre prestanda/W.

Edit: gjorde en länk till en förklaring av QPI

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Zemos:

statistik.. hehe men ja, har vi inte nått nån punkt nu då kanske, "behöver" vi snabbare processorer en dagens?(för stationära datorer) (med dom clocknings möjligheter vi har) PS["vanligt folk, som inte redigerar eller spelar spel"]

Kanske inte, men mer strömsnåla, ja. mindre storlek, ja.
Snabbare, ja? vrf inte hehe (vilket kommer bli en effekt utav de 2 punkterna?)

Ge det lite tid, jag tror att statistiken kommer att ändra sig. Kanske har vi snarare haft otroligt höga säljes siffror?

PS ska bli intressant hur värm problemet utvecklar sig, jue längre ner på nm skalan vi kommer!

Strömsnålt och liten storlek ger väl inte automatiskt snabbare CPU?

Permalänk
Medlem
Skrivet av Yoshman:

Och som många påpekat: det kanske största "problemet" är att dagens CPUer har så mycket kraft att det helt enkelt inte riktigt finns någon poäng för de flesta användare att få mer kraft. Intel har ju insett detta och därför är huvudfokus för Haswell att ge något bättre prestanda än Ivy Bridge, fast med mycket bättre prestanda/W.

Det kan lika väl vara en konsekvens av att det inte går att höja prestanda mer för en fix budget. För visst borde det finnas fler tillämpningar som skulle kunna dra nytta av mer prestanda. Eller är det så illa att människan har nått sin utvecklingspeak: "They Promised Me Mars Colonies, Instead, I got Facebook" - Buzz Aldrin

Permalänk
Medlem
Skrivet av aliassund:

Det kan lika väl vara en konsekvens av att det inte går att höja prestanda mer för en fix budget. För visst borde det finnas fler tillämpningar som skulle kunna dra nytta av mer prestanda. Eller är det så illa att människan har nått sin utvecklingspeak: "They Promised Me Mars Colonies, Instead, I got Facebook" - Buzz Aldrin

Det är väldigt svårt att få upp frekvenser något nämnvärt med tanke på att ljus bara hinner 5-10cm under en Hz idag. Och elektricitet i din processor är långsammare. Resultatet är att delar av processorn blir lite i osynk. Det finns trix men som sagt, det börjar bli svårt. Sedan är läckaget stort på de små transistorer vi har idag så man måste få dem att fungera på låg spänning för att de inte ska börja läcka för mycket och överhettas. Och man måste hålla på med knepiga tekniker för att minska läckage. 3D-transistorer, SOI, Strained Silicon med mera.
Då är det bara IPC och antalet beräkningsenheter du kan ändra. Många processorer är svårt att programmera för i många fall. Och även lätt parallelliserbar kod börjar snabb skala sämre på grund av delade bussar och bandbredd. Och IPC kan inte bli oändlig, gör varje pipe en operation varje hz så kan du inte nå högre.

Resultatet är att det krävs en jävla massa teknik för att fortsätta utvecklingen. Det är inte omöjligt, men det kostar sanslöst mycket att utveckla processorer som ligger i framkant.

Permalänk
Medlem
Skrivet av Aleshi:

Resultatet är att det krävs en jävla massa teknik för att fortsätta utvecklingen. Det är inte omöjligt, men det kostar sanslöst mycket att utveckla processorer som ligger i framkant.

Det är just det jag säger, kostnaden gör att en viss CPU-prestanda inte länger sjunker i pris. En konsument som lägger en viss summa på datorer kan allts inte längre få mer prestanda som ett resultat av utvecklingen av chip teknologi.

Permalänk
Medlem

...

Skrivet av aliassund:

Strömsnålt och liten storlek ger väl inte automatiskt snabbare CPU?

De jag tänkte på var värme utvecklingen, så de känns som att de 2 punkterna är en förutsättning?

Permalänk
Medlem

Vi får se hur det går med Skylake, om 1-2 år.. då kanske mjukvaran(även hårdvaran) har kommit i kapp och kan prestera bättre med fler kärnor.
(Även utveckling av chip teknologi, vilket är en förutsättning, för att de processorena ska se ljuset.)

PS De man har läst är ju just det, att Intel ska satsa på utvecklingen igenom bland annat nya fabriker och forsknings anläggningar?

Permalänk
Medlem
Skrivet av Zemos:

Vi får se hur det går med Skylake, om 1-2 år.. då kanske mjukvaran(även hårdvaran) har kommit i kapp och kan prestera bättre med fler kärnor.
Även utveckling av chip teknologi, vilket är en förutsättning, för att de processorena ska se ljuset.

Ja om jag inte minns fel så hade väl intel nu en hårdvarupryl som skulle bättra skalandet med kärnor?

Virtual Void kanske vill fylla i?

Permalänk
Medlem

Aha brb google

http://www.sweclockers.com/forum/52-nyhetskommentarer/1198854...
Här diskuteras detta problem lite.. #40 ->

quote "..oftast är du begränsad av IPC och inte av antalet kärnor. "

Permalänk
Medlem
Skrivet av Zemos:

Aha brb google

http://www.sweclockers.com/forum/52-nyhetskommentarer/1198854...
Här diskuteras detta problem lite.. #40 ->

TSX ska göra det lättare att programmera för flera kärnor. Det är inte magi men ska förbättra prestandan vid flera trådar i många fall.

http://www.anandtech.com/show/6290/making-sense-of-intel-hasw...

Skrivet av Zemos:

quote "..oftast är du begränsad av IPC och inte av antalet kärnor. "

Ja eller prestanda per kärna helt enkelt. Oftast är det ganska IPC-bundet numera när frekvensskalning har blivit svårt.

Permalänk
Medlem
Skrivet av Aleshi:

Det är väldigt svårt att få upp frekvenser något nämnvärt med tanke på att ljus bara hinner 5-10cm under en Hz idag. Och elektricitet i din processor är långsammare. Resultatet är att delar av processorn blir lite i osynk. Det finns trix men som sagt, det börjar bli svårt. Sedan är läckaget stort på de små transistorer vi har idag så man måste få dem att fungera på låg spänning för att de inte ska börja läcka för mycket och överhettas. Och man måste hålla på med knepiga tekniker för att minska läckage. 3D-transistorer, SOI, Strained Silicon med mera.
Då är det bara IPC och antalet beräkningsenheter du kan ändra. Många processorer är svårt att programmera för i många fall. Och även lätt parallelliserbar kod börjar snabb skala sämre på grund av delade bussar och bandbredd. Och IPC kan inte bli oändlig, gör varje pipe en operation varje hz så kan du inte nå högre.

Resultatet är att det krävs en jävla massa teknik för att fortsätta utvecklingen. Det är inte omöjligt, men det kostar sanslöst mycket att utveckla processorer som ligger i framkant.

Aja baja! Jag förstår vad du säger, men du blandar i hop benämningen och enheterna för frekvens (Hz) och periodicitet (T). En Hz är och förblir en händelse per sekund. Två Hz är två händelser per sekund. Periodiciteten är tiden som det tar att fullborda en cykel av varierande längd (ex. tiden mellan klockpulserna i datorn). Jag tolkar det som att du menar hur långt ljuset hinner på 1/3G sekunder? Dvs. ca 10 cm.

Permalänk
Medlem
Skrivet av Aleshi:

Det är väldigt svårt att få upp frekvenser något nämnvärt med tanke på att ljus bara hinner 5-10cm under en Hz idag. Och elektricitet i din processor är långsammare. Resultatet är att delar av processorn blir lite i osynk. Det finns trix men som sagt, det börjar bli svårt. Sedan är läckaget stort på de små transistorer vi har idag så man måste få dem att fungera på låg spänning för att de inte ska börja läcka för mycket och överhettas. Och man måste hålla på med knepiga tekniker för att minska läckage. 3D-transistorer, SOI, Strained Silicon med mera.
Då är det bara IPC och antalet beräkningsenheter du kan ändra. Många processorer är svårt att programmera för i många fall. Och även lätt parallelliserbar kod börjar snabb skala sämre på grund av delade bussar och bandbredd. Och IPC kan inte bli oändlig, gör varje pipe en operation varje hz så kan du inte nå högre.

Resultatet är att det krävs en jävla massa teknik för att fortsätta utvecklingen. Det är inte omöjligt, men det kostar sanslöst mycket att utveckla processorer som ligger i framkant.

Ljushastigheten har ingenting med saken att göra, men du är inne på rätt spår på annat håll. Högre frekvenser innebär, om vi generaliserar grovt och inte tar hänsyn till teknikutveckling, högre energiförbrukning och i förlängningen värmeutveckling. SKulle tippa på att det är där vi har problematiken.
Visst, givetvis medger krympta halvledare lägre arbetsspänningar, men det medför givetvis också att det som ska kylas blir mindre, att "värmedensiteten" inte ändras så särskilt mycket. Det är svårare att hålla en liten värmekälla adekvat kyld än en stor dito.

Rent teoretiskt skulle det nog gå att göra processorer som arbetar i bra mycket högre frekvenser än det vi har idag, men energiförbrukningen, och genom den värmeutvecklingen, gör det opraktiskt. Det är bättre att jaga prestanda på andra sätt.

Visa signatur

Nu lurade jag dig att slösa bort ett par värdefulla sekunder av ditt liv på att läsa denna fullständigt poänglösa signatur!

Permalänk
Medlem
Skrivet av kaput:

Ljushastigheten har ingenting med saken att göra, men du är inne på rätt spår på annat håll. Högre frekvenser innebär, om vi generaliserar grovt och inte tar hänsyn till teknikutveckling, högre energiförbrukning och i förlängningen värmeutveckling. SKulle tippa på att det är där vi har problematiken.
Visst, givetvis medger krympta halvledare lägre arbetsspänningar, men det medför givetvis också att det som ska kylas blir mindre, att "värmedensiteten" inte ändras så särskilt mycket. Det är svårare att hålla en liten värmekälla adekvat kyld än en stor dito.

Rent teoretiskt skulle det nog gå att göra processorer som arbetar i bra mycket högre frekvenser än det vi har idag, men energiförbrukningen, och genom den värmeutvecklingen, gör det opraktiskt. Det är bättre att jaga prestanda på andra sätt.

Ja först gick de i taket med frekvensen och nu i antal transistorer. Möjligheten att väsentligt öka prestanda ytterligare ter sig små i jämförelse.

Permalänk
Medlem
Skrivet av beh:

Aja baja! Jag förstår vad du säger, men du blandar i hop benämningen och enheterna för frekvens (Hz) och periodicitet (T). En Hz är och förblir en händelse per sekund. Två Hz är två händelser per sekund. Periodiciteten är tiden som det tar att fullborda en cykel av varierande längd (ex. tiden mellan klockpulserna i datorn). Jag tolkar det som att du menar hur långt ljuset hinner på 1/3G sekunder? Dvs. ca 10 cm.

Ja det jag menar är att för varje cykel så hinner ljuset nå en viss sträcka helt enkelt.

Skrivet av kaput:

Ljushastigheten har ingenting med saken att göra, men du är inne på rätt spår på annat håll. Högre frekvenser innebär, om vi generaliserar grovt och inte tar hänsyn till teknikutveckling, högre energiförbrukning och i förlängningen värmeutveckling. SKulle tippa på att det är där vi har problematiken.
Visst, givetvis medger krympta halvledare lägre arbetsspänningar, men det medför givetvis också att det som ska kylas blir mindre, att "värmedensiteten" inte ändras så särskilt mycket. Det är svårare att hålla en liten värmekälla adekvat kyld än en stor dito.

Rent teoretiskt skulle det nog gå att göra processorer som arbetar i bra mycket högre frekvenser än det vi har idag, men energiförbrukningen, och genom den värmeutvecklingen, gör det opraktiskt. Det är bättre att jaga prestanda på andra sätt.

I och med att inget kan åka snabbare än ljuset, och få saker ens kan komma nära så spelar det väl roll. Om du har en avancerad krets som ska leda signaler i olika långa banor kommer de inte komma fram samtidigt eftersom de inte rör sig oändligt snabbt. Visst, ljuset är inte direkt relaterat, men det är ett talande exempel på att stora kretsar kan ha svårt att komma upp i mycket högre frekvenser då signaler knappast lär gå snabbare än ljuset.

Permalänk
Medlem
Skrivet av kaput:

Ingenting med en massa kan röra sig snabbare än ljuset. Impulser i form av spänningsförändring har ingen dylik.

Ta en bit rör. Fyll röret med kulor. När röret är fullt, trycker du in ytterligare en kula i det. Precis i samma ögonblick som du trycker in kulan ploppar en annan kula ut i andra ändan, oavsett hur långt röret är. På samma vis funkar det med elektroner i ledare också. Elektronerna behöver alltså inte röra sig särskilt snabbt för att resultatet ska vara omedelbart.

xD Nej det funkar inte så.
http://en.wikipedia.org/wiki/Speed_of_electricity

Permalänk
Medlem
Skrivet av Aleshi:

Ja det jag menar är att för varje cykel så hinner ljuset nå en viss sträcka helt enkelt.

I och med att inget kan åka snabbare än ljuset, och få saker ens kan komma nära så spelar det väl roll. Om du har en avancerad krets som ska leda signaler i olika långa banor kommer de inte komma fram samtidigt eftersom de inte rör sig oändligt snabbt. Visst, ljuset är inte direkt relaterat, men det är ett talande exempel på att stora kretsar kan ha svårt att komma upp i mycket högre frekvenser då signaler knappast lär gå snabbare än ljuset.

Men saken är den att signaler inte behöver gå över hela chipet. Det gäller förvisso många delar av dagens CPUer men det är fullt tänktbart att en CPU skulle kunna innehålla flera små kärnor som var för sig använder en mycket hög frekvens men att kommunikationen mellan dessa är långsammare.

Dessutom är det egentligen inte ljuset eller elektricitetens hastighet som är problemet. Problemet är snarare att en buffert/förstärkare som driver ledarna som tex distribuerar ut klockan till alla delar av CPUn måste ladda upp och ladda ur den långa ledaren samt alla mottagande modulers klockingångar eftersom dessa har en kapacitans. Det tar alltså tid att ladda upp och ur dessa. Som jämförelse kan nämnas att den enklaste formen av en digital krets, en sk. inverterare (http://en.wikipedia.org/wiki/Inverter_(logic_gate)) lätt kan ändra tillstånd med en frekvens på 50-100GHz så länge den inte behöver driva något annat.

Permalänk
Medlem
Skrivet av aliassund:

Men saken är den att signaler inte behöver gå över hela chipet. Det gäller förvisso många delar av dagens CPUer men det är fullt tänktbart att en CPU skulle kunna innehålla flera små kärnor som var för sig använder en mycket hög frekvens men att kommunikationen mellan dessa är långsammare.

Jo jag vet det, det är en del av utmaningen.

Skrivet av aliassund:

Dessutom är det egentligen inte ljuset eller elektricitetens hastighet som är problemet. Problemet är snarare att en buffert/förstärkare som driver ledarna som tex distribuerar ut klockan till alla delar av CPUn måste ladda upp och ladda ur den långa ledaren samt alla mottagande modulers klockingångar eftersom dessa har en kapacitans. Det tar alltså tid att ladda upp och ur dessa. Som jämförelse kan nämnas att den enklaste formen av en digital krets, en sk. inverterare (http://en.wikipedia.org/wiki/Inverter_(logic_gate)) lätt kan ändra tillstånd med en frekvens på 50-100GHz så länge den inte behöver driva något annat.

Nu är det väl så att det finns mer än ett problem. Skulle frekvensutvecklingen varit lika snabb som i slutet av 90-talet skulle ljusets våglängd bara vara en ynka milimeter vid de frekvenserna. Skulle man kunna köra helt utan läckage och att återhämtningen skulle vara omedelbar så tror jag det ändå skulle bli fel på grund av clock skew ifall du körde dagens processorer i 50-100GHz. Men det är ju flera faktorer. Clock skew minskar den redan korta tiden som den har på sig att ladda upp på, och läckage minskar förmågan att åtgärda den "långsamma" uppladdningstiden genom högre spänning.

Permalänk
Medlem

@aliassund vi har inte nått taket, för antal transistorer ännu..

Permalänk
Medlem
Skrivet av Zemos:

@aliassund vi har inte nått taket, för antal transistorer ännu..

Korrekt när det gäller vad som är möjligt. Mitt inspel handlar om kostnaden. Dvs om priset som en konsument är beredd att betala för en CPU så kommer denne inte längre få många fler transistorer.

Permalänk
Medlem

vafan :D

Skrivet av aliassund:

Korrekt när det gäller vad som är möjligt. Mitt inspel handlar om kostnaden. Dvs om priset som en konsument är beredd att betala för en CPU så kommer denne inte längre få många fler transistorer.

Känns det inte lite väl pessimistiskt, att uttala sig om en pris bild nu, som inte kommer förens om några år?

Permalänk
Medlem
Skrivet av Aleshi:

Jo jag vet det, det är en del av utmaningen.

Nu är det väl så att det finns mer än ett problem. Skulle frekvensutvecklingen varit lika snabb som i slutet av 90-talet skulle ljusets våglängd bara vara en ynka milimeter vid de frekvenserna. Skulle man kunna köra helt utan läckage och att återhämtningen skulle vara omedelbar så tror jag det ändå skulle bli fel på grund av clock skew ifall du körde dagens processorer i 50-100GHz. Men det är ju flera faktorer. Clock skew minskar den redan korta tiden som den har på sig att ladda upp på, och läckage minskar förmågan att åtgärda den "långsamma" uppladdningstiden genom högre spänning.

Det är klart att det inte går att köra en CPU så snabbt, det var som en referensnivå. En komplext block såsom en multiplikator kanske bara kan köra i 10GHz.

Permalänk
Medlem
Skrivet av Zemos:

Känns det inte lite väl pessimistiskt, att uttala sig om en pris bild nu, som inte kommer förens om några år?

Det är baserat på analyser som gjorts av tex Nvidia och AMD som ser dessa problem som stora hot mot deras verksamhet.

Permalänk
Medlem
Skrivet av aliassund:

Det är klart att det inte går att köra en CPU så snabbt, det var som en referensnivå. En komplext block såsom en multiplikator kanske bara kan köra i 10GHz.

Nä, rekordet är väl exekveringsenheterna hos P4 som maxade 16,3GHz eller någonting. Rätt imponerande ändå, men de var ju verkligen främst byggda för frekvens och sekundärt för att faktiskt uträtta något.

Permalänk
Medlem
Skrivet av Aleshi:

Nä, rekordet är väl exekveringsenheterna hos P4 som maxade 16,3GHz eller någonting. Rätt imponerande ändå, men de var ju verkligen främst byggda för frekvens och sekundärt för att faktiskt uträtta något.

Imponerande.

Permalänk
Medlem
Skrivet av Aleshi:

Ja det jag menar är att för varje cykel så hinner ljuset nå en viss sträcka helt enkelt.

Okej, det är inte det du skriver.

Skrivet av Aleshi:

Skulle frekvensutvecklingen varit lika snabb som i slutet av 90-talet skulle ljusets våglängd bara vara en ynka milimeter vid de frekvenserna.

Så det du har skrivit stämmer inte, men antagligen menade du "bara vara en ynka nanometer".

Omskrivet:

Citat:

Om frekvensökningen för processorer i dag var lika stor som den var mot slutet av 90-talet, så skulle ljusets våglängd nu vara en endast ynka en millimeter vid de frekvenserna man i sådana fall skulle uppnått idag (efter en ökning som var lika stor som den var i slutet av 90-talet).

För det första, det synliga ljusets våglängd är mellan 800 och 400nm. Det är ca 1/1000 av 1 mm. "Bara endast vara" inmplicerar att den sjunker, men faktum är att 1 mm är en ökning med ca 1250 gånger (... från infrarött, 2500 gånger för mörk violett).

"De frekvenserna" man får vid 1mm våglängd är 0.34 MHz, jag tror knappast att dages processorer skulle ha 1/1000 av dagens klockfrekvens (3.4 Ghz) om vi haft samma frekvensökning som på slutet av 90-talet.

Tänk även på att våglängden inte är lika med hastigheten. Ljusets hastighet är, ceteris paribus, konstant.

Permalänk
Medlem
Skrivet av beh:

Okej, det är inte det du skriver.

Så det du har skrivit stämmer inte, men antagligen menade du "bara vara en ynka nanometer".

Du har rätt i att jag räknade fel, en nolla fel blev det. Var lite snabb när jag räknade om 3GHz och 10 meter till 300GHz. Men inga nanometrar inte.
Jag räknade på om ljuset skulle ha en frekvens på 300GHz.
Ljusets hastighet är cirka 300 000 000 m/s, vid en Hz så är en våglängd alltså 300 000 Km. Vill du göra matten på det eller ska jag ställa upp det?
300 miljarder centimetrar vid 1 Hz, hur många centimetrar är det vid 300 miljarder Hz?

Alltså, har du en processor som arbetar i 300GHz så hinner en ljusstråle i vakuum färdas en centimeter under den tiden det tar för CPUn att ticka en gång.

Skrivet av beh:

Omskrivet:

För det första, det synliga ljusets våglängd är mellan 800 och 400nm. Det är ca 1/1000 av 1 mm. "Bara endast vara" inmplicerar att den sjunker, men faktum är att 1 mm är en ökning med ca 1250 gånger (... från infrarött, 2500 gånger för mörk violett).

"De frekvenserna" man får vid 1mm våglängd är 0.34 MHz, jag tror knappast att dages processorer skulle ha 1/1000 av dagens klockfrekvens (3.4 Ghz) om vi haft samma frekvensökning som på slutet av 90-talet.

Tänk även på att våglängden inte är lika med hastigheten. Ljusets hastighet är, ceteris paribus, konstant.

Nej, 1mm våglängd är 300 GHz.

Permalänk
Medlem
Skrivet av Aleshi:

Jag räknade på om ljuset skulle ha en frekvens på 300GHz.

Det jag reagerar på är att ljus inte har en frekvens på 300 GHz. Det vi i normala fall omtalar som ljus finns i intervallet mellan 430 THz och 790 Thz. Källa
Vid 300 GHz talar vi om gränslandet mellan mikrovågor och infraröd strålning, inte ljus.

Om du inte talar om den elektromagnetiska strålningens frekvens, men menar den frekvens som klockan i datorn pulserar med så förstår vi varandra.