Sidan 2 av 2 1 2
 
Verktyg Visningsval
2013-09-11, 15:15   #31

criscros

Medlem

Registrerad: jan 2005

Citat:
Ursprungligen inskrivet av virtual void Visa inlägg
(minst) två problem med ett sådant uttalande
  1. vissa problem kan helt enkelt inte dra nytta av flera CPU-kärnor då de är vad man kallar "inherently sequential". Ett populärt exempel är: oavsett antalet kvinnor så kommer varje enskild graviditeten ta lika lång tid. Motsvarande i desktop-program är att flera CPU-kärnor sällan minskar latensen, i.e. hur mycket gladare blir du om din dator kan lösa 10st problem på X sekunder (t.ex. lösa ett problem per CPU-kärna) när ditt problem är att du tycker X är för stort och du har bara ett problem du är intresserad av?
    Det finns många problem som rent teoretiskt går att dela upp, men p.g.a. av att det är väldigt dyrt att kommunicera mellan CPU-kärnor (jämfört med att jobba med data lokalt) så ger det väldigt liten, ingen eller till och med negativ effekt att köra med flera CPU-kärnor.
  2. det är mycket svårare att korrekt/effektivt designa program som ska använda många CPU-kärnor, det är brutalt mycket svårare att felsöka program som kör på flera CPU-kärnor jämfört med strikt sekventiella program. Detta betyder att det är mycket dyrare att utveckla sådana program, en kostnad någon måste betala och kunderna tenderar att välja det som upplevs som billigast...
Att använda GPUn även för icke-grafik är däremot något som säkert kan utnyttjas bättre i framtiden. Men en GPU har väldigt mycket gemensamt med specifika instruktioner: det blir extremt snabbt, men det fungerar bara på ett väldigt smalt spektrum av problem. Styrkan i en "vanlig" CPU är just att den är så extremt generell och hanterar problem som spänner över ett väldigt stort område, en CPU är en typisk jack-of-all-trades

OpenCL/DirectCompute lämpar sig bara för problem som är "embarrassingly parallel", i.e. varje del-resultat kan beräknas helt isolerat och problemet går att bryta ner i ett väldigt stort antal isolerade problem. Nu för tiden går det i alla fall att skriva program för en GPU där olika delproblem till viss del tar olika vägar genom koden. Men man måste undvika sådant då tiden det tar att beräkna N delproblem blir lika med den tid det tar att beräkna det dyraste problemet inom ett block av GPU-stream-processorer.
vad är egentligen problemet med det uttalandet? Om du nu tycker att det är ett "problem" varför har man fler än en cpu kärna idagsläget? Och varför har vissa program blivit optimerade för fler cpu kärnor?

Jag personligen bryr mig inte så mycket om hur många kärnor eller hur bra program är optimerade för fler kärnor. Skrev det för att man borde kunna göra det med de flesta program oavsett omständigheterna. Det finns ju trots allt program som kan använda sig utav fler kärnor och det visar sig vara mer effektivt än färre.

Så om det är ett problem för dig.. tråkigt.

Missuppfatta du mig eller du kanske tycker jag skriver en massa skit ja då får jag be om ursäkt för min åsikt.
criscros är inte uppkopplad
2013-09-11, 15:32   #32

Friterad

Medlem

Friterads avatar

Plats: Kungsbacka

Registrerad: jan 2013

Citat:
Ursprungligen inskrivet av Skrotnisse92 Visa inlägg
Sweet, jag vill ha en macbook Air med lägre strömförbrukning! Batteritid åt folket!
Japp, jag ser liksom ingen poäng i att bry sig om prestandan så mycket på en datorn
gjord för enkla saker, dom är idag väldigt snabba med sina SSDer osv.
Att dom får så bra batteritid som möjligt är viktigast nu tycker jag, och kanske "Retina" på MBA för Apples del
__________________
Speldator1: Intel i5 23208GBMSI GTX 660 2GB Twin Frozr III120GB SSD+1TB HDD
Speldator2: AMD FX 63004GBGigabyte GTX 650Ti 2GB Windforce1TB HDD
Bärbar (Dell Latitude 3330): Intel i3 23758GBIntel HD 3000120GB SSD
Friterad är uppkopplad nu
2013-09-11, 15:35   #33

oi

Medlem

Plats: Helvetet Centrum

Registrerad: nov 2012

"Intel Broadwell 30 procent strömsnålare än Haswell"

..med 60% ineffektivare värmespridare!
__________________
Dator: Top Secret Ancient Artefact
oi är inte uppkopplad
2013-09-11, 15:41   #34

Hentai-san

Medlem

Hentai-sans avatar

Plats: Laxå (nära Örebro)

Registrerad: nov 2002

Citat:
Ursprungligen inskrivet av criscros Visa inlägg
vad är egentligen problemet med det uttalandet? Om du nu tycker att det är ett "problem" varför har man fler än en cpu kärna idagsläget? Och varför har vissa program blivit optimerade för fler cpu kärnor?

Jag personligen bryr mig inte så mycket om hur många kärnor eller hur bra program är optimerade för fler kärnor. Skrev det för att man borde kunna göra det med de flesta program oavsett omständigheterna. Det finns ju trots allt program som kan använda sig utav fler kärnor och det visar sig vara mer effektivt än färre.

Så om det är ett problem för dig.. tråkigt.

Missuppfatta du mig eller du kanske tycker jag skriver en massa skit ja då får jag be om ursäkt för min åsikt.
Problemet med ditt uttalande är precis som virtualvoid skriver att man helt enkelt inte kan använda många fler CPU-kärnor än vad vi redan gör. Det handlar inte om att bara programmera rätt, problemen är långt mycket större än så, vilket du hade förstått om du bara läst vad virtualvoid skrev.

Vad du personligen bryr dig om och inte bryr dig om är totalt irrelevant, det är inte som att Intel, AMD och ARM ihop med alla världens mjukvaruutvecklare sitter på en gigantisk konspiration för att stävja utvecklingen. Och eftersom du inte tycker det är ett problem så har du ju uppenbarligen lösningen, du kanske borde publicera den då och föra utvecklingen vidare.
__________________
Captain Awesome
Hentai-san är uppkopplad nu
2013-09-11, 15:44   #35

Skuggan74

Medlem

Plats: Någonstans i Stockholm

Registrerad: apr 2012

Citat:
Ursprungligen inskrivet av Curemylife Visa inlägg
Kanske lite trött men gäller detta även för desktop...?


Det vore vääääldigt fint om temperaturerna gick nedåt och överklockningspotentialen uppåt
Fast det är inte bara värmen det hänger på. Ju mindre kretsar desto mindre antal volt behövs det för att det ska börja hoppa elektroner mellan transistorerna. Så mer överklockningspotential blir det nog inte.

Skickades från m.sweclockers.com
Skuggan74 är uppkopplad nu
2013-09-11, 15:49   #36

ronnylov

Medlem

ronnylovs avatar

Plats: Borås

Registrerad: okt 2002

Samtidigt som strömförbrukningen går ner så ska allting också bli mycket mindre och tunnare så i slutändan kanske vi ändå inte får bättre batteritid (batterierna blir mindre). Man kan ju hoppas att även utveckling av batterier tar fart, det är minst lika viktigt som strömsnåla komponenter. Det är nog med tanke på surfplattor och liknande mobila enheter man satsar så hårt på strömsnålhet istället för prestanda. Det är väl inte inne längre med stationära datorer (förutom för oss entusiaster som är en obetydlig minoritet). Märks även (eller särskilt) på AMD som mer eller mindre övergett prestandasegmentet och fokuserar på APU istället.
__________________
Min hemsida: ronnylov.se
ronnylov är uppkopplad nu
2013-09-11, 15:52   #37

virtual void

Datavetare

virtual voids avatar

Plats: Stockholm

Registrerad: jun 2011

Citat:
Ursprungligen inskrivet av criscros Visa inlägg
vad är egentligen problemet med det uttalandet? Om du nu tycker att det är ett "problem" varför har man fler än en cpu kärna idagsläget? Och varför har vissa program blivit optimerade för fler cpu kärnor?

Jag personligen bryr mig inte så mycket om hur många kärnor eller hur bra program är optimerade för fler kärnor. Skrev det för att man borde kunna göra det med de flesta program oavsett omständigheterna. Det finns ju trots allt program som kan använda sig utav fler kärnor och det visar sig vara mer effektivt än färre.

Så om det är ett problem för dig.. tråkigt.

Missuppfatta du mig eller du kanske tycker jag skriver en massa skit ja då får jag be om ursäkt för min åsikt.
Var ingen kritik mot dig, bara en förklaring till varför vi inte ser och aldrig kommer få se samma typ av prestandaförbättring av att öka antal CPU-kärnor som vi tidigare fick av att öka IPC och klockfrekvensen.

Att få program drar nytta av många CPU-kärnor beror inte på att programmerare är lata och inkompetenta utan för att det är svårt (==dyrt) och många fall som är relevanta för desktop helt enkelt inte kan dra någon större nytta av många CPU-kärnor.
__________________
Those who don't understand UNIX are condemned to reinvent it, poorly. – Henry Spencer
virtual void är inte uppkopplad
2013-09-11, 16:05   #38

criscros

Medlem

Registrerad: jan 2005

Citat:
Ursprungligen inskrivet av virtual void Visa inlägg
Var ingen kritik mot dig, bara en förklaring till varför vi inte ser och aldrig kommer få se samma typ av prestandaförbättring av att öka antal CPU-kärnor som vi tidigare fick av att öka IPC och klockfrekvensen.

Att få program drar nytta av många CPU-kärnor beror inte på att programmerare är lata och inkompetenta utan för att det är svårt (==dyrt) och många fall som är relevanta för desktop helt enkelt inte kan dra någon större nytta av många CPU-kärnor.
Okej jag förstår nu.. Sorry verkligen .. jag tog det lite personligt helt i onödan...

Men jag tror du kan svara på denna fråga? Detta är inget försök till mot argument eller nått sånt! vill bara passa på o fråga.

Vad är egentligen skillnaden i program när den skall använda en jämfört mot fler kärnor?

Och igen.. sorry för tidigare onödigt kaxigt inlägg.

mvh
criscros är inte uppkopplad
2013-09-11, 16:09   #39

virtual void

Datavetare

virtual voids avatar

Plats: Stockholm

Registrerad: jun 2011

Enligt John Biggs, en av ARMs grundare, så har vi passerat den punkt (45nm enligt honom) där en nod-krympning i sig leder till lägre strömförbrukning.

Tittar man på vad som hänt med strömförbrukningen på moderna CPUer på senare tid så tycker jag det verkar stämma. Med mindre noder får man in fler transistorer på en given yta, detta kan man använda till att öka IPC, lägga till specifika funktioner, integrerar GPU och andra saker. Allt detta kan öka prestanda/W men absolut effekt verkar inte förändras speciellt mycket och krympningar leder inte lägre till att man kan höja klockfrekvensen.

Detta betyder tyvärr också att för varje krympning så kommer man koncentrera effektutvecklingen till en all mindre yta, något som knappast kommer vara positivt för överklockningspotentialen då man får "hot-spots" som blir allt för varma trots att totala effekten kanske är den samma som tidigare modell.

När Intel säger att Broadwell ska dra 30% mindre kan vi vara rätt säkra på att det inte gäller vid konstant full last. Men det kan ändå betyda att man ser en rejäl ökning av batteritid p.g.a. att strömförbrukningen minskar med ~30% vid "typisk" användning. Se på Haswell, den drar ungefär som Ivy Bridge vid full last men tack vare att Haswell är så extremt mycket bättre på att strypa strömläckage när delar inte jobbar (är runt 20x bättre på det än Ivy Bridge) så blir resultatet upp till 50% bättre batteritid vid "typisk" användning.
__________________
Those who don't understand UNIX are condemned to reinvent it, poorly. – Henry Spencer
virtual void är inte uppkopplad
2013-09-11, 16:22   #40

sweloop64

Medlem

Plats: Sverige

Registrerad: sep 2009

Citat:
Ursprungligen inskrivet av virtual void Visa inlägg
Att få program drar nytta av många CPU-kärnor beror inte på att programmerare är lata och inkompetenta utan för att det är svårt (==dyrt)
Lite därför nästan uteslutande vi endast ser sådan programvara i yppersta permiumsegmentet som vanliga hemma-användare inte ens i sin vildaste fantasi skulle få för sig att betala...
Företagsmarknaden är en helt annan historia...
__________________
så mycket att vilja göra, så lite tid
sweloop64 är inte uppkopplad
2013-09-11, 16:22   #41

virtual void

Datavetare

virtual voids avatar

Plats: Stockholm

Registrerad: jun 2011

Citat:
Ursprungligen inskrivet av criscros Visa inlägg
Vad är egentligen skillnaden i program när den skall använda en jämfört mot fler kärnor?
För att ta ett fall jag tittat en hel del på: tänk dig att du får en ström av TCP-segment i väldigt hög fart till en system. En TCP/IP-stack kallas "stack" just för att den består av flera lager som i sig kan hanteras separat.

Ett TCP paket som når din dator via en Ethernet-port består av
| Ethernet header | IP-header | TCP-header | applikationsdata |
Så en variant att hantera en enskild ström av TCP-segment är att en CPU-kärna tar hand kom Ethernet protokollet, en tar hand om Internet protokollet, en tar hand om TCP-protokolet och en kör applikationen. Där har jag enkelt arbete för 4 CPU-kärnor i teorin! Rent logiskt fungerar en sådan design perfekt.

I praktiken skulle en sådan design presterar bedrövligt. Jag skulle antagligen belasta alla CPU-kärnor till nära 100%, så de kan inte utföra något annat, men majoriteten av tiden skulle CPU-kärnorna bara vänta på cache-missar som är omöjligt att undvika när man skickar data från en CPU-kärna till nästa. Så i praktiken går det fortare att hantera rubbet på en CPU-kärna. I.e. det går bara att använda en CPU-kärna på ett vettigt sätt här.

Om problemet i stället är att jag har 1000-tals oberoende TCP-strömmar + HW som sprider dessa strömmar till olika CPU-kärnor (en viss TCP-ström måste alltid hamna på samma CPU-kärna, high-end nätverkskort kan göra detta) så fungerar det ypperligt att använda många CPU-kärnor då man inte behöver kommunicera mellan CPU-kärnor för att hantera två oberoende strömmar.

På servers är det andra användarfallet väldigt vanligt, vilket är anledningen till att antalet CPU-kärnor ökar snabbt där (finns "vanliga" x86 servers med 80 CPU-kärnor och snart ökas det till 120 CPU-kärnor). På desktop är det långt vanligare att man har något som liknar det första exemplet...
__________________
Those who don't understand UNIX are condemned to reinvent it, poorly. – Henry Spencer
virtual void är inte uppkopplad
2013-09-11, 16:32   #42

ronnylov

Medlem

ronnylovs avatar

Plats: Borås

Registrerad: okt 2002

Nu är jag ingen programmerare men ett exempel på när man kan använda flera kärnor är komprimering av video. Då kan man tänka sig att man tilldelar varje kärna (eller tråd som det heter) 10 sekunder råvideo vardera att jobba med. Säg till när du är klar säger huvudtråden som organiserar allting. Jag är klar säger en tråd här får du resultatet, jaha varsågod här har du 10 sekunder till att jobba med säger huvudtråden, säg till när du är klar. Allihopa jobbar på samtidigt och huvudtråden ser till att pussla ihop småbitarna de spottar ut till ett färdigt resultat. Ett annat extremt exempel på detta är folding@home där små deluppgifter slussas ut till olika datorer över internet och de skickar tillbaka sina delresultat som sätts ihop centralt. Här jobbar många parallellt för ett gemensamt mål. Men allting går inte att dela upp så enkelt.

Problemet är väl just hur man ska lyckas bryta isär uppgiften till flera saker som kan ske samtidigt på ett effektivt sätt. Om uppgift nummer två är beroende av resultatet från uppgift nummer 1 och därför inte kan påbörjas förrän första uppgiften är slutförd så hjälps det inte att ha flera kärnor för man får ändå vänta på att första ska bli färdig. Det kan tänkas att det går att fördela uppgifterna till en viss gräns men det blir mer komplicerat samspel som måste samordnas. Jag tror absolut man kan bli bättre på att klura ut multitrådade program och att det kräver uppfinningsrikedom för att lyckas på ett bra sätt men som sagt var det är inte alltid det går. Och själva fördelningen av uppgifter tar ju också kraft och om uppgifterna är små och enkla är det ofta inte värt besväret.

Medan jag skrev på detta inlägg ser jag att virtual_void gett ett bra svar. Men det känns trist att ha skrivit i onödan så jag skickar det väl ändå...
__________________
Min hemsida: ronnylov.se
ronnylov är uppkopplad nu
2013-09-11, 16:33   #43

criscros

Medlem

Registrerad: jan 2005

Citat:
Ursprungligen inskrivet av virtual void Visa inlägg
För att ta ett fall jag tittat en hel del på: tänk dig att du får en ström av TCP-segment i väldigt hög fart till en system. En TCP/IP-stack kallas "stack" just för att den består av flera lager som i sig kan hanteras separat.

Ett TCP paket som når din dator via en Ethernet-port består av
| Ethernet header | IP-header | TCP-header | applikationsdata |
Så en variant att hantera en enskild ström av TCP-segment är att en CPU-kärna tar hand kom Ethernet protokollet, en tar hand om Internet protokollet, en tar hand om TCP-protokolet och en kör applikationen. Där har jag enkelt arbete för 4 CPU-kärnor i teorin! Rent logiskt fungerar en sådan design perfekt.

I praktiken skulle en sådan design presterar bedrövligt. Jag skulle antagligen belasta alla CPU-kärnor till nära 100%, så de kan inte utföra något annat, men majoriteten av tiden skulle CPU-kärnorna bara vänta på cache-missar som är omöjligt att undvika när man skickar data från en CPU-kärna till nästa. Så i praktiken går det fortare att hantera rubbet på en CPU-kärna. I.e. det går bara att använda en CPU-kärna på ett vettigt sätt här.

Om problemet i stället är att jag har 1000-tals oberoende TCP-strömmar + HW som sprider dessa strömmar till olika CPU-kärnor (en viss TCP-ström måste alltid hamna på samma CPU-kärna, high-end nätverkskort kan göra detta) så fungerar det ypperligt att använda många CPU-kärnor då man inte behöver kommunicera mellan CPU-kärnor för att hantera två oberoende strömmar.

På servers är det andra användarfallet väldigt vanligt, vilket är anledningen till att antalet CPU-kärnor ökar snabbt där (finns "vanliga" x86 servers med 80 CPU-kärnor och snart ökas det till 120 CPU-kärnor). På desktop är det långt vanligare att man har något som liknar det första exemplet...
OKej jag tror jag börjar förstår lite nu då hah.. lite trög

Men iaf så som jag har förstått det så är grunden i en cpu typ att cache tar emot datan från nått håll och HW delar ut den till kärnorna? som sedan skickas ut igen?

Vad står HW för? Och hur hade det funkat om man hade haft typ 1000 svagare kärnor? om vi säger att antalet trådar hos en dator är maximalt 10miljoner

Och vi har en speciel enhet som är rätt snabb men väääldigt liten och vi sätter ihop 10miljoner sådana. Vad tror du om det rent teoretiskt? Låt oss fokusera på "prestandan" och inte om hur svårt det är att tillverka en sådan (vilket det säkert är)

mvh
criscros är inte uppkopplad
2013-09-11, 16:40   #44

mrqaffe

Medlem

mrqaffes avatar

Plats: Salstad

Registrerad: feb 2009

Men finns det nån sweetspot för antal kärnor för att täcka "normal" multitasking hemma?
Man har tillverkat mobilcpuer med olika starka kärnor, skulle man kunna göra nått liknande på desktop och dela upp fördelningen av kärnor på nått sätt så att man låser program som inte är beräkningsintensiva till nån klen kärna och lämnar muskelkärnorna till saker som behöver mer kraft ?
__________________
Phenom 2 960T (körs x6) med passivt Ninja på Asus Crosshair 4 Asus 4850 och en väldig massa masslagring.Passiv kyld Northq nätdel 450W Antec P 180 med Schyte o Sharkoon fläktar via en t-balancer, väldigt tyst, oftast passivt. Datorljud 2kanal: ljudkort/dsp Behringer DCX2496, högtalare Truth B3031A, Truth B2092A Har också Oscilloskop och mätmikrofon.
mrqaffe är uppkopplad nu
2013-09-11, 16:55   #45

ronnylov

Medlem

ronnylovs avatar

Plats: Borås

Registrerad: okt 2002

Citat:
Ursprungligen inskrivet av mrqaffe Visa inlägg
Men finns det nån sweetspot för antal kärnor för att täcka "normal" multitasking hemma?
Man har tillverkat mobilcpuer med olika starka kärnor, skulle man kunna göra nått liknande på desktop och dela upp fördelningen av kärnor på nått sätt så att man låser program som inte är beräkningsintensiva till nån klen kärna och lämnar muskelkärnorna till saker som behöver mer kraft ?
I viss mån sker detta redan. De kärnor som inte används i processorn klockas ner till minimum strömförbrukning och växlar upp prestandan stegvis efter behov. En nedklockad kärna kan man se som en klenare kärna. Jag vet inte hur långt man drivit detta men jag tror att man till och med kan köra ner kärnor som inte används i något "sovtillstånd", sleep states har jag för mig man kallar det.

Normal multitasking måste vara helt beroende vad man gör hemma. Jag kör mycket videoredigering och normalt för mig är att försöka maxa alla kärnor hela tiden och ju fler kärnor desto bättre. Men för någon som bara surfar och betalar räkningar så räcker det med en liten klen kärna.
__________________
Min hemsida: ronnylov.se
ronnylov är uppkopplad nu
2013-09-11, 16:56   #46

virtual void

Datavetare

virtual voids avatar

Plats: Stockholm

Registrerad: jun 2011

Citat:
Ursprungligen inskrivet av ronnylov Visa inlägg
Spoiler:
Nu är jag ingen programmerare men ett exempel på när man kan använda flera kärnor är komprimering av video. Då kan man tänka sig att man tilldelar varje kärna (eller tråd som det heter) 10 sekunder råvideo vardera att jobba med. Säg till när du är klar säger huvudtråden som organiserar allting. Jag är klar säger en tråd här får du resultatet, jaha varsågod här har du 10 sekunder till att jobba med säger huvudtråden, säg till när du är klar. Allihopa jobbar på samtidigt och huvudtråden ser till att pussla ihop småbitarna de spottar ut till ett färdigt resultat. Ett annat extremt exempel på detta är folding@home där små deluppgifter slussas ut till olika datorer över internet och de skickar tillbaka sina delresultat som sätts ihop centralt. Här jobbar många parallellt för ett gemensamt mål. Men allting går inte att dela upp så enkelt.

Problemet är väl just hur man ska lyckas bryta isär uppgiften till flera saker som kan ske samtidigt på ett effektivt sätt. Om uppgift nummer två är beroende av resultatet från uppgift nummer 1 och därför inte kan påbörjas förrän första uppgiften är slutförd så hjälps det inte att ha flera kärnor för man får ändå vänta på att första ska bli färdig. Det kan tänkas att det går att fördela uppgifterna till en viss gräns men det blir mer komplicerat samspel som måste samordnas. Jag tror absolut man kan bli bättre på att klura ut multitrådade program och att det kräver uppfinningsrikedom för att lyckas på ett bra sätt men som sagt var det är inte alltid det går. Och själva fördelningen av uppgifter tar ju också kraft och om uppgifterna är små och enkla är det ofta inte värt besväret.

Medan jag skrev på detta inlägg ser jag att virtual_void gett ett bra svar. Men det känns trist att ha skrivit i onödan så jag skickar det väl ändå...
Kodning av film är en av de saker som faktiskt går att sprida ut över många kärnor på ett bra sätt, vilket syns t.ex. i SweC tester av CPUer.

Har ganska dålig koll på hur man komprimerar film, men har fått för mig att man typiskt delar upp bilden i 16x16 pixel stora block och man använder sedan fourier-transform för att beskriva hur färgerna varierar genom detta block. Borde i så fall vara denna uppdelning i block som ger upphov till "macroblock" artefakter i väldigt hårt komprimerat material.

Man kan göra precis som du nämner eller så delar man upp jobbet så varje kärna får ett gäng 16x16 block att jobba på i samma "frame".
__________________
Those who don't understand UNIX are condemned to reinvent it, poorly. – Henry Spencer
virtual void är inte uppkopplad
2013-09-11, 17:18   #47

aliassund

Medlem

aliassunds avatar

Plats: Lund

Registrerad: okt 2010

Citat:
Ursprungligen inskrivet av Skuggan74 Visa inlägg
Fast det är inte bara värmen det hänger på. Ju mindre kretsar desto mindre antal volt behövs det för att det ska börja hoppa elektroner mellan transistorerna. Så mer överklockningspotential blir det nog inte.

Skickades från m.sweclockers.com
Men det hänger ju ihop, effektförbrukningen är ju ungefär proportionell mot spänningen i kvadrat. Fast det handlar inte om elektroner som hoppar utan i takt med att transistorna blir mindre så tål de också mindre spänning.
aliassund är inte uppkopplad
2013-09-11, 17:28   #48

WrongTarget

Medlem

WrongTargets avatar

Plats: Göteborg

Registrerad: maj 2005

Citat:
Ursprungligen inskrivet av criscros Visa inlägg
OKej jag tror jag börjar förstår lite nu då hah.. lite trög

Men iaf så som jag har förstått det så är grunden i en cpu typ att cache tar emot datan från nått håll och HW delar ut den till kärnorna? som sedan skickas ut igen?

Vad står HW för? Och hur hade det funkat om man hade haft typ 1000 svagare kärnor? om vi säger att antalet trådar hos en dator är maximalt 10miljoner

Och vi har en speciel enhet som är rätt snabb men väääldigt liten och vi sätter ihop 10miljoner sådana. Vad tror du om det rent teoretiskt? Låt oss fokusera på "prestandan" och inte om hur svårt det är att tillverka en sådan (vilket det säkert är)

mvh
Problemet är just att alla problem inte går att bryta ned i x antal delproblem som kan bearbetas samtidigt i ett stort antal kärnor samtidigt och sedan pusslas ihop utan något större tidsspill. Så fort någon beräkning tar längre tid än de andra måste man ju vänta in den beräkningen innan allt pusslas ihop. Om sedan ett antal av beräkningarna som delas ut är beroende av resultatet från någon/några av de andra beräkningarna så får vi ju ett vänteläge igen där man får vänta på att beräkningar är utförda innan resterande beräkninga kan utföras och sedan kan resultatet pusslas ihop. Visserligen kan man lagra delresultaten och låta kärnorna som är klara utföra andra beräkningar, men alla beräkningar tar ju inte lika lång tid, så vi kan hamna i vänteläge igen osv. Dessutom måste ju någon process hålla reda på i vilken ordning alla pusselbitar skall pusslas ihop för att resultatet skall bli rätt, vilket tar resurser.

En grafikgpu är uppbyggd i många små specialiserade kärnor för att uppgifterna den skall utföra går väldigt bra att dela upp i många små deluppgifter som är relativt oberoende av varandra, men en CPU får tackla väldigt många olika uppgifter, varav många inte enkelt (eller inte allls) går att dela upp i av varandra oberoende delproblem. Därför är inte uppbyggnaden med en stor mängd små klena kärnor särskilt effektiv för desktopuppgifter.

Detta har sagts förut, men jag tänkte försöka förenkla det hela lite till (vette sjutton om jag lyckades ).

Angående HW antar jag att det är Hardware=Hårdvara som avses (kanske en dedikerad krets för uppgiften).
__________________
~Pelle~
WrongTarget är uppkopplad nu
2013-09-11, 17:31   #49

ronnylov

Medlem

ronnylovs avatar

Plats: Borås

Registrerad: okt 2002

Citat:
Ursprungligen inskrivet av virtual void Visa inlägg
Kodning av film är en av de saker som faktiskt går att sprida ut över många kärnor på ett bra sätt, vilket syns t.ex. i SweC tester av CPUer.

Har ganska dålig koll på hur man komprimerar film, men har fått för mig att man typiskt delar upp bilden i 16x16 pixel stora block och man använder sedan fourier-transform för att beskriva hur färgerna varierar genom detta block. Borde i så fall vara denna uppdelning i block som ger upphov till "macroblock" artefakter i väldigt hårt komprimerat material.

Man kan göra precis som du nämner eller så delar man upp jobbet så varje kärna får ett gäng 16x16 block att jobba på i samma "frame".
Ja du har rätt i uppdelningen av block och att detta kan ge blockartifakter och du har rätt i att även enskilda bilder kan multitrådas genom att dela upp dem i flera områden som hanteras samtidigt. Detta med uppdelning i block används även på stillbilder med JPEG-kompression. Modernare codecs som h.264 har tricks för att filtrera bort dessa blockstörningar och det syns att allting bara blir suddigare och suddigare ju hårdare man komprimerar (blockstörningarna filtreras bort automatiskt vid uppspelning med återkoppling till kompressionsgraden). Dessutom räknar man ut rörelsevektorer för hur innehållet i bilden förflyttas, differenser jämfört med föregående och nästa bild och mycket mera. Ja det är verkligen tacksamt att multitråda videobearbetning.

Men är det inte förvånansvärt dåligt med multitrådning i fotoredigeringsprogrammen? Exempelvis Adobe Ligthroom, det är väl huvudsakligen singeltrådat? Borde man inte kunna behandla flera bilder parallellt och delar av bildernas innehåll parallellt på ett bättre sätt än vad som görs? Bytte från 2-kärnig till 6-kärnig processor i min sambos dator. Hon kör mest fotoprogram men det märks inte stor förbättring i prestandan. Där tror jag programmerarna skulle kunna göra bättre ifrån sig.
__________________
Min hemsida: ronnylov.se
ronnylov är uppkopplad nu
2013-09-11, 19:35   #50

Zappkiller

Medlem

Zappkillers avatar

Plats: Uppsala

Registrerad: sep 2013

Jag tror jag tänker köpa nytt när broadwell kommer ut.
Zappkiller är inte uppkopplad
2013-09-11, 22:18   #51

kaput

Medlem

kaputs avatar

Plats: Stockholm

Registrerad: apr 2012

Mmm, laptops som inte grillar ens ädlare delar när man sitter med den i knät, och slippa den där oron för att man ska råka blockera fläkten när man har den på något mjukt underlag. Ja, och så är det batteritiden. Låter som en rätt bra deal tycker jag.
__________________
Nu lurade jag dig allt att slösa bort ett par värdefulla sekunder av ditt liv på att läsa denna fullständigt poänglösa signatur!
kaput är inte uppkopplad
2013-09-11, 22:25   #52

aliassund

Medlem

aliassunds avatar

Plats: Lund

Registrerad: okt 2010

Imponerande att de lyckats få rätt på 14nm redan. För två år sedan hade industrin knappt koll på hur det överhuvudtaget skulle gå till att tillverka i 14nm.
aliassund är inte uppkopplad
2013-09-12, 01:48   #53

lastninja

Medlem

Plats: Sverige / Stockholm

Registrerad: nov 2006

Citat:
Ursprungligen inskrivet av heatm Visa inlägg
Att Windows känns slött är oftast för att man har seg hårddisk, inte seg processor. Processorn har idag nästan ingenting med hur snabbt program startar. Ofta ett missförstånd det där vilket är anledningen till att tillverkarna gärna skryter med GHz på processorn och sedan skriver 1 Tb hårddisk utan att specificera någonting mer. När jag plockar ihop datorer åt "vanligt folk" idag så kräver jag av dom att dom köper en SSD till den. Det är ingen hittills som inte tackat mig efteråt. =)
Sant. Tycker att Microsoft borde blivit bättre på att nyttja RAM-minnet när man numera har hiskeliga mängder sådant, istället för det extrema swappandet till hdd som dom alltid verkar eftersträva (Pagefile&co).
Jag har varit kåt på SSDerna ända sedan min första Netbook i mitten på år 2008.
Kändes ganska sjukt faktiskt på den tiden, att jag i vissa sysslor med min Netbook (med SSD) hade bättre respons/uppstartstid än kompisarnas svindyra Core2Quad system som tyvärr bara var utrustade med HDD's.

Anyway.. Jag hoppas intel håller vad dom tidigare sagt om GPUn i broadwell och alltså boostar den prestandan med minst 40%:
http://semiaccurate.com/2012/11/29/i...-details-leak/
__________________
Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!
lastninja är inte uppkopplad
2013-09-12, 06:51   #54

CFSsss

Medlem

CFSssss avatar

Plats: Stockholm

Registrerad: okt 2001

Citat:
Ursprungligen inskrivet av aliassund Visa inlägg
Imponerande att de lyckats få rätt på 14nm redan. För två år sedan hade industrin knappt koll på hur det överhuvudtaget skulle gå till att tillverka i 14nm.
Håller med - att de redan har fungerade laptops med 14nm är g-r-y-m-t imponerande. Folk i allmänhet förstår inte vilken spetsteknologi de köper när de går och handlar en laptop. 14nm cpu är garanterat bland det mest komplicerade som människan någonsin byggt.

Och som andra sagt - ryktet säger att 14nm broadwell inte kommer lanseras till desktop nästa år utan att 14nm kommer till laptops och att desktop får en haswell refresh istället. Samt då också Haswell-E får vi hoppas.
CFSsss är inte uppkopplad
2013-09-12, 08:32   #55

aliassund

Medlem

aliassunds avatar

Plats: Lund

Registrerad: okt 2010

Citat:
Ursprungligen inskrivet av CFSsss Visa inlägg
Håller med - att de redan har fungerade laptops med 14nm är g-r-y-m-t imponerande. Folk i allmänhet förstår inte vilken spetsteknologi de köper när de går och handlar en laptop. 14nm cpu är garanterat bland det mest komplicerade som människan någonsin byggt.

Och som andra sagt - ryktet säger att 14nm broadwell inte kommer lanseras till desktop nästa år utan att 14nm kommer till laptops och att desktop får en haswell refresh istället. Samt då också Haswell-E får vi hoppas.
Ja, det finns ju ingen större drivkraft att sänka effektförbrukningen i desktops, dess mervärde har ju hittills varit att erbjuda bättre prestanda. Synd då att det nu blivit så svårt att öka prestandan ytterligare.

Skickades från m.sweclockers.com
aliassund är inte uppkopplad
2013-09-14, 13:23   #56

Luminous

Medlem

Luminouss avatar

Registrerad: dec 2009

Om jag inte missförstått kommer Broadwell vara intels första SoC. Det är väl inte deras första SoC om man räknar processorer för mobila lösningar, men kanske blir desktop processorerna det. Jag har inte koll på vad som integreras i Broadwell, men jag har läst att det är "intels första soc" och med tanke på hur mycket som är inbyggt i haswell så skulle jag inte vara förvånad.
__________________
"Emacs is a nice operating system. Too bad it doesn't have a good editor"

In soviet russia, git checks out you!
Luminous är inte uppkopplad
Senaste nyheterna

Redaktionens senaste nyhetsrubriker

Sök jobb