Intel Broadwell 30 procent strömsnålare än Haswell

Permalänk
Medlem

[QUOTE=Yoshman;13871650](minst) två problem med ett sådant uttalande

  1. vissa problem kan helt enkelt inte dra nytta av flera CPU-kärnor då de är vad man kallar "inherently sequential". Ett populärt exempel är: oavsett antalet kvinnor så kommer varje enskild graviditeten ta lika lång tid. Motsvarande i desktop-program är att flera CPU-kärnor sällan minskar latensen, i.e. hur mycket gladare blir du om din dator kan lösa 10st problem på X sekunder (t.ex. lösa ett problem per CPU-kärna) när ditt problem är att du tycker X är för stort och du har bara ett problem du är intresserad av?
    Det finns många problem som rent teoretiskt går att dela upp, men p.g.a. av att det är väldigt dyrt att kommunicera mellan CPU-kärnor (jämfört med att jobba med data lokalt) så ger det väldigt liten, ingen eller till och med negativ effekt att köra med flera CPU-kärnor.

  2. det är mycket svårare att korrekt/effektivt designa program som ska använda många CPU-kärnor, det är brutalt mycket svårare att felsöka program som kör på flera CPU-kärnor jämfört med strikt sekventiella program. Detta betyder att det är mycket dyrare att utveckla sådana program, en kostnad någon måste betala och kunderna tenderar att välja det som upplevs som billigast...

Att använda GPUn även för icke-grafik är däremot något som säkert kan utnyttjas bättre i framtiden. Men en GPU har väldigt mycket gemensamt med specifika instruktioner: det blir extremt snabbt, men det fungerar bara på ett väldigt smalt spektrum av problem. Styrkan i en "vanlig" CPU är just att den är så extremt generell och hanterar problem som spänner över ett väldigt stort område, en CPU är en typisk jack-of-all-trades

OpenCL/DirectCompute lämpar sig bara för problem som är "embarrassingly parallel", i.e. varje del-resultat kan beräknas helt isolerat och problemet går att bryta ner i ett väldigt stort antal isolerade problem. Nu för tiden går det i alla fall att skriva program för en GPU där olika delproblem till viss del tar olika vägar genom koden. Men man måste undvika sådant då tiden det tar att beräkna N delproblem blir lika med den tid det tar att beräkna det dyraste problemet inom ett block av GPU-stream-processorer.[/QUOTE]

vad är egentligen problemet med det uttalandet? Om du nu tycker att det är ett "problem" varför har man fler än en cpu kärna idagsläget? Och varför har vissa program blivit optimerade för fler cpu kärnor?

Jag personligen bryr mig inte så mycket om hur många kärnor eller hur bra program är optimerade för fler kärnor. Skrev det för att man borde kunna göra det med de flesta program oavsett omständigheterna. Det finns ju trots allt program som kan använda sig utav fler kärnor och det visar sig vara mer effektivt än färre.

Så om det är ett problem för dig.. tråkigt.

Missuppfatta du mig eller du kanske tycker jag skriver en massa skit ja då får jag be om ursäkt för min åsikt.

Permalänk
Medlem
Skrivet av Skrotnisse92:

Sweet, jag vill ha en macbook Air med lägre strömförbrukning! Batteritid åt folket!

Japp, jag ser liksom ingen poäng i att bry sig om prestandan så mycket på en datorn
gjord för enkla saker, dom är idag väldigt snabba med sina SSDer osv.
Att dom får så bra batteritid som möjligt är viktigast nu tycker jag, och kanske "Retina" på MBA för Apples del

Permalänk
Medlem

"Intel Broadwell 30 procent strömsnålare än Haswell"

..med 60% ineffektivare värmespridare!

Visa signatur

Dator: Top Secret Ancient Artefact

Permalänk
Medlem
Skrivet av criscros:

vad är egentligen problemet med det uttalandet? Om du nu tycker att det är ett "problem" varför har man fler än en cpu kärna idagsläget? Och varför har vissa program blivit optimerade för fler cpu kärnor?

Jag personligen bryr mig inte så mycket om hur många kärnor eller hur bra program är optimerade för fler kärnor. Skrev det för att man borde kunna göra det med de flesta program oavsett omständigheterna. Det finns ju trots allt program som kan använda sig utav fler kärnor och det visar sig vara mer effektivt än färre.

Så om det är ett problem för dig.. tråkigt.

Missuppfatta du mig eller du kanske tycker jag skriver en massa skit ja då får jag be om ursäkt för min åsikt.

Problemet med ditt uttalande är precis som virtualvoid skriver att man helt enkelt inte kan använda många fler CPU-kärnor än vad vi redan gör. Det handlar inte om att bara programmera rätt, problemen är långt mycket större än så, vilket du hade förstått om du bara läst vad virtualvoid skrev.

Vad du personligen bryr dig om och inte bryr dig om är totalt irrelevant, det är inte som att Intel, AMD och ARM ihop med alla världens mjukvaruutvecklare sitter på en gigantisk konspiration för att stävja utvecklingen. Och eftersom du inte tycker det är ett problem så har du ju uppenbarligen lösningen, du kanske borde publicera den då och föra utvecklingen vidare.

Visa signatur

Captain Awesome

Permalänk
Avstängd
Skrivet av Curemylife:

Kanske lite trött men gäller detta även för desktop...?

Det vore vääääldigt fint om temperaturerna gick nedåt och överklockningspotentialen uppåt:)

Fast det är inte bara värmen det hänger på. Ju mindre kretsar desto mindre antal volt behövs det för att det ska börja hoppa elektroner mellan transistorerna. Så mer överklockningspotential blir det nog inte.

Skickades från m.sweclockers.com

Permalänk
Medlem

Samtidigt som strömförbrukningen går ner så ska allting också bli mycket mindre och tunnare så i slutändan kanske vi ändå inte får bättre batteritid (batterierna blir mindre). Man kan ju hoppas att även utveckling av batterier tar fart, det är minst lika viktigt som strömsnåla komponenter. Det är nog med tanke på surfplattor och liknande mobila enheter man satsar så hårt på strömsnålhet istället för prestanda. Det är väl inte inne längre med stationära datorer (förutom för oss entusiaster som är en obetydlig minoritet). Märks även (eller särskilt) på AMD som mer eller mindre övergett prestandasegmentet och fokuserar på APU istället.

Permalänk
Datavetare
Skrivet av criscros:

vad är egentligen problemet med det uttalandet? Om du nu tycker att det är ett "problem" varför har man fler än en cpu kärna idagsläget? Och varför har vissa program blivit optimerade för fler cpu kärnor?

Jag personligen bryr mig inte så mycket om hur många kärnor eller hur bra program är optimerade för fler kärnor. Skrev det för att man borde kunna göra det med de flesta program oavsett omständigheterna. Det finns ju trots allt program som kan använda sig utav fler kärnor och det visar sig vara mer effektivt än färre.

Så om det är ett problem för dig.. tråkigt.

Missuppfatta du mig eller du kanske tycker jag skriver en massa skit ja då får jag be om ursäkt för min åsikt.

Var ingen kritik mot dig, bara en förklaring till varför vi inte ser och aldrig kommer få se samma typ av prestandaförbättring av att öka antal CPU-kärnor som vi tidigare fick av att öka IPC och klockfrekvensen.

Att få program drar nytta av många CPU-kärnor beror inte på att programmerare är lata och inkompetenta utan för att det är svårt (==dyrt) och många fall som är relevanta för desktop helt enkelt inte kan dra någon större nytta av många CPU-kärnor.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Var ingen kritik mot dig, bara en förklaring till varför vi inte ser och aldrig kommer få se samma typ av prestandaförbättring av att öka antal CPU-kärnor som vi tidigare fick av att öka IPC och klockfrekvensen.

Att få program drar nytta av många CPU-kärnor beror inte på att programmerare är lata och inkompetenta utan för att det är svårt (==dyrt) och många fall som är relevanta för desktop helt enkelt inte kan dra någon större nytta av många CPU-kärnor.

Okej jag förstår nu.. Sorry verkligen .. jag tog det lite personligt helt i onödan...

Men jag tror du kan svara på denna fråga? Detta är inget försök till mot argument eller nått sånt! vill bara passa på o fråga.

Vad är egentligen skillnaden i program när den skall använda en jämfört mot fler kärnor?

Och igen.. sorry för tidigare onödigt kaxigt inlägg.

mvh

Permalänk
Datavetare

Enligt John Biggs, en av ARMs grundare, så har vi passerat den punkt (45nm enligt honom) där en nod-krympning i sig leder till lägre strömförbrukning.

Tittar man på vad som hänt med strömförbrukningen på moderna CPUer på senare tid så tycker jag det verkar stämma. Med mindre noder får man in fler transistorer på en given yta, detta kan man använda till att öka IPC, lägga till specifika funktioner, integrerar GPU och andra saker. Allt detta kan öka prestanda/W men absolut effekt verkar inte förändras speciellt mycket och krympningar leder inte lägre till att man kan höja klockfrekvensen.

Detta betyder tyvärr också att för varje krympning så kommer man koncentrera effektutvecklingen till en all mindre yta, något som knappast kommer vara positivt för överklockningspotentialen då man får "hot-spots" som blir allt för varma trots att totala effekten kanske är den samma som tidigare modell.

När Intel säger att Broadwell ska dra 30% mindre kan vi vara rätt säkra på att det inte gäller vid konstant full last. Men det kan ändå betyda att man ser en rejäl ökning av batteritid p.g.a. att strömförbrukningen minskar med ~30% vid "typisk" användning. Se på Haswell, den drar ungefär som Ivy Bridge vid full last men tack vare att Haswell är så extremt mycket bättre på att strypa strömläckage när delar inte jobbar (är runt 20x bättre på det än Ivy Bridge) så blir resultatet upp till 50% bättre batteritid vid "typisk" användning.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Yoshman:

Att få program drar nytta av många CPU-kärnor beror inte på att programmerare är lata och inkompetenta utan för att det är svårt (==dyrt)

Lite därför nästan uteslutande vi endast ser sådan programvara i yppersta permiumsegmentet som vanliga hemma-användare inte ens i sin vildaste fantasi skulle få för sig att betala...
Företagsmarknaden är en helt annan historia...

Visa signatur

så mycket att vilja göra, så lite tid

Permalänk
Datavetare
Skrivet av criscros:

Vad är egentligen skillnaden i program när den skall använda en jämfört mot fler kärnor?

För att ta ett fall jag tittat en hel del på: tänk dig att du får en ström av TCP-segment i väldigt hög fart till en system. En TCP/IP-stack kallas "stack" just för att den består av flera lager som i sig kan hanteras separat.

Ett TCP paket som når din dator via en Ethernet-port består av

| Ethernet header | IP-header | TCP-header | applikationsdata |

Så en variant att hantera en enskild ström av TCP-segment är att en CPU-kärna tar hand kom Ethernet protokollet, en tar hand om Internet protokollet, en tar hand om TCP-protokolet och en kör applikationen. Där har jag enkelt arbete för 4 CPU-kärnor i teorin! Rent logiskt fungerar en sådan design perfekt.

I praktiken skulle en sådan design presterar bedrövligt. Jag skulle antagligen belasta alla CPU-kärnor till nära 100%, så de kan inte utföra något annat, men majoriteten av tiden skulle CPU-kärnorna bara vänta på cache-missar som är omöjligt att undvika när man skickar data från en CPU-kärna till nästa. Så i praktiken går det fortare att hantera rubbet på en CPU-kärna. I.e. det går bara att använda en CPU-kärna på ett vettigt sätt här.

Om problemet i stället är att jag har 1000-tals oberoende TCP-strömmar + HW som sprider dessa strömmar till olika CPU-kärnor (en viss TCP-ström måste alltid hamna på samma CPU-kärna, high-end nätverkskort kan göra detta) så fungerar det ypperligt att använda många CPU-kärnor då man inte behöver kommunicera mellan CPU-kärnor för att hantera två oberoende strömmar.

På servers är det andra användarfallet väldigt vanligt, vilket är anledningen till att antalet CPU-kärnor ökar snabbt där (finns "vanliga" x86 servers med 80 CPU-kärnor och snart ökas det till 120 CPU-kärnor). På desktop är det långt vanligare att man har något som liknar det första exemplet...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Nu är jag ingen programmerare men ett exempel på när man kan använda flera kärnor är komprimering av video. Då kan man tänka sig att man tilldelar varje kärna (eller tråd som det heter) 10 sekunder råvideo vardera att jobba med. Säg till när du är klar säger huvudtråden som organiserar allting. Jag är klar säger en tråd här får du resultatet, jaha varsågod här har du 10 sekunder till att jobba med säger huvudtråden, säg till när du är klar. Allihopa jobbar på samtidigt och huvudtråden ser till att pussla ihop småbitarna de spottar ut till ett färdigt resultat. Ett annat extremt exempel på detta är folding@home där små deluppgifter slussas ut till olika datorer över internet och de skickar tillbaka sina delresultat som sätts ihop centralt. Här jobbar många parallellt för ett gemensamt mål. Men allting går inte att dela upp så enkelt.

Problemet är väl just hur man ska lyckas bryta isär uppgiften till flera saker som kan ske samtidigt på ett effektivt sätt. Om uppgift nummer två är beroende av resultatet från uppgift nummer 1 och därför inte kan påbörjas förrän första uppgiften är slutförd så hjälps det inte att ha flera kärnor för man får ändå vänta på att första ska bli färdig. Det kan tänkas att det går att fördela uppgifterna till en viss gräns men det blir mer komplicerat samspel som måste samordnas. Jag tror absolut man kan bli bättre på att klura ut multitrådade program och att det kräver uppfinningsrikedom för att lyckas på ett bra sätt men som sagt var det är inte alltid det går. Och själva fördelningen av uppgifter tar ju också kraft och om uppgifterna är små och enkla är det ofta inte värt besväret.

Medan jag skrev på detta inlägg ser jag att virtual_void gett ett bra svar. Men det känns trist att ha skrivit i onödan så jag skickar det väl ändå...

Permalänk
Medlem
Skrivet av Yoshman:

För att ta ett fall jag tittat en hel del på: tänk dig att du får en ström av TCP-segment i väldigt hög fart till en system. En TCP/IP-stack kallas "stack" just för att den består av flera lager som i sig kan hanteras separat.

Ett TCP paket som når din dator via en Ethernet-port består av

| Ethernet header | IP-header | TCP-header | applikationsdata |

Så en variant att hantera en enskild ström av TCP-segment är att en CPU-kärna tar hand kom Ethernet protokollet, en tar hand om Internet protokollet, en tar hand om TCP-protokolet och en kör applikationen. Där har jag enkelt arbete för 4 CPU-kärnor i teorin! Rent logiskt fungerar en sådan design perfekt.

I praktiken skulle en sådan design presterar bedrövligt. Jag skulle antagligen belasta alla CPU-kärnor till nära 100%, så de kan inte utföra något annat, men majoriteten av tiden skulle CPU-kärnorna bara vänta på cache-missar som är omöjligt att undvika när man skickar data från en CPU-kärna till nästa. Så i praktiken går det fortare att hantera rubbet på en CPU-kärna. I.e. det går bara att använda en CPU-kärna på ett vettigt sätt här.

Om problemet i stället är att jag har 1000-tals oberoende TCP-strömmar + HW som sprider dessa strömmar till olika CPU-kärnor (en viss TCP-ström måste alltid hamna på samma CPU-kärna, high-end nätverkskort kan göra detta) så fungerar det ypperligt att använda många CPU-kärnor då man inte behöver kommunicera mellan CPU-kärnor för att hantera två oberoende strömmar.

På servers är det andra användarfallet väldigt vanligt, vilket är anledningen till att antalet CPU-kärnor ökar snabbt där (finns "vanliga" x86 servers med 80 CPU-kärnor och snart ökas det till 120 CPU-kärnor). På desktop är det långt vanligare att man har något som liknar det första exemplet...

OKej jag tror jag börjar förstår lite nu då hah.. lite trög

Men iaf så som jag har förstått det så är grunden i en cpu typ att cache tar emot datan från nått håll och HW delar ut den till kärnorna? som sedan skickas ut igen?

Vad står HW för? Och hur hade det funkat om man hade haft typ 1000 svagare kärnor? om vi säger att antalet trådar hos en dator är maximalt 10miljoner

Och vi har en speciel enhet som är rätt snabb men väääldigt liten och vi sätter ihop 10miljoner sådana. Vad tror du om det rent teoretiskt? Låt oss fokusera på "prestandan" och inte om hur svårt det är att tillverka en sådan (vilket det säkert är)

mvh

Permalänk
Rekordmedlem

Men finns det nån sweetspot för antal kärnor för att täcka "normal" multitasking hemma?
Man har tillverkat mobilcpuer med olika starka kärnor, skulle man kunna göra nått liknande på desktop och dela upp fördelningen av kärnor på nått sätt så att man låser program som inte är beräkningsintensiva till nån klen kärna och lämnar muskelkärnorna till saker som behöver mer kraft ?

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem
Skrivet av mrqaffe:

Men finns det nån sweetspot för antal kärnor för att täcka "normal" multitasking hemma?
Man har tillverkat mobilcpuer med olika starka kärnor, skulle man kunna göra nått liknande på desktop och dela upp fördelningen av kärnor på nått sätt så att man låser program som inte är beräkningsintensiva till nån klen kärna och lämnar muskelkärnorna till saker som behöver mer kraft ?

I viss mån sker detta redan. De kärnor som inte används i processorn klockas ner till minimum strömförbrukning och växlar upp prestandan stegvis efter behov. En nedklockad kärna kan man se som en klenare kärna. Jag vet inte hur långt man drivit detta men jag tror att man till och med kan köra ner kärnor som inte används i något "sovtillstånd", sleep states har jag för mig man kallar det.

Normal multitasking måste vara helt beroende vad man gör hemma. Jag kör mycket videoredigering och normalt för mig är att försöka maxa alla kärnor hela tiden och ju fler kärnor desto bättre. Men för någon som bara surfar och betalar räkningar så räcker det med en liten klen kärna.

Permalänk
Datavetare
Skrivet av ronnylov:

Nu är jag ingen programmerare men ett exempel på när man kan använda flera kärnor är komprimering av video. Då kan man tänka sig att man tilldelar varje kärna (eller tråd som det heter) 10 sekunder råvideo vardera att jobba med. Säg till när du är klar säger huvudtråden som organiserar allting. Jag är klar säger en tråd här får du resultatet, jaha varsågod här har du 10 sekunder till att jobba med säger huvudtråden, säg till när du är klar. Allihopa jobbar på samtidigt och huvudtråden ser till att pussla ihop småbitarna de spottar ut till ett färdigt resultat. Ett annat extremt exempel på detta är folding@home där små deluppgifter slussas ut till olika datorer över internet och de skickar tillbaka sina delresultat som sätts ihop centralt. Här jobbar många parallellt för ett gemensamt mål. Men allting går inte att dela upp så enkelt.

Problemet är väl just hur man ska lyckas bryta isär uppgiften till flera saker som kan ske samtidigt på ett effektivt sätt. Om uppgift nummer två är beroende av resultatet från uppgift nummer 1 och därför inte kan påbörjas förrän första uppgiften är slutförd så hjälps det inte att ha flera kärnor för man får ändå vänta på att första ska bli färdig. Det kan tänkas att det går att fördela uppgifterna till en viss gräns men det blir mer komplicerat samspel som måste samordnas. Jag tror absolut man kan bli bättre på att klura ut multitrådade program och att det kräver uppfinningsrikedom för att lyckas på ett bra sätt men som sagt var det är inte alltid det går. Och själva fördelningen av uppgifter tar ju också kraft och om uppgifterna är små och enkla är det ofta inte värt besväret.

Medan jag skrev på detta inlägg ser jag att virtual_void gett ett bra svar. Men det känns trist att ha skrivit i onödan så jag skickar det väl ändå...

Dold text

Kodning av film är en av de saker som faktiskt går att sprida ut över många kärnor på ett bra sätt, vilket syns t.ex. i SweC tester av CPUer.

Har ganska dålig koll på hur man komprimerar film, men har fått för mig att man typiskt delar upp bilden i 16x16 pixel stora block och man använder sedan fourier-transform för att beskriva hur färgerna varierar genom detta block. Borde i så fall vara denna uppdelning i block som ger upphov till "macroblock" artefakter i väldigt hårt komprimerat material.

Man kan göra precis som du nämner eller så delar man upp jobbet så varje kärna får ett gäng 16x16 block att jobba på i samma "frame".

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Skuggan74:

Fast det är inte bara värmen det hänger på. Ju mindre kretsar desto mindre antal volt behövs det för att det ska börja hoppa elektroner mellan transistorerna. Så mer överklockningspotential blir det nog inte.

Skickades från m.sweclockers.com

Men det hänger ju ihop, effektförbrukningen är ju ungefär proportionell mot spänningen i kvadrat. Fast det handlar inte om elektroner som hoppar utan i takt med att transistorna blir mindre så tål de också mindre spänning.

Permalänk
Skrivet av criscros:

OKej jag tror jag börjar förstår lite nu då hah.. lite trög

Men iaf så som jag har förstått det så är grunden i en cpu typ att cache tar emot datan från nått håll och HW delar ut den till kärnorna? som sedan skickas ut igen?

Vad står HW för? Och hur hade det funkat om man hade haft typ 1000 svagare kärnor? om vi säger att antalet trådar hos en dator är maximalt 10miljoner

Och vi har en speciel enhet som är rätt snabb men väääldigt liten och vi sätter ihop 10miljoner sådana. Vad tror du om det rent teoretiskt? Låt oss fokusera på "prestandan" och inte om hur svårt det är att tillverka en sådan (vilket det säkert är)

mvh

Problemet är just att alla problem inte går att bryta ned i x antal delproblem som kan bearbetas samtidigt i ett stort antal kärnor samtidigt och sedan pusslas ihop utan något större tidsspill. Så fort någon beräkning tar längre tid än de andra måste man ju vänta in den beräkningen innan allt pusslas ihop. Om sedan ett antal av beräkningarna som delas ut är beroende av resultatet från någon/några av de andra beräkningarna så får vi ju ett vänteläge igen där man får vänta på att beräkningar är utförda innan resterande beräkninga kan utföras och sedan kan resultatet pusslas ihop. Visserligen kan man lagra delresultaten och låta kärnorna som är klara utföra andra beräkningar, men alla beräkningar tar ju inte lika lång tid, så vi kan hamna i vänteläge igen osv. Dessutom måste ju någon process hålla reda på i vilken ordning alla pusselbitar skall pusslas ihop för att resultatet skall bli rätt, vilket tar resurser.

En grafikgpu är uppbyggd i många små specialiserade kärnor för att uppgifterna den skall utföra går väldigt bra att dela upp i många små deluppgifter som är relativt oberoende av varandra, men en CPU får tackla väldigt många olika uppgifter, varav många inte enkelt (eller inte allls) går att dela upp i av varandra oberoende delproblem. Därför är inte uppbyggnaden med en stor mängd små klena kärnor särskilt effektiv för desktopuppgifter.

Detta har sagts förut, men jag tänkte försöka förenkla det hela lite till (vette sjutton om jag lyckades ).

Angående HW antar jag att det är Hardware=Hårdvara som avses (kanske en dedikerad krets för uppgiften).

Visa signatur

~Pelle~

Permalänk
Medlem
Skrivet av Yoshman:

Kodning av film är en av de saker som faktiskt går att sprida ut över många kärnor på ett bra sätt, vilket syns t.ex. i SweC tester av CPUer.

Har ganska dålig koll på hur man komprimerar film, men har fått för mig att man typiskt delar upp bilden i 16x16 pixel stora block och man använder sedan fourier-transform för att beskriva hur färgerna varierar genom detta block. Borde i så fall vara denna uppdelning i block som ger upphov till "macroblock" artefakter i väldigt hårt komprimerat material.

Man kan göra precis som du nämner eller så delar man upp jobbet så varje kärna får ett gäng 16x16 block att jobba på i samma "frame".

Ja du har rätt i uppdelningen av block och att detta kan ge blockartifakter och du har rätt i att även enskilda bilder kan multitrådas genom att dela upp dem i flera områden som hanteras samtidigt. Detta med uppdelning i block används även på stillbilder med JPEG-kompression. Modernare codecs som h.264 har tricks för att filtrera bort dessa blockstörningar och det syns att allting bara blir suddigare och suddigare ju hårdare man komprimerar (blockstörningarna filtreras bort automatiskt vid uppspelning med återkoppling till kompressionsgraden). Dessutom räknar man ut rörelsevektorer för hur innehållet i bilden förflyttas, differenser jämfört med föregående och nästa bild och mycket mera. Ja det är verkligen tacksamt att multitråda videobearbetning.

Men är det inte förvånansvärt dåligt med multitrådning i fotoredigeringsprogrammen? Exempelvis Adobe Ligthroom, det är väl huvudsakligen singeltrådat? Borde man inte kunna behandla flera bilder parallellt och delar av bildernas innehåll parallellt på ett bättre sätt än vad som görs? Bytte från 2-kärnig till 6-kärnig processor i min sambos dator. Hon kör mest fotoprogram men det märks inte stor förbättring i prestandan. Där tror jag programmerarna skulle kunna göra bättre ifrån sig.

Permalänk
Medlem

Jag tror jag tänker köpa nytt när broadwell kommer ut.

Permalänk
Medlem

Mmm, laptops som inte grillar ens ädlare delar när man sitter med den i knät, och slippa den där oron för att man ska råka blockera fläkten när man har den på något mjukt underlag. Ja, och så är det batteritiden. Låter som en rätt bra deal tycker jag.

Visa signatur

Nu lurade jag dig att slösa bort ett par värdefulla sekunder av ditt liv på att läsa denna fullständigt poänglösa signatur!

Permalänk
Medlem

Imponerande att de lyckats få rätt på 14nm redan. För två år sedan hade industrin knappt koll på hur det överhuvudtaget skulle gå till att tillverka i 14nm.

Permalänk
Skrivet av heatm:

Att Windows känns slött är oftast för att man har seg hårddisk, inte seg processor. Processorn har idag nästan ingenting med hur snabbt program startar. Ofta ett missförstånd det där vilket är anledningen till att tillverkarna gärna skryter med GHz på processorn och sedan skriver 1 Tb hårddisk utan att specificera någonting mer. När jag plockar ihop datorer åt "vanligt folk" idag så kräver jag av dom att dom köper en SSD till den. Det är ingen hittills som inte tackat mig efteråt.

Sant. Tycker att Microsoft borde blivit bättre på att nyttja RAM-minnet när man numera har hiskeliga mängder sådant, istället för det extrema swappandet till hdd som dom alltid verkar eftersträva (Pagefile&co).
Jag har varit kåt på SSDerna ända sedan min första Netbook i mitten på år 2008.
Kändes ganska sjukt faktiskt på den tiden, att jag i vissa sysslor med min Netbook (med SSD) hade bättre respons/uppstartstid än kompisarnas svindyra Core2Quad system som tyvärr bara var utrustade med HDD's.

Anyway.. Jag hoppas intel håller vad dom tidigare sagt om GPUn i broadwell och alltså boostar den prestandan med minst 40%:
http://semiaccurate.com/2012/11/29/intels-broadwell-cpu-more-...

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Medlem
Skrivet av aliassund:

Imponerande att de lyckats få rätt på 14nm redan. För två år sedan hade industrin knappt koll på hur det överhuvudtaget skulle gå till att tillverka i 14nm.

Håller med - att de redan har fungerade laptops med 14nm är g-r-y-m-t imponerande. Folk i allmänhet förstår inte vilken spetsteknologi de köper när de går och handlar en laptop. 14nm cpu är garanterat bland det mest komplicerade som människan någonsin byggt.

Och som andra sagt - ryktet säger att 14nm broadwell inte kommer lanseras till desktop nästa år utan att 14nm kommer till laptops och att desktop får en haswell refresh istället. Samt då också Haswell-E får vi hoppas.

Permalänk
Medlem
Skrivet av CFSsss:

Håller med - att de redan har fungerade laptops med 14nm är g-r-y-m-t imponerande. Folk i allmänhet förstår inte vilken spetsteknologi de köper när de går och handlar en laptop. 14nm cpu är garanterat bland det mest komplicerade som människan någonsin byggt.

Och som andra sagt - ryktet säger att 14nm broadwell inte kommer lanseras till desktop nästa år utan att 14nm kommer till laptops och att desktop får en haswell refresh istället. Samt då också Haswell-E får vi hoppas.

Ja, det finns ju ingen större drivkraft att sänka effektförbrukningen i desktops, dess mervärde har ju hittills varit att erbjuda bättre prestanda. Synd då att det nu blivit så svårt att öka prestandan ytterligare.

Skickades från m.sweclockers.com

Permalänk
Medlem

Om jag inte missförstått kommer Broadwell vara intels första SoC. Det är väl inte deras första SoC om man räknar processorer för mobila lösningar, men kanske blir desktop processorerna det. Jag har inte koll på vad som integreras i Broadwell, men jag har läst att det är "intels första soc" och med tanke på hur mycket som är inbyggt i haswell så skulle jag inte vara förvånad.

Visa signatur

No man is free who is not master of himself